Buscar
Cerrar este cuadro de búsqueda.

Inteligencia Artificial (IA): Tecnología de Trabajo AI Tasker

 

A medida que la tecnología se vuelve omnipresente, está surgiendo una vasta subclase de taskers.

 

El trabajo como anotador, el tedioso trabajo de procesar la información sin procesar utilizada para entrenar la Inteligencia Artificial.

 

La IA aprende al encontrar patrones en enormes cantidades de datos, pero primero esos datos deben ser clasificados y etiquetados por personas, una gran fuerza de trabajo en su mayoría escondida detrás de las máquinas.

 

Por ejemplo, etiquetando imágenes para vehículos sin conductor, identificando cada vehículo, peatón, ciclista, cualquier cosa que un conductor deba tener en cuenta, cuadro por cuadro y desde todos los ángulos de cámara posibles.

 

Es un trabajo difícil y repetitivo, se necesitan ocho horas para anotar un fragmento de varios segundos de metraje.

 

 

Para este trabajo, puede que se clasifique la ropa que ven en los selfies en el espejo, que miren a través de los ojos de las aspiradoras robotizadas para determinar en qué habitaciones se encuentran y que dibujen cuadrados alrededor de los escáneres lidiar de las motocicletas.

 

 

Entonces, qué hay de categorizar si los fragmentos de diálogo distorsionado fueron pronunciados por un robot o un humano.

 

Subir fotos de ti mismo mirando a una cámara web con una expresión en blanco, luego con una sonrisa y luego usando un casco de motocicleta.

 

Cada proyecto es un componente tan pequeño de un proceso más grande que es difícil decir para qué se entrena realmente a la IA.

 

Los nombres de los proyectos, suelen ser en clave y tampoco ofrecen pistas.

 

 

La empresa que los empleaba, la mayoría solo la conocía como Remotasks, un sitio web que ofrece trabajo a cualquier persona que hable inglés con fluidez.

 

Remotasks es la subsidiaria orientada a los trabajadores de una empresa llamada Scale AI, un proveedor de datos multimillonario de Silicon Valley que cuenta con OpenAI y el ejército de EE. UU. entre sus clientes.

 

Gran parte de la respuesta pública a los modelos de lenguaje como ChatGPT de OpenAI se ha centrado en todos los trabajos que parecen estar preparados para automatizar.

 

Aunque detrás del sistema de IA más impresionante hay personas, que etiquetan los datos para entrenarlos y aclaran los datos cuando se confunden.

 

Solo las empresas que pueden permitirse comprar estos datos pueden competir y las que los obtienen están muy motivadas para mantenerlos en secreto.

 

Se sabe poco sobre la información que da forma al comportamiento de estos sistemas y aún menos sobre las personas que dan forma.

 

Para estos trabajadores las «tareas» son taskers.

 

David Graeber, antropólogo, define los “trabajos” como empleos sin significado ni propósito, trabajos que deberían ser automatizados pero por razones de burocracia, estatus o inercia no lo son.

 

Estos trabajos de IA son el trabajo que la gente quiere automatizar y piensa que ya está automatizado, pero aún requiere un suplente humano.

 

Los trabajos tienen un propósito que los trabajadores no tienen idea de lo que es.

 

El auge actual de la IA, los chatbots que parecen convincentemente humanos, el arte que se puede generar a partir de indicaciones simples y las valoraciones multimillonarias de las empresas detrás de estas tecnología, comenzaron como una hazaña de trabajo tedioso y repetitivo.

 

 

En 2007, el investigador de Inteligencia Artificial Fei-Fei Li, profesor en Princeton, sospechó que la clave para mejorar las redes neuronales de reconocimiento de imágenes, un método de aprendizaje automático, era entrenar con más datos.

 

Millones de imágenes etiquetadas, en lugar de decenas de miles.

 

El problema era que su equipo necesitaría décadas y millones de dólares para etiquetar tantas fotos.

 

A través de Mechanical Turk, la plataforma de crowdsourcing de Amazon donde personas de todo el mundo completan pequeñas tareas a bajo costo.

 

El conjunto de datos anotado resultante, llamado ImageNet, permitió avances en el aprendizaje automático que revitalizaron el campo y marcaron el comienzo de una década de progreso.

 

 

La anotación sigue siendo una parte fundamental de la creación de IA, pero a menudo los ingenieros tienen la sensación de que es un requisito previo pasajero e inconveniente para el trabajo de construir modelos, pero la anotación nunca está realmente terminada.

 

Los sistemas de aprendizaje automático son lo que los investigadores llaman «frágiles», propensos a fallar cuando encuentran algo que no está bien representado en sus datos de entrenamiento.

 

Estos fallos, denominados “casos extremos”, pueden tener graves consecuencias.

 

En 2018, un vehículo de prueba autónomo de Uber mató a una mujer porque, aunque estaba programado para evitar a ciclistas y peatones, no sabía qué hacer con alguien cruzando la calle caminando en bicicleta.

 

Cuantos más sistemas de Inteligencia Artificial se pongan en el mundo para brindar asesoramiento legal y ayuda médica, más casos extremos se encontrarán y se necesitarán más humanos para resolverlos.

 

Esto ya ha dado lugar a una industria global con personal, que utilizan sus facultades humanas únicas para ayudar a las máquinas.

 

El trabajo de los anotadores se centra principalmente en el entrenamiento de última generación y en trabajos manuales requeridos para mantener la IA en funcionamiento.

 

Clasificando el contenido emocional de los videos de TikTok, las nuevas variantes del correo no deseado y la provocación sexual explícita de los anuncios online.

 

 

También las transacciones de tarjetas de crédito y con qué tipo de compra se relacionan o revisan las recomendaciones de comercio electrónico.

 

Los humanos están corrigiendo los chatbots de servicio al cliente, escuchando las solicitudes de Alexa y categorizando las emociones de las personas en las videollamadas.

 

Están etiquetando los alimentos para que los refrigeradores inteligentes no se confundan con los nuevos empaques, revisando las cámaras de seguridad automáticas antes de que suenen las alarmas.

 

La inteligencia humana es la base de la Inteligencia Artificial.

 

 

Los proveedores de datos detrás de nombres como OpenAI, Google y Microsoft vienen en diferentes formas.

 

Empresas de centros de llamadas, sitios de “trabajo colectivo”, donde cualquiera puede registrarse para realizar tareas.

 

Servicios como Scale AI, donde cualquiera puede inscribirse, pero deben aprobar exámenes de calificación, cursos de capacitación y someterse a un seguimiento del desempeño.

 

Esta cadena de suministro es difícil de mapear, las empresas que compran los datos exigen confidencialidad.

 

La anotación revela demasiado sobre los sistemas que se están desarrollando y la gran cantidad de trabajadores necesarios hace que las fugas sean difíciles de prevenir.

 

A los anotadores se les advierte repetidamente que no le cuenten a nadie sobre sus trabajos, ni siquiera a sus amigos y compañeros de trabajo, pero los alias corporativos.

Los nombres en clave de los proyectos y la división extrema del trabajo aseguran que no tengan suficiente información sobre ellos para hablar.

 

No hay estimaciones de la cantidad de personas que trabajan en la anotación.

 

Un sistema de IA podría ser capaz de detectar el cáncer, pero solo en cierto tipo de imágenes de cierto tipo de máquina.

 

Se necesitará un humano para verificar que la IA esté recibiendo el tipo correcto de datos y tal vez otro humano que verifique su trabajo antes de pasarlo a otra IA que escribe un informe, que va a otro humano, y así sucesivamente.

 

La IA no reemplaza el trabajo, pero sí cambia la forma en que se organiza el trabajo.

 

 

Es una técnica de autoaprendizaje, llamada «aprendizaje de refuerzo a partir de la retroalimentación humana» o RLHF.

 

¿Qué es Reinforcement Learning from Human Feedback (RLHF)?

 

En el aprendizaje automático, el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) o el aprendizaje por refuerzo a partir de las preferencias humanas es una técnica que entrena un «modelo de recompensa».

 

Directamente a partir de la retroalimentación humana y utiliza el modelo como una función de recompensa para optimizar la política de un agente mediante el aprendizaje por refuerzo (RL).

 

A través de un algoritmo de optimización como Proximal Policy Optimization.

 

El modelo de recompensa se entrena con anticipación a la política que se optimiza para predecir si un resultado determinado es bueno (recompensa alta) o malo (recompensa baja).

 

RLHF puede mejorar la solidez y la exploración de los agentes de RL, especialmente cuando la función de recompensa es escasa o ruidosa. 

 

 

Cuando los anotadores le enseñan a un modelo a ser preciso, el modelo no está aprendiendo a comparar las respuestas con la lógica, las fuentes externas o acerca de qué es la precisión como concepto.

 

El modelo sigue siendo una máquina de predicción de texto que imita patrones en la escritura humana, pero ahora su corpus de entrenamiento se ha complementado con ejemplos personalizados y el modelo se ha ponderado para favorecerlos.

 

Tal vez esto resulte en que el modelo extraiga patrones de la parte de su mapa lingüístico etiquetado como preciso y produzca un texto que se alinee con la verdad, pero también puede resultar en que imite el estilo seguro y la jerga experta del texto preciso al escribir cosas, que están totalmente equivocados.

 

No hay garantía de que el texto que los etiquetadores marcaron como exacto sea de hecho exacto, y cuando lo es, no hay garantía de que el modelo aprenda los patrones correctos de él.

 

 

Esta dinámica hace que la anotación sea un proceso delicado.

 

Tiene que ser riguroso y consistente porque la retroalimentación descuidada, como marcar material que simplemente suena correcto como exacto, corre el riesgo de entrenar a los modelos para que sean aún más convincentes.

 

Uno de los primeros proyectos conjuntos de OpenAI y DeepMind que usaba RLHF, en este caso fue entrenar una mano robótica virtual para agarrar un objeto.

 

Clasificar las respuestas de un modelo de lenguaje siempre será algo subjetivo porque es lenguaje.

 

Un texto de cualquier extensión tendrá múltiples elementos que podrían ser correctos, incorrectos o engañosos.

 

Para que sean datos de entrenamiento útiles, las respuestas del modelo deben clasificarse de forma cuantificable entre sí.

 

OpenAI, Microsoft, Meta y Anthropic no comentaron cuántas personas contribuyen con anotaciones a sus modelos, cuánto les pagan o en qué lugar del mundo se encuentran.

 

Los clientes de Surge incluyen OpenAI, Google, Microsoft, Meta y Anthropic.

 

El camino a seguir implicará que los sistemas de IA ayuden a los humanos a supervisar otra IA.

 

 

 

Artículo escrito por Josh Dzieza, editor de investigaciones que cubre tecnología, negocios y cambio climático para The Verge.

Premio Loeb por escribir largometrajes, entre otros.

 

Referencias;

(Traducción artículo original) theverge.com/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots

nymag.com/ai-artificial-intelligence-humans-technology-business-factory.html   

 

Imagen;

Bing.com

Macrovector > en Freepik > freepik.es