Los trabajadores tuvieron que leer textos traumáticos para domesticar a ChatGPT

Chatbot con inteligencia artificial «ChatGPT» genera textos difíciles de distinguir de los humanos. Además de la inteligencia artificial, esto requiere innumerables datos de entrenamiento. Pero vienen de Kenia, entre otros lugares. Los trabajadores mal pagados aparentemente tuvieron que leer textos traumáticos allí para optimizar la IA.

ChatGPT actualmente está causando sensación. Porque la inteligencia artificial produce textos sorprendentes y resultados difíciles de distinguir de los humanos. Pero esto requiere no solo algoritmos, sino también innumerables datos de entrenamiento.

El problema con los modelos de IA anteriores es que no pueden clasificar o evitar los prejuicios, la desinformación, el odio y la agitación en línea. Pero para que ChatGPT tenga éxito, el desarrollador de OpenAI se basa principalmente en el aporte humano para entrenar la IA.

ChatGPT: Negocios sucios con trabajadores baratos de Kenia

Pero por loable que pueda sonar a primera vista, la realidad parece aún menos loable. Según la revista Time, OpenAI contrató a la empresa de datos Sama, también con sede en San Francisco, para proporcionar datos de capacitación a ChatGPT.

Sin embargo, los empleados de Sama provienen principalmente de países como Kenia, Uganda e India. El punto conflictivo: desde noviembre de 2022, la empresa ha contratado a unas tres docenas de trabajadores con salarios bajos de Kenia en nombre de OpenAI. Se les pagaba entre $1,32 y $1,5 la hora, dependiendo de la antigüedad y la productividad.

ChatGPT: el empleado Sama describe el contenido como «tortura»

Eso es aproximadamente la misma edad que una recepcionista en un hotel en la capital de Kenia, Nairobi, según el Times. Sin embargo, OpenAI aparentemente cobró por los servicios de Sama a una tarifa por hora negociada por contrato de $12.50, nueve veces esa cantidad.

Mientras tanto, un vocero de Sama justificó la gran diferencia diciendo que la empresa debió cubrir todos los costos por ella. Poco confiable: Sin embargo, los trabajadores tuvieron que lidiar con textos y contenidos que a veces eran traumáticos. Entre ellos: asesinato, crueldad con los animales y abuso sexual (incluso contra niños).

Un empleado de Sama incluso describió el contenido de la revista Times como una tortura. Según el informe, la visualización de algunos contenidos también está prohibida por la ley estadounidense. Las condiciones de trabajo en Kenia también son malas y no alcanzan el salario mínimo en los EE. UU., a pesar de que OpenAI y Sama están ubicados en Silicon Valley.

LinkedIn-Guía de forma gratuita!

Suscríbase ahora a nuestro boletín semanal compacto de BT. Como agradecimiento, te damos nuestra guía de LinkedIn.

A OpenAI no le importa: Sama termina la cooperación prematuramente

OpenAI aún tiene que negar las acusaciones. En contraste, la compañía habría dicho en un comunicado que tales datos de capacitación son necesarios:

Clasificar y filtrar el contenido dañino es un paso necesario para minimizar el contenido violento y sexual en los datos de entrenamiento y desarrollar herramientas que puedan detectarlo.

Mientras tanto, Sama rescindió su contrato con OpenAI antes de tiempo, unos ocho meses antes de que expirara. Por su parte, la compañía anunció que revisó su política y abandona el negocio de la moderación de contenidos.

También interesante:

Deja un comentario