in

A los etiquetadores de datos de Kenia se les pagó R34 por hora para etiquetar contenido horrible para el creador de ChatGPT OpenAI

A los etiquetadores de datos de Kenia se les pagó R34 por hora para etiquetar contenido horrible para el creador de ChatGPT OpenAI

ChatGPT, un bot de chat de IA, está entrenado con datos que han sido revisados ​​por trabajadores subcontratados para detectar contenido problemático. (Imágenes falsas)

  • Una empresa cortó lazos con OpenAI por preocupaciones sobre trabajar con contenido potencialmente ilegal para fines de capacitación en IA, informa Time.
  • Según los informes, a los trabajadores de Kenia se les pagó hasta R34 por hora para etiquetar el contenido explícito utilizado para capacitar a ChatGPT.
  • Los empleados le dijeron a Time que estuvieron expuestos a descripciones de bestialidad y fan-fiction sobre violaciones.
  • Para más historias, vaya a www.BusinessInsider.co.za.

Durante poco más de un año, la firma de inteligencia artificial Sama, con sede en San Francisco, trabajó con OpenAI, la compañía detrás de ChatGPT de inteligencia artificial conversacional, para identificar y etiquetar imágenes y texto confidenciales, datos que luego se usan para entrenar a ChatGPT para que pueda escupir impresionantes respuestas libres de toxicidad, Tiempo reportado en una investigación.

Pero en febrero de 2022, Sama finalizó su asociación con OpenAI después de descubrir que OpenAI supuestamente solicitó y recibió 14000 imágenes de contenido potencialmente ilegal que incluía abuso sexual infantil, bestialidad, violación y otras formas de violencia para un entrenamiento de IA. proyecto no relacionado con ChatGPT, según documentos internos revisados ​​por Time.

OpenAI confirmó que usó trabajadores de Kenia para ayudar a construir una herramienta que etiqueta contenido problemático, según un comunicado a Time.

Esencialmente, para entrenar a la IA para que reconozca y elimine contenido horrible, se requería una base de datos etiquetada de contenido horrible, y eso es parte de lo que se les encargó a los contratistas de Sama.

Según los contratos de Sama, los etiquetadores de datos se subcontrataron en Kenia y se les asignó la tarea de etiquetar texto en sus respectivos equipos como abuso sexual, discurso de odio y violencia, según documentos internos que Time obtuvo. Dependiendo de su antigüedad y niveles de productividad, a los empleados se les pagaba entre $ 1.32 y $ 2 (R22 a R34) por hora para explorar tesoros de contenido gráfico, según cuatro empleados de Sama que hablaron con Time bajo el anonimato.

OpenAI y Sama no respondieron a la solicitud de comentarios de Insider antes de la publicación.

“Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino”, dijo OpenAI en un comunicado de Time. «Clasificación y filtrado nocivos [text and images] es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino».

Aún así, la naturaleza del trabajo ha causado una gran angustia a algunos etiquetadores de datos, según el informe. Un empleado llamó a su trabajo «tortura» después de que se le asignó leer un extracto sobre un hombre que participa en un acto sexual con un perro con un niño presente, una experiencia tan traumática que le dio visiones recurrentes, le dijo a Time.

En raras ocasiones, algunos etiquetadores de datos dijeron que no recibieron pautas claras sobre cómo categorizar el contenido que revisan, informa Time. Según los informes, a uno se le encargó leer una historia obscena en la que el compañero de Batman, Robin, es violado, y no estaba seguro de etiquetarlo como violencia sexual porque Robin terminó correspondiendo a actos sexuales.

Sama le dijo a Time que brinda programas de bienestar y asesoramiento de salud mental uno a uno para que los empleados se desestresen.

Los trabajadores subcontratados se han quejado durante mucho tiempo del costo mental de eliminar los sistemas tecnológicos de contenido tóxico.

Los hallazgos de la investigación de Time surgen cuando muchas empresas que han adaptado la tecnología de inteligencia artificial para mejorar sus servicios y procesos comerciales continúan subcontratando empleados de bajo salario en el trabajo de moderación de contenido desde fuera de los EE. UU., y algunos contratistas informan impactos negativos en su salud física o mental.

Empresas como Amazon, por ejemplo, han contratado revisores de videos en India y Costa Rica para ver miles de videos, lo que ha resultado en dolencias físicas como dolores de cabeza y de ojos, informó The Verge. En 2019, después de que algunos contratistas de Facebook dijeran que sufrían TEPT por el trabajo de moderación, el director ejecutivo Mark Zuckerberg llamó a los informes de las quejas. «un poco demasiado dramático».

Casi un año después de las consecuencias de OpenAI, Sama, que también ha ofrecido servicios de etiquetado de datos a Google y Microsoft, le dijo a Time que pondrá fin a todo el trabajo relacionado con contenido gráfico para marzo de 2023, incluido un contrato de $ 3.9 millones con Facebook.

«Después de numerosas discusiones con nuestro equipo global, Sama tomó la decisión estratégica de abandonar todo[elprocesamientodelenguajenaturalyeltrabajodemoderacióndecontenidoparacentrarseenlassolucionesdeanotacióndedatosdevisiónporcomputadora»dijoSamaensucomunicado[naturallanguageprocessingandcontentmoderationworktofocusoncomputervisiondataannotationsolutions»Samasaidinitsstatement

Fuente

Written by Redacción NM

Tom Grennan 'aplastado' por muerte de joven fan

Tom Grennan ‘aplastado’ por muerte de joven fan

Un estudio ha descubierto que mirar fotos de tu pareja durante solo unos segundos puede aumentar los sentimientos de enamoramiento, apego y satisfacción marital (imagen de archivo)

Los científicos revelan la tarea sorprendentemente simple que podría reavivar la chispa en su relación