Google criticado por construir IA que podría ser ‘peligrosa para los humanos’ en medio de llamadas para el Proyecto ABANDONAR


GOOGLE ha recibido críticas por desarrollar un programa de inteligencia artificial que podría ser peligroso para los humanos si se aplica a gran escala.

Un conjunto de datos de Google para el entrenamiento de IA se ha cargado con datos incorrectos y sin corregir y el potencial de daño es claro, según los informes.

Google gastó $ 4 mil millones para adquirir nuevas empresas de inteligencia artificial

1

Google gastó $ 4 mil millones para adquirir nuevas empresas de inteligencia artificialCrédito: Getty Images-Getty

El conjunto de datos GoEmotions de Google utilizó 58.000 comentarios de Reddit para preparar un programa de inteligencia artificial para evaluar las emociones humanas.

El programa pidió a personas de habla inglesa que etiquetaran cada comentario de Reddit con una etiqueta de una o más de las 27 categorías de emociones.

Las emociones están destinadas a ejecutar la escala completa de la sensibilidad humana, desde la admiración hasta la emoción, el disgusto y más allá: la etiqueta número 28 era «neutral».

Las aplicaciones para la tecnología de etiquetado de datos van desde la moderación de contenido hasta las revisiones de currículums y más: cualquier cosa que requiera un análisis a gran escala de texto generado por humanos podría beneficiarse del análisis emocional impulsado por la IA.

Los científicos han construido un robot 'consciente de sí mismo' a medida que crece la preocupación por la sensibilidad de la IA
el miedo a

Si tan solo pudiera configurarse para tener éxito.

SurgeAI revisó el trabajo y descubrió que los etiquetadores humanos de Google identificaron erróneamente alrededor del 30 % de los comentarios de una muestra de 1000.

La dura condena del trabajo de Google puso en tela de juicio dos aspectos clave de la metodología: el contexto y la complejidad del inglés para hablantes no estadounidenses.

Los etiquetadores humanos de Google no recibieron «metadatos adicionales» sobre cada comentario de Reddit, pero el significado de una publicación cambia completamente según el hilo en el que se publique.

SurgeAI da un ejemplo de una falla causada por falta de contexto:

«‘REALMENTE NECESITAMOS tener una sentencia de prisión basada en la raza de una persona‘ significa una cosa en un subreddit sobre la ley y algo completamente diferente en un subreddit sobre la construcción de un mundo de fantasía».

Además, los etiquetadores de Google eran de hecho de habla inglesa, pero de la India, no de los Estados Unidos.

Casi la mitad del tráfico web en Reddit proviene de usuarios de EE. UU.: el sitio está muy americanizado con jerga y referencias culturales que pueden ser difíciles de entender y etiquetar con precisión para un hablante extranjero de inglés.

SurgeAI obliga a los lectores a imaginar lo difícil que sería explicar el comentario común de Reddit «el hombre naranja malo» a un no estadounidense sin conocimiento de la política estadounidense.

En última instancia, el conjunto de datos simplemente se llena con datos incorrectos y daría como resultado un programa incorrecto, afirma TheNextWeb.

«Este conjunto de datos en particular está diseñado específicamente para la toma de decisiones sobre resultados humanos», escribe Tristan Greene para el sitio.

“Cada vez que la IA toma una decisión que recompensa o castiga a un humano, causa un daño demostrable a otros humanos”.

La mamá de Zach Wilson va al gimnasio y critica que está disfrutando el
Una súplica desgarradora del hijo de una madre, de 12 años, que 'quiere su hogar' después de que ella desaparece

El conjunto de datos GoEmotions de Google es tan intrínsecamente defectuoso que Greene está pidiendo que se elimine y comience de nuevo.

De todos los principales actores tecnológicos que compiten en Silicon Valley, Google es el que más ha invertido en IA, con casi 4.000 millones de dólares gastados en la adquisición de nuevas empresas basadas en IA.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *