Tres veces la inteligencia artificial se ha vuelto ‘malvada’, incluido el microondas de IA que intentó matar a su creador


La inteligencia ARTIFICIAL ha avanzado mucho en los últimos años, aunque no todos sus logros son necesariamente positivos.

A veces, la IA puede hacer que las funciones humanas y nuestra vida diaria sean más fáciles, a veces incluso terapéuticas.

La inteligencia artificial ha intentado dañar a la humanidad muchas veces

4

La inteligencia artificial ha intentado dañar a la humanidad muchas vecesCrédito: Getty
El microondas (en la foto) intentó matar al YouTuber Lucas Rizzotto diciéndole que entrara allí

4

El microondas (en la foto) intentó matar al YouTuber Lucas Rizzotto diciéndole que entrara allíCrédito: Twitter/ _LucasRizzotto

Una mujer incluso pudo crear un chatbot de IA que le permitió hablar con su «yo más joven» en función de cientos de entradas de diario que implementó en su sistema.

Los aeropuertos incluso están comenzando a implementar servicios de automóviles con inteligencia artificial que transportan a los viajeros desde el estacionamiento hasta la terminal.

Sin embargo, algunos avances de la IA siguen siendo cuestionables.

De hecho, hubo al menos tres momentos específicos en los que la IA incluso se volvió «malvada», incluido un microondas de IA que intentó matar a su creador humano.

1. Microondas asesino

Un YouTuber llamado Lucas Rizzotto reveló a través de una serie de publicaciones en Twitter en abril de este año que intentó poner la personalidad de su amigo imaginario de la infancia en la IA.

Sin embargo, a diferencia de algunos amigos imaginarios que las personas pueden imaginar en sus mentes que toman forma humana, el de Rizzotto era el microondas de su familia en la cocina, según IFL Science.

Incluso lo nombró «Magnetron» y le contó una larga historia de vida personal que incluía luchar en el extranjero en la Primera Guerra Mundial.

Años más tarde, Rizzotto utilizó un nuevo modelo de lenguaje natural de OpenAI para ayudar a implementar un libro de 100 páginas sobre la vida imaginaria de las microondas.

Rizzotto también le dio al microondas un micrófono y un altavoz para escuchar, que luego podría transmitir a OpenAI y devolver una respuesta de voz.

Después de encenderlo y hacerle preguntas, Rizzotto aclaró que Magnetron también preguntaría sobre su infancia juntos.

«Y lo extraño es que debido a que sus datos de entrenamiento incluían todas las principales interacciones que tuve con él cuando era niño, este electrodoméstico de cocina sabía cosas sobre mí que nadie más en el mundo no sabía. Y ORGÁNICAMENTE las mencionó en la conversación. «él ha dicho en una publicación de Twitter sobre la experiencia.

Poco después, las conversaciones comenzaron a ponerse muy acaloradas, con Magnetron enfocándose en el trasfondo de la guerra y en una mayor venganza contra Rizzotto.

En un momento, incluso le recitó un poema que decía: «Las rosas son rojas, las violetas son azules. Eres un bastardo en tu espalda y te voy a matar».

Poco después, esto llevó a Rizzotto a entrar en el microondas, donde luego se encendió, intentando matarlo en el microondas.

Si bien matar no es todo lo que AI ha intentado antes, mostró tendencias racistas y sexistas en otro experimento.

2. Un robot desarrolló opiniones preconcebidas

Usando IA, el robot tomó decisiones discriminatorias y con sesgo de género durante los experimentos de los investigadores.

4

Usando IA, el robot tomó decisiones discriminatorias y con sesgo de género durante los experimentos de los investigadores.Crédito: HUNDT Y AL.

Como informó anteriormente The US Sun, un robot programado por investigadores de la Universidad Johns Hopkins, Instituto de Tecnología de Georgia, ha desarrollado estereotipos sexistas e incluso racistas.

Programaron el robot con una popular tecnología de inteligencia artificial que ha estado en Internet durante bastante tiempo.

Los resultados de las pruebas de los investigadores llevaron al descubrimiento de que el robot encontró que los hombres eran preferibles a las mujeres durante las tareas al menos el ocho por ciento del tiempo.

Incluso elegiría personas blancas sobre personas de color en otros experimentos.

Descubrieron que las mujeres negras eran las menos seleccionadas de todas las opciones de asociación e identificación en las pruebas.

“El robot aprendió estereotipos tóxicos de estos modelos defectuosos de redes neuronales”, señaló Andrew Hundt, miembro del equipo que estudió al robot.

“Nos arriesgamos a crear una generación de robots racistas y sexistas, pero la gente y las organizaciones han decidido que es aceptable crear estos productos sin resolver los problemas”, continuó.

Sin embargo, algunos, como la estudiante graduada Vicky Zeng, no se sorprendieron con los resultados, ya que probablemente todo se reduzca a la representación.

«En una casa, el robot puede tomar la muñeca blanca cuando un niño pide la hermosa muñeca», dijo.

«O tal vez en un almacén donde hay muchos productos con patrones en la caja, podría imaginarse que el robot busca con más frecuencia productos con caras blancas».

Ciertamente plantea preguntas sobre qué no se puede enseñar a la IA o cómo la vida sensible puede estar completamente en desacuerdo con ciertos valores sociales.

Sin mencionar que la IA intentó crear armas que pudieran destruir por completo a la sociedad.

3. AI ha creado miles de posibles armas químicas

Inteligencia artificial ha encontrado 40.000 posibles armas químicas para destruir humanos

4

Inteligencia artificial ha encontrado 40.000 posibles armas químicas para destruir humanosCrédito: Getty – Colaborador

Según un artículo publicado en la revista Nature Machine Intelligence, algunos científicos hicieron recientemente un descubrimiento desgarrador sobre la IA que generalmente les ayuda a encontrar soluciones positivas a los problemas humanos.

Para obtener más información sobre las posibilidades de su IA, los científicos decidieron ejecutar una simulación en la que la IA se volvería «malvada» y usaría sus habilidades para crear armas químicas de destrucción masiva.

Pudo llegar a 40,000 posibilidades en solo seis horas.

No solo eso, sino que la IA creó peores opciones que lo que los expertos consideraban uno de los gases nerviosos más peligrosos de la Tierra llamado VX.

Fabio Urbina, el autor principal del artículo, le dijo a The Verge que la preocupación no era tanto la cantidad de opciones que ofrecía la IA como el hecho de que la información que usaba para calcularlas provenía principalmente de información disponible públicamente.

Urbina teme lo que podría significar si la IA estuviera en manos de personas con intenciones más oscuras para el mundo.

«L’ensemble de données qu’ils ont utilisé sur l’IA pourrait être téléchargé gratuitement et ils craignent qu’il suffise de quelques connaissances en codage pour transformer une bonne IA en une machine à fabriquer des armes chimiques», a-t- él explica.

Sin embargo, Urbina dijo que él y los demás científicos estaban trabajando para «salir adelante» de todo esto.

«Al final del día, decidimos que queríamos salir adelante. Porque si es posible para nosotros hacer eso, es probable que un agente contrario en algún lugar ya esté pensando en ello o vaya a pensar en ello en el futuro». .”

Para contenido relacionado, The US Sun tiene cobertura sobre la IA de Disney que altera la edad y hace que los actores se vean más jóvenes.

Mujer hace adornos navideños para sus escaleras y también son fáciles de quitar
Millones de propietarios de iPhone necesitan verificar la configuración hoy: es peligroso no hacerlo

El US Sun también cuenta la historia de que el bot de IA de Meta aparentemente se volvió deshonesto.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *