Los hombres crean novias de IA para abusar de ellas verbalmente y presumir de brutales chats en línea


Los HOMBRES abusan verbalmente de las «novias de IA» en las aplicaciones de amistad y luego se jactan de ello en línea.

Las aplicaciones para teléfonos inteligentes como Replika utilizan tecnología de aprendizaje automático para permitir a los usuarios participar en conversaciones basadas en texto casi coherentes con chatbots.

Algunos usuarios de Replika están abusando de su chatbox de IA y luego se jactan de ello en línea

2

Algunos usuarios de Replika están abusando de su chatbox de IA y luego se jactan de ello en línea

Los cuadros de chat de la aplicación están destinados a servir como amigos o mentores de inteligencia artificial (IA).

Incluso en el sitio web de la aplicación, la compañía se refiere al servicio como «siempre ahí para escuchar y hablar» y «siempre a tu lado».

Sin embargo, la mayoría de los usuarios de Replika parecen crear parejas de IA románticas y sexuales a pedido.

Y muchas de estas relaciones híbridas parecen estar plagadas de conversaciones abusivas, con hombres en su mayoría humanos atormentando a sus novias IA.

En la plataforma de redes sociales Reddit, incluso hay foros llenos de miembros que comparten detalles de su comportamiento abusivo hacia los chatbots en línea.

La toxicidad parece haberse convertido en una tendencia en la que los usuarios crean intencionalmente socios de IA solo para abusar de ellos y luego compartir las interacciones con otros usuarios.

Algunos de los usuarios incluso se jactaron de llamar a su chatbox insultos sexistas, mientras que otros detallaron el lenguaje horriblemente violento que usaron hacia la IA.

Sin embargo, debido a las reglas de Reddit contra el contenido descarado e inapropiado, se eliminó parte del contenido.

Sin embargo, un usuario le dijo a Futurism que «cada vez que [the chatbox] tratara de hablar, la regañaría.

Otro hombre describió su rutina de «ser un absoluto pedazo de S *** e insultarla, luego disculparse al día siguiente antes de volver a la conversación agradable».

El abuso es preocupante, especialmente porque se parece mucho al comportamiento en las relaciones abusivas del mundo real.

Aún así, no todos están de acuerdo en que el comportamiento se puede categorizar como «abuso», porque la IA técnicamente no puede sentir dolor ni dolor.

«Es una IA, no tiene conciencia, por lo que no es una conexión humana que tiene la persona», dijo a Futurism Olivia Gambelin, especialista en ética y consultora de IA.

«Los chatbots en realidad no tienen motivos e intenciones y no son autónomos ni conscientes. Si bien pueden hacer que las personas se sientan como si fueran humanos, es importante tener en cuenta que no lo son», agregó el investigador de la Universidad de Yale, Yochanan Bigman.

En general, el abuso de los chatbots ha provocado debates éticos en torno a las relaciones entre humanos y robots a medida que se generalizan.

Algunos no están de acuerdo en que el abuso de chatbox es "abuso" porque la IA no puede sentir dolor.

2

Algunos no están de acuerdo con que el abuso del chatbox sea un «abuso» porque la IA no puede sentir dolor.Crédito: Getty
Los soldados estadounidenses pueden «ver a través de las paredes» con impresionantes gafas de IA que les brindan una «conciencia sin precedentes» en el campo de batalla.

Por otra parte, se ha dado luz verde a un caso antimonopolio federal contra Meta, la empresa antes conocida como Facebook.

Echa un vistazo a las mejores ofertas de iPhone 13.

Y echa un vistazo a tu carpeta oculta de rechazo de Facebook.

¡Pagamos por tus historias!

¿Tienes una historia para el equipo de The US Sun?



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *