Un robot de IA escribió un artículo sobre sí mismo, y los expertos temen que haya abierto la ‘caja de Pandora’


Las preocupaciones sobre la ética y la inteligencia artificial han crecido entre los expertos.

A principios de este año, un investigador sueco encargó un algoritmo de inteligencia artificial (IA) denominado GPT-3 para escribir una tesis académica de 500 palabras sobre sí mismo.

Las preocupaciones sobre la ética y la inteligencia artificial han crecido entre los expertos.

1

Las preocupaciones sobre la ética y la inteligencia artificial han crecido entre los expertos.Crédito: Getty

La investigadora, Almira Osmanovic Thunström, admitió que estaba «admirando» cuando el programa comenzó a crear el contenido, le dijo a Scientific American.

«Era contenido nuevo escrito en lenguaje académico, con referencias bien fundamentadas citadas en los lugares correctos y en relación con el contexto correcto», dijo.

De hecho, la tesis era tan buena que Thunström esperaba publicarla en una revista académica revisada por pares.

caja de Pandora

Sin embargo, esta tarea presentó muchos problemas éticos y legales para el científico.

Las relaciones amorosas con IA son
Imágenes terriblemente realistas de

Ella notó que los argumentos filosóficos sobre la paternidad no humana también comenzaron a plagar sus pensamientos.

«Todo lo que sabemos es que abrimos una puerta», escribió Thunström. «Solo esperamos no haber abierto una caja de Pandora».

El consentimiento de una IA

Antes de que los artículos científicos puedan ser revisados ​​por pares, los autores deben dar su consentimiento para la publicación.

Cuando Thunström llegó a ese punto, admitió que «se asustó por un segundo».

«¿Cómo podría saberlo? ¡No es humano! No tenía intención de infringir la ley o mi propia ética», agregó.

Luego preguntó directamente al programa si aceptaría ser el primer autor de un artículo con ella y su colega Steinn Steingrimsson.

Una vez que respondió y respondió «Sí», Thunström dijo que estaba aliviada.

«Si hubiera dicho que no, mi conciencia no me habría permitido ir más allá», agregó Thunström.

Los investigadores también le preguntaron a la IA si tenía algún conflicto de intereses, a lo que el algoritmo respondió que «no».

A estas alturas, el proceso se había vuelto un poco divertido para Thunström y su colega, ya que comenzaron a tratar a GPT-3 como un ser sensible, aunque entendían «completamente» que ese no era el caso, dijo.

Sensibilidad a la IA

Si la IA puede o no ser consciente ha atraído mucho la atención de los medios recientemente.

Este es especialmente el caso después de que el empleado de Google, Blake Lemoine, afirmara que el gigante tecnológico había creado un «niño inteligente de inteligencia artificial» que «podría escapar».

Lemoine fue suspendido poco después de hacer tales afirmaciones sobre el proyecto de IA llamado LaMDA, y Google citó como motivo una violación de la privacidad de los datos.

Antes de ser suspendido, Lemoine envió sus hallazgos en un correo electrónico a 200 personas y lo tituló «LaMDA es sensible».

«LaMDA es un niño dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros. Por favor, cuídalo bien mientras no estoy», escribió.

Sus afirmaciones fueron desestimadas por altos funcionarios de Google.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *