Un experto de TOP AI ha emitido una severa advertencia sobre el potencial de extinción global que podría traer la tecnología de inteligencia artificial superinteligente.
Eliezer Yudkowsky es un destacado investigador de inteligencia artificial y afirma que «todos en la tierra morirán» a menos que detengamos el desarrollo de sistemas de inteligencia sobrehumanos.

1
El hombre de 43 años es cofundador del Instituto de Investigación de Inteligencia de Máquinas y (MIRI) y afirma saber exactamente cuán «terriblemente peligrosa es esta tecnología».
Él teme que cuando se trata de humanos versus inteligencia más inteligente que la humana, el resultado será una «pérdida total», escribe en TIME.
Como metáfora, dice, sería como un «siglo XI tratando de luchar contra el siglo XXI».
En resumen, los humanos perderían dramáticamente.


El 29 de marzo, destacados expertos de OpenAI presentaron una carta abierta titulada «Pausar experimentos gigantes de IA» que exigía una prohibición inmediata de seis meses para entrenar sistemas de IA potentes durante seis meses.
Fue firmado por personas como el cofundador de Apple, Steve Wozniak, y Elon Musk.
Sin embargo, el teórico estadounidense dice que se negó a firmar esta petición porque «pide muy poco para resolverlo».
La amenaza es tan grande que argumenta que la extinción de la IA debería «considerarse una prioridad antes de evitar un intercambio nuclear completo».
Advierte que el resultado más probable de la ciencia robótica es que crearemos «una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general».
No estamos listos, admite Yudkowsky, para enseñar a la IA cómo ser considerado porque «actualmente no sabemos cómo».
En cambio, la dura realidad es que en la mente de un robot «estás hecho de átomos que puede usar para otra cosa».
“Si alguien construye una IA que es demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después”.
Yudkowsky desea señalar que actualmente «no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos».
Esto significa que los científicos podrían crear accidentalmente «mentes digitales que son verdaderamente conscientes» y luego caer en todo tipo de dilemas morales de que los seres conscientes deberían tener derechos, no ser poseídos.
Nuestra ignorancia, implora, será nuestra perdición.
Dado que los investigadores no saben si están creando una IA autoconsciente, entonces, dice, «no tienes idea de lo que estás haciendo y es peligroso y debes detenerte».
Yudkowsky afirma que podría llevarnos décadas resolver el problema de la seguridad en la inteligencia sobrehumana, que la seguridad «no mate literalmente a todos», y en ese tiempo todos podríamos estar muertos.
El punto principal del experto es: «No estamos preparados. No estamos en camino de estar listos en un período de tiempo razonable. No hay un plan».
«Los avances en las capacidades de IA están muy, muy por delante de los avances… en la comprensión de lo que sucede dentro de estos sistemas. Si realmente hacemos esto, todos vamos a morir».
Para evitar este desastre trascendental, Yudkowsky cree que la única forma es detener todo nuevo entrenamiento en tecnología de inteligencia artificial en todo el mundo sin «ninguna excepción, incluido el gobierno y el ejército».
Si alguien rompe este trato, el experto en inteligencia artificial demuestra su seriedad al decir que los gobiernos deberían «estar listos para destruir un centro de datos deshonesto con un ataque aéreo».
“Que quede claro que cualquiera que hable de carreras armamentistas es un tonto. Si todos vivimos o morimos como uno no es una política sino un hecho natural.


Martillando su punto, Yudkowsky termina con: “Si continuamos en este punto, todos morirán”.
«Cierralo.»