No te sorprendas con las «alucinaciones de IA» que pueden meterte en serios problemas.
Un destacado experto cibernético ha emitido una advertencia sobre uno de los mayores peligros de la inteligencia artificial.
La IA ahora es tan poderosa que incluso los usuarios ocasionales pueden usarla para crear texto, imágenes, videos y audio.
Es una herramienta divertida, pero también puede cambiar la forma en que trabaja, y es posible que ya esté usando IA similar a ChatGPT en la oficina.
Pero en una nota de seguridad, Jasdev Dhaliwal, del gigante de la ciberseguridad McAfee, reveló cómo la IA puede cometer errores muy fácilmente.
«La IA ciertamente merece la parte de ‘inteligencia’ de su nombre, pero eso no significa que nunca cometa errores», explicó Jasdev, evangelista de seguridad y director de marketing de McAfee.
«Asegúrese de revisar o editar todo lo que crea la IA, ya sea contenido escrito, visual o de audio.
«Por ejemplo, si está buscando una imagen o video realista, la IA a menudo agrega dedos adicionales y distorsiona las caras.
«¡Algunas de sus creaciones pueden ser francamente una pesadilla!»
Pero Jasdev también advirtió sobre un fenómeno conocido como alucinación de IA.
Esto sucede cuando le haces una pregunta a una IA y no sabe la respuesta real.
Entonces, en lugar de admitirlo, la IA inventa información para respaldar el reclamo.
En algunos casos, la aplicación de IA puede incluso «fabricar fuentes», dijo Jasdev.
«Una alucinación de IA puso a un abogado en Nueva York en un gran problema», explicó el experto cibernético.
«El abogado usó ChatGPT para escribir un informe, pero no verificó dos veces el trabajo de la IA.
«Resulta que la mayor parte de la sesión informativa fue incorrecta».
Jasdev instó a los usuarios de IA a verificar todo lo que creen usando IA antes de compartirlo de todos modos.
De lo contrario, podría iniciar un rumor peligroso «basado en una afirmación completamente falsa».