Se ha advertido a los propietarios de SMARTPHONE sobre la tecnología basada en inteligencia artificial que puede estafarlo y quitarle su dinero.
Estas estafas incluyen la clonación de voz con inteligencia artificial (IA), anuncios de phishing e imágenes profundas falsas.

1
Clonación de voz de IA
Las estafas de clonación de voz son similares a los ataques de phishing, excepto que usan IA para replicar la voz de alguien.
La mayoría de las veces, el objetivo es robar la información bancaria, la identidad o las contraseñas de un usuario.
En un ataque de clonación de voz, los actores de amenazas pueden engañar a un padre para que piense que sus hijos han sido secuestrados.
O pueden hacerse pasar por familiares de alguien y pedirles que envíen dinero.
Una vez que los malos actores localizan un objetivo, normalmente encuentran un breve videoclip de su voz en las redes sociales y usan la IA para hacerse pasar por él.
Anuncios de suplantación de identidad
Varios actores maliciosos engañan a los usuarios de ChatGPT para que descarguen aplicaciones cargadas de malware en sus dispositivos.
Estas aplicaciones pueden atacar su teléfono e infiltrarse en sus datos, incluidas sus cuentas bancarias.
Meta informó el mes pasado que había descubierto al menos diez de estos programas peligrosos desde marzo.
En algunos casos, el malware incluso proporcionó a los usuarios funciones genuinas de inteligencia artificial de ChatGPT junto con archivos maliciosos.
«Desde la perspectiva de un mal actor, ChatGPT es la nueva criptografía», dijo Guy Rosen, director de seguridad de la información de Meta.
Por esta razón, es importante asegurarse siempre de que todo lo que descargue sea legítimo.
También debe evitar hacer clic en anuncios o enlaces de software desconocido en correos electrónicos/mensajes de texto sospechosos.
FALSO PROFUNDO
Las falsificaciones profundas son medios sintéticos en los que la cara de una persona en una imagen o video existente se reemplaza por la de otra persona.
Los delincuentes utilizan nuevas tecnologías para chantajear y extorsionar a las víctimas.
Por ejemplo, algunos actores de amenazas insertan rostros de personas en contenido pornográfico y luego exigen rescate a través de aplicaciones falsas.
No hay forma de protegerse por completo de ser víctima de falsificaciones profundas, pero hay pasos que puede seguir.


Puede denunciar cualquier infracción profunda de usted mismo a la FTC y limitar la cantidad de publicaciones que comparte en Internet.
También es una buena idea mantener tus cuentas de redes sociales privadas y solo aceptar a personas que conoces y en las que confías.