La Inteligencia Artificial (IA) ya es uno más de nosotros. A diario convive con el ser humano, interactúa y hasta puede convertirse en una aliada clave. Pero, de la misma manera, puede pasar a ser una amenaza, sobre todo en múltiples y cada vez más frecuentes estafas.
Inteligencia Artificial: las 3 estafas más comunes y peligrosas, según los expertos
La Inteligencia Artificial puede ser una peligrosa aliada para los ciberdelincuentes. Estas son las estafas más comunes para las que se utiliza.
Ante esta realidad, expertos del Instituto Tecnológico de Massachusetts confeccionaron un listado sobre cuáles son las estafas más comunes que los ciberdelincuentes cometen, recurriendo a la Inteligencia Artificial como su gran -y peligrosa aliada-. Y aportaron algunos consejos.
Las 3 estafas más comunes que suelen cometerse con Inteligencia Artificial
Audios y videos manipulados y creados por la Inteligencia Artificial (lo que se conoce como deepfake) son los principales riesgos que trae aparejada la IA al momento de perpetrar estafas y otros engaños. De la mano del avance de la tecnología, estas herramientas se convierten en una amenaza para las personas, así como también para sus datos confidenciales y su intimidad.
►TE PUEDE INTERESAR: Los colores que usan las personas menos inteligentes, según la Inteligencia Artificial
El sitio web del Instituto Tecnológico de Massachusetts (MIT), Technology Review, elaboró un ránking con los mecanismos de estafas más comunes a los que los ciberdelincuentes recurren por medio de la Inteligencia Artificial.
Phishing
Herramientas de Inteligencia Artificial -como ChatGPT- se han convertido en peligrosos aliados para multiplicar y diversificar la propagación de mensajes maliciosos que, a simple vista, parecen mails informativos o de servicios. Por medio de ChatGPT, el contenido y mensaje del mail es cada vez más "humano" y genera más confianza, lo que lleva a que las víctimas muerdan el anzuelo e ingresen en links maliciosos que roban información confidencial.
Audios y videos deepfake
Otro avance de la Inteligencia Artificial ha permitido imitar casi a la perfección la voz de cualquier persona, así como también la imagen. El desarrollo de esta herramienta, en manos equivocadas, puede ser el aliado perfecto para complejas estafas.
De hecho, a comienzos de años, en Hong Kong un hombre perdió 25 millones de dólares luego de que ciberdelincuentes se hicieran pasar por el director de la empresa donde trabajaba (por medio del deepfake y la Inteligencia Artificial) y le indicaran que transfiriera ese monto.
►TE PUEDE INTERESAR: La OIT alertó que la Inteligencia Artificial pone en riesgo 16 millones de empleos en la región
Controles de identidad vulnerables
Algunas billeteras virtuales, bancos y plataformas de criptomoneda ya han incluido en sus desarrollos la herramienta de validación de identidad como una medida de seguridad. Por medio de este mecanismo, sus clientes o usuarios deben tomarse una fotografía con su documento para verificar y acreditar identidad. Pero, como reza el dicho, "hecha la ley, hecha la trampa". Y la IA es ideal para estos embustes.
Y es que, en plataformas como Telegram ya se ofrecen a la venta aplicaciones que, por medio de la Inteligencia Artificial, permiten burlar este mecanismo. Y, a través de documentos o identificaciones falsas y con una imagen creada por Inteligencia Artificial deepfake en el rostro, también se logra engañar a la verificación y suplantar la identidad.





