Andina

Cinco modalidades en que los ciberdelincuentes usan inteligencia artificial para estafar

La clonación de voz es una de las modalidades de estafas virtuales más utilizadas.

Si bien la inteligencia artificial ofrece soluciones poderosas, su uso también puede ser explotado con fines maliciosos.

Si bien la inteligencia artificial ofrece soluciones poderosas, su uso también puede ser explotado con fines maliciosos.

17:13 | Lima, oct. 31

Los últimos avances con la inteligencia artificial (IA) han demostrado ser un recurso invaluable en diversas áreas: desde la optimización de procesos hasta diagnósticos médicos, incluyendo su influencia innegable para la edición de imágenes, video y conversaciones. Sin embargo, una faceta cada vez más evidente de esta tecnología es la de las estafas cibernéticas.

Estas son algunas modalidades de estafa virtual que emplean inteligencia artificial:

1. Clonación de voz por IA: En los últimos meses, diferentes peruanos han señalado que han recibido llamadas de familiares afirmando estar secuestrados y pidiendo dinero para no ser violentadas. Uno de los actos más mediáticos, fue el nombrado hace unos días por una actriz muy conocida afirmando haber sufrido esta estafa al ser copiada su voz y presentándola a su madre como un secuestro.

2. Contenido falso relacionado a Chat GPT: WormGPT es una herramienta que, además de producir un malware, crea correos electrónicos notablemente persuasivos y personalizados para el destinatario lo que aumenta las posibilidades en el éxito de ataque.

3. Videollamadas estafa: Es una modalidad novedosa que aún no ha llegado al Perú. El objetivo es realizar la videollamada con la aplicación deepfake y, junto al aplicativo de audio, perpetrar la estafa rápidamente para que no haya lugar a que la víctima pueda hacer alguna pregunta al presuntamente secuestrado.

4.- Phishing mejorado: Los atacantes pueden utilizar la IA generativa para generar correos electrónicos y mensajes de texto personalizados que parezcan legítimos, con el fin de engañar a los usuarios para que hagan clic en enlaces maliciosos o descarguen archivos infectados. La IA puede imitar el estilo de escritura de la víctima o de alguien de confianza para hacer que el correo electrónico sea aún más creíble.

5.- Ataques tipo BEC (Business Email Compromise): Por medio del cual los algoritmos de IA generativa pueden aprender de Twitter, Facebook, Instagram, etcétera, aplicaciones de chat o incluso plataformas de streaming como YouTube. Las características particulares de expresarse de una persona y crear un correo electrónico que busque estafar, haciéndose pasar por una persona en particular que al introducir ciertos rasgos de escritura y expresión propios de esa persona no levante sospechas, pues ese contenido fue creado vía IA generativa.

“Será muy posible que incluso los contenidos falsos puedan incorporar expresiones propias de la nacionalidad de una persona como por ejemplo aforismos o frases típicas, incluso formas particulares y propias de expresión que no hagan sospechar que se trata de un ataque de ingeniería social. Incluso secuestros como los famosos “cuentos del tío” (generalmente este tipo de estafa se lleva a cabo en Argentina, Chile, Uruguay y Bolivia) que puedan reproducir las tonalidades e inflexiones de voz de un familiar supuestamente secuestrado”, dijo Patricio Villacura, Especialista de Seguridad Empresarial para Akamai. 

¿Qué podemos hacer para no caer en estos nuevos estilos de estafa?

La ciberseguridad es un desafío constante en la era digital. Si bien la inteligencia artificial ofrece soluciones poderosas, su uso también puede ser explotado con fines maliciosos.  

Por otro lado, la inteligencia artificial también puede utilizarse para ayudar a los profesionales de ciberseguridad a tratar la cada vez mayor complejidad de los sistemas modernos, así como la gran cantidad de datos creados por ellos, e intentar estar por delante de los ciberatacantes. 

"Mi recomendación es estar siempre atentos a las últimas noticias sobre estafas virtuales y, al encontrase con alguna, no no acceder a ningún enlace, no brindar información secreta como claves de tarjetas de crédito y hacer caso omiso a las llamadas desconocidas”, expresa Willy Ugarte, docente de la maestría en Data Sciencie de la Escuela de Postgrado UPC.

Sigue estas recomendaciones de ciberseguridad:

- Tener cuidado con los datos personales, pues con ellos pueden acceder a tu información bancaria, financiera o personal.

- Eliminar cualquier correo sospechoso y evitar ingresar a links o descargar aplicaciones sospechosas que puedan extraer información bancaria.

- Tomar precauciones antes de hacer clic en enlaces recibidos por correo electrónico, mensajes de SMS y redes sociales debe ser un comportamiento instintivo para los usuarios, al igual que mirar a ambos lados antes de cruzar la calle.

“Es importante inculcar en las personas la educación básica digital y concienciar a todos los usuarios sobre los peligros a los que se exponen al ingresar a páginas poco creíbles o estar atentos a las últimas modalidades de estafa”, afirma Willy Ugarte.

Revisa más noticias sobre ciencia, tecnología e innovación en la Agencia Andina y escucha historias inspiradoras en Andina Podcast.

Más en Andina:


(FIN) NDP/MPM/SPV

Publicado: 31/10/2023