¡Atención! Conoce cómo identificar estafas telefónicas que usan voces clonadas con IA

Especialistas advierten que estos ataques son cada vez más accesibles y difíciles de detectar

El uso de inteligencia artificial para replicar voces y crear identidades falsas está impulsando una nueva ola de fraudes telefónicos. Especialistas advierten que estos ataques son más accesibles y difíciles de detectar. Foto: ANDINA/Inteligencia Artificial

El uso de inteligencia artificial para replicar voces y crear identidades falsas está impulsando una nueva ola de fraudes telefónicos. Especialistas advierten que estos ataques son más accesibles y difíciles de detectar. Foto: ANDINA/Inteligencia Artificial

21:30 | Lima, mar. 31.

Con el auge de la Inteligencia Artificial Generativa (GenAI), crear audios falsos es hoy tan sencillo como presionar un botón. Lo que antes parecía una amenaza lejana para grandes empresas, ahora se ha convertido en un riesgo cotidiano: cualquier ciudadano puede ser víctima de fraudes mediante clonación de voz.

Las herramientas de IA han democratizado la creación de contenidos sintéticos, facilitando su uso con fines delictivos. Los ciberdelincuentes ya no solo apuntan a ejecutivos, sino también a personas comunes, utilizando réplicas de voz para cometer fraudes financieros, solicitar transferencias o incluso tomar control de cuentas personales.


Víctor Gutiérrez, especialista en seguridad digital de Intecnia Corp, country partner de Bitdefender, indicó que este tipo de tecnología ya se utiliza para crear perfiles falsos en redes sociales, estafas románticas y cuentas fraudulentas. Agregó, además, que estas herramientas se vuelven más accesibles con lo que aumenta el riesgo de manipulación y engaño.

Bajo esa línea, Mario Micucci, investigador de seguridad informática de ESET Latinoamérica, manifestó existen características que sirven para identificar si una voz fue generada con inteligencia artificial. Incluso, hay herramientas que añaden ruido de fondo, pausas y tartamudeos para hacer la voz más creíble.

Claves para detectar una llamada falsa


Los especialistas recomiendan prestar atención a diversas señales de alerta que pueden delatar una llamada fraudulenta con voz clonada. A continuación, estos son algunos aspectos claves que los ciudadanos deben tener en cuenta.

- Ritmo antinatural: pausas extrañas o cadencia poco fluida.
Tono emocional plano: falta de coherencia con la supuesta urgencia.
Ausencia de respiración: frases largas sin pausas naturales.
Sonido robótico: matiz metálico o artificial.
Ruido de fondo sospechoso: ambiente demasiado uniforme o inexistente.

¿Cómo funciona esta estafa?


Por otro lado, surge la interrogante de cómo operan este tipo de estafas que, en la actualidad, aprovechan la tecnología para perpetrar delitos fraudulentos. Un ataque dirigido a un usuario común suele seguir las siguientes cuatro etapas:

Recolección de voz: Los estafadores obtienen muestras desde redes sociales como Instagram, TikTok o YouTube. Solo unos segundos bastan.
Selección del objetivo: Identifican a la persona a la que intentarán engañar, como un familiar cercano.
Creación del escenario: Elaboran un guion acorde a la víctima y emplean el audio generado.
Presión psicológica: Simulan emergencias para generar urgencia y evitar que la víctima analice la situación.


¿Cómo protegerse?


En un contexto donde la inteligencia artificial permite crear voces e identidades cada vez más convincentes, la prevención, la verificación y la educación digital son fundamentales para evitar caer en este tipo de estafas. Por lo cual, los expertos brindan algunas sugerencia para protegerse de estas estafas.

Establecer una palabra clave con familiares o personas cercanas.
Verificar por otro medio: cortar la llamada y comunicarse directamente al número conocido.
Cuidar la privacidad en redes sociales, limitando la exposición de audios y videos.
Desconfiar de la urgencia extrema, especialmente cuando se solicitan transferencias de dinero.


Más en Andina




(FIN) NDP/DSC/KGR

Publicado: 31/3/2026