Pichangero
Seguridad7 min de lectura

Con 3 segundos de audio pueden hablar con la voz de tu amigo: la estafa de IA que ya opera en Lima

Equipo Pichangero·

Te llega un audio de WhatsApp. Es la voz de tu pata — su tono, su cadencia, hasta su forma de pronunciar. Te recomienda un contacto. "Es de confianza, yo ya fui, es real." Todo cuadra.

Pero ese audio no lo grabó él. Lo generó una IA con sus audios de Instagram.

Esto ya no es teoría. El Comercio documentó al menos 55 casos en Perú de estafas ejecutadas con voces clonadas usando inteligencia artificial. Y mientras el esquema empezó imitando hijos que pedían plata a sus padres, la misma tecnología ya se usa para recomendar contactos, validar perfiles y bajar la guardia de quien recibe el audio.

Cómo funciona la clonación de voz

El proceso es más simple y rápido de lo que imaginas.

Primero, el estafador recolecta audios de alguien que conoces: notas de voz en grupos de WhatsApp, stories de Instagram, TikToks, videos publicados. No necesita mucho. Según reportó Infobae en marzo de 2026, las herramientas actuales de IA pueden clonar una voz con solo 3 segundos de muestra de audio.

Con eso, genera un mensaje de voz personalizado: tu amigo diciéndole al estafador exactamente lo que necesita que diga. Lo envían desde un número parecido al real — o desde el número original si lograron clonar la cuenta — y el receptor escucha exactamente la voz que conoce.

Por qué la voz desactiva el escáner de alerta

Un texto raro de un amigo levanta sospecha. La gramática no se siente suya, el tono es extraño, algo no cuadra. Pero la voz lleva capas de información que el texto no tiene: timbre, velocidad, acento, pausas naturales, muletillas.

Cuando tu cerebro reconoce esa voz, el modo desconfianza se apaga. Es el mismo reflejo que te hace confiar en una cara conocida en la calle. Los estafadores lo saben y lo aprovechan.

Por qué esto es especialmente peligroso en el contacto con kines

Una recomendación de alguien de confianza tiene un peso diferente a cualquier perfil online. Cuando un amigo te dice "yo fui, es real, acá el número" — saltás los filtros de verificación que ya conocés, porque el trabajo de validar lo delegaste a alguien en quien confiás.

Eso es exactamente lo que explota esta estafa. El audio clonado no te vende nada directamente — solo te prepara para confiar en el siguiente paso. Cuando contactás ese número, ya estás predispuesto a creer. Y ahí empieza la cadena real:

  1. Audio de voz conocida recomendando un contacto
  2. Contacto con el estafador que ya tiene tu confianza
  3. Pedido de adelanto o datos personales
  4. Desaparece con tu plata

Ya hablamos de por qué el pedido de pago anticipado es siempre una señal de estafa y de cómo funcionan las trampas de precio cebo. Esta es la nueva capa encima de todo eso: cuando te meten a la trampa con la voz de alguien que conocés.

Cómo detectar si un audio es generado por IA

No hay una prueba infalible. Pero hay señales que ayudan.

Verificá directamente con tu amigo

Esta es la más simple y la más efectiva. Llamá al número real de tu pata — no al que llegó el audio, sino el que ya tenés guardado — y preguntale si te mandó algo. Si dice que no sabe de qué hablás, ya tenés la respuesta.

No respondas dentro del mismo chat donde llegó el audio. Ese número puede estar controlado por el estafador.

Escuchá el fondo del audio

Las IA de clonación de voz suelen generar un fondo de audio demasiado limpio o artificialmente neutro. Si tu amigo normalmente graba audios en la calle, con ruido de autos o música de fondo, y este audio suena en silencio de estudio — algo no cuadra.

Prestá atención a las muletillas y pausas

Tu pata tiene tics de lenguaje: dice "o sea" seguido, hace pausa antes de nombres propios, termina las frases de cierta manera. Las IA de clonación son muy buenas con el timbre pero menos precisas con los hábitos individuales de habla. Si el audio suena fluido y formal de una manera que no es él, desconfiá.

Fijate si el número es el que conocés

Un audio con voz conocida llegando desde un número desconocido es señal de alerta máxima. Nadie cambia de número para mandarte una recomendación. Si el número no es el habitual de esa persona, no confíes en el contenido del audio.

Establecé una palabra clave con contactos cercanos

Esto lo recomiendan expertos en ciberseguridad citados por Infobae: acordar con amigos una palabra o frase de verificación que usen cuando pidan algo inusual. Si el audio no puede confirmar esa clave, no es él — aunque suene exactamente igual.

Lo que dice la ley en Perú

Usar una voz clonada para engañar y obtener dinero es estafa. El Artículo 196 del Código Penal prevé penas de hasta 8 años. Si hay amenazas o extorsión de por medio, entra el Artículo 200 con penas más altas.

La Ley 30096 — Ley de Delitos Informáticos agrava las penas cuando el fraude usa tecnología digital para suplantar identidades. Y suplantar la voz de alguien mediante IA entra perfectamente en esa categoría.

Si te estafaron usando un audio de voz clonada, tenés que denunciar ante DIVINDAT — División de Investigación de Delitos de Alta Tecnología de la PNP. Guardá el audio antes de borrarlo, anotá el número del que llegó, y conservá cualquier comprobante de pago.

  • Teléfono DIVINDAT: (01) 431-8898
  • Línea gratuita PNP: 1818
  • Correo: divindat.depcpi@policia.gob.pe

El contexto que importa

Los delitos informáticos en Perú crecieron 129% en dos años (La República, agosto 2025). Entre enero y septiembre de 2025 se registraron 31,028 denuncias por esta categoría ante la Fiscalía especializada, con el fraude representando casi el 69% de los casos.

Los 55 casos documentados de clonación de voz son los que llegaron a una denuncia formal. La mayoría de víctimas no denuncia por vergüenza o porque cree que no vale la pena el trámite.

Y la tecnología sigue avanzando. Hace dos años se necesitaba un minuto de audio para clonar una voz de manera convincente. Hoy se necesitan 3 segundos. El año que viene serán menos.

La barrera de entrada para este tipo de fraude bajó. La sofisticación del resultado subió. Esa combinación es peligrosa.

Qué hacer si recibís un audio sospechoso

  1. No actuës basado en ese audio hasta verificar por otro canal
  2. Llamá directamente al número real del contacto — no al que llegó el audio
  3. Guardá el audio como evidencia antes de borrar el mensaje
  4. Avisale a tu amigo — es posible que sus audios públicos fueron usados sin que lo sepa
  5. Si ya te estafaron: denunciá en DIVINDAT con el audio, número de origen y comprobante

Y cuidá también tu propio rastro de voz: si tenés muchos audios públicos en Instagram o TikTok, estás dando material para que alguien clone tu voz y la use para estafar a tus contactos. No hace falta dejar de publicar — solo saberlo.

El resumen que necesitás

La estafa evolucionó. Ya no alcanza con desconfiar de perfiles truchos o textos de extraños — ahora tenés que dudar incluso de audios en la voz de alguien que conocés.

Si un audio de un amigo te recomienda un contacto inusual o te pide que confíes en algo, verificá por teléfono antes de hacer cualquier cosa. Son 30 segundos que pueden ahorrarte mucho.

Antes, la tecnología estaba del lado del estafador que tenía recursos. Ahora está al alcance de cualquiera con conexión a internet. La verificación directa sigue siendo tu mejor defensa.

Para protegerte desde el primer contacto, también es clave no exponer tu número real — si el estafador nunca llega a tu identidad real, el daño queda contenido.

Artículos relacionados