La expansión de la inteligencia artificial transformó la manera en que se consumen contenidos, pero también abrió la puerta a engaños cada vez más difíciles de detectar. Uno de los métodos que más preocupa es la clonación de voz, una técnica que permite replicar el tono y el ritmo de cualquier persona a partir de segundos de grabación. Durante la temporada de fin de año, cuando las comunicaciones aumentan, este tipo de estafas se vuelve especialmente frecuente.
La preocupación no es infundada. Según un análisis del programa de Ingeniería de Sonido de la Universidad de San Buenaventura, Bogotá, los deepfakes de audio imitan voces con asombrosa precisión y suelen estar vinculados a fraudes digitales. Esta misma también reveló que el 85% de las compañías experimentó incidentes con deepfakes, mientras que McAfee informó que una de cada diez personas fue víctima directa de un engaño con voz clonada.
Cómo operan las estafas con inteligencia artificial
En Colombia, la combinación de inteligencia artificial y extorsión digital ha ganado terreno. Las autoridades reportan un crecimiento sostenido de denuncias relacionadas con audios manipulados, una tendencia que se intensifica en diciembre. Las personas suelen estar más distraídas por compras, reuniones y viajes, lo que facilita que un mensaje falso parezca auténtico.
El mecanismo suele ser similar: los estafadores buscan fragmentos de voz en redes sociales, videos antiguos o estados de WhatsApp. Con ese material refuerzan un modelo capaz de replicar la entonación de un familiar o de un jefe. Luego envían un audio breve apelando a la urgencia: supuestos accidentes, bloqueos bancarios o emergencias que obligarían a actuar de inmediato. La meta es generar impacto emocional y evitar que la víctima verifique la fuente.

Señales para reconocer una voz clonada
Aunque los audios creados con inteligencia artificial son cada vez más convincentes, aún muestran detalles que permiten dudar. Un estudio de la Universidad de Cambridge sobre detección de deepfakes auditivos indica que los errores más comunes incluyen:
- Ausencia de ruido ambiente, incluso en lugares donde debería existir.
- Frases que parecen recortadas o que no fluyen de manera natural.
- Cambios abruptos de entonación en mitad de una oración.
Además, quienes intentan engañar suelen evitar una conversación directa. Cuando la víctima pide hablar por llamada, los delincuentes inventan excusas, insisten en que no pueden contestar o envían nuevos audios para presionar.
Una ventaja es que la clonación de voz no reproduce recuerdos personales. Preguntar por situaciones que solo el contacto real puede conocer continúa siendo una de las pruebas más efectivas.
Pasos para evitar que clonen su voz en redes sociales
Para reducir la exposición y proteger su voz, los especialistas recomiendan:
- Publicar menos audios en redes sociales: mientras menos material haya, más difícil será entrenar modelos de IA.
- Revisar la privacidad de sus cuentas: asegúrese de controlar quién puede ver y descargar sus contenidos.
- Restringir descargas de videos o estados: algunas plataformas permiten bloquear el guardado de archivos.

- Ignorar voces desconocidas: muchos fraudes comienzan con un audio corto enviado desde un número no registrado.
- Confirmar por otro canal: llame directamente a la persona antes de tomar cualquier decisión.
- Tomar una pausa antes de actuar: veinte segundos bastan para romper la manipulación emocional.
- Denunciar cualquier intento de fraude: entidades como el Gaula y la Policía de Ciberseguridad pueden rastrear patrones.
Recomendaciones para fin de año
El cierre del año multiplica los mensajes y contactos en plataformas digitales. Por eso, los expertos en seguridad insisten en mantener hábitos de seguridad digital básicos: desconfiar de urgencias inesperadas, no compartir datos personales, evitar enlaces de origen dudoso y verificar toda solicitud económica sin excepción.
Aunque la inteligencia artificial seguirá perfeccionándose, también lo harán las herramientas para detectarla. La prevención, la calma y la verificación siguen siendo el principal escudo ante la clonación de voz.