La inteligencia artificial ha abierto un amplio abanico de oportunidades para las personas, al simplificar tareas repetitivas, ofrecer recomendaciones personalizadas y optimizar numerosos procesos. Este avance tecnológico permite ahorrar tiempo, tomar decisiones mejor informadas y acceder a servicios de forma más ágil y eficiente.
Sin embargo, también puede utilizarse con fines malintencionados, pues facilita la creación de contenidos falsos, como audios, imágenes o videos manipulados.
Una de las formas de desinformación que se ha fortalecido mediante la inteligencia artificial es el denominado “deepfake” o “falsedades profundas”, que son archivos de video, imagen o voz manipulados con IA para hacerlos parecer auténticos o reales. La característica de estos archivos es que utilizan el aprendizaje de la inteligencia artificial, por lo que consiguen engañar fácilmente.
Los deepfakes se emplean para engañar deliberadamente a las personas, lo que los convierte en una amenaza significativa para la sociedad, pues facilitan la desinformación y erosionan la confianza en las fuentes de información. Asimismo, pueden ser utilizados para realizar estafas.

Personas inescrupulosas usan la voz e imagen de Gustavo Petro para estafar
Tanto autoridades como expertos en ciberseguridad están advirtiendo sobre la circulación de videos falsos generados con inteligencia artificial en los que se utiliza, sin autorización, la imagen y la voz del presidente Gustavo Petro para promover supuestas plataformas de inversión que prometen ganancias millonarias en corto tiempo.
El contenido, que se difunde principalmente en redes sociales y servicios de mensajería, hace creer que el mandatario respalda un programa gubernamental inexistente denominado Quantum AI, asociado falsamente a bancos como Bancolombia, Banco de Bogotá y Davivienda.
En el video fraudulento, el presidente aparenta explicar cómo cualquier ciudadano podría ganar hasta 100 millones de pesos mensuales desde su celular, tras registrarse en una plataforma “por invitación” y dejar sus datos personales en un enlace externo. Sin embargo, se trata de un deepfake: una pieza audiovisual creada con IA que imita su rostro, gestos y voz, pero cuyo mensaje es completamente falso. El objetivo real es captar información personal y dinero de las víctimas, bajo la promesa de ingresos pasivos garantizados.
Especialistas advierten que este tipo de estafas combina dos elementos altamente efectivos: el uso de figuras públicas para generar confianza y un discurso financiero que apela a la urgencia, la exclusividad y la promesa de rendimientos extraordinarios sin riesgo. Ninguna entidad del Gobierno ni el presidente Petro han promovido plataformas de inversión de este tipo, y no existe registro oficial de un programa estatal llamado Quantum AI.
La recomendación para los ciudadanos es desconfiar de cualquier oferta que prometa ganancias elevadas y rápidas, que solicite datos personales a través de enlaces no verificados o que utilice la imagen de funcionarios públicos como supuesto aval. Ante la proliferación de contenidos manipulados con inteligencia artificial, los expertos insisten en verificar siempre la fuente, consultar canales oficiales y reportar este tipo de publicaciones para evitar nuevas víctimas.

Se han incrementado las estafas con voces clonadas con inteligencia artificial
Las estadísticas revelan un problema creciente y de gran alcance que afecta tanto a organizaciones como a individuos. Los datos clave dimensionan la seriedad de esta amenaza:
A nivel corporativo: Según el Fall 2025 Threat Report de Ironscales, el 85 % de las empresas enfrentó al menos un incidente con deepfakes en el último año, y más de la mitad reportó pérdidas superiores a USD 280.000 por ataque. Un informe de Gartner complementa esta visión, indicando que el 62 % de las compañías recibió intentos de fraude similares, y en el 44 % de los casos se utilizaron audios sintéticos.
A nivel individual: Un estudio de McAfee señala que una de cada diez personas ha sido víctima directa de una estafa con voz clonada, y un alarmante 67 % de los afectados perdió dinero al actuar bajo la presión del engaño.
En Colombia: El fenómeno muestra una expansión preocupante. Hasta septiembre de 2025, se reportaron 64 denuncias por extorsión en Bolívar, de las cuales 24 estaban directamente relacionadas con modalidades digitales como la clonación de voz. Adicionalmente, el Gaula realizó 36 capturas vinculadas a estos delitos, y la Estrategia Nacional de Seguridad Digital posicionó al país como el segundo más afectado digitalmente en América Latina en 2024.