Especialistas en materia de ciberseguridad y confianza digital advierten que el crecimiento acelerado de la inteligencia artificial está transformando no solo la manera en la que interactuamos en Internet,sino también las estrategias utilizadas por ciberdelincuentes para engañar a usuarios, empresas y gobiernos.
En diálogo con La FM, Martina López, investigadora en ciberseguridad de ESET Latinoamérica, explicó que -de cara al año 2026- una de las principales tendencias será el uso cada vez más extendido de inteligencia artificial con fines maliciosos.
Deepfakes (imagen generada con IA), audios falsificados, imágenes manipuladas y videos sintéticos se consolidarán como herramientas frecuentes en ataques de ingeniería social.
“En primer lugar, vamos a seguir viendo una gran proliferación de lo que es la inteligencia artificial utilizada con motivos maliciosos, principalmente con el objetivo de realizar ataques de ingeniería social, y esto incluye, por supuesto, deepfakes, ya sean fotografías, videos, imágenes falsas, audios falsificados también”, dijo.
Regulaciones en el mundo
Aunque en 2026 entrarán en vigor regulaciones de la Unión Europea que exigirán etiquetar el contenido generado de forma sintética, López advierte que los atacantes buscarán evadir estas medidas, incluso eliminando dichas marcas cuando sea posible.
“El atacante busca que sea la víctima final no es directamente atacada, sino que se busca un tercero, quizás más pequeño, quizás más vulnerable, una empresa un poco más protegida, que trabaje con la empresa víctima grande que quiere ser el objetivo del atacante para poder vulnerar así sus sistemas”, agregó.
Fraudes en línea
Esta modalidad,que ganó fuerza durante la pandemia, volvió a evidenciarse a finales de 2025 y, según la experta, seguirá presente a lo largo de este año. En paralelo, los fraudes dirigidos al usuario final continuarán siendo una de las tácticas más efectivas.
Correos maliciosos, anuncios engañosos y mensajes falsos siguen siendo el método más barato y exitoso para los atacantes, pese a los avances en educación digital.
Desde otra perspectiva, Iskander Sánchez-Rola, director de IA e Innovación en Norton, señala que 2026 podría marcar un quiebre en la forma en que las personas confían en Internet.
“Confiar en el instinto era algo que hacíamos pero, actualmente, únicamente el instinto ya no es suficiente. A partir de ahora, la confianza en Internet requerirá una verificación, una mayor atención y nuevos hábitos digitales. Algo para lo cual muchas personas no están preparadas.”, afirma.
Lo real o lo falso
La proliferación de contenido generado por inteligencia artificial vuelve difusa la línea entre lo real y lo falso, haciendo que el instinto ya no sea suficiente.
“Esto significa que el engaño ya no se limita a una pantalla o un correo electrónico como antes, sino que puede aparecer en una llamada, un mensaje de voz o incluso una videollamada”, agregó.
Los expertos coinciden en que verificar identidades será cada vez más común, incluso en interacciones cotidianas como llamadas o videollamadas.
Sin embargo, este debate también plantea tensiones con el derecho al anonimato y la protección de datos personales, especialmente en contextos de vulnerabilidad política o social.
Consumo de recursos naturales
Finalmente, otro tema que comienza a ganar relevancia es el impacto ambiental de la inteligencia artificial. El consumo de agua, energía y recursos por parte de los centros de datos abre un debate que podría intensificarse a medida que disminuye el entusiasmo inicial por estas tecnologías y se integran de forma permanente a la vida digital.