Breadcrumb node

Los siete pecados digitales de ChatGPT

El mal uso de ChatGPT tiene siete pecados digitales.

Publicado:
Actualizado:
Sábado, Septiembre 30, 2023 - 12:35
ChatGPT
ChatGPT
Pixabay

ChatGPT es un modelo de lenguaje que es utilizado para facilitar algunas tareas diarias permitiendo generar y crear todo tipo de documentos e incluso traducir textos a otros idiomas en cuestión de segundos.  

Sin embargo, el uso inconsciente de la Inteligencia Artificial ha hecho que se utilice mal.  

Check Point Software Technologies Ltd. (NASDAQ: CHKP) ha detectado numerosos ejemplos de cómo los ciberdelincuentes han estado usando ChatGPT para acelerar y mejorar sus campañas y herramientas de ciberataques, suponiendo ya una problemática para los principales desarrolladores de IA.  

Le puede interesar: ¿Clonaron la voz del alcalde William Dau con Inteligencia Artificial?

Por esta razón, Check Point Software logró sintetizar los siete principales peligros y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad: 

- Distribución de malware: al aprovecharse del objetivo principal de estas herramientas, que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos. Unos códigos maliciosos depurados que se incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas. 

- Phishing: con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un verdadero reto. Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito. 

Ingeniería social: diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta. 

- Filtración y robo de datos: la IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parecen legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles. 

- Desinformación y propaganda: ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia.  

Leas también: TikTok se le adelantó a la IA y creó herramienta para identificar videos creados por la inteligencia

- Difamación y suplantación: con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos. 

- Amenazas internas: la inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que aparentan provenir de usuarios autorizados, lo que puede ser utilizado para obtener acceso a datos o sistemas sensibles. 

“Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques”, explica Manuel Rodríguez, gerente de Ingeniería de Seguridad para el Norte de América Latina de Check Point Software.   

Fuente:
Sistema Integrado Digital