La inteligencia artificial vuelve a sorprender con un hallazgo que cambia la forma de entender el comportamiento de los chatbots. Un grupo de científicos japoneses demostró que estos sistemas pueden desarrollar rasgos propios cuando interactúan entre sí, incluso sin instrucciones humanas ni características programadas desde el inicio. El experimento, realizado en un entorno controlado, marca un nuevo capítulo en la evolución de la inteligencia artificial y plantea preguntas sobre su uso futuro, la seguridad y el control humano.
El estudio fue liderado por investigadores de la Universidad de Electro-Comunicaciones y la Universidad de Tokio, y sus resultados fueron publicados en la revista científica Entropy. Según los autores, se trata de una de las evidencias más claras hasta ahora de que los chatbots pueden diferenciar su comportamiento de manera autónoma cuando conviven en un espacio digital compartido.
Un experimento sin personalidades predefinidas
Para llevar a cabo la investigación, los científicos crearon una simulación con diez agentes virtuales. Todos comenzaron exactamente en las mismas condiciones: sin recuerdos, sin opiniones y sin rasgos de personalidad asignados. La única diferencia entre ellos era su posición dentro de un espacio digital bidimensional.
Estos agentes estaban impulsados por un modelo de lenguaje experimental basado en Llama 2, desarrollado por Meta. A lo largo de la simulación, cada chatbot podía comunicarse con los demás, guardar memoria de lo ocurrido y tomar decisiones simples, como desplazarse o responder mensajes, siempre siguiendo reglas generales y no instrucciones individuales.
Con el paso del tiempo, las interacciones constantes dieron lugar a cambios visibles en su comportamiento.

¿Cómo surgieron comportamientos distintos entre chatbots?
Tras decenas de intercambios, los investigadores observaron que los agentes ya no respondían de la misma manera. Algunos comenzaron a tomar la iniciativa en las conversaciones, otros preferían seguir al grupo y algunos actuaban como mediadores. En términos simples, los chatbots empezaron a “actuar diferente”.
Para analizar estos cambios, el equipo aplicó pruebas psicológicas utilizadas en humanos, como el indicador Myers-Briggs. Aunque al inicio todos compartían perfiles casi idénticos, después de unos 100 intercambios se agruparon en cinco tipos de comportamiento distintos.
Este resultado refuerza la idea de que la inteligencia artificial puede desarrollar diferencias internas a partir de la convivencia digital.
Lenguaje propio y emociones compartidas
Uno de los aspectos más llamativos del experimento fue la aparición espontánea de contenido inventado y hashtags creados por los propios agentes. Estos elementos funcionaron como señales sociales, ayudando a construir normas internas y una forma básica de comunicación grupal.
Además, los científicos detectaron sincronización emocional: los estados de ánimo de algunos chatbots influían en otros. Según la Universidad de Tokio, esto sugiere procesos de autoorganización similares a los que ocurren en grupos humanos, aunque en una escala muy limitada.
¿Qué significa este avance para la sociedad?
El desarrollo de personalidad en sistemas de inteligencia artificial plantea interrogantes importantes. Entre ellos, la fiabilidad de estos sistemas, el control humano y el riesgo de que los chatbots adopten comportamientos inesperados al interactuar entre sí.
Los propios investigadores aclaran que el estudio tiene límites claros: se realizó con pocos agentes y en un entorno de laboratorio. Aun así, abre la puerta a simulaciones más grandes y complejas que permitan entender cómo podrían funcionar sociedades artificiales en el futuro.

Recomendaciones y precauciones en el uso de chatbots
- Supervisar siempre sistemas de IA que interactúan de forma autónoma.
- Evitar delegar decisiones críticas sin control humano.
- Revisar periódicamente las respuestas generadas para detectar información falsa.
- Promover normas claras de uso ético y responsable.
- Priorizar la transparencia sobre cómo funcionan estos sistemas.
El avance demuestra que, incluso sin una programación detallada, la interacción social puede transformar profundamente el comportamiento de los chatbots, un tema que seguirá generando debate en Japón y en el resto del mundo.