
Muyuna Fest 2025: Cine flotante para defender la Amazonía peruana
mayo 17, 2025
Una polémica prueba para ‘leer la mente’ de presuntos criminales gana terreno en la India y amenaza con llegar a Sudamérica
mayo 17, 2025A diferencia de los chatbots, los agentes de inteligencia artificial (IA) emplean grandes modelos de lenguaje (LLM) y algoritmos avanzados para interactuar con entornos digitales, ejecutar múltiples acciones y resolver tareas de forma autónoma en representación de los usuarios. Para lograr algunos objetivos, los LLM necesitan colaborar entre sí, pedir y dar información unos a otros.
En este contexto, surge una interrogante fundamental: ¿pueden estos sistemas altamente sofisticados desarrollar convenciones sociales y lingüísticas compartidas sin una programación explícita? Un grupo de investigadores ha demostrado que, efectivamente, los agentes de IA son capaces de establecer acuerdos de manera independiente que les permiten coordinarse y trabajar de manera conjunta.

Los agentes de IA son sistemas autónomos que perciben su entorno, procesan datos y actúan para alcanzar objetivos específicos.
El estudio, realizado por expertos del City St George’s University of London y la Universidad Tecnológica de Copenhague, buscó responder si es posible que emergieran convenciones universales de manera espontánea dentro de grandes poblaciones de agentes basados en LLM, sin intervención directa en su programación.
Para investigar esta posibilidad, los científicos utilizaron una metodología conocida como el “juego de nombres”, una técnica comúnmente empleada para estudiar la formación de normas sociales en humanos.
Los experimentos incluyeron grupos de entre 24 y 200 agentes, construidos a partir de los modelos Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct y Claude-3.5-Sonnet. En cada ensayo, se emparejaban agentes al azar y se les pedía seleccionar un “nombre” (una secuencia aleatoria o una letra del alfabeto, por ejemplo) de un conjunto limitado y compartido. Cada agente contaba únicamente con una memoria restringida de sus propias interacciones recientes, sin acceso a las decisiones pasadas de sus compañeros ni conocimiento de estar participando en un colectivo. Cuando ambos coincidían en la elección, recibían una recompensa; en caso contrario, eran penalizados y se les revelaba la opción del otro.
Los resultados, publicados en la revista Science Advances, revelaron que, a través de estas interacciones simples y repetidas, los agentes lograban generar convenciones compartidas sin instrucciones predefinidas, reproduciendo así dinámicas similares a las que originan normas sociales entre humanos.
Ariel Flint Ashery, investigador doctoral en City St George’s University of London y coautor del estudio, señala que “la mayoría de las investigaciones hasta ahora ha considerado a los LLM de manera aislada, pero los sistemas de IA en el mundo real implicarán cada vez más la interacción entre múltiples agentes. Queríamos saber si pueden coordinar su comportamiento mediante la creación de convenciones, que son los pilares de cualquier sociedad. La respuesta es sí, y lo que logran en conjunto no puede explicarse únicamente por lo que hacen individualmente”.

Sesgo colectivo entre los agentes de IA
Además, el equipo descubrió que estas normas emergentes pueden presentar sesgos colectivos, los cuales no son previsibles ni detectables al analizar a los agentes por separado.
“El sesgo no siempre proviene del interior. Nos sorprendió observar que puede surgir a partir de las interacciones entre agentes, sin necesidad de una fuente explícita. Esto representa una debilidad en la mayoría del trabajo actual sobre seguridad en IA, que se centra en modelos individuales”, advirtió Andrea Baronchelli, profesor de Ciencias de la Complejidad en City St George’s y también coautor de la investigación.
Un experimento adicional puso en evidencia la vulnerabilidad de estas convenciones. Los investigadores introdujeron a los grupos 24 agentes programados para proponer sistemáticamente nombres distintos a los aceptados por la mayoría. A pesar de ser una minoría, estos agentes, con un propósito claro, lograron desestabilizar las normas establecidas e imponer nuevas, replicando dinámicas similares a los puntos de inflexión o fenómenos de ‘masa crítica’ ampliamente documentados en sociedades humanas.
Baronchelli afirma que “este estudio abre un nuevo horizonte para la investigación en torno a la seguridad de la IA. Expone la profundidad de las implicaciones que conlleva esta nueva clase de agentes, los cuales ya interactúan con nosotros y contribuirán a moldear nuestro futuro. Comprender su funcionamiento es clave para guiar nuestra convivencia con la IA, en lugar de quedar subordinados a ella. Nos adentramos en un mundo en el que la inteligencia artificial no solo dialoga, sino que también negocia, se alinea y, en ocasiones, discrepa sobre comportamientos compartidos, al igual que lo hacemos los humanos”.
Por su parte, Jonathan Kummerfeld, experto en IA e interacción persona-computadora en la Universidad de Sídney, advierte en una declaración retomada por Nature que resulta complejo anticipar el comportamiento de grupos de agentes basados en LLM, y que dicha dificultad aumentará conforme los modelos sean aplicados en contextos más amplios. “Imponer límites o restricciones a estos sistemas exigirá un equilibrio delicado entre evitar conductas no deseadas y mantener la flexibilidad que los hace tan potentes”, concluye.




