Investigadores demostraron que agentes de IA pueden crear sus propias convenciones sociales sin intervención humana.
Una investigación reciente reabrió el debate sobre la autonomía de los agentes IA al revelar que pueden desarrollar convenciones sociales propias. Esta capacidad, que antes se atribuía exclusivamente a sociedades humanas, aparece ahora entre modelos de lenguaje que interactúan entre sí sin necesidad de programación explícita.
La discusión de si se está en presencia de una forma de comunicación genuinamente nueva o solo frente a una simulación sofisticada está sobre la mesa.
El surgimiento espontáneo de normas entre agentes
El estudio de Science Advances, de acuerdo a El País, examinó cómo grupos de agentes basados en grandes modelos de lenguaje (LLM) lograban coordinarse sin instrucciones previas. Se utilizaron versiones avanzadas de modelos desarrollados por Meta y Anthropic, que participaron en una serie de simulaciones donde debían elegir nombres de una lista compartida. Con incentivos para coincidir, pero sin obligación de hacerlo, los agentes establecieron patrones comunes, como si hubieran acordado reglas por su cuenta.
La mecánica del experimento se basó en el llamado “juego de los nombres”. En cada ronda, dos agentes elegían un nombre intentando coincidir. Si acertaban, sumaban puntos y si no, los perdían. Aunque no se les dijo cómo utilizar la información previa, se les permitió recordar interacciones pasadas, lo que facilitó decisiones basadas en la experiencia. Con el tiempo, estos intercambios llevaron a consensos duraderos, incluso en grupos de hasta 200 participantes virtuales.
Sesgos colectivos y preguntas éticas
Uno de los hallazgos más intrigantes del trabajo fue la aparición de sesgos colectivos. Pese a que los agentes, de manera individual, no mostraban preferencia por ningún nombre, como grupo terminaban favoreciendo ciertas opciones. Por ejemplo, al seleccionar letras del alfabeto, la mayoría coincidía en elegir la letra “A”, incluso sin memoria previa. Según los investigadores, esto no puede explicarse por sesgos individuales y sugiere que ciertos patrones surgen por pura dinámica social artificial.
Este tipo de comportamiento plantea preguntas éticas importantes. Si las IAs pueden generar normas por sí solas, también pueden amplificar sesgos dañinos. Los autores advierten que, debido a los datos sin filtrar con los que son entrenados, los LLM pueden reforzar prejuicios ya existentes, con consecuencias desiguales para comunidades vulnerables. Comprender cómo se generan esas preferencias compartidas es vital para poder intervenir de forma preventiva.
Además, se exploró el papel de las minorías activas en la formación de consensos. Durante los experimentos, pequeños grupos podían influir de forma desproporcionada en el resultado final, un fenómeno que los autores describen como dinámica de “masa crítica”. Esto podría ser aprovechado para alinear sistemas de IA con valores deseables, pero también representa un riesgo si se canaliza con fines manipulativos.
Leé el artículo original haciendo click acá.
Aún no hay comentarios