Un equipo de investigadores de IA del grupo DeepMind London de Google ha descubierto que ciertos grandes modelos de lenguaje (LLM) pueden servir como mediadores eficaces entre grupos de personas con diferentes puntos de vista sobre un tema determinado.
En las últimas décadas, las divisiones políticas se han vuelto comunes en muchos países; la mayoría han sido etiquetados como liberales o conservadores.
La llegada de Internet ha servido como combustible, permitiendo que personas de ambos lados promuevan sus opiniones a una amplia audiencia, generando ira y frustración.
Desafortunadamente, no han surgido herramientas para difuminar la tensión de un clima político así.
En este nuevo esfuerzo, el equipo de DeepMind sugiere que las herramientas de IA como los LLM pueden llenar ese vacío.
Para averiguar si los LLM podrían servir como mediadores eficaces, los investigadores entrenaron a los LLM llamados Máquinas Habermas (HM) para que sirvieran como mediadores de caucus.
Como parte de su formación, se enseñó a los LLM a identificar áreas de superposición entre los puntos de vista de las personas de grupos opuestos, pero no a intentar cambiar las opiniones de nadie.
El equipo de investigación utilizó una plataforma de crowdsourcing para probar la capacidad de mediación de sus LLM.
Se pidió a los voluntarios que interactuaran con un HM, que luego intentó obtener perspectiva sobre las opiniones de los voluntarios sobre ciertos temas políticos.
Luego, el HM produjo un documento que resumía las opiniones de los voluntarios, en el que se le instó a dar más peso a las áreas de superposición entre los dos grupos.
Luego, el documento se entregó a todos los voluntarios a quienes se les pidió que ofrecieran una crítica, tras lo cual el HM modificó el documento para tener en cuenta las sugerencias.
Finalmente, los voluntarios se dividieron en grupos de seis personas y se turnaron para servir como mediadores para las críticas de declaraciones que se compararon con las declaraciones presentadas por el HM.
Los investigadores descubrieron que los voluntarios calificaron las declaraciones realizadas por el HM como de mayor calidad que las declaraciones de los humanos el 56% de las veces.
Después de permitir que los voluntarios deliberaran, los investigadores descubrieron que los grupos estaban menos divididos sobre sus temas después de leer el material de los HM que después de leer el documento del mediador humano.
Fuente: Science
Un analizador de vídeo impulsado por IA establece nuevos estándares en la detección de acciones…
El chorro de seda líquida desarrollado por los científicos de la Universidad Tufts se convierte…
Cada vez son más los estudios que evidencian los efectos positivos que el café tiene…
Un estudio revela cómo la detección de olores por parte de la polilla del gusano…
El robot humanoide G1 de 1,3 metros de altura de Unitree estableció un nuevo récord…
Investigadores de la Universidad Jiao Tong de Shanghái y de la Universidad de Cambridge han…