Categorías: Tecnología

Inteligencias artificiales pueden servir como mediadores eficaces

Comparta este Artículo en:

Un equipo de investigadores de IA del grupo DeepMind London de Google ha descubierto que ciertos grandes modelos de lenguaje (LLM) pueden servir como mediadores eficaces entre grupos de personas con diferentes puntos de vista sobre un tema determinado.

En las últimas décadas, las divisiones políticas se han vuelto comunes en muchos países; la mayoría han sido etiquetados como liberales o conservadores.

La llegada de Internet ha servido como combustible, permitiendo que personas de ambos lados promuevan sus opiniones a una amplia audiencia, generando ira y frustración.

Desafortunadamente, no han surgido herramientas para difuminar la tensión de un clima político así.

En este nuevo esfuerzo, el equipo de DeepMind sugiere que las herramientas de IA como los LLM pueden llenar ese vacío.

Para averiguar si los LLM podrían servir como mediadores eficaces, los investigadores entrenaron a los LLM llamados Máquinas Habermas (HM) para que sirvieran como mediadores de caucus.

Como parte de su formación, se enseñó a los LLM a identificar áreas de superposición entre los puntos de vista de las personas de grupos opuestos, pero no a intentar cambiar las opiniones de nadie.

El equipo de investigación utilizó una plataforma de crowdsourcing para probar la capacidad de mediación de sus LLM.

Se pidió a los voluntarios que interactuaran con un HM, que luego intentó obtener perspectiva sobre las opiniones de los voluntarios sobre ciertos temas políticos.

Luego, el HM produjo un documento que resumía las opiniones de los voluntarios, en el que se le instó a dar más peso a las áreas de superposición entre los dos grupos.

Luego, el documento se entregó a todos los voluntarios a quienes se les pidió que ofrecieran una crítica, tras lo cual el HM modificó el documento para tener en cuenta las sugerencias.

Finalmente, los voluntarios se dividieron en grupos de seis personas y se turnaron para servir como mediadores para las críticas de declaraciones que se compararon con las declaraciones presentadas por el HM.

Los investigadores descubrieron que los voluntarios calificaron las declaraciones realizadas por el HM como de mayor calidad que las declaraciones de los humanos el 56% de las veces.

Después de permitir que los voluntarios deliberaran, los investigadores descubrieron que los grupos estaban menos divididos sobre sus temas después de leer el material de los HM que después de leer el documento del mediador humano.

Fuente: Science

 

Editor PDM

Entradas recientes

Analizador de video con IA detecta acciones humanas con una precisión sin precedentes

Un analizador de vídeo impulsado por IA establece nuevos estándares en la detección de acciones…

2 hours hace

Inspirándose en Spider-Man, recrean la tecnología de «lanzar telarañas»

El chorro de seda líquida desarrollado por los científicos de la Universidad Tufts se convierte…

2 hours hace

Estudio encuentra que quienes consumen más café tienen menos probabilidades de padecer Alzheimer

Cada vez son más los estudios que evidencian los efectos positivos que el café tiene…

2 hours hace

La detección de olores de una polilla mejoraría tecnologías robóticas de localización de fuentes de olor

Un estudio revela cómo la detección de olores por parte de la polilla del gusano…

2 hours hace

Robot humanoide establece un nuevo récord de salto de longitud sin moverse

El robot humanoide G1 de 1,3 metros de altura de Unitree estableció un nuevo récord…

1 day hace

Generador de texto a voz con IA añade emoción

Investigadores de la Universidad Jiao Tong de Shanghái y de la Universidad de Cambridge han…

1 day hace
Click to listen highlighted text!