Categorías: Tecnología

Chatbots supervisados por otros chatbots, para disminuir las equivocaciones

Comparta este Artículo en:

Los chatbots suelen equivocarse, así que investigadores han tenido una idea: que sean supervisados por otros chatbots.

Las respuestas poco fiables son uno de los grandes problemas de los chatbots de inteligencia artificial.

Estas herramientas están evolucionando a pasos agigantados, pero todavía reproducen sesgos y generan alucinaciones.

Investigadores de la Universidad de Oxford han tenido una particular idea para abordar estas limitaciones: que los chatbots sean supervisados por otros chatbots.

El grupo, integrado por Sebastián Farquhar, Jannik Kossen, Lorenz Kuhn y Yarin Gal, señala que los resultados falsos han impedido la adopción de los chatbots en diversos campos.

Ahora bien, el método que han diseñado, afirma, aborda el hecho de que una idea puede expresarse de diversas maneras y ha permitido a los usuarios detectar en qué momentos de la conversación deberían tener especial cuidado.

Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot.

Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas.

Tras comparar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%.

Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.

Estos hallazgos forman parte de un estudio titulado “Detección de alucinaciones en grandes modelos de lenguaje mediante entropía semántica”.

Como podemos ver, se ha utilizado una metodología bastante manual que puede ser tomada como modelo para inspirar posibles soluciones automatizadas que aborden la falta de fiabilidad de los chatbots de IA que utilizamos a diario.

Las propias herramientas suelen incluir mensajes de advertencia sobre la precisión de las respuestas en la parte inferior de la ventana de chat.

“ChatGPT puede cometer errores. Considera verificar la información importante”, dice el chatbot de OpenAI.

“Gemini puede mostrar información inexacta, incluso sobre personas, así que vuelve a verificar sus respuestas”, señala la propuesta creada por Google.

Tango OpenAI como Google, y también otras compañías, han dicho que están trabajando para mejorar la fiabilidad y la seguridad de sus productos de IA.

De momento, sin embargo, los resultados están lejos de ser perfectos.

En muchos casos las respuestas suelen presentar un texto que, a simple vista, parece muy coherente, pero puede contener desde pequeñas imperfecciones hasta grandes errores.

Fuente: NIH

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

3 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

3 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

4 days hace
Click to listen highlighted text!