Categorías: Tecnología

Chatbots supervisados por otros chatbots, para disminuir las equivocaciones

Comparta este Artículo en:

Los chatbots suelen equivocarse, así que investigadores han tenido una idea: que sean supervisados por otros chatbots.

Las respuestas poco fiables son uno de los grandes problemas de los chatbots de inteligencia artificial.

Estas herramientas están evolucionando a pasos agigantados, pero todavía reproducen sesgos y generan alucinaciones.

Investigadores de la Universidad de Oxford han tenido una particular idea para abordar estas limitaciones: que los chatbots sean supervisados por otros chatbots.

El grupo, integrado por Sebastián Farquhar, Jannik Kossen, Lorenz Kuhn y Yarin Gal, señala que los resultados falsos han impedido la adopción de los chatbots en diversos campos.

Ahora bien, el método que han diseñado, afirma, aborda el hecho de que una idea puede expresarse de diversas maneras y ha permitido a los usuarios detectar en qué momentos de la conversación deberían tener especial cuidado.

Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot.

Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas.

Tras comparar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%.

Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.

Estos hallazgos forman parte de un estudio titulado “Detección de alucinaciones en grandes modelos de lenguaje mediante entropía semántica”.

Como podemos ver, se ha utilizado una metodología bastante manual que puede ser tomada como modelo para inspirar posibles soluciones automatizadas que aborden la falta de fiabilidad de los chatbots de IA que utilizamos a diario.

Las propias herramientas suelen incluir mensajes de advertencia sobre la precisión de las respuestas en la parte inferior de la ventana de chat.

“ChatGPT puede cometer errores. Considera verificar la información importante”, dice el chatbot de OpenAI.

“Gemini puede mostrar información inexacta, incluso sobre personas, así que vuelve a verificar sus respuestas”, señala la propuesta creada por Google.

Tango OpenAI como Google, y también otras compañías, han dicho que están trabajando para mejorar la fiabilidad y la seguridad de sus productos de IA.

De momento, sin embargo, los resultados están lejos de ser perfectos.

En muchos casos las respuestas suelen presentar un texto que, a simple vista, parece muy coherente, pero puede contener desde pequeñas imperfecciones hasta grandes errores.

Fuente: NIH

Editor PDM

Entradas recientes

Los mismos genes que pueden provocar cáncer también guían el crecimiento del circuito neuronal

Mucha gente está familiarizada con los oncogenes, genes que se sabe desde hace mucho tiempo…

27 mins hace

Desarrollan material antifalsificación sintonizable

Los falsificadores son cada vez más sofisticados a la hora de falsificar de todo, desde…

28 mins hace

Inventan chip para teléfonos que mira a través de barreras con ondas electromagnéticas

Durante más de 15 años, un grupo de científicos de Texas ha trabajado arduamente para…

29 mins hace

El nuevo panel solar más eficiente del mundo es de silicio

La empresa solar china Aiko lanzará durante el cuarto trimestre de 2024 el nuevo panel…

31 mins hace

Inteligencia artificial diseña imán sin tierras raras

Las tierras raras son un recurso muy apreciado por los países más industrializados. (more…)

1 day hace

Nueva fuente de energía renovable se basa en aire húmedo

Captar la humedad y transformarla en electricidad no solo es posible, sino que cada vez…

1 day hace
Click to listen highlighted text!