¿Puede detectar a un mentiroso? Es una pregunta que ha estado en la mente de muchos últimamente, a raíz de varios debates políticos televisados.
Las investigaciones han demostrado que, en general, somos bastante malos para distinguir la verdad de la mentira.
Algunos creen que la IA podría ayudar a mejorar nuestras probabilidades y funcionar mejor que técnicas anticuadas y poco fiables como las pruebas de polígrafo.
Los sistemas de detección de mentiras basados en inteligencia artificial algún día podrían usarse para ayudarnos a separar los hechos de las noticias falsas, evaluar afirmaciones y, potencialmente, incluso detectar mentiras y exageraciones en las solicitudes de empleo. La pregunta es si confiaremos en ellos. Y si deberíamos hacerlo.
En un estudio reciente, Alicia von Schenk y sus colegas desarrollaron una herramienta que era significativamente mejor que las personas para detectar mentiras.
Von Schenk, economista de la Universidad de Würzburg en Alemania, y su equipo realizaron algunos experimentos para descubrir cómo la gente lo usaba.
En cierto modo, la herramienta fue útil: las personas que la utilizaron eran mejores para detectar mentiras. Pero también llevaron a la gente a hacer muchas más acusaciones.
En su estudio von Schenk y sus colegas pidieron a voluntarios que escribieran declaraciones sobre sus planes de fin de semana.
La mitad de las veces, se incentivaba a la gente a mentir; una declaración creíble pero falsa fue recompensada con un pequeño pago económico. En total, el equipo recopiló 1.536 declaraciones de 768 personas.
Luego utilizaron el 80% de estas declaraciones para entrenar un algoritmo sobre mentiras y verdades, utilizando el modelo de lenguaje de inteligencia artificial BERT de Google.
Cuando probaron la herramienta resultante en el 20% final de las afirmaciones, descubrieron que podía determinar con éxito si una afirmación era verdadera o falsa el 67% de las veces.
Eso es significativamente mejor que un humano típico; normalmente sólo lo hacemos bien la mitad de las veces.
Para descubrir cómo las personas podrían utilizar la IA para detectar mentiras, von Schenk y sus colegas dividieron a otros 2.040 voluntarios en grupos más pequeños y realizaron una serie de pruebas.
Una prueba reveló que cuando a las personas se les da la opción de pagar una pequeña tarifa para usar una herramienta de inteligencia artificial que puede ayudarlos a detectar mentiras (y obtener recompensas financieras), todavía no están muy interesados en usarla.
Sólo un tercio de los voluntarios a los que se les dio esa opción decidieron utilizar la herramienta de IA, posiblemente porque son escépticos ante la tecnología, dice von Schenk. (También podrían ser demasiado optimistas acerca de sus propias habilidades para detectar mentiras, añade).
Pero ese tercio de la gente realmente confía en la tecnología.
“Cuando se toma la decisión activa de confiar en la tecnología, vemos que las personas casi siempre siguen las predicciones de la IA… confían mucho en sus predicciones”, dice von Schenk.
Esta dependencia puede moldear nuestro comportamiento.
Normalmente, la gente tiende a asumir que los demás dicen la verdad.
Esto se confirmó en este estudio: aunque los voluntarios sabían que la mitad de las afirmaciones eran mentiras, sólo marcaron el 19% de ellas como tales.
Pero eso cambió cuando la gente optó por hacer uso de la herramienta de inteligencia artificial: la tasa de acusaciones aumentó al 58%.
En cierto modo, esto es algo bueno: estas herramientas pueden ayudarnos a detectar más mentiras con las que nos encontramos en nuestras vidas, como la información errónea que podemos encontrar en las redes sociales.
Pero no todo es bueno. También podría socavar la confianza, un aspecto fundamental del comportamiento humano que nos ayuda a establecer relaciones.
Si el precio de los juicios acertados es el deterioro de los vínculos sociales, ¿vale la pena?
Y luego está la cuestión de la precisión. En su estudio, von Schenk y sus colegas sólo estaban interesados en crear una herramienta que fuera mejor que los humanos en la detección de mentiras.
Eso no es demasiado difícil, dado lo terribles que somos en eso.
Pero también imagine que una herramienta como la suya se utilice para evaluar de forma rutinaria la veracidad de las publicaciones en las redes sociales, o buscar detalles falsos en el currículum de un buscador de empleo o en las respuestas a una entrevista.
En casos como estos, no basta con que una tecnología sea simplemente “mejor que los humanos” para hacer más acusaciones.
¿Estaríamos dispuestos a aceptar una tasa de precisión del 80%, donde sólo cuatro de cada cinco afirmaciones evaluadas se interpretarían correctamente como verdaderas o falsas? ¿Sería suficiente incluso una precisión del 99%?
Vale la pena recordar la falibilidad de las técnicas históricas de detección de mentiras.
El polígrafo fue diseñado para medir la frecuencia cardíaca y otros signos de “excitación” porque se pensaba que algunos signos de estrés eran exclusivos de los mentirosos. No lo son. Y lo sabemos desde hace mucho tiempo.
Es por eso que los resultados del detector de mentiras generalmente no son admisibles en los casos judiciales de Estados Unidos.
A pesar de eso, las pruebas del detector de mentiras del polígrafo han perdurado en algunos entornos y han causado mucho daño cuando se han utilizado para lanzar acusaciones a personas que fallan en los reality shows de televisión.
Las herramientas imperfectas de IA pueden tener un impacto aún mayor porque son muy fáciles de escalar, dice von Schenk.
Sólo puede hacer polígrafos a un número determinado de personas en un día.
En comparación, el alcance de la detección de mentiras por IA es casi ilimitado.
“Dado que tenemos tantas noticias falsas y desinformación difundiéndose, estas tecnologías tienen un beneficio”, dice von Schenk.
“Sin embargo, realmente es necesario probarlos; es necesario asegurarse de que sean sustancialmente mejores que los humanos“.
Si un detector de mentiras con IA genera muchas acusaciones, sería mejor que no lo usáramos en absoluto.
Fuente: MIT Technology Review