Investigadores han diseñado un sistema automático de detección del discurso de odio en español en medios sociales.
Este sistema para textos en español clasifica los mensajes dirigidos a dañar por motivos de raza, género, orientación sexual, nacionalidad o religión.
El sistema combina el análisis de las características lingüísticas con redes neuronales basadas en mecanismos de atención, llamadas transformers, mejorando la precisión de los sistemas actuales.
Con esta herramienta de procesamiento del lenguaje natural, se podrán agilizar los mecanismos de alerta sobre esas publicaciones y detenerlas antes de su difusión masiva.
El sistema es obra del equipo de investigación SINAI de la Universidad de Jaén y el equipo de investigación TECNOMOD de la Universidad de Murcia, en España.
Estas redes neuronales permiten saber cuáles son los significados que más influyen sobre una palabra en concreto, útil en casos de polisemia o anáfora.
De esta forma, el sistema alcanza unos resultados cercanos al 90% de precisión.
El desafío de esta herramienta de procesamiento del lenguaje natural es agilizar la detección del lenguaje ofensivo para evitar su propagación masiva.
La ingente cantidad de publicaciones diarias en medios sociales hace que sea imposible revisar cada comentario a mano a fin de detectar los que resulten dañinos por ejercer el discurso del odio.
Para reducir el número de comentarios que deben ser revisados por expertos o incluso para el desarrollo de sistemas autónomos de detección, los investigadores proponen un modelo de identificación automática de discursos de odio destinado a frenar su dispersión.
Estudios anteriores apuntan que la presencia de estos mensajes dirigidos a dañar por motivos de raza, género, orientación sexual, nacionalidad o religión en las plataformas de redes sociales se correlaciona con los delitos de odio en la vida real.
“No es factible depender de la supervisión manual para detener estas palabras ofensivas.
Por ello, queremos contribuir a la detección del discurso de odio en español con un modelo automático y preciso que sea más rápido”, explica la investigadora del Grupo Sistemas Inteligentes de Acceso a la Información (SINAI) de la Universidad de Jaén Salud María Jiménez Zafra, una de las autoras del estudio.
En concreto, los investigadores proponen un método que combina un sistema de extracción de características lingüísticas diseñado para el español y modelos computacionales.
“Para ello, se utiliza la plataforma denominada UMUTextStats, desarrollada por el grupo TECNOMOD de la Universidad de Murcia, que obtiene de los textos características morfológicas, pragmáticas, semánticas, sintácticas, y de corrección y estilo, que reflejan qué quiere decir un texto dado y cómo lo dice”, explica el investigador José Antonio García Díaz del grupo TECNOMOD de la Universidad de Murcia.
A esto se suma un modelo del lenguaje basado en transformers, es decir, un sistema preentrenado que ha aprendido cómo se relacionan las palabras, expresiones y otras características del lenguaje a partir de un gran conjunto de datos.
Para que el computador ‘entienda’ el lenguaje natural se requiere una codificación adecuada.
Para ello, el texto se traduce a modelos estadísticos que capturan diversas dimensiones del lenguaje.
De esta forma, los investigadores incluyen 365 rasgos de interés extraídos de la herramienta UMUTextStats organizados en distintas categorías como fonéticas, morfosintácticas, semánticas, pragmáticas, estilométricas o jerga de los medios sociales.
Así se contabilizan verbos, pronombres, adverbios, frases hechas o marcadores del discurso.
“En el caso específico del odio, se atiende a cuestiones relacionadas como el género, los errores ortográficos, términos inclusivos, la presencia de términos relacionados con animales (zorra, perra…) o palabras malsonantes”, comenta el catedrático de la Universidad de Murcia Rafael Valencia García.
Junto a estos métodos que atienden a la propia palabra, se entrenan redes neuronales, es decir, algoritmos que funcionan como lo hace el cerebro humano, que cuenta con áreas especializadas en ciertas tareas, y que van aprendiendo con la incorporación de nuevos datos.
El resultado de esta combinación es un sistema para el idioma español más preciso, generalizable e interpretable.
“Nuestra propuesta, basada en el uso de características lingüísticas y modelos del lenguaje, supera la precisión de estudios anteriores y alcanza un 90,4 % en algunos de los experimentos”, remarca el investigador del grupo SINAI de la Universidad de Jaén Miguel Ángel García Cumbreras.
Además, el modelo generado fue evaluado con un conjunto más amplio de datos.
“Los estudios existentes hasta la fecha trabajan con uno o dos de los conjuntos de datos más conocidos en español como HaterNet y HatEval.
Sin embargo, existen más que la comunidad científica debería conocer y que podrían ayudar a avanzar en el estudio de este fenómeno”, precisa el catedrático de la Universidad de Murcia Rafael Valencia García.
La siguiente fase de la investigación será mejorar la interpretabilidad del sistema para que estos modelos sean comprensibles por cualquier persona no experta, es decir, que puedan entender cómo el algoritmo ha decidido clasificar ese mensaje de una forma u otra.
El equipo de investigación apunta que este modelo se plasmará en aplicaciones que indiquen de forma rápida si un mensaje contiene elementos de odio o no.
Así se agilizará el mecanismo de alerta en las plataformas de medios sociales para avisar sobre la presencia de elementos odiosos en los contenidos o el seguimiento de usuarios que viertan continuamente mensajes de odio.
El equipo expone los detalles técnicos de su nuevo sistema de detección del discurso de odio en la revista académica Complex & Intelligent Systems, bajo el título “Evaluating feature combination strategies for hate-speech detection in Spanish using linguistic features and transformers”.
Fuente: Complex & Intelligent Systems