Actualmente, los sistemas de inteligencia artificial son capaces de generar e interpretar contenidos a gran escala.
Sin embargo, emplear este tipo de sistemas para detectar de manera automática contenido dañino para los usuarios o para la sociedad es un reto que todavía no se ha resuelto.
Este es el objetivo de varios investigadores del Grupo de Sistemas Inteligentes (GSI) de la Universidad Politécnica de Madrid (UPM) en España.
Como parte del proyecto de investigación Participation, en el que colaboran distintas instituciones de varios países europeos como la Universidad de Roma Tre (Italia), la Universidad de Middlesex (Reino Unido) y la policía polaca, se han desarrollado varios modelos de inteligencia artificial con el objetivo de detectar, de manera automática, contenido radical que pueda resultar dañino para la sociedad.
Este tipo de contenido es, normalmente, propaganda dirigida a países de occidente que busca radicalizar a ciudadanos susceptibles e impulsarles, en última instancia, a cometer delitos violentos.
Detectar y detener el flujo de propaganda hacia Europa es una de las prioridades de la Comisión Europea, y a la que se dedican grandes recursos económicos y tecnológicos.
El proyecto Participation, dotado con casi 3 millones de euros, trabaja directamente con la detección de contenido propagandístico, analizando el lenguaje y las narrativas empleadas, así como un sistema de detección y monitorización completamente automático.
La investigación realizada en este proyecto, llevada a cabo por Patricia Alonso del Real y Oscar Araque, ambos de la UPM, trata de modelar la utilización de emociones y valores morales para despertar sentimientos de radicalización en los lectores.
De esta manera, los modelos de inteligencia artificial son capaces de comprender las emociones y valores morales expresados y, a partir de esa información, detectar si este contenido está orientado a radicalizar a los lectores.
Esto se consigue empleando técnicas de Procesamiento de Lenguaje Natural y Aprendizaje Automático, dos subcampos de la Inteligencia Artificial.
“El uso de este tipo de sistemas se está revelando crucial a la hora de controlar el contenido dañino, cada vez más común en redes sociales y otros foros”, destaca Óscar Araque, profesor de la de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la UPM.
“Esto es una necesidad acuciante, que la Unión Europea considera una prioridad de cara a la futura sociedad digital.”
El Grupo de Sistemas Inteligentes, como parte de su intensa actividad investigadora, trabaja en multitud de proyectos en los que se desarrollan sistemas basados en inteligencia artificial, en colaboración con miembros nacionales e internacionales.
Un ejemplo de ello es la financiación recibida por el proyecto AMOR, cuyo objetivo es desarrollar sistemas de asistencia al ciudadano para el consumo de contenido de una manera responsable e informada.
Para ello, se van a emplear robots inteligentes y un sistema de hologramas, que permitirá acceder a la información de una manera novedosa y moderna.
Fuente: IEEE Access
Boston Dynamics renovó su robot humanoide con una versión completamente eléctrica e impulsada por inteligencia…
Aprovechando la tecnología de proceso de clase de 12 nanómetros (nm), Samsung presenta la primera…
La complejidad de un organismo emerge de su genoma, el libro que contiene las instrucciones…
En un intento por mejorar la investigación y los tratamientos contra el cáncer, científicos han…
Se centra en la apuesta fotográfica, pero también quiere destacar en diseño. (more…)
Aunque los videos generados con IA todavía tienen camino por recorrer, era solo cuestión de…