Un equipo internacional de investigación ha creado un sistema basado en inteligencia artificial que analiza las noticias en medios digitales de forma automática y determina la veracidad de estas con una alta precisión.
Aunque el sistema está aún en fase de pruebas, se propone como una herramienta útil para filtrar la gran cantidad de información que llega cada día a periodistas y a lectores.
De este modo, tendrán más elementos de juicio para evaluar la credibilidad de un escrito.
El sistema, creado y probado por investigadores de las universidades de Jaén y Alicante en España, y de La Habana en Cuba, testea la noticia en dos niveles, detectando si existen incongruencias en el contenido y si la estructura coincide con la que cualquier publicación con rigor periodístico debe tener.
Con el objetivo de ofrecer una mayor confianza al lector y dotar a los periodistas de nuevas herramientas que le permitan discernir entre diversas informaciones, los investigadores han publicado en la revista académica Expert Systems with Applications un artículo titulado “Exploiting discourse structure of traditional digital media to enhance automatic fake news detection” en el que presentan el prototipo de un detector de “fake news” para webs.
El artículo lo firman: Alba Bonet-Jover, Estela Saquete y Patricio Martínez-Barco, de la Universidad de Alicante; Alejandro Piad-Morffis, de la Universidad de La Habana; y Miguel Ángel García-Cumbreras, de la Universidad de Jaén.
El sistema analiza la estructura de la noticia publicada atendiendo a las normas de periodismo clásicas: la regla de las 5W+H, conocida así por las siglas de las cuestiones en inglés, y la pirámide invertida.
Estas guías se sustentan en que la noticia rigurosa debe contener información que responda a las seis preguntas básicas (¿qué?, ¿cuándo?, ¿dónde?, ¿quién?, ¿por qué? y ¿cómo?) y que se presente en gradación desde lo más importante hasta los detalles.
“La estructura de una publicación nos da pistas de si hay base periodística o si, por el contrario, imita a una noticia real”, indica a la Fundación Descubre Miguel Ángel García.
A partir del análisis del lenguaje natural, los expertos desarrollan un algoritmo que detecta las informaciones que no responden a esta estructura.
Estos cálculos se basan en técnicas de aprendizaje automático, también conocido como machine learning, de forma que el sistema va ‘aprendiendo’ a medida que va acumulando datos.
Además, la máquina puede procesar en segundos miles de datos simultáneos, algo que una persona no podría hacer.
“Así, los periodistas pueden contrastar fuentes, detectar estructuras incorrectas, viralizadas, o que tengan incongruencias entre el titular y el cuerpo de manera inmediata y automática.
Men’s anxiety during sex come from the expectations related to their masculinity in Indian culture, porn films where men act to have sex continuously for 30-50 minutes, or maybe fear about sex and lack of confidence. viagra sale Erection can be achieved strong only when you are having proper blood flow to the penile and the sponge like substance in the penis gets cialis without prescription overnight filled with blood. We believe the government should go country to country, for those we owe money to, and offset it with the financial support, grants, sildenafil online uk medicines, and help that America has spent in the last 200 years to these countries. So, it is very easy to get sildenafil buy the coveted medicine and stealthily cure the disease you have.También el usuario final puede tener evidencias de si la noticia que lee cumple con unos estándares o no”, añade Estela Saquete.
Los equipos ‘Sistemas Inteligentes de Acceso a la información’ (SINAI), de la Universidad de Jaén, y ‘Grupo de Procesamiento del Lenguaje Natural y Sistemas de Información’ (GPLSI), de la Universidad de Alicante, realizaron las pruebas sobre un conjunto de datos en español con más de 200 artículos centrados en temas sanitarios, de especial relevancia en la actualidad debido a las numerosas noticias falsas que circulan sobre el COVID-19.
El sistema toma como base el aprendizaje profundo, con el que se crean modelos computacionales compuestos por varias capas de procesamiento de datos.
Concretamente en este trabajo, los expertos definen dos capas.
Por un lado la estructura de la noticia y por otro el argumento.
De esta manera, la máquina predice no solo la credibilidad de la forma, sino también del contenido.
Además, los investigadores han aplicado un nuevo esquema en el tratamiento de los datos, conocido como anotación de grano fino, que consiste en colocar etiquetas a las noticias.
Estas marcas se aplican a todas las posibilidades, aunque las diferencias sean pequeñas.
De esta manera se obtiene una descripción detallada en los dos niveles para cada texto.
Cada etiqueta tiene un conjunto de atributos que proporcionan información más allá de lo lingüístico incluyendo la verificación de hechos, relaciones semánticas entre componentes o características contextuales.
Incluso, referencia aspectos relacionados con la carga emocional que pueda contener un escrito y que lo alejan de la objetividad que debe tener una noticia real.
El objetivo de los expertos es lograr una aplicación que marque automáticamente el texto de una noticia mientras se lee y que alerte mediante una señal de partes de la noticia que puedan ser falsas, indicando la referencia con otros textos similares en los que se pueda contrastar su veracidad.
Fuente: Noticias de la Ciencia
Ingenieros de la Universidad de Columbia han creado una nueva inteligencia artificial (IA) que echa…
Científicos idearon y patentaron una molécula sintética para la detección de VIH y hepatitis A,…
Una nueva investigación sugiere que la inteligencia artificial podría mejorar el diagnóstico de la miocardiopatía…
La enfermedad de Alzheimer es una creciente causa de discapacidad y muerte a nivel mundial.…
Científicos han creado un implante neural que se coloca en la superficie del cerebro pero…
Una startup en CES 2024 quiere que sepa que la música generada por inteligencia artificial…