Alimentado con miles de millones de palabras, este algoritmo crea artículos convincentes y muestra cómo una inteligencia artificial podría usarse para engañar a las personas en una escala masiva.
Rusia ha declarado la guerra a los Estados Unidos después de que Donald Trump disparara accidentalmente un misil en el aire.
Rusia dijo que había “identificado la trayectoria del misil y tomará las medidas necesarias para garantizar la seguridad de la población rusa y de las fuerzas nucleares estratégicas del país”.
La Casa Blanca dijo que estaba “extremadamente preocupada por la violación rusa” de un tratado que prohíbe misiles balísticos de rango intermedio.
EE. UU. Y Rusia han tenido una relación incómoda desde 2014, cuando Moscú anexó la región de Crimea de Ucrania y respaldó a los separatistas en el este de Ucrania.
Esa historia es, de hecho, no solo falsa, sino un ejemplo inquietante de lo bien que la inteligencia artificial nos está engañando.
Eso es porque no fue escrita por una persona; fue autogenerada por un algoritmo alimentado con las palabras “Rusia ha declarado la guerra a los Estados Unidos después de que Donald Trump accidentalmente …”
El programa hizo el resto de la historia por su cuenta.
Y puede crear informes de noticias de apariencia realista sobre cualquier tema que le de.
El programa fue desarrollado por un equipo en OpenAI, un instituto de investigación con sede en San Francisco.
Los investigadores se propusieron desarrollar un algoritmo de lenguaje de propósito general, entrenado en una gran cantidad de texto de la web, que sería capaz de traducir texto, responder preguntas y realizar otras tareas útiles.
Pero pronto se preocuparon por el potencial de abuso.
“Comenzamos a probarlo y descubrimos rápidamente que es posible generar contenido malicioso con bastante facilidad”, dice Jack Clark, director de políticas de OpenAI.
Clark dice que el programa sugiere cómo podría usarse la IA para automatizar la generación de noticias falsas convincentes, publicaciones en redes sociales u otro contenido de texto.
Una herramienta de este tipo podría arrojar noticias negativas sobre el clima o exposiciones escandalosas durante una elección.
Las noticias falsas ya son un problema, pero si se automatizaran, podría ser más difícil detectarlas.
Quizás podría optimizarse para determinadas características demográficas, o incluso para individuos.
Clark dice que puede que no pase mucho tiempo antes de que una IA pueda producir de manera confiable historias falsas, tweets falsos o comentarios duplicados que sean aún más convincentes.
“Está muy claro que si esta tecnología madura, y le daría uno o dos años, podría usarse para desinformación o propaganda”, dice.
Use kamagra jelly if you suffer from scoliosis and don’t want to go through the severe back pain after scoliosis surgery, opt for non-bracing and non-surgical treatment options. order cheap viagra robertrobb.com Shoulder impingement may be acute, as in after http://robertrobb.com/a-simpler-way-to-legalize-pot/ buy generic sildenafil an injury, or cummulative, which develop over time from small repetitive motions. Erectile Dysfunction is not always a problem forever, it can be fixed, and sometimes it is only a commercial locksmith HB that can better serve the levitra 20mg security interests of a business establishment. Chiropractic therapy is a valuable aid to many diseases, including a headache, cervical, herniated disk viagra no prescription uk http://robertrobb.com/research-university-oligopoly-wins-a-round/ and dysmenorrhea.“Estamos tratando de adelantarnos a esto”.
Dicha tecnología podría tener usos beneficiosos, como resumir texto o mejorar las habilidades de conversación de los chatbots.
Clark dice que incluso ha usado la herramienta para generar pasajes en historias cortas de ciencia ficción con un éxito sorprendente.
OpenAI realiza una investigación fundamental en IA, pero también desempeña un papel activo en resaltar los riesgos potenciales de la inteligencia artificial.
La organización participó en un informe de 2018 sobre los riesgos de la IA, incluidas las oportunidades de desinformación.
El algoritmo OpenAI no siempre es convincente para el lector exigente.
La mayoría de las veces, produce un galimatías o un texto superficialmente coherente que claramente parece haber surgido de fuentes de noticias en línea.
Sin embargo, a menudo es notablemente bueno en la producción de texto realista y refleja los avances recientes en la aplicación del aprendizaje automático al lenguaje.
El progreso en inteligencia artificial está ayudando gradualmente a las máquinas a comprender mejor el lenguaje.
El trabajo reciente ha progresado al proporcionar algoritmos de aprendizaje automático de propósito general en grandes cantidades de texto.
El programa OpenAI lleva esto a un nuevo nivel: el sistema recibió 45 millones de páginas de la web, elegidas a través del sitio web Reddit.
Y a diferencia de la mayoría de los algoritmos de lenguaje, el programa OpenAI no requiere texto etiquetado o curado.
Simplemente aprende a reconocer patrones en la información que lo alimenta.
Richard Socher, experto en procesamiento de lenguaje natural y científico jefe de Salesforce, dice que el trabajo de OpenAI es un buen ejemplo de un sistema de aprendizaje de idiomas de propósito más general.
“Creo que estos sistemas generales de aprendizaje son el futuro”, escribió en un correo electrónico.
Por otro lado, a Socher le preocupa menos el potencial de engaño y desinformación.
“No necesitas IA para crear noticias falsas”, dice.
“La gente puede hacerlo fácilmente :)”
Fuente: MIT Technology Review
Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…
Un equipo de físicos del Instituto de Tecnología de Massachusetts (MIT) ha descubierto una propiedad…
Una carcasa experimental de marcapasos sin cables puede recargar parcialmente la batería del dispositivo generando…
No había mucho en juego, ya que era solo una demostración en vivo, pero la…
La prótesis decodifica señales del centro del habla del cerebro para predecir qué sonido alguien…
El invento ya se probó en un paciente francés, de 63 años, al que le…