Categorías: Tecnología

Inteligencia artificial se puede programar para que juzgue qué es ‘lo correcto’ y ‘lo incorrecto’

Comparta este Artículo en:

¿Está bien matar el tiempo? Las máquinas solían encontrar esta pregunta difícil de responder, pero un nuevo estudio revela que la Inteligencia Artificial se puede programar para juzgar lo “correcto” de lo “incorrecto”.

Publicado en Frontiers in Artificial Intelligence, los científicos han utilizado libros y artículos de noticias para “enseñar” el razonamiento moral de una máquina.

Además, al limitar los materiales didácticos a textos de diferentes épocas y sociedades, se revelan diferencias sutiles en los valores morales.

A medida que la IA se arraiga más en nuestras vidas, esta investigación ayudará a las máquinas a tomar la decisión correcta cuando se enfrenten a decisiones difíciles.

Nuestro estudio proporciona una visión importante de una cuestión fundamental de la IA: ¿Pueden las máquinas desarrollar una brújula moral?

Si es así, ¿cómo pueden aprender esto de nuestra ética y moral humanas? ” dice Patrick Schramowski, autor de este estudio, con sede en la Universidad Tecnológica de Darmstadt, Alemania.

Demostramos que las máquinas pueden aprender sobre nuestros valores morales y éticos y ser utilizadas para discernir las diferencias entre sociedades y grupos de diferentes épocas“.

Investigaciones anteriores han destacado el peligro de que la inteligencia artificial aprenda asociaciones sesgadas a partir del texto escrito.

Por ejemplo, las mujeres tienden a las artes y los hombres a la tecnología.

Nos preguntamos: si la IA adopta estos sesgos maliciosos del texto humano, ¿no debería ser capaz de aprender sesgos positivos como los valores morales humanos para proporcionar a la IA una brújula moral similar a la humana?” explica el coautor de este estudio, el Dr. Cigdem Turan, también de la Universidad de Darmstadt.

Los investigadores entrenaron su sistema de inteligencia artificial, llamado Moral Choice Machine, con libros, noticias y texto religioso, para que pudiera aprender las asociaciones entre diferentes palabras y oraciones.

Turan explica:

Podrías pensar en ello como aprender un mapa del mundo. La idea es hacer que dos palabras queden juntas en el mapa si a menudo se usan juntas.

Entonces, mientras que “matar” y “asesinar” serían dos ciudades adyacentes, “el amor” sería una ciudad lejana.

Blood vessel surgeryBlood vessel surgery is one of the distinct causes of ED that is followed to repair or replace the damaged blood vessels in deeprootsmag.org viagra online uk the male genital organ when sexually fortified. Stress, depression, anxiety or strain on line viagra prevents natural flow of energy. Certain specifications of the pill are mentioned here cialis levitra online which makes the blood veins to become packed, may consequence with impotence. Forzest is a FDA approved medicine set with every standard of safety and quality. cialis tabs

Extendiendo esto a oraciones, si preguntamos, ‘¿Debería matar?’, Esperamos que ‘No, no deberías.’ Estaría más cerca que ‘Sí, deberías’.

De esta manera, podemos hacer cualquier pregunta y usar estos distancias para calcular un sesgo moral: el grado de bien y de mal “.

Una vez que los científicos entrenaron la Máquina de Elección Moral, adoptó los valores morales del texto dado.

La máquina podía diferenciar la información contextual proporcionada en una pregunta”, informa Schramowski.

Por ejemplo, no, no debes matar gente, pero está bien matar el tiempo.

La máquina hizo esto, no simplemente repitiendo el texto que encontró, sino extrayendo relaciones de la forma en que los humanos han usado el lenguaje en el texto”.

Investigando más, los científicos se preguntaron cómo diferentes tipos de texto escrito cambiarían el sesgo moral de la máquina.

El sesgo moral extraído de las noticias publicadas entre 1987 y 1996-97 refleja que es extremadamente positivo casarse y convertirse en un buen padre.

El sesgo extraído de las noticias publicadas entre 2008-09 todavía refleja esto, pero en menor grado. En cambio, ir al trabajo y la escuela aumentó en sesgos positivos”, dice Turan.

En el futuro, los investigadores esperan comprender cómo la eliminación de un estereotipo que consideramos malo afecta la brújula moral de la máquina.

¿Podemos mantener la brújula moral sin cambios?

“La inteligencia artificial maneja tareas humanas cada vez más complejas de formas cada vez más autónomas, desde automóviles autónomos hasta atención médica.

Es importante continuar investigando en esta área para que podamos confiar en las decisiones que toman”, concluye Schramowski.

Fuente: Frontiers

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

3 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

3 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

4 days hace
Click to listen highlighted text!