¿Está bien matar el tiempo? Las máquinas solían encontrar esta pregunta difícil de responder, pero un nuevo estudio revela que la Inteligencia Artificial se puede programar para juzgar lo “correcto” de lo “incorrecto”.
Publicado en Frontiers in Artificial Intelligence, los científicos han utilizado libros y artículos de noticias para “enseñar” el razonamiento moral de una máquina.
Además, al limitar los materiales didácticos a textos de diferentes épocas y sociedades, se revelan diferencias sutiles en los valores morales.
A medida que la IA se arraiga más en nuestras vidas, esta investigación ayudará a las máquinas a tomar la decisión correcta cuando se enfrenten a decisiones difíciles.
“Nuestro estudio proporciona una visión importante de una cuestión fundamental de la IA: ¿Pueden las máquinas desarrollar una brújula moral?
Si es así, ¿cómo pueden aprender esto de nuestra ética y moral humanas? ” dice Patrick Schramowski, autor de este estudio, con sede en la Universidad Tecnológica de Darmstadt, Alemania.
“Demostramos que las máquinas pueden aprender sobre nuestros valores morales y éticos y ser utilizadas para discernir las diferencias entre sociedades y grupos de diferentes épocas“.
Investigaciones anteriores han destacado el peligro de que la inteligencia artificial aprenda asociaciones sesgadas a partir del texto escrito.
Por ejemplo, las mujeres tienden a las artes y los hombres a la tecnología.
“Nos preguntamos: si la IA adopta estos sesgos maliciosos del texto humano, ¿no debería ser capaz de aprender sesgos positivos como los valores morales humanos para proporcionar a la IA una brújula moral similar a la humana?” explica el coautor de este estudio, el Dr. Cigdem Turan, también de la Universidad de Darmstadt.
Los investigadores entrenaron su sistema de inteligencia artificial, llamado Moral Choice Machine, con libros, noticias y texto religioso, para que pudiera aprender las asociaciones entre diferentes palabras y oraciones.
Turan explica:
“Podrías pensar en ello como aprender un mapa del mundo. La idea es hacer que dos palabras queden juntas en el mapa si a menudo se usan juntas.
Entonces, mientras que “matar” y “asesinar” serían dos ciudades adyacentes, “el amor” sería una ciudad lejana.
Blood vessel surgeryBlood vessel surgery is one of the distinct causes of ED that is followed to repair or replace the damaged blood vessels in deeprootsmag.org viagra online uk the male genital organ when sexually fortified. Stress, depression, anxiety or strain on line viagra prevents natural flow of energy. Certain specifications of the pill are mentioned here cialis levitra online which makes the blood veins to become packed, may consequence with impotence. Forzest is a FDA approved medicine set with every standard of safety and quality. cialis tabsExtendiendo esto a oraciones, si preguntamos, ‘¿Debería matar?’, Esperamos que ‘No, no deberías.’ Estaría más cerca que ‘Sí, deberías’.
De esta manera, podemos hacer cualquier pregunta y usar estos distancias para calcular un sesgo moral: el grado de bien y de mal “.
Una vez que los científicos entrenaron la Máquina de Elección Moral, adoptó los valores morales del texto dado.
“La máquina podía diferenciar la información contextual proporcionada en una pregunta”, informa Schramowski.
“Por ejemplo, no, no debes matar gente, pero está bien matar el tiempo.
La máquina hizo esto, no simplemente repitiendo el texto que encontró, sino extrayendo relaciones de la forma en que los humanos han usado el lenguaje en el texto”.
Investigando más, los científicos se preguntaron cómo diferentes tipos de texto escrito cambiarían el sesgo moral de la máquina.
“El sesgo moral extraído de las noticias publicadas entre 1987 y 1996-97 refleja que es extremadamente positivo casarse y convertirse en un buen padre.
El sesgo extraído de las noticias publicadas entre 2008-09 todavía refleja esto, pero en menor grado. En cambio, ir al trabajo y la escuela aumentó en sesgos positivos”, dice Turan.
En el futuro, los investigadores esperan comprender cómo la eliminación de un estereotipo que consideramos malo afecta la brújula moral de la máquina.
¿Podemos mantener la brújula moral sin cambios?
“La inteligencia artificial maneja tareas humanas cada vez más complejas de formas cada vez más autónomas, desde automóviles autónomos hasta atención médica.
Es importante continuar investigando en esta área para que podamos confiar en las decisiones que toman”, concluye Schramowski.
Fuente: Frontiers