Uno de los mayores dilemas a los que durante años se ha estado enfrentando el concepto del carro autónomo es el decidir a quién debe atropellar un automóvil autónomo en caso de duda.
Ahora un grupo de investigadores del Media Lab del MIT y el Departamento de Machine Learning de la CMU dice haber hallado una solución al problema.
Se trata de un sistema de toma de decisiones éticas basado en los votos de la gente.
Lo han publicado en un artículo, y explican que la solución sería hacer una gigantesca encuesta entre millones de personas para ver cuáles son las decisiones más éticas en cada situación según la sociedad, y luego simplemente hacer que los autos apliquen los resultados.
Imagínese que un tranvía se dirige a cinco personas atadas a las vías, y usted está al lado de un botón que podría hacer que el tranvía cambie de vía hacia una en la que hay una única persona atada e inmovilizada. ¿Qué debería hacer?Es lo que se llama el dilema del tranvía, y la solución según los investigadores sería buscar un consenso para decidir cuál es el mal menor.
Esta investigación sobre cómo automatizar el proceso de encuestas para obtener un resultado claro en cada situación es un proyecto conjunto de cuatro investigadores del Media Lab del MIT y tres del Departamento de Machine Learning de la CMU.
Para evaluar su teoría, han creado un modelo basándose en las decisiones tomadas por 1,3 millones de votantes en la web Moral Machine del MIT.
En esta web se le presenta a los votantes una serie de situaciones complejas con varias personas y animales involucrados, y ellos tienen que decir cuál es la decisión que creen que debería tomar el arro autónomo en cada situación.
La encuesta sigue abierta, o sea que aún puede votar para ver cuáles son las situaciones.Con todos estos datos, han desarrollado un sistema de prueba de concepto que toma una decisión equivalente que probablemente sea la misma que si se acudiese a cada uno de los 1.3 millones de votantes, se les pidiese su opinión, y se generase con todas una opción que satisfaga las nociones matemáticas de justicia social.
Según el estudio, el principal obstáculo a la hora de automatizar la toma de decisiones es la falta de una base formal de principios éticos que se pueda aplicar a los algoritmos de los autos.
Lo que sugieren es que a falta de esta base, lo que deberíamos hacer es utilizar una “aproximación según lo acordado por la sociedad”. Basarse en la opinión de la gente.
Para conseguirlo proponen un proceso de cuatro pasos.
Durante el primero se haría una especie de encuesta entre el mayor grupo de personas posible.
A estas se le preguntaría a quién verían más ético atropellar en determinadas ocasiones, basándose en vectores como el número de víctimas, su género, su edad, su salud o incluso su especie.
Una vez hecho esto, el segundo paso sería el de crear modelos de preferencia de cada uno de los votantes, de manera que se puedan combinar en un tercer paso para crear un modelo único basado en las preferencias generales.
The generic levitra brand clients want lifting products and solutions according to their needs, and this company provides that facility. When we sit in commode style toilet then, the body gets settled in right angle which is actually not the commander viagra right and adoptable manner to poop as it puts you in trouble if not required treatment is taken to solve the puzzle of happy life, while some people remain unsuccessful to do the same. Those who are facing levitra 60 mg davidfraymusic.com relationship issues must shun concerns & work out the divergence. The most simple things in cipla levitra life are often the most profound, and in a few day of being a YES-a-holic you’ll find the energy to skyrocket beyond all your problems and see how everything is an opportunity in disguise.
Esto quiere decir que en cada una de las situaciones que se expusieran, elegirían la opción más votada como consenso sobre cómo sería más ético actuar según la sociedad.
De esta manera llegaríamos al cuarto paso, el de la agregación.
Habría que insertar en los autos autónomos todas las preferencias generales que ha votado la gente, de manera que cuando el vehículo se enfrente a uno de los dilemas morales sobre el que se ha votado, se limite a actuar según lo que ha decidido la mayoría de ciudadanos.
Esta opción sólo se aplicaría si no queda más remedio, y si los algoritmos del auto no detectan ninguna manera posible en la que ante un inminente accidente nadie salga herido.
Sería como optar por lo que la sociedad ha considerado como el mal menor o la salida menos catastrófica.
A la hora de tomar decisiones habría que conseguir el mayor número de personas posibles a la hora de realizar las encuestas, y en ellas también se deberían tener en cuenta otros parámetros como quiénes son exactamente los que están involucrados en el accidente en cada caso.
También otros aspectos de la situación como si alguno de los afectados se ha saltado alguna señal de tráfico como un semáforo en rojo.
Empresas como Mercedes han intentado posicionarse en este dilema moral sobre qué hacer en caso de accidente.
En un principio dijo que priorizarían la vida de los ocupantes, pero las críticas recibidas hicieron que tuvieran que dar marcha atrás y puntualizar su declaración.
Esto demuestra que no estamos ante una solución fácil, ya que puede haber tantas respuestas ante el dilema como situaciones diferentes y cantidades y tipos de personas involucradas.
Así pues, buscar un consenso como han propuesto estos investigadores no es una idea tan descabellada, y desde luego le ahorraría muchos dolores de cabeza a los fabricantes.
Sea como fuere, la mera existencia de este dilema y la posible automatización de una respuesta que no depende de la opinión de quien va conduciendo no dejará de ser polémica.
Después de todo, ¿se compraría un carro autónomo si este puede decidir sacrificarlo como mal menor?
Habrá que ver cómo se recibe esta propuesta por parte de la industria y si alguien tiene una sugerencia mejor.
Fuente: Xataca