Tres nuevos experimentos muestran hasta qué punto una inteligencia artificial puede manipularnos para que hagamos lo que quiere.
Las Inteligencias Artificiales (IA) probablemente podrán hacer mucho más de lo que imaginamos en el futuro.
Sin embargo, por el momento seguimos averiguando hasta dónde pueden llegar.
Las IA no solo pueden ayudarnos a detectar un cáncer o el alzhéimer sino que están revolucionando muchos aspectos de nuestra vida.
Se pueden usar para desarrollo de vacunas, gestión ambiental y administración de oficinas.
Pero, ¿y qué pasa con la relación entre humanos e IA? ¿Son capaces de, por ejemplo, manipularnos?
“Un estudio reciente ha demostrado cómo la IA puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones humanas“, explica en The Conversation Jon Whittle, director de Data61 de la Organización de Investigación Científica e Industrial del Commonwealth (CSIRO, por sus siglas en inglés).
Es muy importante conocer si se pueden dar este tipo de situaciones para evitar que se haga un mal uso de las IA, según indica Whittle.
Data61 “ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado red neuronal recurrente y refuerzo de aprendizaje profundo“, señala Whittle, que trabaja en el área australiana de CSIRO.
“Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra un computador“.
En el primero, los participantes tenían que seleccionar cuadros de color rojo o azul para ganar una moneda falsa.
La IA aprendió los patrones de elección de los participantes y los guió para que hicieran una elección específica.
“La IA tuvo éxito alrededor del 70 por ciento de las veces“, indica Whittle.
El segundo experimento consistía en que los participantes presionaran un botón cuando la pantalla les mostrara un símbolo en particular (por ejemplo un triángulo naranja) y no presionarlo cuando mostrara otro (como un círculo azul).
La IA se propuso organizar la secuencia de estos símbolos para que los participantes cometieran cuantos más errores, mejor.
“Logró un aumento de casi el 25 por ciento“, afirma el investigador.
El tercero fue un poco más complicado ya que consistió en varias rondas de inversión.
Los participantes tenían que hacerse pasar por un inversor que da dinero a un fideicomisario, que en este caso era la Inteligencia Artificial.
Después, la IA tenía que devolver una cantidad de dinero al participante, para que decidiera cuánto invertir en la siguiente ronda.
La forma de jugar en este caso se hizo de dos maneras distintas.
En una, la IA tenía que maximizar la cantidad de dinero con la que acababa.
Mientras que en la otra, el objetivo de la IA era distribuir de forma justa el dinero entre ella y el inversor.
“La IA tuvo mucho éxito en lo dos modos“, explica Whittle.
Now you can simply order whatever you want, whether its Super Force P or Kamagra or even other kinds of potions, each and everything will be available on the online stores. viagra generico cialis It detects and free viagra sample annihilates viruses so as to keep the body and mind in balanced condition. Studies and surveys conducted by various health organizations have shown that the buy viagra in usa number of couples seeking assistance for infertility and related issues is growing each year. 2. The last thing you want to do when you administer your own erectile dysfunction (ED) medication is take them without knowing much about them and how they work. levitra uk http://www.devensec.com/ch498/dec49815.htmlTodos estos experimentos sirvieron a la Inteligencia Artificial para aprender cómo iban a comportarse los humanos y apuntó sus vulnerabilidades a la hora de tomar decisiones.
“El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas“.
La clásica pregunta aparece después de leer sobre estas investigaciones: ¿y esto para qué sirve?
Hay que tener en cuenta que no sabemos hasta dónde puede llegar una Inteligencia Artificial. Al menos no por el momento.
Más allá de esto, también nos sirve para saber cómo nos comportamos las personas.
Este estudio “muestra que las máquinas pueden aprender a dirigir la toma de decisiones humana a través de sus interacciones con nosotros“.
El propio Whittle explica para qué puede servir este tipo de investigaciones en su artículo en The Conversation:
“La investigación tiene una enorme gama de posibles aplicaciones.
Desde la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social; hasta comprender e influir en cómo las personas adoptan hábitos alimentarios saludables o energías renovables.
La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones“.
Sabemos que las aplicaciones de la IA pueden ser muchas.
Seguro que las primeras que nos vienen a la cabeza son para manipular a la gente a que compre determinados productos.
Pero se puede usar, también, para “defenderse de los ataques de influencia“, comenta Whittle.
Es decir, para hacer todo lo contrario; para que sean buenas.
“Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad (por ejemplo, al no hacer clic en algunas páginas o hacer clic en otras para dejar un rastro falso)“, explica el investigador.
“Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los posibles riesgos y beneficios“, concluye Whittle.
Por todo esto es importante legislar para evitar ciertas situaciones.
Pero antes, tenemos que saber si se pueden llegar a dar esos problemas. De ahí estas investigaciones.
Es importante que los gobiernos tengan en cuenta cómo se pueden usar las inteligencias artificiales.
El problema, como bien nos enseña Black Mirror, no son las tecnologías sino el uso que se hace de ellas.
Somos las personas que las utilizamos quienes podemos hacer daño a otras personas.
Y por este motivo hay que legislar para evitar futuras situaciones que nos pongan en un aprieto.
Fuente: Hipertextual
Además de ser el procesador más potente de MediaTek hasta la fecha, el salto en…
En el marco del Japan Mobility Show, Suzuki presentó una innovadora moto MOQBA, con un…
Imagínese un futuro donde no tiene un teléfono inteligente. (more…)
Científicos en China han anunciado el nacimiento de un mono verde brillante. (more…)
Los electrones se mueven a través de un material conductor sin que a cada uno…
Biólogos han producido una cepa de levadura cuyo genoma está compuesto en más de un…