PARA DETECTAR LOS SESGOS EN UNA INTELIGENCIA ARTIFICIAL, ÉSTA EXPLICA QUÉ "VE" CUANDO ANALIZA UNA FOTO

Para detectar los sesgos en una inteligencia artificial, ésta explica qué “ve” cuando analiza una foto

Comparta este Artículo en:

Uno de los problemas de la inteligencia artificial es que no siempre sabemos qué criterios sigue para tomar las decisiones que toma.

No sabemos, por ejemplo, qué es lo que ve en las imágenes que hace que se decante por una u otra opción a la hora de identificar alguna característica de un sujeto (como su género).

Por eso, Google ha estado trabajando para lograr desarrollar modelos de machine learning que sean más transparentes.

El motivo lo explica Sundar Pichai, CEO de Google:

“El sesgo ha sido una preocupación para la ciencia desde mucho antes de que existiera el machine learning.

Pero claramente las apuestas han subido al llegar la IA.

Queremos estar seguros de que nuestros modelos de IA no repiten los mismos sesgos que vemos en el mundo real.

Construir un Google más útil para todos pasa por abordar [el problema de] el sesgo.

Es necesario que sepamos cómo puede surgir, y cómo funciona un modelo de IA”.

Para ello, han creado la herramienta con la que Google pretende aumentar la transparencia e inclusividad de la IA: TCAV (siglas de ‘Testing with Concept Activation Vectors’, o “Pruebas con vectores de activación de concepto”, en español).

Lots of companies are producing lots of brand for get viagra sample . If you have any kind of viagra super erection difficulty, you can buy Kamagra to treat ED and impotency. After doing this, you will certainly feel appalachianmagazine.com cialis cheap revived even if you fail to get and maintain an erection. Then it moved on to list building and generic cialis samples permission based mailing and every site you visit wants your email address prior to being able to view what they have to offer.

Google define TCAV como “un nuevo método de interpretación para comprender qué señales usan los modelos de redes neuronales para generar predicciones”.

Hasta ahora, los métodos de interpretabilidad típicos ponían el acento en los datos de entrada, a nivel de pixel, lo que no nos resulta de mucha ayuda.

En cambio, TCAV muestra cuánta importancia concede una red neuronal a conceptos de alto nivel (por ejemplo: “color”, “género”, “raza”) a la hora de lanzar predicciones.

En pocas palabras, TCAV hace que las IAs expliquen sus razones en términos que los humanos podamos entender.

Pero el mejor modo de entender de qué estamos hablando es con un ejemplo; por ejemplo, el de esta imagen:

Aquí podemos ver cómo TCAV, a la hora de identificar si en una serie de imágenes aparecen o no médicos, ordena las variables a tener en cuenta y les concede un determinado peso.

Así, podemos supervisar el modelo y comprobar por nosotros mismos que la presencia de una ‘bata blanca’ o un ‘estetoscopio’ son factores con un peso, respectivamente, de un 68% y un 46%.

Sin embargo, el siguiente factor por orden de importancia es que el sujeto de la foto sea de género masculino (37%), una información que en otras circunstancias no habría salido a la luz y que nos permitirá detectar las carencias del dataset utilizado antes de que las decisiones de la IA entrenada a partir del mismo puedan generar algún problema (como la pérdida de una oportunidad laboral).

Fuente: Xataca

Leave a Reply

Your email address will not be published. Required fields are marked *