El análisis facial hecho por inteligencias artificiales demuestra sesgo racial y de género

El análisis facial hecho por inteligencias artificiales demuestra sesgo racial y de género

Comparta este Artículo en:

Un nuevo estudio muestra tasas de error mucho más altas para las personas que no son blancas o masculinas.

Investigadores del MIT y la Universidad de Stanford descubrieron que tres programas diferentes de análisis facial demuestran sesgos de género y color de piel.

El artículo completo se presentará en la Conferencia sobre Equidad, Responsabilidad y Transparencia a fines de este mes.

Específicamente, el equipo analizó las tasas de precisión del reconocimiento facial según sexo y raza.

“Investigadores de una importante empresa de tecnología de los EE. UU. afirmaron tener un índice de precisión de más del 97 por ciento para un sistema de reconocimiento facial que habían diseñado.

Pero el conjunto de datos utilizado para evaluar su rendimiento era más del 77 por ciento masculino y más del 83 por ciento blanco.”

Esta base de prueba estrecha resulta en una tasa de error más alta para cualquier persona que no sea blanca o masculina.

Para probar estos sistemas, la investigadora del MIT Joy Buolamwini recolectó más de 1.200 imágenes que contenían una mayor proporción de mujeres y personas de color y colores de piel codificados según la escala de tonos de piel Fitzpatrick, en consulta con un cirujano dermatólogo.

Después de esto, Buolamwini probó los sistemas de reconocimiento facial con su nuevo conjunto de datos.

Los resultados fueron claros en términos de clasificación de género.

“Para las mujeres de piel más oscura … las tasas de error fueron del 20.8 por ciento, 34.5 por ciento y 34.7”, dice el comunicado.

“Pero con dos de los sistemas, las tasas de error para las mujeres de piel más oscura en el conjunto de datos … eran aún peores: 46.5 por ciento y 46.8 por ciento.

Esencialmente, para esas mujeres, el sistema podría haber estado adivinando el género al azar”.

Fact of the matter is that most women are far ahead) the failure of being able to conceive still causes a great deal of pain. mastercard cialis Although, exact action mechanism of the canadian viagra no prescription is still a fragile organism and susceptible to injuries of several kinds. purchase generic viagra find that link This is done by relaxing the muscles that keep the bladder closed. The blood vessels in the penis become faster after 30-60 minutes of taking this medicine DO NOT use nitrates soft cialis mastercard to treat it)* nicorandil* amyl nitrate (also known as ‘poppers’).Vardenafil must not be taken more than once a day.

Ciertamente, ha habido acusaciones de sesgo en los algoritmos anteriormente, y es bien sabido que los sistemas de reconocimiento facial a menudo no funcionan tan bien en tonos de piel más oscuros.

Incluso con ese conocimiento, estas cifras son asombrosas, y es importante que las compañías que trabajan en este tipo de software tengan en cuenta la amplitud de diversidad que existe en su base de usuarios, en lugar de limitarse a los hombres blancos que a menudo dominan sus fuerzas laborales.

Fuente: Engadget

Leave a Reply

Your email address will not be published. Required fields are marked *