La semana pasada, la congresista estadounidense Ocasio-Cortez volvía a poner sobre la mesa mediática la polémica en torno al sesgo racial de los algoritmos de inteligencia artificial, específicamente los de reconocimiento facial.
En su intervención, la congresista afirmaba que “si no arreglas el sesgo [del humano que desarrolla el algoritmo], lo único que estás haciendo es automatizar [el sesgo]. Y eso es aún más peligroso”.
Pero, ¿y si no fuera así? ¿Y si la IA pudiera contar con un mecanismo que permitiera no sólo detectar su propio sesgo sino también de ponerle remedio? Es decir, de automatizar el arreglo del sesgo.
Casi al mismo tiempo, que Ocasio-Cortez generaba titulares en torno a este problema, un equipo de científicos del Computer Science and Artificial Intelligence Laboratory del MIT publicaba una posible solución al mismo, en la que llevaban un tiempo trabajando.
Su propuesta consiste en un algoritmo capaz de detectar y reducir el sesgo de un sistema de reconocimiento facial ‘remuestreando’ rápidamente los datos con los que se le entrena, y asegurándose así de que se adapta a una gama más amplia de grupos humanos.
Según explican en la presentación de su ‘artículo’,
There can be several reasons leading to ED: Psychological conditions that are contributing to Erectile Dysfunction are quite higher. viagra 100 mg It gets in the blood stream and within 45 minutes of intake it becomes active to show amazing results for pleasurable intercourse. viagra cipla india It seems like everyone is coming up with some kind of drink or liquor can have the negative impact on a man’s sex life. buy cialis uk click to find out Factors such as depression and fatigue cheap viagra in canada can also be common causes.“nuestro algoritmo fusiona la tarea original de aprendizaje con un codificador automático variacional destinado a evaluar la estructura latente dentro del conjunto de datos, y luego usa de manera adaptativa las distribuciones latentes detectadas con el fin de reevaluar la importancia de ciertos aspectos de los datos durante el entrenamiento”.
Los investigadores no prometen que su tecnología vaya a poder eliminar todos los posibles sesgos, pero la repercusión de su uso puede ser ciertamente significativa: en las pruebas que realizaron, el sistema de MIT redujo el “sesgo categórico” en un 60% sin que ello afectase a la precisión del reconocimiento facial.
Los investigadores realizaron las pruebas recurriendo al ‘Pilot Parliaments Benchmark’, un dataset creado ‘ex profeso’ en 2017 para evaluar los sesgos de género y raciales detectados en algunos de los datasets más usados en aquel momento: se compone de fotos de políticos de los parlamentos con mayor paridad de género tanto de Europa como de África.
Posiblemente, las aplicaciones y dispositivos con funciones de reconocimiento facial que usamos (o que usan sobre nosotros) en nuestro día a día tarden todavía un tiempo en implementar esta solución o alguna similar.
Pero una vez que lo haga su efecto se hará notar, sobre todo, legitimando socialmente el uso de la biometría por parte de las fuerzas de seguridad.
Fuente: Xataca
BARK Air es la primera aerolínea del mundo diseñada especialmente para perros y sus humanos.…
Investigadores de la Universidad Estatal de Princeton y Carolina del Norte han desarrollado un robot…
Investigadores de DeepMind presentaron AlphaFold 3, un nuevo modelo capaz de predecir la estructura y…
Los accesorios Bluetooth que nos rodean, como teclados, mandos de videojuegos o auriculares, tienen un…
Microsoft está trabajando en MAI-1, una inteligencia artificial para competirle a Google y OpenAI. (more…)
Científicos japoneses están a punto de iniciar los primeros ensayos clínicos del mundo sobre "medicamento…