Modelo matemático para proteger la privacidad y garantizar un uso más seguro de la IA
Las herramientas de IA se utilizan cada vez más para rastrearnos y monitorearnos tanto en línea como en persona, pero su efectividad conlleva grandes riesgos.
Científicos informáticos del Oxford Internet Institute, el Imperial College de Londres y la UCLouvain han desarrollado un nuevo modelo matemático que podría ayudar a las personas a comprender mejor los riesgos que plantea la IA y ayudar a los reguladores a proteger la privacidad de las personas.
Por primera vez, el método proporciona un marco científico sólido para evaluar las técnicas de identificación, especialmente cuando se trata de datos a gran escala.
Esto podría incluir, por ejemplo, monitorear la precisión del código publicitario y los rastreadores invisibles a la hora de identificar a los usuarios en línea a partir de pequeños fragmentos de información, como la zona horaria o la configuración del navegador (una técnica llamada “huella digital del navegador“).
El autor principal, el Dr. Luc Rocher, investigador principal del Oxford Internet Institute, parte de la Universidad de Oxford, dijo:
“Vemos nuestro método como un nuevo enfoque para ayudar a evaluar el riesgo de reidentificación en la publicación de datos, pero también para evaluar las técnicas de identificación modernas en entornos críticos y de alto riesgo.
“En lugares como hospitales, entrega de ayuda humanitaria o control fronterizo, lo que está en juego es increíblemente alto y la necesidad de una identificación precisa y confiable es primordial”.
El método se basa en el campo de las estadísticas bayesianas para aprender cuán identificables son los individuos a pequeña escala y extrapola la precisión de la identificación a poblaciones más grandes hasta 10 veces mejor que las heurísticas y reglas generales anteriores.
Esto le da al método un poder único para evaluar cómo se desempeñarán las diferentes técnicas de identificación de datos a escala, en diferentes aplicaciones y entornos de comportamiento.
Esto podría ayudar a explicar por qué algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real.
Los resultados son muy oportunos, dados los desafíos que plantea el anonimato y la privacidad a causa del rápido aumento de las técnicas de identificación basadas en IA.
Por ejemplo, se están probando herramientas de IA para identificar automáticamente a los humanos a partir de su voz en la banca en línea, sus ojos en la entrega de ayuda humanitaria o su rostro en la aplicación de la ley.
Según los investigadores, el nuevo método podría ayudar a las organizaciones a lograr un mejor equilibrio entre los beneficios de las tecnologías de IA y la necesidad de proteger la información personal de las personas, haciendo que las interacciones diarias con la tecnología sean más seguras.
Su método de prueba permite la identificación de posibles debilidades y áreas de mejora antes de la implementación a gran escala, lo que es esencial para mantener la seguridad y la precisión.
El profesor asociado Yves-Alexandre de Montjoye (Data Science Institute, Imperial College, Londres), coautor del estudio, afirmó:
“Nuestra nueva ley de escalabilidad proporciona, por primera vez, un modelo matemático basado en principios para evaluar el rendimiento de las técnicas de identificación a escala.
“Comprender la escalabilidad de la identificación es esencial para evaluar los riesgos que plantean estas técnicas de reidentificación, incluso para garantizar el cumplimiento de las legislaciones modernas de protección de datos en todo el mundo”.
El Dr. Luc Rocher concluyó:
“Creemos que este trabajo constituye un paso crucial hacia el desarrollo de métodos basados en principios para evaluar los riesgos que plantean las técnicas de IA cada vez más avanzadas y la naturaleza de la identificabilidad en los rastros humanos en línea.
“Esperamos que este trabajo sea de gran ayuda para investigadores, responsables de protección de datos, comités de ética y otros profesionales que buscan encontrar un equilibrio entre compartir datos para la investigación y proteger la privacidad de los pacientes, los participantes y los ciudadanos”.
Fuente: Nature communications
Científicos desarrollan un LiDAR de un solo fotón capaz de capturar imágenes 3D a un…
Hay una nueva IA china de código abierto, llamada Goku AI, para la generación de…
Un equipo de investigadores de IA y robótica de la Universidad Carnegie Mellon, en colaboración…
La empresa Topaz Labs está desarrollando una herramienta IA que puede revolucionar el mercado del…
Descubren las primeras evidencias de ruptura de simetría en el universo observadas en ondas gravitacionales…
Gavin Free y Daniel Gruchy de The Slow Mo Guys decidieron grabar una loca colisión…