Los sistemas de aprendizaje automático ML se están generalizando no solo en las tecnologías que afectan nuestra vida cotidiana, sino también en quienes los observan, incluidos los sistemas de reconocimiento de expresiones faciales. Las empresas que fabrican y utilizan servicios tan ampliamente implementados confían en-llamadas herramientas de preservación de la privacidad que a menudo usan redes generativas de confrontación GAN, generalmente producidas por un tercero para borrar imágenes de la identidad de las personas. Pero, ¿qué tan buenas son?
Investigadores de la NYU Tandon School of Engineering, que exploraron los marcos de aprendizaje automático detrás de estas herramientas, encontraron que la respuesta es "no muy". En el documento "Subvirtiendo las GAN que preservan la privacidad: ocultando secretos en imágenes desinfectadas", se presentóEl mes pasado, en la 35a Conferencia AAAI sobre Inteligencia Artificial, un equipo dirigido por Siddharth Garg, profesor asociado del Instituto de ingeniería eléctrica e informática en NYU Tandon, exploró si los datos privados aún podían recuperarse de imágenes que habían sido "desinfectadas" por tan profundoaprendiendo discriminadores como GAN que protegen la privacidad PP-GAN y que incluso habían pasado pruebas empíricas. El equipo, incluido el autor principal Kang Liu, candidato a doctorado, y Benjamin Tan, profesor asistente de investigación de ingeniería eléctrica e informática, descubrió queLos diseños de PP-GAN pueden, de hecho, ser subvertidos para pasar verificaciones de privacidad, al mismo tiempo que permiten extraer información secreta de imágenes desinfectadas.
Las herramientas de privacidad basadas en aprendizaje automático tienen una amplia aplicabilidad, potencialmente en cualquier dominio sensible a la privacidad, incluida la eliminación de información relevante para la ubicación de los datos de la cámara de un vehículo, la ocultación de la identidad de una persona que produjo una muestra de escritura a mano o la eliminación de códigos de barras de las imágenes.El diseño y la capacitación de herramientas basadas en GAN se subcontratan a los proveedores debido a la complejidad involucrada.
"Muchas herramientas de terceros para proteger la privacidad de las personas que pueden aparecer en una cámara de vigilancia o recopilación de datos utilizan estos PP-GAN para manipular imágenes", dijo Garg. "Las versiones de estos sistemas están diseñadas para desinfectar imágenes decaras y otros datos confidenciales para que solo se conserve la información crítica de la aplicación. Si bien nuestro PP-GAN adversario pasó todas las verificaciones de privacidad existentes, descubrimos que en realidad ocultaba datos secretos relacionados con los atributos confidenciales, incluso permitiendo la reconstrucción de la imagen privada original. "
El estudio proporciona antecedentes sobre PP-GAN y comprobaciones empíricas de privacidad asociadas, formula un escenario de ataque para preguntar si las comprobaciones de privacidad empíricas pueden subvertirse y describe un enfoque para eludir las comprobaciones de privacidad empíricas.
El equipo proporciona el primer análisis de seguridad integral de las GAN que preservan la privacidad y demuestra que las verificaciones de privacidad existentes son inadecuadas para detectar fugas de información confidencial.
Utilizando un enfoque esteganográfico novedoso, modifican contrariamente un PP-GAN de última generación para ocultar un secreto el ID de usuario, de imágenes faciales supuestamente desinfectadas.
Demuestran que su PP-GAN adversario propuesto puede ocultar con éxito atributos confidenciales en imágenes de salida "desinfectadas" que pasan las verificaciones de privacidad, con una tasa de recuperación secreta del 100%.
Observando que las métricas empíricas dependen de las capacidades de aprendizaje y los presupuestos de capacitación de los discriminadores, Garg y sus colaboradores argumentan que tales controles de privacidad carecen del rigor necesario para garantizar la privacidad.
"Desde un punto de vista práctico, nuestros resultados son una nota de precaución contra el uso de herramientas de desinfección de datos, y específicamente PP-GAN, diseñados por terceros", explicó Garg. "Nuestros resultados experimentales destacaron la insuficiencia de DL existentecontroles de privacidad y los riesgos potenciales de utilizar herramientas PP-GAN de terceros que no son de confianza ".
Fuente de la historia :
Materiales proporcionado por Escuela de Ingeniería de NYU Tandon . Nota: el contenido se puede editar por estilo y longitud.
cite esta página :