Parecen engañosamente reales, pero están hechos por computadoras: las llamadas imágenes falsas profundas son generadas por algoritmos de aprendizaje automático, y los humanos son prácticamente incapaces de distinguirlas de las fotos reales. Investigadores del Instituto Horst Görtz para la Seguridad de TIen la Ruhr-Universität Bochum y el Clúster de Excelencia "Ciberseguridad en la era de los adversarios a gran escala" Casa han desarrollado un nuevo método para identificar eficientemente imágenes falsas profundas. Para este fin, analizan los objetos en el dominio de la frecuencia, una técnica de procesamiento de señal establecida.
El equipo presentó su trabajo en la Conferencia Internacional sobre Aprendizaje Automático ICML el 15 de julio de 2020, una de las conferencias líderes en el campo del aprendizaje automático. Además, los investigadores hacen que su código esté disponible gratuitamente en línea en http://github.com/RUB-SysSec/GANDCTAnalysis , para que otros grupos puedan reproducir sus resultados.
La interacción de dos algoritmos da como resultado nuevas imágenes
Las imágenes falsas profundas, una palabra clave de "aprendizaje profundo" para aprendizaje automático y "falso", se generan con la ayuda de modelos informáticos, las llamadas Redes Adversarias Generativas, GAN para abreviar. Dos algoritmos funcionan juntos enestas redes: el primer algoritmo crea imágenes aleatorias basadas en ciertos datos de entrada. El segundo algoritmo necesita decidir si la imagen es falsa o no. Si la imagen es falsa, el segundo algoritmo le da al primer algoritmo el comando pararevise la imagen, hasta que ya no la reconozca como falsa.
En los últimos años, esta técnica ha ayudado a hacer que las imágenes falsas sean cada vez más auténticas. En el sitio web www.whichfaceisreal.com, los usuarios pueden verificar si pueden distinguir las falsificaciones de las fotos originales ". En la era de las falsificacionesnoticias, puede ser un problema si los usuarios no tienen la capacidad de distinguir las imágenes generadas por computadora de las originales ", dice el profesor Thorsten Holz de la Cátedra de Seguridad de Sistemas.
Para su análisis, los investigadores con sede en Bochum utilizaron los conjuntos de datos que también forman la base de la página mencionada "Qué cara es real". En este proyecto interdisciplinario, Joel Frank, Thorsten Eisenhofer y el profesor Thorsten Holz de la Cátedrafor Systems Security cooperó con la profesora Asja Fischer de la cátedra de Machine Learning, así como con Lea Schönherr y la profesora Dorothea Kolossa de la cátedra de procesamiento de señales digitales.
El análisis de frecuencia revela artefactos típicos
Hasta la fecha, las imágenes falsas profundas se han analizado utilizando métodos estadísticos complejos. El grupo Bochum eligió un enfoque diferente al convertir las imágenes en el dominio de frecuencia utilizando la transformada discreta del coseno. La imagen generada se expresa así como la suma de muchos diferentesfunciones coseno. Las imágenes naturales consisten principalmente en funciones de baja frecuencia.
El análisis ha demostrado que las imágenes generadas por GAN exhiben artefactos en el rango de alta frecuencia. Por ejemplo, una estructura de rejilla típica emerge en la representación de frecuencia de imágenes falsas. "Nuestros experimentos mostraron que estos artefactos no solo ocurren en GAN generadoimágenes. Son un problema estructural de todos los algoritmos de aprendizaje profundo ", explica Joel Frank de la Cátedra de Seguridad de Sistemas." Asumimos que los artefactos descritos en nuestro estudio siempre nos dirán si la imagen es una imagen falsa creada por la máquinaaprendizaje ", agrega Frank." El análisis de frecuencia es, por lo tanto, una forma efectiva de reconocer automáticamente las imágenes generadas por computadora ".
Fuente de la historia :
Materiales proporcionado por Ruhr-Universidad Bochum . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :