Ver fue creer hasta que la tecnología levantó su poderosa cabeza y nos dio herramientas de edición de fotos poderosas y económicas. Ahora, los videos realistas que mapean las expresiones faciales de una persona sobre las de otra, conocidas como falsificaciones profundas, presentan un arma política formidable.
Pero ya sea el suavizado benigno de una arruga en un retrato o un video manipulado para que parezca un político que dice algo ofensivo, toda edición de fotos deja huellas para las herramientas adecuadas para descubrir.
Investigación dirigida por el Grupo de Video Computación de Amit Roy-Chowdhury en la Universidad de California, Riverside ha desarrollado una arquitectura de red neuronal profunda que puede identificar imágenes manipuladas a nivel de píxeles con alta precisión. Roy-Chowdhury es profesor de ingeniería eléctrica e informáticay el miembro de la facultad de la familia Bourns en el Colegio de Ingeniería Marlan y Rosemary Bourns.
Una red neuronal profunda es lo que los investigadores de inteligencia artificial llaman sistemas informáticos que han sido entrenados para realizar tareas específicas, en este caso, reconocen imágenes alteradas. Estas redes están organizadas en capas conectadas; "arquitectura" se refiere al número de capas y estructurade las conexiones entre ellos.
Los objetos en las imágenes tienen límites y cada vez que un objeto se inserta o se elimina de una imagen, su límite tendrá cualidades diferentes a los límites de los objetos en la imagen de forma natural. Por ejemplo, alguien con buenas habilidades de Photoshop hará todo lo posible para hacer elel objeto insertado se ve lo más natural posible al suavizar estos límites.
Si bien esto puede engañar a simple vista, cuando se examina píxel por píxel, los límites del objeto insertado son diferentes. Por ejemplo, a menudo son más suaves que los objetos naturales. Al detectar los límites de los objetos insertados y eliminados, una computadora debecapaz de identificar imágenes alteradas
Los investigadores etiquetaron las imágenes no manipuladas y los píxeles relevantes en las regiones límite de las imágenes manipuladas en un gran conjunto de datos de fotos. El objetivo era enseñar a la red neuronal conocimiento general sobre las regiones manipuladas y naturales de las fotos. Probaron la red neuronal con unconjunto de imágenes que nunca antes había visto, y detectó las alteradas la mayor parte del tiempo. Incluso detectó la región manipulada.
"Capacitamos al sistema para distinguir entre imágenes manipuladas y no manipuladas, y ahora, si le da una nueva imagen, puede proporcionar una probabilidad de que esa imagen sea manipulada o no, y localizar la región de la imagen donde está la manipulaciónocurrió ", dijo Roy-Chowdhury.
Los investigadores están trabajando en imágenes fijas por ahora, pero señalan que esto también puede ayudarlos a detectar videos falsos.
"Si puedes entender las características de una imagen fija, en un video básicamente se trata de juntar imágenes fijas una tras otra", dijo Roy-Chowdhury. "El desafío más fundamental es descubrir si un fotograma en un video esmanipulado o no "
Incluso un solo marco manipulado levantaría una bandera roja. Pero Roy-Chowdhury cree que todavía tenemos un largo camino por recorrer antes de que las herramientas automatizadas puedan detectar videos falsos en la naturaleza.
"Es un problema desafiante", dijo Roy-Chowdhury. "Esto es una especie de juego de gato y ratón. Toda esta área de ciberseguridad está tratando de encontrar mejores mecanismos de defensa, pero el atacante también encuentra mejores mecanismos"."
Dijo que la detección de falsificación profunda completamente automatizada podría no ser posible en el futuro cercano.
"Si quieres ver todo lo que hay en Internet, un humano no puede hacerlo por un lado, y un sistema automatizado probablemente no puede hacerlo de manera confiable. Por lo tanto, tiene que ser una combinación de los dos,"Roy-Chowdhury dijo.
Las arquitecturas de redes neuronales profundas pueden producir listas de videos e imágenes sospechosas para que las personas las revisen. Las herramientas automatizadas pueden reducir la cantidad de datos que las personas, como los moderadores de contenido de Facebook, deben examinar para determinar si una imagen ha sido manipulada.
Para este uso, las herramientas están a la vuelta de la esquina.
"Eso probablemente es algo a lo que estas tecnologías contribuirán en un período de tiempo muy corto, probablemente en unos pocos años", dijo Roy-Chowdhury.
Fuente de la historia :
Materiales proporcionado por Universidad de California - Riverside . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :