TECNOLOGÍA

Microsoft combate los deepfakes con herramientas de integridad de contenido

Redacción | Jueves 17 de octubre de 2024

Poco después de la invasión de Ucrania en 2022, fotógrafos locales comenzaron a documentar la destrucción de sitios culturales para ayudar a preservar el patrimonio del país y recopilar pruebas para la restauración. Sin embargo, la propagación de imágenes falsas relacionadas con la guerra estaba causando un problema: la gente empezó a confundir las imágenes reales de las verdaderas.

Esto llevó a los fotógrafos a utilizar una nueva herramienta que demostrara que sus imágenes no eran deepfakes, es decir, contenidos generados por IA que parecen personas, lugares o eventos reales, aunque menos realistas. Este prototipo dio lugar al conjunto de herramientas de integridad de contenidos de Microsoft, diseñadas para aportar más transparencia a lo que se publica en internet.

Con la cantidad de procesos electorales que se celebrarán por todo el mundo, que este año se espera que atraigan a un récord de 2 mil millones de votantes, varias organizaciones políticas, electorales y de medios de comunicación están utilizando ahora estas herramientas para poder atribuirse sus trabajos, mejorar la transparencia, generar confianza y prevenir la desinformación. Apoyar un ecosistema de información que aporta más confianza con herramientas y prácticas de IA responsables es solo una de las formas en las que Microsoft está combatiendo los deepfakes.

«Las repercusiones de los deepfakes pueden ser gravísimas. Son una forma de hackeo cognitivo que cambia la relación con la realidad y la manera en que pensamos sobre el mundo», dice Andrew Jenks, director de Procedencia de Medios en Microsoft. Jenks preside la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una organización que Microsoft cofundó para desarrollar un estándar técnico abierto que permite establecer la procedencia, o el origen y la historia, del contenido digital, incluidos los activos generados por IA.

El contenido manipulado no es algo nuevo y, a veces, es claramente una sátira o comedia. Pero el auge de la IA generativa está facilitando que personas con malas intenciones difundan desinformación, la cual puede llevar a fraudes, robos de identidad o interferencia electoral, entre otros peligros. Detalles como la firma o los subtítulos a menudo desaparecen cuando el contenido se comparte, lo que dificulta que las personas sepan en qué confiar.

“Conocer el origen y rastrear la historia del contenido puede ayudar a las personas a estar más informadas y ser menos vulnerables al engaño”, comenta Jenks. Las herramientas de Microsoft incluyen una aplicación, que actualmente es una versión preliminar privada, para que creadores y editores añadan Credenciales de Contenido a su trabajo, es decir, metadatos certificados con detalles como quién creó el contenido, cuándo se hizo y si se utilizó IA. Como parte del estándar técnico de la C2PA, las Credenciales de Contenido se adjuntan a fotos, videos y audios de forma criptográfica para que cualquier edición o manipulación posterior pueda detectarse más fácilmente.

Debido a que los metadatos son invisibles, Microsoft también ofrece una herramienta pública de verificación de integridad de contenido y una extensión para navegadores web, los cuales permiten a los consumidores escanear credenciales y revisar la procedencia de la información. Las personas también pueden buscar un icono de Credenciales de Contenido en imágenes y vídeos en plataformas como LinkedIn.

«Las Credenciales de Contenido proporcionan una capa importante de transparencia, independientemente de si se utilizó IA o no, para ayudar a las personas a tomar decisiones más informadas sobre el contenido que comparten y consumen en internet», señala Jenks. «A medida que se hace más fácil identificar el origen y la historia del contenido, es posible que las personas se vuelvan más escépticas respecto al material que carece de información específica sobre su procedencia».

Microsoft emplea sus herramientas de Credenciales de Contenido en sus propios productos generadores de imágenes mediante IA (Designer, Copilot, Paint y algunos modelos seleccionados de Azure OpenAI Service), con el objetivo de evidenciar que se usó IA cuando se creó la imagen y otros detalles. Otros controles responsables de IA para disuadir sobre el abuso de deepfakes incluyen el difuminado de rostros en las fotos subidas a Copilot.

«Los medios generados o modificados por IA pueden ser útiles en muchos contextos, desde la educación hasta la accesibilidad», apunta Jessica Young, gerente senior de programas de política científica y tecnológica para el Chief Scientific Officer de Microsoft y experto en procedencia de medios, Eric Horvitz.

«Debería haber una divulgación sobre la fuente del contenido y su recorrido para que las personas puedan entender de dónde proviene, en qué medida fue alterado y si se utilizó IA. Nuestro enfoque no es decirles a los consumidores qué contenido es confiable, sino darles el contexto que necesitan para tomar decisiones informadas.», afirma Young.

Mientras que Jenks señala que las Credenciales de Contenido pueden ayudar a instaurar confianza en todo, desde publicidad hasta sitios de citas, Microsoft está ofreciendo una versión previa privada de sus herramientas a campañas, organizaciones electorales y periodistas antes que a nadie, como parte de una promesa para combatir el uso engañoso de IA en las elecciones de este año. La compañía también ha creado un espacio para que los candidatos denuncien deepfakes electorales que aparezcan en LinkedIn, Xbox y otros servicios para consumidores de Microsoft, y lanzó un fondo de 2 millones de dólares con OpenAI para aumentar la educación sobre la IA entre los votantes y las comunidades vulnerables.

Microsoft ha promovido la integridad de la información cofundando C2PA, que ahora cuenta con casi 200 miembros, desarrollando tecnologías de procedencia con periodistas y apoyando los procesos democráticos. Además, reconociendo que ninguna empresa o enfoque puede abordar el problema por sí solo, también aboga por la legislación pertinente y la investigación de técnicas adicionales de transparencia. Este trabajo integra experiencia en investigación, ingeniería, políticas e inteligencia de amenazas, todo ello enfocado en fortalecer los sistemas de información en un panorama complejo de diferentes formatos de medios y plataformas.

«Continuamos desarrollando e iterando para encontrar las soluciones más sólidas a medida que los medios evolucionan con el uso de IA generativa en nuevos formatos como el vídeo en vivo», dice Young, «y estamos compartiendo las mejores prácticas y herramientas con un ecosistema más amplio.», concluye.

Cómo detectar deepfakes:

Conoce y entiende la fuente: Busca la atribución, los subtítulos y las Credenciales de Contenido. Investiga las imágenes a través de una búsqueda visual. Pregúntate si la fuente es confiable y ten cuidado si no hay una fuente clara.

Considera la intención: ¿Tiene el contenido como objetivo entretener, informar o persuadirte? Analizar el propósito puede darte una mejor idea de si alguien pudiera estar tratando de engañarte.

Busca inconsistencias y anomalías: Las imágenes generadas por IA pueden tener errores ortográficos, figuras borrosas, ropa desparejada, iluminación inconsistente y texturas extrañas.

TEMAS RELACIONADOS: