Reino Unido y Microsoft se alían contra los deepfakes

El Gobierno británico avanzará junto a Microsoft en el desarrollo de un sistema para detectar contenidos audiovisuales falsos generados con inteligencia artificial, en un contexto de creciente preocupación mundial por el impacto de los deepfakes.

Reino Unido y Microsoft se alían contra los deepfakes

Reino Unido sellará una colaboración estratégica con Microsoft para diseñar y poner en marcha un sistema capaz de identificar y etiquetar deepfakes, es decir, imágenes, audios y videos manipulados mediante herramientas de inteligencia artificial. La iniciativa busca reducir el impacto de esta modalidad de desinformación en la política, la economía y la vida cotidiana.

Según estimaciones del propio Gobierno británico, en 2025 se compartieron alrededor de ocho millones de deepfakes a través de redes sociales, servicios de mensajería y plataformas de video. El número refleja una curva de crecimiento acelerada que enciende alarmas en las autoridades y presiona a los gigantes tecnológicos para ofrecer respuestas más efectivas.

El nuevo sistema que desarrollarán en conjunto apunta a poder detectar patrones digitales característicos de los contenidos generados con IA, así como rastrear su origen y circulación. De esta manera, se buscará alertar a usuarios, medios de comunicación y organismos públicos cuando se enfrenten a material sospechoso.

Elecciones, seguridad y riesgos globales

La preocupación por los deepfakes se profundiza en un año signado por procesos electorales en distintos países. De hecho, Reino Unido ya había advertido sobre el riesgo de que audios y videos falsos fueran utilizados para suplantar a dirigentes políticos, funcionarios o referentes sociales, con el objetivo de influir en el voto o provocar crisis de confianza institucional.

Además del frente político, los especialistas señalan que esta tecnología se usa en campañas de extorsión, fraudes financieros y ataques a la reputación de figuras públicas y ciudadanos comunes. En muchos casos, el material manipulado se viraliza antes de que pueda ser desmentido, lo que deja un daño difícil de revertir.

Frente a este escenario, Reino Unido intenta posicionarse como un actor de referencia en la regulación de la inteligencia artificial. El acuerdo con Microsoft se suma a foros internacionales y cumbres sobre IA organizados en el país, donde se discuten estándares comunes para limitar usos abusivos de estas herramientas.

Cómo funcionará el sistema de detección

Si bien los detalles técnicos se conocerán a medida que avance el proyecto, se espera que el sistema combine modelos de IA entrenados para reconocer manipulaciones con bases de datos seguras de contenidos originales. La meta es ofrecer verificaciones rápidas que puedan integrarse a plataformas de redes sociales, portales de noticias y servicios públicos en línea.

En paralelo, el Gobierno británico y Microsoft analizan impulsar campañas de alfabetización digital para que la población aprenda a identificar señales básicas de fraude audiovisual, como inconsistencias en voces, movimientos faciales o iluminación. La mirada está puesta especialmente en adolescentes y adultos mayores, grupos más expuestos a la circulación de contenidos engañosos.

Organismos de derechos digitales plantean que toda política contra los deepfakes debe equilibrarse con la protección de la libertad de expresión y la privacidad. El desafío será lograr herramientas de control eficaces sin habilitar un uso discrecional que permita censurar voces críticas o contenidos satíricos.

En un contexto global donde la IA generativa se masifica a gran velocidad, el movimiento de Reino Unido y Microsoft marca una señal para otros gobiernos y compañías tecnológicas, que empiezan a reconocer que la lucha contra los deepfakes no puede quedar solo en manos de los usuarios.

Relacionado

Leer más
RLC Noticias de Rosario la ciudad

Comentarios