top of page

Sora 2 enfrenta su primera fuga de control: desaparecen sus marcas de agua

La nueva herramienta de OpenAI, pensada para distinguir videos reales de los generados por IA, ya ve sus sistemas de seguridad vulnerados por servicios que borran sus marcas con facilidad.


ree

El auge de herramientas capaces de eliminar las marcas de agua de Sora 2, el nuevo generador de video con inteligencia artificial de OpenAI, está poniendo en evidencia las limitaciones tecnológicas para garantizar la autenticidad del contenido digital. Según 404 Media, apenas unos días después del lanzamiento de la plataforma, ya circulan en internet múltiples sitios que permiten borrar en segundos el sello visual que identifica los videos producidos con este sistema.


Sora 2 fue diseñado para incluir una marca visible, un ícono de nube con ojos caricaturescos, y metadatos bajo el estándar C2PA, con el fin de señalar el origen de cada video y facilitar su trazabilidad. Sin embargo, el medio comprobó que al menos tres servicios online lograron eliminar ambas capas de protección en cuestión de segundos, lo que demuestra que las herramientas de autenticación incorporadas por OpenAI pueden ser fácilmente vulneradas.


Para expertos como Hany Farid, profesor de la Universidad de California en Berkeley y especialista en manipulación digital, la rapidez con la que surgieron estos eliminadores era previsible. “No es la primera vez que un modelo de IA implementa marcas visibles y que casi de inmediato aparecen servicios para borrarlas”, señaló al medio. En su criterio, Sora 2 representa una nueva fase en la capacidad de los modelos generativos para crear videos de alta calidad que cruzan la frontera de lo real, amplificando los riesgos de desinformación y uso malicioso.


Rachel Tobac, directora ejecutiva de SocialProof Security, añadió que los sistemas de protección actuales no bastan para frenar a quienes buscan manipular el contenido. Explicó que existen programas que alteran brillo, color o contraste para degradar la firma digital C2PA, anulando el rastro del origen. Según dijo esto permite que material generado por Sora 2 circule sin etiqueta alguna en redes sociales, confundiendo incluso a usuarios experimentados y abriendo espacio para estafas o campañas de desinformación.


Aunque OpenAI asegura que todos los videos de Sora 2 están marcados con metadatos verificables y cuenta con sistemas internos de rastreo, la velocidad con que surgen mecanismos de evasión plantea un desafío mayor: la detección de contenido sintético fuera del ecosistema de la compañía. Como advirtió Farid, “es solo cuestión de tiempo antes de que aparezcan modelos sin ningún tipo de salvaguarda”.


Los especialistas coinciden en que la solución no depende solo de las empresas de inteligencia artificial, sino también de las plataformas digitales que distribuyen el contenido. Tobac sostuvo que será necesario un esfuerzo conjunto entre compañías tecnológicas y redes sociales para desarrollar detectores automáticos y políticas que limiten la difusión de material alterado o engañoso. De lo contrario, la brecha entre la realidad y la simulación continuará reduciéndose, y las marcas de agua, pensadas como garantía de transparencia, podrían convertirse en un elemento simbólico más dentro de un entorno digital cada vez más difícil de verificar.


Comentarios


itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page