top of page

OpenAI introduce Media Manager para empoderar a los creadores en la era de la IA

La aplicación tiene como objetivo identificar y permitir a los usuarios especificar cómo quieren que se incluyan o excluyan sus trabajos en la investigación y capacitación en inteligencia artificial.

OpenAI está en proceso de desarrollar una herramienta llamada Media Manager, que permitirá a los creadores y propietarios de contenido ejercer un mayor control sobre cómo se utiliza su trabajo en la capacitación en inteligencia artificial generativa. De acuerdo con Techcrunch, esta iniciativa busca abordar las preocupaciones sobre el uso de datos públicos disponibles en la web para entrenar modelos de IA, que ha generado críticas y controversias en la comunidad.


Según un comunicado de la compañía, la herramienta Media Manager tiene como objetivo identificar el contenido protegido por derechos de autor, incluyendo texto, imágenes, audio y vídeo, permitiendo a los creadores especificar sus preferencias sobre cómo desean que se utilicen sus obras en la investigación y capacitación en IA. OpenAI planea implementar esta herramienta para 2025, en colaboración con creadores, propietarios de contenido y reguladores para establecer un estándar común en la industria.


El desarrollo de la aplicación implica una investigación avanzada en aprendizaje automático para construir una solución única que refleje las preferencias de los creadores y brinde opciones adicionales en el futuro. La compañía reconoce la necesidad de abordar las críticas sobre su enfoque para desarrollar IA, particularmente en relación con la extracción de datos públicos para el entrenamiento de modelos generativos.



Recientemente, OpenAI se enfrentó a demandas por infracción de propiedad intelectual de parte de destacados periódicos estadounidenses, lo que destaca la importancia de abordar estas preocupaciones de manera efectiva. La empresa argumenta que el uso justo protege su práctica de extracción de datos públicos para la capacitación en IA, pero reconoce la necesidad de ofrecer opciones para los creadores que deseen excluir su trabajo de estos conjuntos de datos.


Aunque OpenAI ya ha implementado opciones para que los artistas "opten por no participar" y eliminen su trabajo de los conjuntos de datos utilizados para el entrenamiento de modelos generativos, algunas críticas señalan que estas soluciones actuales no son suficientes. Los artistas han descrito el proceso de exclusión voluntaria como laborioso, ya que requiere enviar cada imagen individualmente junto con una descripción para su eliminación.


Además de los esfuerzos de la empresa, varias startups y proyectos de investigación están trabajando en herramientas para permitir la exclusión voluntaria y la protección de la propiedad intelectual en la IA generativa. Estas iniciativas incluyen aplicaciones que bloquean el raspado de datos, sistemas de marca de agua invisibles y métodos para "envenenar" datos de imágenes para evitar su uso en el entrenamiento de modelos de IA.


bottom of page