El galopante avance de la IA desafía actuales marcos conceptuales y leyes de derechos de autor, propiedad intelectual, responsabilidad penal, calumnias e injurias, entre otras.
Los sistemas generativos de inteligencia artificial (IA) como ChatGPT y Dall-E platean múltiples desafíos para el sistema legal.
Los tribunales ahora se enfrentarán a cuestiones muy complejas, como determinar si las empresas de IA tienen derechos para utilizar los datos que entrenaron a sus sistemas, si las respuestas de los motores generativos pueden ser objeto de derechos de autor o saber quién asume la responsabilidad si un motor de IA entrega información difamatoria o peligrosa.
En la mayoría de los países aún no hay leyes específicas para la regulación de la inteligencia artificial, si bien Europa se encuentra en proceso la redacción de una Ley de IA de alcance amplio. Por lo tanto, por el momento, la mayoría de estos conflictos deberán ser abordados mediante la legislación existente.
Y todo esto en medio de una carrera comercial en la que decenas de empresas se apresuran por crear, lanzar o incorporar funciones de IA a sus productos y servicios, aún en una etapa en donde estas herramientas son todavía experimentales y caen en errores.
Hay varias incertidumbres legales relacionadas con la IA, y una es saber si los sistemas de inteligencia artificial actuales están operando en un terreno legal seguro al entrenar sus motores con todo tipo de información disponible en Internet, incluyendo obras protegidas por derechos de autor. La pregunta es si ese "entrenamiento" puede circunscribirse bajo el principio de "uso justo", cuyo alcance está siendo considerado actualmente por la Corte Suprema de Estados Unidos.
Vea también: ¿Es la inteligencia artificial una nueva burbuja?
Como ejemplo de este debate, la empresa Getty demandó a Stable Diffusion argumentando que el generador de imágenes de IA de código abierto entrenó su motor con 12 millones de imágenes de la base de datos de Getty sin obtener permiso ni proporcionar compensación.
Además, las posibles infracciones de propiedad intelectual no se limitan a los datos que entrenan dichos sistemas. Muchos de los motores generativos de IA actuales son propensos a producir código, escritos e imágenes que parecen ser copias directas de un trabajo específico o de varios trabajos discernibles.
Otro dilema es saber si se puede proteger la producción de IA generativa con derechos de autor. No está claro cómo el sistema legal abordará las colaboraciones entre humanos e IA. Por ejemplo, recientemente la Oficina de Derechos de Autor de Estados Unidos declaró que las imágenes creadas por Midjouney y utilizadas en una novela gráfica no podían ser protegidas por derechos de autor.
Por otra parte, hay una pregunta que surge sobre si los fabricantes de sistemas de IA podrían ser responsables de las consecuencias de proporcionar información peligrosamente incorrecta. Microsoft, Google y OpenAI han detallado sus esfuerzos para mejorar la precisión de sus programas de IA generativa, pero también advierten a los usuarios que sus motores pueden proporcionar datos incorrectos o fabulados.
No solo eso: existe la posibilidad de que esas aplicaciones generativas expongan información privada. ¿Qué sucede, entonces, en los ámbitos de la injuria y la calumnia?
Dado que una IA no es una persona, entonces no puede difamar o calumniar a alguien. Sin embargo, algunos expertos legales sugieren que los desarrolladores de estos sistemas podrían ser considerados responsables si fueron imprudentes o negligentes en su creación y, entonces, enfrentar una o varias demandas.
Este problema se hace aún mucho más complejo si se tiene en cuenta que los sistemas de IA generativa pueden ofrecer resultados completamente diferentes cada vez y a cada usuario, a diferencia de las aplicaciones y los sitios web tradicionales, que generalmente devuelven información similar dada la misma consulta.
Comentarios