Un juez federal de Nueva York (Estados Unidos) desestimó la demanda que las empresas de medios de comunicación Raw Story Media, Inc. y AlterNet Media, Inc. interpusieron contra OpenAI, propietaria de ChatGPT, a la que acusaron de utilizar sus artículos en clara violación a sus derechos de autor. Así, la demanda sostenía que OpenAI utilizó sus contenidos periodísticos sin autorización para entrenar sus modelos de inteligencia artificial, eliminando la información de gestión de derechos de autor (CMI, por sus siglas en inglés), en presunta infracción de la Ley de Derechos de Autor del Milenio Digital (DMCA). Esta ley prohíbe la eliminación de CMI cuando esta se hace con el propósito de ocultar o facilitar infracciones de derechos de autor.
La jueza a cargo del caso concluyó que los demandantes no habían cumplido el requisito de legitimación activa en virtud del Artículo III de la Constitución de los Estados Unidos, dado que no lograron demostrar un “perjuicio concreto de hecho”. La decisión se sustentó en el precedente de la Corte Suprema en el caso TransUnion LLC v. Ramirez, el cual exige que el perjuicio alegado sea real y tangible, no abstracto.
Noticia Relacionada
La jueza concluyó que los demandantes no demostraron ningún “efecto adverso real” derivado de la supuesta eliminación de la CMI de sus artículos. Los demandantes argumentaron que la eliminación de la CMI constituía una interferencia en sus derechos de propiedad intelectual. No obstante, el tribunal determinó que las disposiciones sobre CMI de la DMCA no fueron diseñadas para conferir las mismas protecciones exclusivas que la ley de derechos de autor, desestimando también la solicitud de medidas cautelares.
Según la jueza, los demandantes no probaron la existencia de un “riesgo sustancial” de que el modelo ChatGPT reprodujera textualmente sus artículos protegidos en las respuestas a los usuarios, señalando que los modelos de IA, como ChatGPT, están entrenados con grandes volúmenes de datos de múltiples fuentes, lo cual reduce la posibilidad de que un artículo específico sea replicado íntegramente.
La desestimación de la demanda se fundamenta también en que, según el tribunal, la queja principal de los demandantes radica en el uso no compensado de sus contenidos. A pesar de desestimar la demanda en su totalidad, la magistrada concedió a los demandantes la oportunidad de presentar una queja enmendada si pueden fundamentar un perjuicio reconocible y específico.
La decisión se enmarca en un contexto de creciente actividad regulatoria y judicial en torno a la inteligencia artificial y su relación con los derechos de autor y la protección de datos. La Unión Europea aprobó recientemente su primera ley de regulación de IA, China ha propuesto proyectos de ley para someter los productos de IA a evaluaciones de seguridad, y Canadá inició una investigación en 2023 sobre el uso de información personal por parte de modelos de IA. A su vez, Italia implementó una prohibición temporal sobre ciertas tecnologías de IA.