Meta, la empresa detrás de innovaciones como el modelo de inteligencia artificial Llama, se encuentra en el centro de una tormenta legal y ética. Documentos revelados en el caso Kadrey contra Meta sugieren que la compañía utilizó obras protegidas por derechos de autor para entrenar sus modelos de IA.

En el corazón de la polémica está una plataforma digital que ha sido objeto de múltiples demandas y sanciones millonarias por violar derechos de autor, pero que por su naturaleza descentralizada ha dificultado la aplicación de estas sentencias, esta ofrece acceso no autorizado a millones de libros y publicaciones académicas. Según los documentos legales, Zuckerberg aprobó personalmente el uso de este recurso para entrenar el modelo Llama, pese a las advertencias internas de empleados que señalaban las posibles repercusiones.

En el caso de Meta, el problema no se limita a la obtención de datos. Según declaraciones de los demandantes, la compañía desarrolló programas para eliminar etiquetas de derechos de autor en los materiales recolectados, lo que habría facilitado su uso indebido. Esta estrategia, combinada con la contratación de personal para resumir libros protegidos, muestra hasta dónde están dispuestas a llegar estas empresas para alimentar sus modelos de IA.

Meta ha defendido sus prácticas alegando “Uso Justo” (Fair Use), un concepto que permite el uso limitado de material protegido en ciertos contextos como la investigación. Sin embargo, este argumento ha sido rechazado en ocasiones anteriores y enfrenta un escrutinio creciente, especialmente en un contexto donde las empresas obtienen beneficios comerciales significativos de estos modelos entrenados con datos no autorizados.

Aunque Meta se encuentra en el centro de este escándalo, otras empresas no están exentas de controversia. OpenAI, por ejemplo, fue acusada de prácticas similares por publicaciones del grupo editorial Alden Global. Sin embargo, en los últimos meses, ha intentado legitimar su posición mediante acuerdos con grandes editoriales como Associated Press y Le Monde. En circunstancias similares han estado Google y Perplexity; el primero ha adoptado una postura más abierta, declarando que utilizará todo lo que se publique en internet para entrenar sus modelos, lo que genera dudas sobre la protección de obras creativas en la era digital.

Este caso resalta la necesidad urgente de un marco legal claro y global para regular el uso de contenido protegido en el entrenamiento de modelos de inteligencia artificial. Si bien estas tecnologías tienen el potencial de transformar sectores enteros, no pueden desarrollarse a expensas de los derechos de los creadores.

La pregunta central es: ¿hasta dónde estamos dispuestos a permitir que la innovación avance sin considerar su impacto ético? Este caso podría ser un punto de inflexión para definir el equilibrio entre el progreso tecnológico y la protección de los derechos culturales y creativos.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
Google News

TEMAS RELACIONADOS

Comentarios