No encontré nada de eso.
Lo que leí fue un informe técnico, detallado, bien estructurado, pero incapaz de nombrar lo obvio: los guionistas estamos desprotegidos. Y no es porque falte información. El informe sabe perfectamente lo que está pasando. Reconoce que los modelos de IA se entrenan con “millones o billones de obras”, muchas de ellas sin licencia. Reconoce que estas obras no son simples datos, sino creaciones protegidas por derechos de autor. Pero todo lo deja en una especie de limbo analítico, como si fueran datos abstractos en lugar de trabajos reales de personas reales.
Yo no soy un dato. Soy guionista. Y escribo esto desde la ciudad donde los guiones se convierten en películas, donde las ideas mueven industrias, donde cada escena ha pasado por decenas de borradores, notas, discusiones. Cada diálogo que llega a una pantalla fue escrito por alguien. Tal vez por mí. Tal vez por uno de mis compañeros. Y ahora me entero de que esos mismos diálogos —enteros, parciales, procesados como tokens o lo que sea— están siendo usados para entrenar modelos que compiten con nosotros. Que ya están escribiendo escenas, personajes, tratamientos.
Y la Oficina de Copyright… ¿qué dice?
1. “Reconocemos que esto puede constituir una infracción prima facie…”
Eso es todo. Reconocen que "podría" ser una infracción. Pero no se pronuncian con firmeza. No proponen medidas urgentes ni acciones concretas. No hay ninguna condena clara al uso no autorizado de guiones, ni al vaciamiento de nuestras obras para entrenar sistemas que ahora las imitan. Se limitan a señalar que se trata de “un tema en debate”.
Eso, para quienes vivimos de escribir, "no es neutralidad, es abandono".
2. “No es práctico pedir licencia obra por obra”
Este punto me dolió especialmente. El informe afirma que licenciar individualmente todas las obras usadas para entrenamiento es poco práctico. ¿Y? ¿Desde cuándo lo práctico justifica ignorar derechos básicos? Cuando una plataforma de streaming quiere usar una canción en una serie, busca al titular de los derechos y negocia. No dicen “bueno, como hay muchas canciones, simplemente las vamos a usar”. Pero con los guiones —porque están en internet, porque son “accesibles”— sí se plantea que la licencia sea opcional, idealmente colectiva, tal vez voluntaria... en algún futuro.
Y mientras tanto, los modelos ya están entrenados. Con nuestro trabajo.
Lo que leí fue un informe técnico, detallado, bien estructurado, pero incapaz de nombrar lo obvio: los guionistas estamos desprotegidos. Y no es porque falte información. El informe sabe perfectamente lo que está pasando. Reconoce que los modelos de IA se entrenan con “millones o billones de obras”, muchas de ellas sin licencia. Reconoce que estas obras no son simples datos, sino creaciones protegidas por derechos de autor. Pero todo lo deja en una especie de limbo analítico, como si fueran datos abstractos en lugar de trabajos reales de personas reales.
Yo no soy un dato. Soy guionista. Y escribo esto desde la ciudad donde los guiones se convierten en películas, donde las ideas mueven industrias, donde cada escena ha pasado por decenas de borradores, notas, discusiones. Cada diálogo que llega a una pantalla fue escrito por alguien. Tal vez por mí. Tal vez por uno de mis compañeros. Y ahora me entero de que esos mismos diálogos —enteros, parciales, procesados como tokens o lo que sea— están siendo usados para entrenar modelos que compiten con nosotros. Que ya están escribiendo escenas, personajes, tratamientos.
Y la Oficina de Copyright… ¿qué dice?
1. “Reconocemos que esto puede constituir una infracción prima facie…”
Eso es todo. Reconocen que "podría" ser una infracción. Pero no se pronuncian con firmeza. No proponen medidas urgentes ni acciones concretas. No hay ninguna condena clara al uso no autorizado de guiones, ni al vaciamiento de nuestras obras para entrenar sistemas que ahora las imitan. Se limitan a señalar que se trata de “un tema en debate”.
Eso, para quienes vivimos de escribir, "no es neutralidad, es abandono".
2. “No es práctico pedir licencia obra por obra”
Este punto me dolió especialmente. El informe afirma que licenciar individualmente todas las obras usadas para entrenamiento es poco práctico. ¿Y? ¿Desde cuándo lo práctico justifica ignorar derechos básicos? Cuando una plataforma de streaming quiere usar una canción en una serie, busca al titular de los derechos y negocia. No dicen “bueno, como hay muchas canciones, simplemente las vamos a usar”. Pero con los guiones —porque están en internet, porque son “accesibles”— sí se plantea que la licencia sea opcional, idealmente colectiva, tal vez voluntaria... en algún futuro.
Y mientras tanto, los modelos ya están entrenados. Con nuestro trabajo.
3. “Hay beneficios públicos”
Sí, claro que los hay. Nadie está diciendo que la IA no tenga aplicaciones útiles. Pero cuando esos beneficios se logran a costa del trabajo no remunerado de miles de guionistas —cuando el costo lo pagamos nosotros—, lo menos que esperamos es que se reconozca ese sacrificio. O mejor aún: que no se nos pida hacer ese sacrificio. Que se busque una forma de compartir los beneficios con quienes los hicieron posibles.
Pero no. El informe repite lo de siempre: que estos sistemas tienen potencial, que pueden democratizar el acceso a contenido, que podrían incluso beneficiar a los propios creadores. Todo en condicional. Como si no existieran ya empresas generando contenido audiovisual con IA y desplazando puestos de trabajo reales. Como si no supiéramos que lo más rentable para muchas productoras será dejar de contratar guionistas y empezar a “iterar” con prompts.
4. “La tecnología evoluciona rápido, aún es pronto para decidir”
Entiendo que el marco legal va detrás de la tecnología. Siempre ha sido así. Pero una cosa es adaptarse con responsabilidad, y otra es quedarse paralizado. El informe reconoce que el mercado está cambiando, que hay litigios en curso, que es un terreno en evolución. Pero "no propone mecanismos de protección transitoria", ni marcos éticos mínimos, ni recomendaciones de urgencia. Básicamente nos dice que esperemos. Que aguantemos. Que confiemos en que, en algún momento, se regulará.
Yo no sé cuánto tiempo se puede esperar cuando lo que está en juego no es solo el ingreso económico —que ya es crítico para muchos—, sino la dignidad del oficio.
5. “Se puede entrenar modelos con menos datos, pero aún se necesita escala”
Esto me pareció particularmente cínico. Se menciona que hay iniciativas para entrenar modelos más pequeños, con datasets más acotados, incluso con obras licenciadas o en dominio público. Pero se deja claro que, para lograr resultados competitivos, sigue siendo preferible usar grandes volúmenes de datos —muchos de los cuales son, por supuesto, obras protegidas que se usan sin permiso.
Entonces, aunque se reconozcan alternativas, el informe no las promueve. No dice: “de aquí en adelante, lo ético es esto”. No. Solo observa. Toma nota. Y pasa la página.
Escribo esto entre escenas. Estoy trabajando en un nuevo proyecto, todavía sin nombre, todavía sin saber si se venderá. Y mientras escribo, no puedo evitar pensar: ¿será este guion otro ladrillo más para entrenar una IA? ¿Estaré alimentando sin saberlo a la competencia que me va a sustituir?
No tengo respuestas definitivas. Pero sé que este informe me dejó más preocupada que aliviada. Porque si la institución que debería proteger los derechos de autor no es capaz de defendernos cuando estamos siendo copiados masivamente, ¿qué nos queda?
Los guionistas no estamos en contra de la tecnología. Solo pedimos que no se nos excluya del encuadre. Que no se nos borre del guion. Que no se confunda lo público con lo gratuito, lo accesible con lo explotable.
Contar historias es un oficio. Y como cualquier oficio, merece respeto. Merece reglas. Merece protección.
Si eso es demasiado pedir, entonces el problema no es la IA.
Es cómo la estamos dejando entrar sin ponerle ningún límite.
Publicado con la esperanza de que algún legislador, alguna productora, algún colega que aún no lo ve tan grave… empiece a verlo.
Por Sofía Rivas, guionista en Los Ángeles
Sí, claro que los hay. Nadie está diciendo que la IA no tenga aplicaciones útiles. Pero cuando esos beneficios se logran a costa del trabajo no remunerado de miles de guionistas —cuando el costo lo pagamos nosotros—, lo menos que esperamos es que se reconozca ese sacrificio. O mejor aún: que no se nos pida hacer ese sacrificio. Que se busque una forma de compartir los beneficios con quienes los hicieron posibles.
Pero no. El informe repite lo de siempre: que estos sistemas tienen potencial, que pueden democratizar el acceso a contenido, que podrían incluso beneficiar a los propios creadores. Todo en condicional. Como si no existieran ya empresas generando contenido audiovisual con IA y desplazando puestos de trabajo reales. Como si no supiéramos que lo más rentable para muchas productoras será dejar de contratar guionistas y empezar a “iterar” con prompts.
4. “La tecnología evoluciona rápido, aún es pronto para decidir”
Entiendo que el marco legal va detrás de la tecnología. Siempre ha sido así. Pero una cosa es adaptarse con responsabilidad, y otra es quedarse paralizado. El informe reconoce que el mercado está cambiando, que hay litigios en curso, que es un terreno en evolución. Pero "no propone mecanismos de protección transitoria", ni marcos éticos mínimos, ni recomendaciones de urgencia. Básicamente nos dice que esperemos. Que aguantemos. Que confiemos en que, en algún momento, se regulará.
Yo no sé cuánto tiempo se puede esperar cuando lo que está en juego no es solo el ingreso económico —que ya es crítico para muchos—, sino la dignidad del oficio.
5. “Se puede entrenar modelos con menos datos, pero aún se necesita escala”
Esto me pareció particularmente cínico. Se menciona que hay iniciativas para entrenar modelos más pequeños, con datasets más acotados, incluso con obras licenciadas o en dominio público. Pero se deja claro que, para lograr resultados competitivos, sigue siendo preferible usar grandes volúmenes de datos —muchos de los cuales son, por supuesto, obras protegidas que se usan sin permiso.
Entonces, aunque se reconozcan alternativas, el informe no las promueve. No dice: “de aquí en adelante, lo ético es esto”. No. Solo observa. Toma nota. Y pasa la página.
Escribo esto entre escenas. Estoy trabajando en un nuevo proyecto, todavía sin nombre, todavía sin saber si se venderá. Y mientras escribo, no puedo evitar pensar: ¿será este guion otro ladrillo más para entrenar una IA? ¿Estaré alimentando sin saberlo a la competencia que me va a sustituir?
No tengo respuestas definitivas. Pero sé que este informe me dejó más preocupada que aliviada. Porque si la institución que debería proteger los derechos de autor no es capaz de defendernos cuando estamos siendo copiados masivamente, ¿qué nos queda?
Los guionistas no estamos en contra de la tecnología. Solo pedimos que no se nos excluya del encuadre. Que no se nos borre del guion. Que no se confunda lo público con lo gratuito, lo accesible con lo explotable.
Contar historias es un oficio. Y como cualquier oficio, merece respeto. Merece reglas. Merece protección.
Si eso es demasiado pedir, entonces el problema no es la IA.
Es cómo la estamos dejando entrar sin ponerle ningún límite.
Publicado con la esperanza de que algún legislador, alguna productora, algún colega que aún no lo ve tan grave… empiece a verlo.
Por Sofía Rivas, guionista en Los Ángeles
1 comentario:
Muy bueno su escrito. Muy puntual. Soy cubana y profesora de guion en la Facultad de Medios de Comunicación Audiovisual y ya me estoy enfrentando a productos generados por IA, guiones que presentan los estudiantes como propios pero que con una primera lectura se revela el origen del texto. Y en esto influyen otros elementos a tener en cuenta: el conocimiento, la aptitud e incluso la psicología del alumno en el momento de abordar diversas temáticas.
No obstante a la distancia y los contextos que nos separan, hago mía también su preocupación. Muchas gracias por alzar su voz.
Publicar un comentario