Click acá para ir directamente al contenido

La trama de la serie Black Mirror sobre Inteligencia Artificial que alarma a los actores de Hollywood

La preocupación por el impacto que la IA en nuestras vidas se siente no solo en las tramas de producciones de Hollywood sino entre actores y guionistas, que temen por su futuro.

Shiona McCallum - Reportera de tecnología, BBC News

Sábado 15 de julio de 2023

Los actores de Hollywood están en huelga por primera vez en 43 años.

La medida le ha puesto un freno al negocio del cine y de la televisión estadounidense y responde, en parte, a los temores que ha generado el impacto de la inteligencia artificial (IA) en la industria.

Screen Actors Guild (Sindicato de Actores de Cine), más conocido por sus siglas en inglés: SAG-AFTRA, no logró llegar a un acuerdo en Estados Unidos para conseguir una mejor protección de sus miembros frente a la IA.

Esa organización también advirtió que "la inteligencia artificial representa una amenaza existencial para las profesiones creativas".

Duncan Crabtree-Ireland, el principal negociador de SAG-AFTRA, criticó a los productores por sus propuestas sobre el uso de la IA.

Señaló que los estudios habían pedido tener la facultad de escanear los rostros de los extras a cambio del pago por un día de trabajo y así poder poseer y usar su imagen "por el resto de la eternidad, en cualquier proyecto que quieran, sin consentimiento y sin compensación".

Si eso suena como la trama de un episodio de Black Mirror, de Charlie Brooker, es porque lo es.

Los medios estadounidenses han señalado que el reciente episodio de la sexta temporada de la serie, "Joan Is Awful" ("Joan es horrible"), muestra a la estrella de Hollywood Salma Hayek lidiando con el descubrimiento de que su imagen de IA puede ser utilizada por una productora sin su consentimiento.

Y no solo SAG-AFTRA está preocupado por la llamada "clonación de rendimiento".

Fuera de EE.UU.

Liam Budd, del sindicato británico Equity, dijo: "Estamos viendo que esta tecnología se usa en una variedad de cosas como audiolibros automatizados, doblajes de voz sintetizados, avatares digitales para videos corporativos o también en los deepfakes que se usan en películas".

Budd señaló que había "miedo circulando" entre los miembros de Equity y que el sindicato estaba tratando de educarlos para que comprendieran sus derechos en este mundo en rápida evolución.

Justine Bateman
Getty Images
" No nos faltan escritores, no nos faltan actores, no nos faltan cineastas, así que no necesitamos IA", dice la actriz y escritora Justine Bateman.

A principios de este año, la cineasta y escritora Justine Bateman, le dijo a la BBC que no creía que la industria del entretenimiento necesitara de la IA en absoluto.

"La tecnología debería resolver un problema y aquí no hay un problema que aquellos que usan IA estén resolviendo. No nos faltan escritores, no nos faltan actores, no nos faltan cineastas, así que no necesitamos IA", señaló.

"El problema que soluciona es para las corporaciones que sienten que no tienen márgenes de ganancia lo suficientemente amplios, porque si puede eliminar los gastos generales de tener que pagarle a todos, puedes apaciguar a Wall Street y tener mejores reportes de ganancias”.

"Si prolifera el uso de IA, la industria del entretenimiento destruirá toda la estructura de este negocio".

Preocupaciones

Tal vez sea solo una cuestión de tiempo antes de que ChatGPT o Bard puedan llegar a crear un guión innovador para una película o convertir una idea en un guión de gran éxito.

Algunos dicen que la IA siempre carecerá de la humanidad que hace que un guión de una película sea excelente, pero existen preocupaciones legítimas de que dejará a los escritores sin trabajo.

Harrison Ford en el set de grabación de Indiana Jones
Getty Images
En la película más reciente de Indiana Jones, se usó tecnología informática, incluido el aprendizaje automático, en Harrison Ford.

El Sindicato de Escritores de Reino Unido (WGGB, por sus siglas en inglés), que representa a escritores de televisión, cine, teatro, libros y videojuegos en Reino Unido, tiene varias preocupaciones. Entre ellas están:

  • Los desarrolladores de IA utilizan el trabajo de los escritores sin su permiso e infringen sus derechos de autor.
  • Las herramientas de IA no identifican apropiadamente dónde se ha utilizado la IA para crear contenido.
  • El aumento en el uso de la IA generará menos oportunidades laborales para los escritores.
  • El uso de la IA suprimirá el pago para los escritores.
  • La IA diluirá las contribuciones realizadas por la industria creativa a la economía y la identidad nacional de Reino Unido.

WGGB ha hecho una serie de recomendaciones para ayudar a proteger a los escritores, como, por ejemplo, que los desarrolladores de IA solo usen el trabajo de los escritores si se les ha otorgado un permiso expreso y que los desarrolladores de IA sean transparentes sobre qué datos utilizan para entrenar a sus herramientas.

La secretaria general adjunta de WGGB, Lesley Gannon, dijo: "Al igual que con cualquier nueva tecnología, debemos sopesar los riesgos frente a los beneficios y asegurarnos de que la velocidad del desarrollo no supere ni descarrile las protecciones de las que dependen los escritores y la fuerza laboral creativa en general para ganarse la vida".

"La regulación es claramente necesaria para salvaguardar los derechos de los trabajadores y proteger al público del fraude y la desinformación".

Regulaciones

El rápido desarrollo de la IA durante el último año ha llevado a que el concepto de propiedad se vuelva enrevesado.

Cuando alguien ingresa su imagen en una aplicación de retratos generada por IA, como DrawAnyone, DALL-E o incluso Snapchat, las imágenes resultantes ahora son de dominio público y cualquier persona puede usarlas libremente.

La nueva imagen no está protegida por la ley de derechos de autor.

Mathilde Pavis, una abogada que se especializa en tecnologías de clonación digital, le dijo a la BBC que las leyes de derechos de autor del Reino Unido deben cambiar.

"Es extraño para mí que tu cara y tu voz estén menos protegidas que tu auto, tu computadora portátil, tu teléfono, tu casa o tus libros, pero ese es el estado de la ley hoy".

“Y eso es porque no pensamos lo vulnerables que somos, tan vulnerables que nuestra imagen puede ser reutilizada e imitada con tecnologías de IA”, dijo.

Información adicional proporcionada por Tom Gerken y Tom Singleton.