Home » Bryan Cranston critica a Sora 2 por deepfakes, y OpenAI responde con nuevas medidas

Bryan Cranston critica a Sora 2 por deepfakes, y OpenAI responde con nuevas medidas

OpenAI bloquea los deepfakes en Sora 2 tras la protesta de Bryan Cranston y SAG-AFTRA, prometiendo mayor control sobre el uso de imágenes y voces de artistas.

by RevuTJ
64 Visitantes
Bryan Cranston protesta por videos falsos de Sora 2

Bryan Cranston critica a Sora 2 por deepfakes, y OpenAI responde con nuevas medidas

OpenAI enfrenta un nuevo desafío con Sora 2. Tras la aparición masiva de videos falsos de celebridades creados con inteligencia artificial, el actor Bryan Cranston se pronunció duramente contra la plataforma, provocando una reacción inmediata de la empresa y del sindicato de actores de Hollywood, SAG-AFTRA.

OpenAI bloquea los deepfakes tras las críticas de Hollywood

La polémica surgió cuando comenzaron a circular videos generados con Sora 2 que mostraban a Cranston en situaciones ficticias, como escenas falsas de Breaking Bad. Según el medio Variety, OpenAI tomó medidas inmediatas para limitar este tipo de contenido y anunció nuevas protecciones de seguridad.

Sean Astin, presidente de SAG-AFTRA, declaró que el caso de Cranston representa a “los innumerables artistas cuya voz y semejanza están en peligro de apropiación indebida masiva”. En respuesta, OpenAI acordó implementar un protocolo de suscripción, permitiendo que los artistas decidan si desean participar o no en la utilización de su voz e imagen por medio de IA.

La opción de exclusión de Sora 2 no es suficiente, dicen los actores

Aunque Sora 2 ofrece a los creadores la posibilidad de excluir su imagen, en la práctica esto no ha resuelto el problema. Los deepfakes de figuras históricas y celebridades continúan multiplicándose en redes sociales. Ejemplos recientes incluyen videos de Martin Luther King luchando contra Malcolm X en la WWE o de Michael Jackson y Cranston interpretando escenas absurdas.

La hija de Robin Williams, Zelda Williams, también se sumó a las críticas, pidiendo que los usuarios dejaran de enviarle videos generados con IA de su padre. “Es una tontería, una pérdida de tiempo y energía. Ver cómo el legado de personas reales se reduce a esto, solo para producir basura viral, es una locura”, declaró.

OpenAI promete una política más estricta de derechos digitales

En respuesta a la creciente presión, Sam Altman, CEO de OpenAI, afirmó que la empresa está comprometida con la protección de los artistas. “Apoyamos la Ley NO FAKES desde su creación y seguiremos defendiendo los derechos de intérpretes y creadores”, dijo Altman en un comunicado.

OpenAI confirmó que ya ha bloqueado la generación de videos que utilicen rostros, voces o material protegido por derechos de autor. Además, la compañía implementará sistemas de reconocimiento de identidad para verificar el uso legítimo de imágenes públicas.

Sora 2 se lanza con restricciones geográficas y de acceso

Actualmente, Sora 2 solo está disponible en Estados Unidos y Canadá, y su uso está limitado a la aplicación de iOS. Esta restricción busca controlar el despliegue del modelo y evitar abusos en países con regulaciones más estrictas sobre privacidad y derechos de imagen.

El lanzamiento gradual también permite a OpenAI ajustar sus políticas y mejorar la detección de contenido inapropiado antes de una expansión global.

El debate sobre la ética en la inteligencia artificial artística

El caso de Sora 2 reaviva la discusión sobre los límites éticos de la inteligencia artificial en la creación audiovisual. Mientras algunos defienden el potencial creativo de estas herramientas, otros temen que su mal uso erosione los derechos de autor y la integridad de los artistas.

OpenAI busca encontrar el equilibrio entre innovación y responsabilidad, consciente de que los deepfakes pueden convertirse en una amenaza si no se regulan con firmeza. Por ahora, la presión de Hollywood parece haber dado resultado, pero el debate apenas comienza.

¿Crees que la IA debería tener límites estrictos al recrear rostros y voces humanas? Comparte tu opinión y participa en la conversación sobre el futuro ético de la inteligencia artificial.

Mantente informad@ con nuestras publicaciones en tu dispositivo, ¡Suscríbete Ahora!

¿Tienes alguna idea?

Comparte tu reacción. ¡Nos encantaría saber qué opinas!

También te puede interesar

error: ¡El contenido está protegido!

Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no hacerlo si lo desea. Acepto Leer mas

Privacy & Cookies Policy