OpenAI, Sora deepfake üretim aracıyla ilgili ciddi bir krizle karşı karşıya kaldı. Ünlü aktör Bryan Cranston’ın izinsiz görüntülerinin Sora tarafından üretilmesi, Hollywood’un tepkisini çekti. Olayın ardından OpenAI, Cranston, SAG-AFTRA ve önde gelen yetenek ajanslarıyla bir anlaşmaya vardı.
🛡️ Sora’da önlemler artırıldı
Krizin merkezinde, Sora 2 video aracının kullanıcıların ünlülerin ses ve görüntülerini izinsiz kullanabilmesi yatıyordu. Cranston durumdan haberdar olduktan sonra sendikasına başvurdu ve OpenAI hızlıca müdahale etti.
Şirket, “istenmeyen üretimler” için özür diledi ve platformdaki koruma önlemlerini güçlendirdiğini duyurdu. Bu sayede ünlülerin dijital benzerliklerinin izinsiz kullanılmasının önüne geçilmesi hedefleniyor.

🎬 Hollywood devleri yapay zekaya karşı birleşti
Olay, yapay zekânın yaratıcı sektörler üzerindeki etkisine dair endişeleri yeniden gündeme taşıdı. SAG-AFTRA, Cranston ve büyük yetenek ajansları (CAA, UTA), OpenAI ile ortak açıklama yaptı. Bu işbirliği, sanatçıların dijital kimliklerinin korunması açısından önemli bir adım olarak değerlendiriliyor. Ayrıca OpenAI, sanatçıların kendi benzerliklerini kullanma üzerinde daha fazla kontrol sahibi olmalarını sağlayacak politikalar geliştirmeyi taahhüt etti.
⚖️ NO FAKES Act desteği
Görüşmelerin bir diğer sonucu, “NO FAKES Act” (Sahteciliğe Hayır Yasası) oldu. OpenAI ve Hollywood paydaşları, bireylerin dijital kopyalarına karşı koruma sağlayacak bu federal yasa tasarısını desteklediklerini açıkladı. Bu gelişme, teknoloji şirketleri ile içerik üreticileri arasında gelecekteki düzenlemeler için örnek teşkil edebilir.
