Yapay zekâ destekli içerik üretim uygulaması Sora 2, kısa sürede sansasyonel skandallarla gündeme oturdu. OpenAI tarafından geliştirilen platform, özellikle tanınmış kişi ve fenomenlere yönelik manipülatif içerikler üretmesiyle tartışmaların merkezine yerleşti.
Skandal nasıl başladı?
Olay, OpenAI CEO’su Sam Altman, yatırımcı Mark Cuban ve YouTuber Jake Paul gibi isimlerin, hiçbir gerçek kaynağı olmadan “ırkçı söylemler” kullanmış gibi gösterildiği videoların sosyal medyada yayılmasıyla patlak verdi. Bu içerikler hızla viral olarak kullanıcıların tepkisini topladı.
Cameo özelliği suistimal ediliyor
Sora 2’nin cameo özelliği, kullanıcıların kendi kısa videolarını uygulamaya yükleyip bunları manipüle edilmiş videolara entegre etmesine izin veriyor. Ancak son dönemde bu özellik kötüye kullanımla dikkat çekiyor.
-
Copyleaks’in incelemesine göre bazı kullanıcılar, 2020’de bir uçakta gerçekleşen ırkçı olayı yeniden kurgulamak için uygulamayı kullanıyor.
-
Örneğin, Altman’ın dijital versiyonu videolarda “I hate knitters” gibi ifadelerle gösteriliyor.
-
Jake Paul’un videolarında kullanılan “neck hurts” ifadesi belli gruplara yönelik imalar içeriyor.
İlk etapta sınırlı erişime sahip olsa da, bu içerikler TikTok ve diğer sosyal medya platformlarında milyonlarca kez görüntüleniyor.

Güvenlik filtreleri yeterli mi?
Sora 2, hakaret ve nefret söylemlerini engellemek için özel filtrelerle donatılmış olsa da kullanıcılar, küçük değişiklikler ve kelime oyunlarıyla bu önlemleri aşabiliyor. Uzmanlar, teknik filtrelerin yalnızca ilk savunma hattı olduğunu, yapay zekâ tabanlı içerik doğrulama sistemleri geliştirilmesi gerektiğini vurguluyor.
Ünlülerin itibar riski artıyor
Deepfake içerikler yalnızca bireysel itibarları zedelemekle kalmıyor, toplumsal güveni de sarsıyor. Kamuoyuna mal olmuş kişilerin hedef alınması, toplumsal kutuplaşmayı körükleme riski taşıyor. Ayrıca, dijital kopyaların ünlülerin izni olmadan kullanılması kişilik hakları ve fikri mülkiyet açısından ciddi hukuki sorunlar doğuruyor.
Platformdan beklenen önlemler
Uzmanlar, Sora 2 ve benzeri platformlara şu görevleri öneriyor:
-
Denetim mekanizmalarının güçlendirilmesi: Yapay zekâ tabanlı içerik doğrulama sistemleri geliştirilmesi.
-
Kullanıcı izni ve kimlik doğrulama: Ünlü kişilerin simülasyonları için önceden izin ve kimlik doğrulaması sağlanmalı.
-
Şeffaflık raporlaması: Üretilen içerik, algoritma kararları ve ihlal geçmişi kamuoyu ile paylaşılmalı.
-
Yasal düzenlemeler: Devletler ve kurumlar, derin sahte içeriklerin kullanımına dair hukukî çerçeveyi netleştirmeli.
Sora 2 skandalı, etik, güvenlik ve teknolojinin sınırlarını sorgulatıyor. Dijital çağda “gördüğümüz her şey gerçek mi?” sorusu bir kez daha önem kazanıyor. Uygulamalar, etik ve hukuki sınırlar gözetilmeden ilerlerse toplumsal güven, en büyük kayıp olacak.
