- Konu Yazar
- #1
OpenAI, geçtiğimiz haftalarda video üretme modeli Sora 2’yi resmen bizlerle buluşturmuştu. Ses desteğiyle gelen yeni model, kısa sürede sosyal medyada viral olmayı başarırken bazı tartışmalı içeriklerin de ortaya çıkmasına neden olmuştu.
Ünlüleri içeren deepfake görüntülerin sayısı bir hayli artmıştı. Şimdi ise bu konuda Sora’ya önemli bir güncelleme geldi. OpenAI, Sora’nın güvenlik önlemlerini artırma kararı aldı. Yapay zekâ modeli, artık ünlülerin sesini ve benzer görüntülerini içeren videolar üretmeyecek.
ABD’de bulunan oyuncu sendikası SAG-AFTRA, Breaking Bad’den tanıdığımız Bryan Cranston ve diğer birkaç organizasyon ortak bir açıklama yayımladı. Açıklamada iş birliği yaparak bu tarz bir kararın alınmasını sağladıklarını belirtti.
Cranston başta olmak üzere birçok oyuncu Sora 2 ve Sora uygulamasında ünlülerin deepfake görüntülerinin artması nedeniyle endişelerini dile getirmişti. Bunun oyuncuların herhangi bir rızası olmadan yapıldığının altı çizilmişti. Martin Luther King Jr. gibi tarihi figürler için de benzer bir durum görmüştük. King Jr.’ın ailesinin tepkilerinin ardından OpenAI bu tarz içerik üretimini engellemişti.
Yeni kararla birlikte artık sadece izni alınan insanların benzer görüntüleri Sora ile oluşturulabilecek. Yapay zekânın bu konuda büyük endişe oluşturduğunu biliyoruz. Video modelleri geliştikçe maalesef böyle içeriklerin sayısı artıyor, sanatçıların tepkileri büyüyor. Gerekli önlemler alınmazsa deepfake’lerin kontrol edilemeyecek seviyelere geldiğini görebiliriz.
Ünlüleri içeren deepfake görüntülerin sayısı bir hayli artmıştı. Şimdi ise bu konuda Sora’ya önemli bir güncelleme geldi. OpenAI, Sora’nın güvenlik önlemlerini artırma kararı aldı. Yapay zekâ modeli, artık ünlülerin sesini ve benzer görüntülerini içeren videolar üretmeyecek.
Karar, oyuncuların artan endişelerinin ardından alındı

ABD’de bulunan oyuncu sendikası SAG-AFTRA, Breaking Bad’den tanıdığımız Bryan Cranston ve diğer birkaç organizasyon ortak bir açıklama yayımladı. Açıklamada iş birliği yaparak bu tarz bir kararın alınmasını sağladıklarını belirtti.
Cranston başta olmak üzere birçok oyuncu Sora 2 ve Sora uygulamasında ünlülerin deepfake görüntülerinin artması nedeniyle endişelerini dile getirmişti. Bunun oyuncuların herhangi bir rızası olmadan yapıldığının altı çizilmişti. Martin Luther King Jr. gibi tarihi figürler için de benzer bir durum görmüştük. King Jr.’ın ailesinin tepkilerinin ardından OpenAI bu tarz içerik üretimini engellemişti.
Yeni kararla birlikte artık sadece izni alınan insanların benzer görüntüleri Sora ile oluşturulabilecek. Yapay zekânın bu konuda büyük endişe oluşturduğunu biliyoruz. Video modelleri geliştikçe maalesef böyle içeriklerin sayısı artıyor, sanatçıların tepkileri büyüyor. Gerekli önlemler alınmazsa deepfake’lerin kontrol edilemeyecek seviyelere geldiğini görebiliriz.
Ziyaretçiler için gizlenmiş link,görmek için
Giriş yap veya üye ol.