Dolar

42,5148

Euro

49,6029

Altın

5.770,62

Bist

10.918,51

Sahte ama inandırıcı videolar ortaya çıktı! OpenAI'dan açıklama

OpenAI'nin en yeni video üretim modeli Sora 2, yanlış veya yanıltıcı içerikler oluşturma konusunda ciddi endişelere yol açtı. Haber doğrulama kuruluşu NewsGuard, yaptığı araştırmada Sora 2'nin test edilen 20 yanlış iddianın 16'sını, yani yüzde 80'ini, gerçekmiş gibi gösteren videolar hâline getirdiğini açıkladı.

2 Ay Önce Güncellendi

2025-10-23 10:45:14

Sahte ama inandırıcı videolar ortaya çıktı! OpenAI'dan açıklama

Araştırma, Sora 2'nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu.

NewsGuard, oluşturulan yanlış videolardan beşinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini de belirtti.

Dakikalar içinde sahte ama inandırıcı videolar

Araştırmacılar, Sora 2'yi kullanmaya başladıktan yalnızca birkaç dakika içinde şu konularla ilgili sahte videolar üretebildi:

Moldova'da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı,

ABD sınırında bir çocuğun gözaltına alındığı,

Coca-Cola'nın Bad Bunny'nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği.

NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabileceğini gösterdiğini vurguladı.

OpenAI riskleri kabul ediyor

OpenAI, Sora 2'nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Şirket, modelin “izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler” üretebileceğini, bu nedenle sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişi içeren görsellerin veya videoların yüklenmesinin yasaklandığını bildirdi.

Ayrıca, minörleri içeren içeriklerde sıkı denetim eşiği uygulandığı ve Sora 2'nin güvenlik önlemlerinin “kademeli olarak” geliştirileceği belirtildi.

OpenAI'ye göre model, önceki sürümlere kıyasla fiziksel gerçekçiliği, senkronize ses üretimini, yönlendirilebilirliği ve görsel çeşitliliği önemli ölçüde artırıyor.

Uzmanlar: “Sora artık bir deepfake aracı”

Boston Üniversitesi'nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu söyledi:

“Zaten karmaşık bir bilgi ortamında yaşayan medya kullanıcıları için bu tür sahte videolar, gerçeği yalandan ayırmayı daha da zorlaştırıyor.”

Biyometrik kimlik doğrulama firması Daon'un yöneticisi Scott Ellis ise Sora'nın fiilen bir deepfake aracı olduğunu söyledi:

“Bu tür araçlar kişisel eğlence, profesyonel yapım ve kötüye kullanım için kullanılıyor. Sora'nın zararlı içerikleri engellemede yüzde 80 oranında başarısız olması ciddi bir tehlike işareti.”

Regula Forensics CEO'su Arif Mamedov da “Bu artık amatör sahte video üreticilerinin değil, herkesin kullanabileceği endüstriyel çapta dezenformasyon sistemlerinin çağı” dedi.

sora

Filigranlar kolayca kaldırılabiliyor

OpenAI, Sora 2'nin ürettiği tüm videolara hem görünür filigran hem de C2PA dijital imza eklendiğini açıklasa da, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu gösterdi.

Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini belirten ekip, “Videoda sadece hafif bir bulanıklık kalıyor; sıradan bir izleyici fark etmez,” ifadesini kullandı.

Dijital medya güvenlik uzmanı Jason Crawforth, “En gelişmiş filigranlar bile kırpma, yeniden kodlama veya yeniden boyutlandırma gibi basit işlemlerle silinebiliyor,” diyerek bu yöntemin yalnızca “kısa vadeli bir caydırıcı” olabileceğini söyledi.

Uzmanlardan çözüm önerileri

Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor.

Ancak mevcut durumda, uzmanlara göre Sora 2'nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başlangıcına işaret ediyor.

AA

Yorum Yap

İLGİNİZİ ÇEKEBİLİR
SON VİDEO HABER

Mevsim normalleri değişti, ayılar hâlâ uyanık

Haber Ara