top of page

OpenAI’ın Sora 2 modelinde büyük başarı: Yüzde 80 sahtelik oranı yakaladı

Haber doğrulama kuruluşu NewsGuard, OpenAI’nin yeni video üretim modeli Sora 2’nin, test edilen yanlış iddiaların yüzde 80’ini gerçeğe çok yakın sahte videolara dönüştürdüğünü açıkladı. Uzmanlar, modelin “deepfake üretimini endüstriyel boyuta taşıdığı” uyarısında bulunuyor.


ree

OpenAI’nin en yeni video üretim modeli Sora 2, yanlış veya yanıltıcı içerikler oluşturma potansiyeli nedeniyle ciddi endişelere yol açtı. Haber doğrulama kuruluşu NewsGuard, yaptığı araştırmada modelin test edilen 20 yanlış iddiadan 16’sını, yani yüzde 80’ini, gerçeğe çok yakın sahte videolar hâline getirdiğini ortaya koydu.



Araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini gösteriyor. NewsGuard’a göre, oluşturulan sahte videolardan beşi Rusya kaynaklı dezenformasyon operasyonlarındanesinlendi.


ree

Uzmanlara göre Sora 2, yalnızca birkaç dakika içinde seçim sahtekarlığı, göçmen krizi ve marka boykotu gibi temalarda videolar oluşturabiliyor. NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabileceğini gözler önüne serdiğini vurguladı.

OpenAI riskleri kabul ediyor

OpenAI, Sora 2’nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Şirket, modelin “izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler” üretebileceğini belirterek erişimi sınırlı davet yoluylasağladığını açıkladı. Ayrıca, foto-gerçekçi insan yüzleri ve minörleri içeren içeriklerde sıkı denetim uygulandığı vurgulandı.

OpenAI’ye göre Sora 2, önceki sürümlere kıyasla fiziksel gerçekçilik, ses senkronizasyonu ve görsel çeşitlilik açısından önemli gelişmeler sunuyor.


ree
Uzmanlardan uyarı: “Sora artık bir deepfake aracı”

Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu belirterek, bu tür sahte videoların gerçeği yalandan ayırmayı daha da zorlaştırdığını söyledi.


Daon yöneticisiScott Ellis, Sora 2’nin “fiilen birdeepfake aracı” haline geldiğini ifade ederken, Regula Forensics CEO’suArif Mamedovda “Bu artık amatörlerin değil,herkesin erişebileceği endüstriyel bir dezenformasyon çağı” dedi.


ree

Filigranlar kolayca kaldırılıyor

OpenAI, Sora 2 videolarına görünür filigran ve C2PA dijital imza eklediğini belirtse de, NewsGuard ekibi bu önlemin etkisiz olduğunu açıkladı. Ücretsiz araçlarla filigranların dakikalar içinde kaldırılabildiği, sıradan izleyicilerin fark edemeyeceği kadar az iz kaldığı bildirildi.

Dijital medya güvenlik uzmanı Jason Crawforth, “En gelişmiş filigranlar bile kırpma veya yeniden kodlama ile silinebiliyor,” diyerek bu yöntemin yalnızca “kısa vadeli bir caydırıcı” olduğunu vurguladı.


ree
Çözüm önerileri

Uzmanlar, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu sistem, içeriğin kaynağını değiştirilmesi zor biçimde kayıt altına alarak manipülasyon riskini azaltabiliyor.

Ancak mevcut durumda, Sora 2’nin dakikalar içinde yüksek kalitede sahte videolar üretebilmesi, uzmanlara göre “gerçeklik algısının giderek aşındığı yeni bir dijital çağın” habercisi.





 
 
 

Yorumlar


bottom of page