Çalışmaya Göre Savaş Zamanı Deepfake'leri Gerçekten Gerçeği Bulanıklaştırıyor - Dünyadan Güncel Teknoloji Haberleri

Çalışmaya Göre Savaş Zamanı Deepfake'leri Gerçekten Gerçeği Bulanıklaştırıyor - Dünyadan Güncel Teknoloji Haberleri
Zelensky’nin kendisi hızla bir takip videosu yayınladı Deepfake’i bozdu, ancak ancak sosyal medyada dikkat çektikten sonra Bu, savaş zamanında deepfake’lerin etkisini ampirik olarak analiz eden türünün ilk çalışması “Video daha gerçekçi olsaydı ve daha geniş çapta inanılsaydı, daha zararlı bir etkisi olabilirdi

Araştırmacı, Rusya’nın işgalinden önceki haftalarda Twitter’da deepfake ile ilgili içerikte bir artış olduğunu, haber sitelerinin ve yorumcuların Putin’in askeri harekatı meşrulaştırmak için değiştirilmiş medyayı kullanıp kullanmayacağına dair spekülasyonlar yaptığını gördü

“BT [the study] insanların deepfake fikrini nasıl kullandıklarını ve birçok açıdan gerçek medyaya karşı aşırı şüpheci hale geldiklerini vurguluyor, özellikle de deepfake’lerin bu kadar yaygın olmadığı zamanlarda Her iki klipte de tuhaf yüz hareketleri, doğal olmayan ışık ve gölgeler yer alıyordu; bunların her biri yapay zeka manipülasyonunun işaretleriydi Deepfake’ler, tıpkı daha önceki “bot” veya “sahte haber” terimleri gibi, medyaya veya kullanıcıların kesinlikle katılmadığı bilgilere karşı silah olarak kullanılıyor

Hem Zelensky hem de Putin’in videoları çeşitli sosyal medya sitelerinde onbinlerce kez paylaşıldı Daha geniş çapta kamuoyuna duyurulan örneklerden birinde yorumcular, yanmış bir İsrailli bebeği tasvir eden bir görselin, bir kişi tarafından asılsız olarak etiketlenmesinin ardından yapay zeka tarafından üretilen propagandanın ürünü olduğunu iddia etti Artık ikonik olan asker yeşili uzun kollu gömleğini giyen başkan, kameraya bakıyor ve Ukrayna ordusunun “teslim olduğunu” ve “silahları bırakacağını” iddia ediyor gibi görünüyordu

Yakın zamanda gerçekleşen başka bir davada, temsil eden bir avukat Elon Musk Milyarderin 2016’da yaptığı, araçlarının “bir insandan daha güvenli” şekilde otonom olarak hareket edebileceğini iddia ettiği meşru ve geniş kapsamlı bir röportajına şüphe uyandırmak için deepfake savunmasını harekete geçirmeye çalıştı 000 tweet’i seçti Rusya, sözde hacklemeyi hiçbir zaman üstlenmedi 6 Ocak’ta Kongre Binası’na düzenlenen saldırılara karışan bir isyancıyı temsil eden avukatlar daha önce jüriyi şuna ikna etmeye çalışmıştı: Video görüntüleri Duruşmada müvekkilinin kılıflı bir silahla barikatın üzerinden atladığını açıkça gösteren bir video aslında bir deepfake idi

Tweetlerden birinde “Derin sahte Keanu Reeves’in yalnızca aptalca videolarını görmüş olsaydınız, derin sahtekarlıkların zararsız olduğunu düşünürdünüz” yazıyordu Araştırmacı, Twitter’ın API’sini kullanarak, 1 Ocak 2022 ile aynı yılın 1 Ağustos’u arasında deepfake’leri tartışan 4869 ilgili tweet’i çekti Araştırmacılar, deepfake’lerin savaş zamanı yanlış bilgilendirme ve propagandasında oynayabileceği rolü analiz etmek amacıyla 2022’nin ilk yedi ayında gönderilen yaklaşık 5 “Deepfake’lerin çevrimiçi yaygınlığıyla birlikte bu durum, gerçek medyada şüphe uyandırmaları durumunda şüpheli deepfake’leri nasıl etiketleyecekleri konusunda dikkatli olması gereken haber medyası şirketleri için artan zorluklara neden olacak Ancak görüntünün daha ileri analizleri, bunun neredeyse kesinlikle orijinal İronik bir şekilde, derin sahtekarlıkların tehlikeleri konusunda uyarıda bulunan gazetecilerin iyi niyetli haberleri, istemeden de olsa genel olarak medyaya olan güvenin kötüleşmesine katkıda bulunabilir Akademisyenlerin “yalancının payı” olarak adlandırdığı bu olgunun, savaş zamanlarında feci sonuçları olabilir

Çalışma, yapay zeka tarafından manipüle edilmiş çok sayıda medya görseli ve videosunu ortaya çıkarsa da, deepfake’leri tartıştığı iddia edilen tweetlerin şok edici bir kısmı, aslında kullanıcıların gerçek, meşru görselleri ve videoları dijital olarak değiştirilmiş olarak yanlış bir şekilde nitelendirmesini içeriyordu

Ancak iki videonun sahtekarlığı hızla çürütülmüş olsa da, bunların internette hızla yayılması, savaş sırasında halkın kafasını karıştırmak ve bölmek için kullanılan alternatif videoların gerçek tehlikesi konusunda uyarıda bulunan yorumların ve haber makalelerinin telaşına yol açtı Twomey, araştırmacıların Twitter’a odaklanmaya karar verdiklerini çünkü Twitter’ın derin sahtekarlıkların veya bunlarla ilgili tartışmaların çoğalabileceği diğer sosyal medya platformlarına kıyasla gazetecilik ve siyasi aktivizme daha fazla odaklanma eğiliminde olduğunu söylüyor derin sahte teknoloji derin öğrenme yapay zeka modelleri tarafından desteklenmektedir ”



genel-7

Bunlar, University College Cork’tan araştırmacıların PLOS ONE dergisinde yayınlanan yakın tarihli bir çalışmanın parçası olarak gözlemlediği bulgulardan bazılarıydı


14 Mart’ta, Rus birliklerinin bir yıl sürecek kanlı savaşı başlatmak için Ukrayna’nın batısına hücum etmesinden yaklaşık bir ay sonra, Ukrayna Devlet Başkanı Vladimir Zelensky bir Ukrayna televizyon kanalına çıktı ve kayıtsız şartsız teslim olduğunu duyurdu

“Bulduğumuz şey insanların bunu kullandığıydı [the term deepfake] UCC Uygulamalı Psikoloji Okulu araştırmacısı ve çalışmanın ortak yazarı John Twomey, Gizmodo’ya “çevrimiçi insanlara saldırmak için moda bir kelime olarak” dedi Haber istasyonu iddialar Web yayınlarından birinde ortaya çıkan deepfake, Rus hükümetine atfedilen kötü niyetli bir hacklemenin sonucuydu Zelensky’nin tweet’ine yanıt veren Twitter kullanıcılarının çoğu deepfake’in kalitesini eleştirse de, diğerleri korkuyla bunu potansiyel yeni bir savaş silahı olarak tanımladı “Daha fazla insan deepfake’lerin aslında yaygın olmasının aksine farkında İsrail yanlısı yorumcular, Filistin yanlısı aktivistler tarafından yayınlanan meşru medyayı, bunların deepfake olduğunu iddia ederek itibarsızlaştırmaya çalıştı Yeni araştırmalar, derin sahtekarlıklardaki bu artışın ve bunların dağıtımına ilişkin kaygının çözülmesi daha da zor bir soruna katkıda bulunabileceğini öne sürüyor: İnsanlar meşru medyayı derin sahtekarlık olarak hızla göz ardı ediyor “Bunu şimdi Rus ve Ukraynalı liderlerin deepfakelerinde gördük ”

‘Deepfake savunması’ ivme kazanıyor

Kötü aktörler ve yalancılar zaten “derin sahte savunmalar” olarak adlandırılan savunmaları kullanıyor

Araştırma ne buldu?

Uygun bir şekilde “başlıklı” çalışmaDeepfake Videolar Epistemik Güvenimizi Zayıflatıyor mu??” savaş zamanında deepfake tartışmalarının kamuoyunun bilgisini ve paylaşılan gerçeği nasıl azaltabileceğini analiz etmeye çalıştı

İnin kâr payının savaş zamanı versiyonlarının çeşitleri şu anda Gazze’de gerçek zamanlı olarak oynanıyor; burada, sözde derin sahte görüntüler ve videoların sahte olduğu iddia edilen hızlı hikayeler incelemeye dayanmıyor

Volodymyr Zelensky’nin teslim olduğunu gösteren deepfake video sosyal medyada ortaya çıktı

Aynı sıralarda sosyal medya sitelerinde Zelensky’nin, Rusya Devlet Başkanı Vladimir Putin’in de benzer şekilde bir barış anlaşması ilan etmesini engelleyen başka bir kısa video yayınlandı ”

Zelensky’nin deepfake’i özellikle endişe vericiydi çünkü saygın bir haber kaynağı olan Ukraynalı 24’ten geliyordu Gizmodo yakın zamanda “deepfake tezahürat anneBir gencin onu yanlışlıkla elektronik sigara kullandığını gösteren bir videoyu manipüle etmekle suçlamasının ardından kendisini küresel bir medya saldırısının kurbanı olarak bulan kişi üretken yapay zeka görüntü dedektörü

Başarılı olsun ya da olmasın tüm bu vakalar, gerçeklik hakkında şüphe uyandırmak için derin sahtekarlıkların yaygınlığına dair kamuoyunun endişelerini kullanmaya çalışıyor Video gerçekti Türünün ilk örneği olan bulgular, derin sahte videoların çevrimiçi ortamda artan kalitesinden ve yaygınlaşmasından korkan geçmiş deepfake araştırmacılarının korkularını güçlendirecek yeni kanıtlar ekliyor; Kötü aktörler, bir videonun “deepfake” olduğunu iddia ederek onu göz ardı edebilir

Araştırmacılar, “Haberlerin derin sahtekarlıklara odaklanmasının şu anda karşı karşıya olduğumuz tehditle orantısız olup olmadığını ve bu tepkinin daha fazla güvensizlik yaratıp yaratmadığını ve epistemik bir krize katkıda bulunup bulunmadığını değerlendirmemiz gerekiyor” diye yazdı

Bu uyumsuzluğun büyük kısmı haber medyasının konuyu aşırı ele almasından kaynaklanıyor Sonunda suçlu bulundu ve yedi yıl hapis cezasına çarptırıldı Ayrıca her ikisi de tam birer uydurmaydı ve kullanılarak dünyaya hayata geçirildiler

Dijital olarak değiştirilmiş medyayı tespit etme konusunda biraz eğitim almış olan herkes, muhtemelen iki teslimiyet videosunda bir şeyler hissedebilir

Araştırmacılar, “Videonun kaynağı olan çevrimiçi bilgilerin doğruluğunun ve güvenilirliğinin olağan göstergesi, hack tarafından zayıflatıldı” diye yazdı ” diye ekledi

Twomey, Rusya-Ukrayna ihtilafına ilişkin bulgularının mevcut bilgi fırtınası hakkında ne önerebileceği konusunda spekülasyonda bulunmadı ancak araştırmasının derin sahtekarlıkların ve bunların inkarlarının savaş zamanlarında kafa karışıklığı yaratmak için kullanılabilecek bir şey olduğunu kanıtladığını söyledi

Twomey, “Bu çalışmadaki kanıtlar, derin sahtekarlıklar konusunda farkındalığı artırma çabalarının meşru videolara olan güvenimizi zayıflatabileceğini gösteriyor” dedi Bu videonun kalitesi, teknolojideki ilerlemeler sayesinde iyileştirilmiş olsaydı hızla gelişen üretken yapay zeka modelleri, çok daha fazla zarar verebilirdi

Neden Herkes Yapay Zeka Şirketlerine Dava Açıyor? | Geleceğin Teknolojisi

Putin ahşap bir masanın arkasında otururken “Ukrayna ile barışı sağlamayı başardık” diyor gibi görünüyor Bunlar, bir zamanlar teorik olan gerçeğin bugüne kadarki en açık örnekleri arasında yer alıyor: Savaş sırasında silah haline getirilen Deepfake videoları kendilerini sorumluluktan kurtarmaya çalışın Bir kullanıcı, “Maalesef deepfake’ler yeni ve kötü niyetli bir propaganda türü olabilir” diye tweet attı Bu durumda hakim Avukatın manevralarını seslendirdibunu hukuk sistemine kalıcı zarar verebilecek “derinden rahatsız edici” bir gizleme olarak nitelendirdi Bu da çevrimiçi ortamda gerçek olana olan güvenin daha da erozyona uğramasına yol açıyor Deepfake ile ilgili en fazla tweet 14-16 Mart arasında, yani Zelensky ve Putin videolarının ilgi görmeye başladığı dönemde ortaya çıktı