Deepfake

bilgipedi.com.tr sitesinden

Deepfakes ("derin öğrenme" ve "sahte" kelimelerinin birleşiminden oluşur), mevcut bir görüntü veya videodaki bir kişinin başka birinin benzeriyle değiştirildiği sentetik medyadır. Sahte içerik yaratma eylemi yeni olmamakla birlikte, deepfake'ler daha kolay kandırabilecek görsel ve işitsel içeriği manipüle etmek veya oluşturmak için makine öğrenimi ve yapay zekanın güçlü tekniklerinden yararlanır. Deepfakes oluşturmak için kullanılan ana makine öğrenimi yöntemleri derin öğrenmeye dayanır ve oto kodlayıcılar veya üretken düşman ağları (GAN'lar) gibi üretken sinir ağı mimarilerinin eğitilmesini içerir.

Deepfake'ler çocuk cinsel istismarı materyalleri, ünlülerin pornografik videoları, intikam pornosu, sahte haberler, aldatmacalar, zorbalık ve finansal dolandırıcılık yaratmadaki kullanımları nedeniyle yaygın ilgi görmüştür. Bu durum, kullanımlarını tespit etmek ve sınırlandırmak için hem sektörden hem de hükümetten tepkiler gelmesine neden olmuştur.

Deepfake tekniği kullanılarak oluşturulmuş yüzler
Rusya devlet başkanı Vladimir Putin'in deepfake ile oluşturulmuş bir videosu. Videoda Amerikalıları seçim müdahalesi ve artan siyasi bölünme konusunda uyarıyor.
Kim Jong-un'un deepfake ile oluşturulmuş bir videosu

Tarih

Fotoğraf manipülasyonu 19. yüzyılda geliştirilmiş ve kısa süre içinde sinema filmlerine uygulanmıştır. Teknoloji 20. yüzyıl boyunca sürekli olarak ve dijital video ile daha hızlı bir şekilde gelişti.

Deepfake teknolojisi 1990'lardan itibaren akademik kurumlardaki araştırmacılar tarafından ve daha sonra da çevrimiçi topluluklardaki amatörler tarafından geliştirilmiştir. Daha yakın zamanlarda bu yöntemler endüstri tarafından benimsenmiştir.

Akademik araştırma

Deepfake'lerle ilgili akademik araştırmalar, bilgisayar bilimlerinin bir alt alanı olan ve deepfake'leri yaratma ve tanımlama teknikleri geliştiren bilgisayarla görme alanı ile deepfake'lerin sosyal, etik ve estetik sonuçlarını inceleyen beşeri bilimler ve sosyal bilimler yaklaşımları arasında bölünmüştür.

Deepfake'lere sosyal ve beşeri bilimler yaklaşımları

Sinema çalışmalarında deepfake'ler "insan yüzünün dijital çağda nasıl merkezi bir ikirciklilik nesnesi olarak ortaya çıktığını" göstermektedir. Video sanatçıları "kanonik sinemayı yeni yıldız oyuncularla güçlendirerek film tarihini şakacı bir şekilde yeniden yazmak" için deepfake'leri kullanmıştır. Film uzmanı Christopher Holliday, tanıdık film sahnelerindeki oyuncuların cinsiyet ve ırklarının değiştirilmesinin cinsiyet sınıflandırmalarını ve kategorilerini nasıl istikrarsızlaştırdığını analiz ediyor. Deepfake'leri "queerleştirme" fikri, Oliver M. Gingrich'in, İngiliz sanatçı Jake Elwes'in Zizi'si de dahil olmak üzere, toplumsal cinsiyeti yeniden çerçevelemek için deepfake'leri kullanan medya sanat eserleri üzerine tartışmasında da ele alınmaktadır: Queering the Dataset adlı, toplumsal cinsiyetle bilinçli olarak oynamak için drag queenlerin deepfake'lerini kullanan bir sanat çalışması. Deepfake'lerin estetik potansiyelleri de keşfedilmeye başlandı. Tiyatro tarihçisi John Fletcher, deepfake'lerin ilk gösterimlerinin performans olarak sunulduğunu belirtiyor ve bunları tiyatro bağlamına yerleştirerek deepfake'lerin bir performans türü olarak temsil ettiği "daha rahatsız edici paradigma değişimlerinden bazılarını" tartışıyor.

Felsefeciler ve medya akademisyenleri deepfake'lerin etiğini özellikle pornografiyle bağlantılı olarak tartışmışlardır. Medya uzmanı Emily van der Nagel, kadınların görüntülerinin kullanılmasına rıza göstermelerine olanak tanıyan doğrulama sistemlerini tartışmak için fotoğraf çalışmalarında manipüle edilmiş görüntüler üzerine yapılan araştırmalardan yararlanıyor.

Pornografinin ötesinde, deepfake'ler filozoflar tarafından bilgiye ve dolayısıyla topluma yönelik "epistemik bir tehdit" olarak çerçevelenmiştir. Deepfake'lerin pornografinin ötesinde şirketlere, politikacılara ve diğerlerine yönelik "sömürü, gözdağı ve kişisel sabotaj" riskleriyle nasıl başa çıkılacağına dair başka öneriler de vardır ve hem hukuk çalışmalarında hem de medya çalışmalarında potansiyel yasal ve düzenleyici tepkilere ilişkin birkaç akademik tartışma bulunmaktadır. Psikoloji ve medya çalışmalarında akademisyenler deepfake kullanan dezenformasyonun etkilerini ve deepfake'lerin sosyal etkilerini tartışmaktadır.

Deepfake'lerle ilgili İngilizce akademik çalışmaların çoğu Batı'nın dezenformasyon ve pornografiyle ilgili kaygılarına odaklanırken, dijital antropolog Gabriele de Seta "değişen yüzler" anlamına gelen huanlian olarak bilinen deepfake'lerin Çin'deki alımlanışını analiz etmiştir. Çince terim, İngilizce deepfake'in "sahte" kelimesini içermemektedir ve de Seta bu kültürel bağlamın, Çinlilerin tepkisinin neden daha çok "dolandırıcılık riskleri, imaj hakları, ekonomik kar ve etik dengesizliklere" yönelik pratik düzenleyici tepkilerle ilgili olduğunu açıklayabileceğini savunmaktadır.

Deepfake'ler üzerine bilgisayar bilimi araştırmaları

Dönüm noktası niteliğindeki ilk projelerden biri, 1997 yılında yayınlanan ve konuşan bir kişinin mevcut video görüntülerini değiştirerek o kişiyi farklı bir ses parçasında yer alan kelimeleri söylerken gösteren Video Rewrite programıydı. Bu tür bir yüz canlandırma işlemini tamamen otomatik hale getiren ilk sistemdi ve bunu bir videonun öznesi tarafından üretilen sesler ile öznenin yüzünün şekli arasında bağlantı kurmak için makine öğrenme tekniklerini kullanarak yaptı.

Çağdaş akademik projeler daha gerçekçi videolar yaratmaya ve teknikleri geliştirmeye odaklanmıştır. 2017'de yayınlanan "Synthesizing Obama" programı, eski başkan Barack Obama'nın video görüntülerini değiştirerek onu ayrı bir ses parçasında yer alan kelimeleri söylerken tasvir ediyor. Proje, ağız şekillerini sesten sentezlemeye yönelik fotogerçekçi tekniğini ana araştırma katkısı olarak listeliyor. 2016'da yayınlanan Face2Face programı, bir kişinin yüzünün video görüntülerini değiştirerek gerçek zamanlı olarak başka bir kişinin yüz ifadelerini taklit ederken tasvir ediyor. Proje, derinliği yakalamayan bir kamera kullanarak yüz ifadelerini gerçek zamanlı olarak yeniden canlandırmak için ilk yöntemi ana araştırma katkısı olarak listeliyor ve tekniğin yaygın tüketici kameraları kullanılarak gerçekleştirilmesini mümkün kılıyor.

Ağustos 2018'de Kaliforniya Üniversitesi, Berkeley'deki araştırmacılar, yapay zeka kullanarak usta dans yeteneği izlenimi yaratabilen sahte bir dans uygulamasını tanıtan bir makale yayınladı. Bu proje deepfakes uygulamasını tüm vücuda yayıyor; önceki çalışmalar kafaya ya da yüzün bazı kısımlarına odaklanıyordu.

Araştırmacılar ayrıca deepfake'lerin tıbbi görüntülerle oynama gibi diğer alanlara doğru genişlediğini göstermiştir. Bu çalışmada, bir saldırganın bir hastanın 3D CT taramasında akciğer kanserini otomatik olarak nasıl enjekte edebileceği veya çıkarabileceği gösterilmiştir. Sonuç o kadar ikna ediciydi ki üç radyoloğu ve son teknoloji bir akciğer kanseri tespit yapay zekasını kandırdı. Yazarlar, tehdidi göstermek için bir Beyaz şapka sızma testinde bir hastaneye saldırıyı başarıyla gerçekleştirdiler.

Mayıs 2020'de yayınlanan bir deepfake araştırması, deepfake'lerin yaratılması ve tespit edilmesinin son birkaç yılda nasıl geliştiğine dair bir zaman çizelgesi sunuyor. Anket, araştırmacıların deepfake oluşturmanın aşağıdaki zorluklarını çözmeye odaklandığını tespit ediyor:

  • Genelleştirme. Yüksek kaliteli deepfake'ler genellikle hedefin saatler süren görüntüleri üzerinde eğitim yapılarak elde edilir. Bu zorluk, kaliteli görüntüler üretmek için gereken eğitim verisi miktarını en aza indirmek ve eğitilen modellerin yeni kimlikler (eğitim sırasında görülmeyen) üzerinde yürütülmesini sağlamaktır.
  • Eşleştirilmiş Eğitim. Denetimli bir modelin eğitilmesi yüksek kaliteli sonuçlar üretebilir, ancak veri eşleştirmesi gerektirir. Bu, modelin öğrenmesi için girdi örneklerini ve bunların istenen çıktılarını bulma sürecidir. Birden fazla kimlik ve yüz davranışı üzerinde eğitim yaparken veri eşleştirme zahmetli ve pratik değildir. Bazı çözümler arasında kendi kendine denetimli eğitim (aynı videodan kareler kullanarak), Cycle-GAN gibi eşleştirilmemiş ağların kullanımı veya ağ katıştırmalarının manipülasyonu yer alır.
  • Kimlik sızıntısı. Bu, sürücünün (yani bir canlandırmada yüzü kontrol eden aktörün) kimliğinin kısmen oluşturulan yüze aktarıldığı durumdur. Önerilen bazı çözümler arasında dikkat mekanizmaları, birkaç atışlık öğrenme, ayrıştırma, sınır dönüşümleri ve atlama bağlantıları yer alır.
  • Oklüzyonlar. Yüzün bir kısmı el, saç, gözlük veya başka bir nesne ile engellendiğinde yapaylıklar oluşabilir. Yaygın bir oklüzyon, ağzın içini ve dişleri gizleyen kapalı bir ağızdır. Bazı çözümler eğitim sırasında görüntü segmentasyonunu ve boyama işlemini içerir.
  • Zamansal tutarlılık. Deepfakes içeren videolarda, ağın önceki karelerle ilgili bir bağlamı olmadığı için titreme ve titreşim gibi yapaylıklar ortaya çıkabilir. Bazı araştırmacılar bu bağlamı sağlar veya gerçekçiliği artırmaya yardımcı olmak için yeni zamansal tutarlılık kayıpları kullanır. Teknoloji geliştikçe parazit de azalıyor.

Genel olarak, deepfake'lerin medya ve toplum, medya üretimi, medya temsilleri, medya izleyicileri, toplumsal cinsiyet, hukuk ve düzenleme ve siyaset alanlarında çeşitli etkileri olması beklenmektedir.

Amatör gelişim

Deepfakes terimi 2017 yılının sonlarında "deepfakes" adlı bir Reddit kullanıcısı tarafından ortaya atıldı. Kendisi ve Reddit topluluğu r/deepfakes'teki diğerleri, yarattıkları deepfakes'leri paylaştı; birçok videoda ünlülerin yüzleri pornografik videolardaki aktrislerin vücutlarıyla değiştirilirken, pornografik olmayan içerikte aktör Nicolas Cage'in yüzünün çeşitli filmlerle değiştirildiği birçok video yer aldı.

Topluluk üyelerinin ünlüleri, politikacıları ve diğerlerini pornografik olmayan senaryolarda gösteren deepfake'leri paylaştığı r/SFWdeepfakes ("safe for work deepfakes "in kısaltması) gibi pornografi paylaşmayan Reddit toplulukları da dahil olmak üzere diğer çevrimiçi topluluklar varlığını sürdürmektedir. Diğer çevrimiçi topluluklar, deepfake pornografiyi yasaklamayan platformlarda pornografi paylaşmaya devam ediyor.

Ticari gelişim

Ocak 2018'de FakeApp adlı tescilli bir masaüstü uygulaması piyasaya sürüldü. Bu uygulama, kullanıcıların yüzlerinin birbirleriyle değiştirildiği videoları kolayca oluşturmalarına ve paylaşmalarına olanak tanıyor. 2019 itibariyle FakeApp'in yerini Faceswap, komut satırı tabanlı DeepFaceLab ve DeepfakesWeb.com gibi web tabanlı uygulamalar gibi açık kaynaklı alternatifler aldı.

Daha büyük şirketler deepfake kullanmaya başladı. Kurumsal eğitim videoları deepfake avatarlar ve onların sesleri kullanılarak oluşturulabilir, örneğin Synthesia, kişiselleştirilmiş videolar oluşturmak için avatarlarla deepfake teknolojisini kullanır. Mobil uygulama devi Momo, kullanıcıların yüzlerini tek bir resimle televizyon ve film kliplerinin üzerine yerleştirmelerine olanak tanıyan Zao uygulamasını yarattı. 2019 itibariyle Japon yapay zeka şirketi DataGrid, sıfırdan bir insan yaratabilen tam vücutlu bir deepfake yaptı. Bunları moda ve giyim için kullanmayı planlıyorlar.

2020 itibariyle ses deepfake'leri ve deepfake'leri tespit edebilen ve 5 saniye dinleme süresinden sonra insan seslerini klonlayabilen yapay zeka yazılımları da mevcuttur. Mart 2020'de bir mobil deepfake uygulaması olan Impressions piyasaya sürüldü. Bu, cep telefonlarından ünlülerin deepfake videolarının oluşturulmasına yönelik ilk uygulamaydı.

Diriliş

Deepfake teknolojisi yalnızca başkalarının mesajlarını ve eylemlerini uydurmak için değil, aynı zamanda ölmüş kişileri canlandırmak için de kullanılabilmektedir. 29 Ekim 2020'de Kim Kardashian, merhum babası Robert Kardashian'ın bir videosunu yayınladı; Robert Kardashian'ın videodaki yüzü deepfake teknolojisi ile oluşturuldu. Bu hologram, hologram yaratımında performans, hareket takibi, SFX, VFX ve DeepFake teknolojilerinin bir kombinasyonunu kullanan Kaleida şirketi tarafından yaratılmıştır.

2020 yılında, Parkland silahlı saldırısının kurbanı Joaquin Oliver deepfake teknolojisiyle yeniden diriltildi. Oliver'ın ailesi, kâr amacı gütmeyen Change the Ref adlı kuruluşları adına McCann Health ile bir araya gelerek silah güvenliği oylaması kampanyasını savunan bu deepfake videoyu hazırladı. Bu deepfake mesajda Joaquin'in izleyicileri oy vermeye teşvik ettiği görülüyor.

Ayrıca, 1980 yılında öldürülen The Beatles üyesi John Lennon gibi öldürülen popüler kültür ve tarih figürlerinin deepfake dirilişleri de olmuştur.

Teknikler

Deepfakes, oto kodlayıcı adı verilen bir tür sinir ağına dayanır. Bunlar, bir görüntüyü daha düşük boyutlu bir gizli uzaya indirgeyen bir kodlayıcı ve görüntüyü gizli temsilden yeniden yapılandıran bir kod çözücüden oluşur. Deepfakes, bir kişiyi gizli uzaya kodlayan evrensel bir kodlayıcıya sahip olarak bu mimariyi kullanır. Gizli temsil, yüz özellikleri ve vücut duruşu hakkında temel özellikler içerir. Bu daha sonra hedef için özel olarak eğitilmiş bir model ile çözülebilir. Bu, hedefin ayrıntılı bilgilerinin, gizli uzayda temsil edilen orijinal videonun temel yüz ve vücut özelliklerinin üzerine yerleştirileceği anlamına gelir.

Bu mimarinin popüler bir yükseltmesi, kod çözücüye üretken bir düşman ağı ekler. Bir GAN, bir üreteci, bu durumda kod çözücüyü ve bir ayırıcıyı düşmanca bir ilişki içinde eğitir. Üreteç, kaynak materyalin gizli temsilinden yeni görüntüler oluştururken, ayırt edici görüntünün üretilip üretilmediğini belirlemeye çalışır. Bu, herhangi bir kusur ayırt edici tarafından yakalanacağından, üretecin gerçeği son derece iyi taklit eden görüntüler oluşturmasına neden olur. Her iki algoritma da sıfır toplamlı bir oyunda sürekli olarak gelişir. Bu, sürekli geliştikleri için deepfake'lerle mücadeleyi zorlaştırır; bir kusur tespit edildiğinde düzeltilebilir.

Uygulamalar

Şantaj

Deepfakes, kurbanı yanlış bir şekilde suçlayan şantaj materyalleri üretmek için kullanılabilir. Ancak, sahteler gerçek materyallerden güvenilir bir şekilde ayırt edilemediğinden, gerçek şantaj mağdurları artık gerçek eserlerin sahte olduğunu iddia edebilir ve bu da onlara makul inkar edilebilirlik sağlar. Bunun etkisi, mevcut şantaj materyallerinin güvenilirliğini ortadan kaldırmak, şantajcılara olan sadakati silmek ve şantajcının kontrolünü yok etmektir. Bu olgu "şantaj enflasyonu" olarak adlandırılabilir, çünkü gerçek şantajın "değerini düşürerek" onu değersiz hale getirir. Bu şantaj içeriğini herhangi bir sayıda konu için büyük miktarlarda üretmek için küçük bir yazılım programı ile emtia GPU donanımını kullanmak, sahte şantaj içeriği arzını sınırsız ve son derece ölçeklenebilir bir şekilde artırmak mümkündür.

Amerikan Kongre Araştırma Servisi tarafından hazırlanan bir raporda, deepfake'lerin seçilmiş yetkililere ya da gizli bilgilere erişimi olanlara casusluk ya da etkileme amacıyla şantaj yapmak için kullanılabileceği uyarısında bulunulmuştur.

Pornografi

2017 yılında Deepfake pornografisi internette, özellikle de Reddit'te belirgin bir şekilde ortaya çıkmıştır. 2019 itibariyle, internetteki birçok deepfake, benzerlikleri genellikle rızaları olmadan kullanılan kadın ünlülerin pornografisini içeriyor. Hollandalı siber güvenlik girişimi Deeptrace tarafından Ekim 2019'da yayınlanan bir raporda, internetteki tüm deepfake'lerin %96'sının pornografik olduğu tahmin edilmiştir. 2018 itibariyle, diğerlerinin yanı sıra ilk olarak bir Daisy Ridley deepfake'i dikkat çekmiştir. Ekim 2019 itibariyle, internetteki deepfake deneklerinin çoğu İngiliz ve Amerikalı aktrislerdi. Bununla birlikte, deneklerin yaklaşık dörtte biri Güney Korelidir ve bunların çoğunluğu K-pop yıldızlarıdır.

Haziran 2019'da, kadın görüntülerinden kıyafetleri çıkarmak için sinir ağlarını, özellikle de üretken düşman ağlarını kullanan DeepNude adlı indirilebilir bir Windows ve Linux uygulaması yayınlandı. Uygulamanın hem ücretli hem de ücretsiz bir sürümü vardı, ücretli sürüm 50 dolara mal oluyordu. 27 Haziran'da uygulamanın yaratıcıları uygulamayı kaldırmış ve tüketicilere para iadesi yapmıştır.

Politika

Deepfake'ler videolarda tanınmış politikacıları yanlış tanıtmak için kullanılmıştır.

  • 2018 yılı itibariyle ayrı videolarda Arjantin Devlet Başkanı Mauricio Macri'nin yüzü Adolf Hitler'in yüzüyle, Angela Merkel'in yüzü ise Donald Trump'ın yüzüyle değiştirilmiştir.
  • 2020 ABD başkanlık kampanyasında Joe Biden'ın bilişsel gerileme içinde olduğunu iddia eden pek çok derin sahtekarlık ortaya çıktı: bir röportaj sırasında uyuyakalması, kaybolması ve yanlış konuşması, gerileme söylentilerini güçlendirdi.
  • Nisan 2018'de Jordan Peele, Buzzfeed ile işbirliği yaparak Peele'nin sesiyle bir Barack Obama deepfake'i yarattı; bu, deepfake'lerle ilgili farkındalığı artırmak için bir kamu hizmeti duyurusu olarak hizmet etti.
  • Ocak 2019'da Fox'a bağlı KCPQ, Oval Ofis konuşması sırasında Trump'ın görünüşü ve ten rengiyle alay eden bir deepfake yayınladı (ve daha sonra videodan sorumlu bulunan bir çalışanı işten çıkardı).
  • 2020 Delhi Yasama Meclisi seçim kampanyası sırasında, Delhi Bharatiya Janata Partisi, lideri Manoj Tiwari'nin İngilizce bir kampanya reklamının Haryana seçmenlerini hedeflemek için Haryanvi diline çevrilmiş bir versiyonunu dağıtmak için benzer bir teknoloji kullandı. Bir aktör tarafından seslendirme yapıldı ve Tiwari'nin konuşmalarının videoları kullanılarak eğitilen yapay zeka, videoyu yeni seslendirmeye dudak senkronizasyonu yapmak için kullanıldı. Bir parti çalışanı bunu, "aday seçmenin dilini konuşmasa bile hedef kitleye ikna edici bir şekilde yaklaşmalarını" sağlayan deepfake teknolojisinin "olumlu" bir kullanımı olarak tanımladı.
  • Nisan 2020'de Extinction Rebellion'ın Belçika şubesi Facebook'ta Belçika Başbakanı Sophie Wilmès'in deepfake bir videosunu yayınladı. Video, ormansızlaşma ile COVID-19 arasında olası bir bağlantıyı destekliyordu. Video 24 saat içinde 100.000'den fazla kez görüntülendi ve çok sayıda yorum aldı. Videonun yayınlandığı Facebook sayfasında birçok kullanıcı deepfake videoyu gerçek olarak yorumladı.
  • Bruno Sartori 2020'de Jair Bolsonaro ve Donald Trump gibi siyasetçilerin parodisini yapmıştı.
  • Haziran 2019'da Amerika Birleşik Devletleri Temsilciler Meclisi İstihbarat Komitesi, deepfake'lerin seçimleri etkilemek için potansiyel kötü niyetli kullanımına ilişkin oturumlar düzenledi.
  • Nisan 2021'de, bazı Avrupa ülkelerindeki siyasetçilere, eleştirmenler tarafından Rus devleti için çalışmakla suçlanan şakacılar Vovan ve Lexus tarafından yaklaşıldı. İkili, iddiaya göre deepfake teknolojisi aracılığıyla Rus muhalif siyasetçi ve Rus muhalif lider Alexei Navalny'nin kampanyasının genelkurmay başkanı Leonid Volkov'un kimliğine büründü. Ancak ikili The Verge'e verdikleri demeçte deepfake kullanmadıklarını ve sadece bir benzerini kullandıklarını söyledi.

Sanat

Mart 2018'de multidisipliner sanatçı Joseph Ayerle Un'emozione per sempre 2.0 (İngilizce başlığı: The Italian Game) adlı video sanat eserini yayınladı. Sanatçı Deepfake teknolojisi ile çalışarak, 80'lerin film yıldızı Ornella Muti'nin sentetik bir versiyonu olan ve 1978'den 2018'e zamanda yolculuk yapan bir yapay zeka oyuncusu yarattı. Massachusetts Institute of Technology bu sanat eserini "Collective Wisdom" adlı çalışmada ele almıştır. Sanatçı, Ornella Muti'nin zaman yolculuğunu kuşaklar arası yansımaları keşfetmek için kullanırken, sanat dünyasında provokasyonun rolüne ilişkin soruları da araştırdı. Ayerle teknik uygulama için fotoğraf modeli Kendall Jenner'ın sahnelerini kullandı. Program Jenner'ın yüzünü Ornella Muti'nin yapay zeka tarafından hesaplanmış yüzüyle değiştirdi. Sonuç olarak, yapay zekalı aktris İtalyan aktris Ornella Muti'nin yüzüne ve Kendall Jenner'ın vücuduna sahip oldu.

Deepfake'ler hicivde ya da ünlülerin ve politikacıların parodisini yapmak için yaygın olarak kullanılmaktadır. Trey Parker ve Matt Stone tarafından yaratılan 2020 yapımı web dizisi Sassy Justice, güncel olayları hicvetmek ve deepfake teknolojisine ilişkin farkındalığı artırmak için deepfake'leştirilmiş kamusal figürlerin kullanımına büyük ölçüde yer vermektedir.

Oyunculuk

Deepfake'lerin gelecekteki filmlerde dijital aktörler yaratmak için kullanılacağına dair spekülasyonlar var. Dijital olarak inşa edilmiş/değiştirilmiş insanlar daha önce de filmlerde kullanılmıştı ve deepfake'ler yakın gelecekte yeni gelişmelere katkıda bulunabilir. Deepfake teknolojisi, Solo: Bir Star Wars Hikayesi'nde Harrison Ford'un genç yüzünün Han Solo'nun yüzüne yerleştirilmesi gibi mevcut filmlere yüzler eklemek için hayranlar tarafından zaten kullanıldı ve deepfakes tarafından kullanılanlara benzer teknikler Rogue One'da Prenses Leia ve Grand Moff Tarkin'in oyunculuğu için kullanıldı.

Deepfake teknolojisi giderek gelişirken Disney de yüksek çözünürlüklü deepfake yüz değiştirme teknolojisini kullanarak görsel efektlerini geliştirdi. Disney, yüz ifadelerini tanımlamak için programlanmış aşamalı eğitim, bir yüz değiştirme özelliği uygulama ve çıktıyı stabilize etmek ve rafine etmek için yineleme yoluyla teknolojilerini geliştirdi. Bu yüksek çözünürlüklü deepfake teknolojisi önemli operasyonel ve üretim maliyetlerinden tasarruf sağlıyor. Disney'in deepfake üretim modeli, 256 x 256 çözünürlükte medya üreten yaygın modellerin aksine, yapay zeka tarafından üretilen medyayı 1024 x 1024 çözünürlükte üretebiliyor. Bu teknoloji Disney'in karakterlerin yaşlandırmasını kaldırmasına ya da ölmüş oyuncuları canlandırmasına olanak tanıyor.

2020 yapımı Welcome to Chechnya (Çeçenistan'a Hoş Geldiniz) adlı belgeselde, görüşülen kişilerin kimliğini gizlemek ve böylece onları misillemeden korumak için deepfake teknolojisi kullanılmıştır.

İnternet memi

2020 yılında, video oyun serisi Yakuza'nın Yakuza 0 oyunundan bir şarkı olan "Baka Mitai" (ばかみたい) nakaratını söyleyen insanların videolarını oluşturmak için deepfakes kullanan bir internet meme'i ortaya çıktı. Seride, melankolik şarkı oyuncu tarafından bir karaoke mini oyununda söylenir. Bu memin çoğu yinelemesi, şarkıyı dudak senkronizasyonu yapan Dobbsyrules kullanıcısı tarafından 2017'de yüklenen bir videoyu şablon olarak kullanıyor.

Sosyal medya

Deepfake'ler popüler sosyal medya platformlarında, özellikle de kullanıcıların kendi yüzlerini Romeo + Juliet ve Game of Thrones gibi film ve televizyon dizilerindeki karakterlerin yüzlerinin yerine koymalarına olanak tanıyan Çinli bir deepfake uygulaması olan Zao aracılığıyla kullanılmaya başlandı. Uygulama başlangıçta istilacı kullanıcı verileri ve gizlilik politikası nedeniyle incelemeye maruz kalmış, ardından şirket politikayı gözden geçireceğini iddia eden bir açıklama yapmıştır. Ocak 2020'de Facebook, platformlarında buna karşı koymak için yeni önlemler getirdiğini duyurdu.

Kongre Araştırma Servisi, yabancı istihbarat operatörlerinin gizli bilgilere erişimi olan kişileri işe almak amacıyla sosyal medya hesapları oluşturmak için deepfake'ler kullandığını gösteren belirtilmemiş kanıtlara atıfta bulundu.

Sockpuppets

Deepfake fotoğraflar, hem çevrimiçi hem de geleneksel medyada aktif olan sockpuppet'ler, yani var olmayan kişiler yaratmak için kullanılabilir. Deepfake bir fotoğrafın, kimliği Birleşik Krallık'ta bir üniversite öğrencisi olarak tanımlanan Oliver Taylor adında görünüşte var olmayan bir kişi için bir efsane ile birlikte oluşturulduğu görülmektedir. Oliver Taylor kişiliği çeşitli gazetelerde görüş yazıları yayınlamış ve çevrimiçi medyada aktif olarak bir İngiliz hukuk akademisyenine ve eşine "terörist sempatizanı" olarak saldırmıştır. Akademisyen 2018 yılında, Meksika'da NSO'nun telefon dinleme teknolojisinin kurbanı olduklarını iddia eden kişiler adına İsrail'de bir gözetleme şirketi olan NSO'ya karşı dava açtığında uluslararası dikkatleri üzerine çekmişti. Reuters Oliver Taylor'a ait çok az kayıt bulabildi ve "kendi" üniversitesinde de Taylor'a ait hiçbir kayıt yoktu. Pek çok uzman profil fotoğrafının bir deepfake olduğu konusunda hemfikir. Bazı gazeteler kendisine atfedilen makaleleri geri çekmemiş ya da web sitelerinden kaldırmamıştır. Bu tür tekniklerin dezenformasyonda yeni bir savaş alanı olmasından korkuluyor.

Sosyal ağlarda var olmayan kişilerin deepfake fotoğraflarından oluşan koleksiyonlar da İsrail yanlısı propagandanın bir parçası olarak kullanılmaktadır. "Siyonist Bahar" adlı Facebook sayfasında, var olmayan kişilerin fotoğraflarının yanı sıra, neden sol eğilimli politikalarını bırakıp sağ kanadı benimsediklerini açıkladıkları iddia edilen "tanıklıkları" yer aldı ve sayfada ayrıca İsrail Başbakanı Benjamin Netanyahu ve oğlu ile diğer İsrailli sağcı kaynaklardan çok sayıda gönderi yer aldı. Fotoğrafların, var olmayan bir kişinin gerçekçi bir bileşik görüntüsünü üretmek için gerçek insanların fotoğraflarından veri alan bir bilgisayar yazılımı olan "insan görüntüsü sentezi" teknolojisi ile üretildiği görülüyor. "İfadelerin" çoğunda, siyasi sağı benimsemenin nedeni, başbakana karşı şiddete teşvik iddialarını öğrenmenin şokuydu. Sağcı İsrail televizyon yayıncıları daha sonra bu var olmayan kişilerin "tanıklıklarını" internette "paylaşıldıkları" gerçeğine dayanarak yayınladılar. Yayıncılar bu kişileri bulamamalarına rağmen hikayeyi yayınladılar ve "Köken neden önemli?" diye açıkladılar. Diğer Facebook sahte profilleri - hayali kişilerin profilleri - sağcı başbakana karşı bu tür kışkırtmalar içerdiği iddia edilen materyaller içeriyordu, buna karşılık başbakan kendisini öldürmek için bir komplo olduğundan şikayet etti.

Endişeler

Dolandırıcılık

Ses taklitleri, sosyal mühendislik dolandırıcılıklarının bir parçası olarak kullanılmakta ve insanları güvenilir bir kişiden talimat aldıklarını düşünmeleri için kandırmaktadır. 2019 yılında, İngiltere merkezli bir enerji firmasının CEO'su, firmanın ana şirketinin CEO'sunun sesini taklit etmek için ses deepfake teknolojisini kullanan bir kişi tarafından Macaristan'daki bir banka hesabına 220.000 € transfer etmesi istendiğinde telefonla dolandırıldı.

Güvenilirlik ve özgünlük

Sahte fotoğraflar uzun zamandır bol miktarda bulunsa da, sinema filmlerini taklit etmek daha zor olmuştur ve deepfake'lerin varlığı videoları gerçek olup olmadığına göre sınıflandırmanın zorluğunu arttırmaktadır. Yapay zeka araştırmacısı Alex Champandard, insanların deepfake teknolojisiyle her şeyin ne kadar hızlı bozulabileceğini bilmeleri gerektiğini ve sorunun teknik bir sorun olmadığını, daha ziyade bilgiye ve gazeteciliğe duyulan güvenle çözülebilecek bir sorun olduğunu söyledi. Deepfake'ler karalamak, taklit etmek ve dezenformasyon yaymak için kullanılabilir. Asıl tehlike, insanlığın, bir mecranın içeriğinin gerçeğe uygun olup olmadığının artık belirlenemediği bir çağa düşmesidir.

Benzer şekilde, Güney Kaliforniya Üniversitesi'nden bilgisayar bilimleri doçenti Hao Li, sahte haberler gibi kötü amaçlı kullanım için yaratılan deepfake'lerin, deepfake teknolojisine ilişkin farkındalığı yaymak için hiçbir şey yapılmazsa daha da zararlı olacağını belirtiyor. Li, yapay zeka ve bilgisayar grafiklerindeki hızlı ilerleme nedeniyle gerçek videolar ile deepfake'lerin Ekim 2019'dan itibaren altı ay gibi kısa bir süre içinde ayırt edilemez hale geleceğini öngördü.

Google'ın eski dolandırıcılık çarı Shuman Ghosemajumder deepfake'leri "toplumsal endişe" alanı olarak nitelendirdi ve kaçınılmaz olarak otomatik olarak üretilebilecekleri bir noktaya evrileceklerini ve bir bireyin bu teknolojiyi milyonlarca deepfake video üretmek için kullanabileceğini söyledi.

Bir deepfake'in sonuçları tüm hükümet sistemini istikrarsızlaştıracak kadar önemli değildir; ancak deepfake'ler bireysel varlıklara muazzam zarar verme kabiliyetine sahiptir. Bunun nedeni, deepfake'lerin genellikle kamuoyunu veya inançları etkileyecek kadar güçlü bir anlatı yaratma umuduyla tek bir kişiyi ve/veya bu kişinin diğerleriyle olan ilişkilerini hedef almasıdır. Bu, sahte telefon görüşmeleri veya konuşmalar oluşturmak için sesi manipüle eden deepfake ses oltalama yoluyla yapılabilir. Deepfake kullanımının bir başka yöntemi de, zarar verici yorumları dile getiren bireyleri iletmek için medyayı manipüle eden uydurma özel açıklamalardır.

Eylül 2020'de Microsoft, bir Deepfake tespit yazılımı aracı geliştirdiklerini kamuoyuna duyurmuştur.

Örnek olaylar

Nancy Pelosi'nin 22 Mayıs 2019'da Amerikan İlerleme Merkezi'nde yaptığı konuşmadan bir klip yavaşlatılmış ve ses tonu değiştirilerek sarhoşmuş gibi görünmesi sağlanmıştır; ancak eleştirmenler bunun bir deepfake değil, daha az sofistike bir video manipülasyonu olan shallowfake olduğunu savunmaktadır.

Donald Trump deepfake

Jimmy Fallon'ın NBC'nin The Tonight Show programında gerçekleştirdiği bir skeç temel alınarak Donald Trump'ın deepfake'i kolayca yaratılmıştır. Bu skeçte (4 Mayıs 2016'da yayınlandı) Jimmy Fallon Donald Trump gibi giyinerek Barack Obama ile bir telefon görüşmesine katılmış gibi yaptı ve Indiana'da kazandığı önseçimle övünüyormuş gibi bir tavırla konuştu. 5 Mayıs 2019'da Donald Trump'ın (bu skeçten alınan) bir deepfake'i yaratıldı. Bu deepfake'te Jimmy Fallon'ın yüzü Donald Trump'ın yüzüne dönüştürülmüştür (ses aynı kalmıştır). Bu deepfake video Derpfakes'in kurucusu tarafından komedi amacıyla YouTube'a yüklenmiştir.

Barack Obama deepfake

Amerikalı aktör Jordan Peele, BuzzFeed ve Monkeypaw Productions, Barack Obama'nın Donald Trump'a küfrettiği ve hakaretler yağdırdığı bir deepfake (17 Nisan 2018 tarihinde YouTube'a yüklendi) yarattı ve üretti. Bu deepfake'te Peele'in sesi ve ağzı Obama'nın sesine ve yüzüne dönüştürülmüş ve manipüle edilmiştir. Bu videonun amacı, deepfake'lerin tehlikeli sonuçlarını ve gücünü ve deepfake'lerin herhangi birine nasıl her şeyi söyletebileceğini göstermekti.

Kim Jong-un

"Kim Jong-Un"

Kuzey Kore lideri Kim Jong-un'un derin taklitleri, partizan olmayan bir savunuculuk grubu olan RepresentUs tarafından yaratıldı.

Vladimir Putin

Deepfake video : Vladimir Putin Amerikalıları seçimlere müdahale ve artan siyasi bölünme konusunda uyardı

Rusya Devlet Başkanı Vladimir Putin'in deepfakeleri de partizan olmayan bir savunuculuk grubu olan RepresentUs tarafından yaratılmıştır.

Kim Jong-un ve Vladimir Putin'in deepfake'leri, bu liderlerin ABD seçimlerine müdahalesinin ABD demokrasisine zarar vereceği fikrini aktarmak için reklam filmi olarak halka açık bir şekilde yayınlanacaktı; reklam filmi ayrıca Amerikalıları demokrasinin ne kadar kırılgan olduğunu ve medya ve haberlerin güvenilirlikten bağımsız olarak ülkenin gidişatını nasıl önemli ölçüde etkileyebileceğini anlamaları için şok etmeyi amaçlıyordu. Bununla birlikte, bu reklamlar görüntülerin gerçek olmadığına dair bir son yorum içeriyordu ve sonuçta Amerikalıların nasıl tepki verebileceğine ilişkin korku ve hassasiyet nedeniyle reklamlar yayınlanmadı.

Tom Cruise

2021 yılında aktör Tom Cruise'un gerçekçi deepfake videoları TikTok'ta yayınlandı ve viral olarak on milyondan fazla izlendi. Deepfake videolarda Cruise'un "yapay zeka tarafından üretilen bir görsel ikizi" golf sahasında vuruş yapmak, bozuk para numarası göstermek ve bir lolipopu ısırmak gibi çeşitli aktiviteler yapıyordu. Kliplerin yaratıcısı deepfake'lerle ilk kez 2018 yılında ilgilenmeye başladığını ve bunların "yaratıcı potansiyelini" gördüğünü söyledi.

Volodymyr Zelenskyy

16 Mart 2022'de sosyal medyada Ukrayna Devlet Başkanı Volodymyr Zelenskyy'nin 2022'de Rusya'nın Ukrayna'yı işgali sırasında askerlerine silahlarını bırakıp teslim olmalarını söylediği bir dakikalık sahte bir video dolaşıma girdi. Rus sosyal medyası bu videoyu destekledi, ancak çürütüldükten sonra Facebook ve YouTube videoyu kaldırdı. Twitter, sahte olduğunun ortaya çıktığı tweetlerde videoya izin verdi ancak insanları kandırmak için yayınlanması halinde kaldırılacağını söyledi. Hackerlar bu dezenformasyonu Ukrayna 24 TV kanalında canlı olarak yayınlanan bir kayan metin haberine yerleştirdi ve video Zelenskyy'nin ülkesinin başkenti Kiev'den kaçtığına dair yanlış iddialara ek olarak kanalın web sitesinde kısa bir süre yer aldı. Zelenskyy'nin kendi videosuyla yanıt verdiği deepfake'i kimin yarattığı hemen anlaşılamadı: "Silah bırakmayı planlamıyoruz. Ta ki zaferimize kadar."

Yanıtlar

Sosyal medya platformları

Twitter

Twitter, platformlarındaki sentetik ve manipüle edilmiş medyayı ele almak için aktif önlemler alıyor. Dezenformasyonun yayılmasını önlemek amacıyla Twitter, manipüle edilmiş medya ve/veya deepfake içeren tweetlere, izleyicilere medyanın manipüle edildiğini gösteren bir uyarı yerleştiriyor. Ayrıca tweet'i retweet etmeyi, beğenmeyi ya da tweet'le etkileşime geçmeyi planlayan kullanıcılara da bir uyarı gösterilecek. Twitter ayrıca kullanıcılara, manipüle edilmiş veya sentetik medya içeren tweet'in yanında, bir Twitter Moment'a veya ilgili konuyla ilgili güvenilir bir haber makalesine bağlanan bir bağlantı sağlamak için de çalışacaktır. Twitter, kullanıcıların güvenliğine zarar verebilecek deepfake veya manipüle edilmiş medya içeren tweetleri kaldırma olanağına da sahiptir. Twitter'ın deepfake ve manipüle edilmiş medya tespitini daha iyi hale getirmek için Twitter, deepfake tespit çözümleri üzerinde çalışmak üzere kendileriyle ortaklık yapmak isteyen kullanıcılardan bir form doldurmalarını istedi (son başvuru tarihi 27 Kasım 2020).

Facebook

Facebook, en gelişmiş deepfake tespit yazılımını geliştirmek amacıyla deepfake'lerin yaratılmasını teşvik etmek için çaba sarf etti. Facebook, Aralık 2019'da düzenlenen ve 2114 katılımcının 35.000'den fazla model oluşturduğu Deepfake Detection Challenge'a (DFDC) ev sahipliği yapan önemli bir ortak olmuştur. En yüksek tespit doğruluğuna sahip en iyi performans gösteren modeller benzerlikler ve farklılıklar açısından analiz edildi; bu bulgular, deepfake tespit modellerini iyileştirmek ve rafine etmek için daha fazla araştırmanın ilgi alanlarıdır. Facebook ayrıca, platformun bir bireyin konuşmasını değiştirmek için kullanılan yapay zeka ile üretilen medyayı kaldıracağını da ayrıntılı olarak açıkladı. Bununla birlikte, bir kişinin mesajındaki kelimelerin sırasını veya bağlamını değiştirmek için düzenlenen medya sitede kalacak, ancak yapay zeka tarafından oluşturulmadığı için sahte olarak etiketlenecektir.

Tespit

Deepfake'i çevreleyen akademik araştırmaların çoğu videoları tespit etmeyi amaçlamaktadır. En popüler teknik, bunları tespit etmek için deepfake oluşturmak için kullanılanlara benzer algoritmalar kullanmaktır. Algoritma, deepfake'lerin nasıl oluşturulduğuna dair kalıpları tanıyarak ince tutarsızlıkları tespit edebiliyor. Araştırmacılar, düzensiz yanıp sönen ışıklandırma desenleri gibi hatalar için videoları inceleyen otomatik sistemler geliştirdiler. Bu teknik aynı zamanda, tespit algoritmaları ne zaman daha iyi hale gelirse deepfake'lerin de o kadar iyi hale geldiği bir "hareketli kale direği" yarattığı için eleştirilmektedir. Önde gelen teknoloji şirketlerinden oluşan bir koalisyonun ev sahipliğinde düzenlenen Deepfake Detection Challenge, manipüle edilmiş içeriği tespit etme teknolojisini hızlandırmayı umuyor.

Buffalo Üniversitesi'nden bir ekip, Ekim 2020'de Deepfake'lerin gözlerindeki ışık yansımalarını kullanma tekniklerini özetleyen bir makale yayınladı. En azından şimdilik, bir yapay zeka tespit aracı kullanılmadan bile deepfake'leri yüksek bir başarı oranıyla tespit ettiği tasvir edilenler.

Güney Kaliforniya Üniversitesi Bilgi Bilimleri Enstitüsü Görsel Zeka ve Multimedya Analitiği Laboratuvarı'ndan (VIMAL) Wael AbdAlmageed liderliğindeki bir başka ekip, evrişimli sinir ağlarına dayalı iki nesil deepfake dedektörü geliştirdi. İlk nesil, deepfake üretim süreci tarafından bırakılan görsel eserleri tanımlamak üzere uzamsal-zamansal tutarsızlıkları tespit etmek için tekrarlayan sinir ağlarını kullandı. Algoritma, o dönemde mevcut olan tek büyük ölçekli deepfake karşılaştırma ölçütü olan FaceForensics++ üzerinde %96 doğruluk elde etmiştir. İkinci nesil, iki dallı ağlar kullanarak yapay nesneler ile üst düzey semantik yüz bilgileri arasında ayrım yapmak için uçtan uca derin ağlar kullandı. İlk dal renk bilgisini yayarken, diğer dal yüz içeriğini bastırır ve Gauss Laplacian'ı (LoG) kullanarak düşük seviyeli frekansları güçlendirir. Ayrıca, iyi niyetli yüzlerin kompakt bir temsilini öğrenirken, derin sahtelerin temsillerini (yani özelliklerini) dağıtan yeni bir kayıp fonksiyonu dahil etmişlerdir. VIMAL'in yaklaşımı FaceForensics++ ve Celeb-DF benchmark'larında son teknoloji performans göstermiş ve 16 Mart 2022'de (piyasaya sürüldüğü gün) Volodymyr Zelensky'nin deepfake'ini herhangi bir yeniden eğitim ya da deepfake'in oluşturulduğu algoritma hakkında bilgi sahibi olmadan tespit etmek için kullanılmıştır.

Diğer teknikler medyanın kaynağını doğrulamak için blok zinciri kullanmaktadır. Videoların sosyal medya platformlarında gösterilmeden önce defter üzerinden doğrulanması gerekecektir. Bu teknolojiyle, yalnızca güvenilir kaynaklardan gelen videolar onaylanacak ve muhtemelen zararlı deepfake medyanın yayılması azalacaktır.

Deepfake'lerle mücadele için akıllı telefon kameraları da dahil olmak üzere fotoğraf makineleri ve video kameralar tarafından çekilen tüm video ve görüntülerin dijital olarak imzalanması önerildi. Bu sayede her fotoğraf ya da videonun orijinal sahibine kadar izi sürülebilecek ve muhaliflerin takibinde kullanılabilecektir.

İnternet tepkisi

Vice'tan Samantha Cole 2017'den bu yana deepfake pornografiyle ilgili haberleri kapsayan bir dizi makale yayınladı. 31 Ocak 2018'de Gfycat tüm deepfake'leri sitesinden kaldırmaya başladı. Reddit'te r/deepfakes alt dizini, "istemsiz pornografi" politika ihlali nedeniyle 7 Şubat 2018'de yasaklandı. Aynı ay içinde Twitter temsilcileri, rıza dışı deepfake içerik yayınladığından şüphelenilen hesapları askıya alacaklarını belirtti. Sohbet sitesi Discord geçmişte deepfake'lere karşı harekete geçti ve deepfake'lere karşı genel bir duruş sergiledi. Eylül 2018'de Google, yasaklama listesine "istem dışı sentetik pornografik görüntüleri" ekleyerek herkesin sahte çıplak fotoğraflarını gösteren sonuçların engellenmesini talep etmesine olanak tanıdı. [tırnak işaretini kontrol edin] Şubat 2018'de Pornhub, hizmet şartlarını ihlal eden "rızaya dayalı olmayan içerik" olarak kabul edildiği için web sitesinde deepfake videoları yasaklayacağını söyledi. Ayrıca daha önce Mashable'a deepfake olarak işaretlenen içeriği kaldıracaklarını belirtmişlerdi. Buzzfeed News'ten Motherboard yazarları, Pornhub'da "deepfakes" araması yapıldığında yine de çok sayıda yeni deepfake videosunun döndüğünü bildirdi.

Facebook daha önce deepfake'leri platformlarından kaldırmayacağını belirtmişti. Bunun yerine videolar üçüncü taraflarca sahte olarak işaretlenecek ve daha sonra kullanıcıların akışlarında daha az önceliğe sahip olacak. Bu yanıt, Haziran 2019'da Mark Zuckerberg'in 2016 tarihli bir videosunu içeren bir deepfake'in Facebook ve Instagram'da dolaşıma girmesinin ardından verildi.

Mayıs 2022'de Google, Jupyter Notebook ortak çalışma programlarının hizmet şartlarını resmi olarak değiştirerek ortak çalışma programlarının deepfake oluşturmak amacıyla kullanılmasını yasakladı. Bu, "deepfake'lerin çoğunun rıza dışı porno" olduğunu ve popüler deepfake yazılımı DeepFaceLab'in (DFL) ana kullanımının, "bu nesil deepfake'lerin büyük çoğunluğuna güç veren en önemli teknoloji" olduğunu ve genellikle Google colab'leriyle birlikte kullanıldığını iddia eden bir VICE makalesinin yayınlanmasından birkaç gün sonra geldi, The Walt Disney Company tarafından yaptırılan deepfake'ler, resmi müzik videoları ve South Park'ın yaratıcılarının web dizisi Sassy Justice gibi üçüncü taraf DFL uygulamalarının diğer birçok iyi bilinen örneğinin yanı sıra, DFL'nin GitHub sayfasının aynı zamanda deepfake porno web sitesi Mr. Deepfake ve DFL Discord sunucusunun katılımcıları da Mr. Deepfakes'e katılmaktadır.

Yasal yanıt

Amerika Birleşik Devletleri'nde deepfake'lerin yarattığı sorunlara yönelik bazı tepkiler ortaya çıkmıştır. 2018'de ABD Senatosu'na Kötü Amaçlı Derin Sahte Yasak Yasası sunuldu ve 2019'da Temsilciler Meclisi'ne DEEPFAKES Hesap Verebilirlik Yasası sunuldu. Aralarında Virginia, Teksas, Kaliforniya ve New York'un da bulunduğu çok sayıda eyalet de deepfake'lerle ilgili yasalar çıkarmıştır. Kaliforniya Valisi Gavin Newsom, 3 Ekim 2019 tarihinde 602 ve 730 sayılı Meclis Yasalarını imzaladı. 602 sayılı Meclis Yasası, rızaları olmadan yapılan cinsel içerikli deepfake içerikler tarafından hedef alınan kişilere, içeriğin yaratıcısına karşı dava açma hakkı sağlamaktadır. 730 sayılı Asamble Yasa Tasarısı, kamu görevine aday olan bir adayı hedef alan kötü niyetli deepfake sesli veya görsel medyanın seçimden sonraki 60 gün içinde dağıtılmasını yasaklamaktadır.

Kasım 2019'da Çin, deepfake ve diğer sentetik olarak sahte görüntülerin 2020'den itibaren sahte olduklarına dair açık bir bildirim taşıması gerektiğini duyurdu. Çin Siber Uzay İdaresi, web sitesinde, buna uyulmamasının suç sayılabileceğini belirtti. Çin hükümeti, kurallara uymayan hem kullanıcıları hem de çevrimiçi video platformlarını kovuşturma hakkını saklı tutuyor gibi görünüyor.

Birleşik Krallık'ta deepfake materyal üreticileri taciz suçundan yargılanabiliyor, ancak deepfake'in özel bir suç haline getirilmesi yönünde çağrılar var; kimlik hırsızlığı, siber takip ve intikam pornosu gibi çeşitli suçlamaların takip edildiği Amerika Birleşik Devletleri'nde de daha kapsamlı bir tüzük fikri tartışılıyor.

Kanada'da İletişim Güvenliği Kuruluşu, deepfake'lerin Kanada siyasetine müdahale etmek, özellikle de politikacıları itibarsızlaştırmak ve seçmenleri etkilemek için kullanılabileceğini belirten bir rapor yayınladı. Sonuç olarak, Kanada'daki vatandaşların deepfake'ler tarafından hedef alınmaları halinde bunlarla başa çıkabilmeleri için birden fazla yol bulunmaktadır.

DARPA'dan Yanıt

2018 yılında, Savunma İleri Araştırma Projeleri Ajansı (DARPA), bireylerin yapay zeka tarafından üretilen videolar, sesler ve görüntülerin yanı sıra bu derin sahtekarlıkları tespit etmek için otomatik araçlar oluşturmak üzere yarışacakları bir projeyi finanse etti. 2019 yılında DARPA, araştırmacıların yapay zeka tarafından manipüle edilen medyanın viral yayılımını önlemek için yönlendirildiği Semantik Adli Tıp Programı'na bağlı bir proje için bir "teklif verenler günü" düzenledi. DARPA ve Semantik Adli Tıp Programı, bilgisayarları sağduyulu ve mantıklı muhakeme kullanmaları için eğitme çabaları yoluyla YZ tarafından manipüle edilmiş medyayı tespit etmek için de birlikte çalışıyordu. 2020 yılında DARPA, deepfake'lerin ve YZ tarafından üretilen medyanın yarattığı artan zararı tespit etmek ve azaltmak, medyanın nasıl oluşturulduğuna ilişkin bilgi sağlamak ve deepfake'lerin sonuçsal rolünü ve karar verme üzerindeki etkilerini ele almak ve vurgulamak için bir Medya Adli Tıp (MediFor) programı oluşturdu.

Popüler kültürde

  • Analog dergisinin 1986 Aralık ortası sayısında Jack Wodhams'ın "Picaper" adlı romanı yayımlandı. Romanın konusu, vicdansız avukatlara ve siyasi figürlere hizmet eden yetenekli bilgisayar korsanları tarafından üretilen dijital olarak geliştirilmiş veya dijital olarak oluşturulmuş videolar etrafında dönmektedir.
  • Arnold Schwarzenegger'in başrolünü oynadığı 1987 yapımı The Running Man filminde, otokratik bir hükümetin bilgisayarları kullanarak oyuncuların yüzlerini aranan kaçakların yüzleriyle dijital olarak değiştirmesi ve böylece kaçakların etkisiz hale getirilmiş gibi görünmesi anlatılmaktadır.
  • Philip Kerr'in 1992 tarihli tekno-gerilim filmi A Philosophical Investigation'da ana karakter ve bir seri katil olan "Wittgenstein", kendisini yakalamakla görevli kadın polis teğmeni Isadora "Jake" Jakowicz'in avatarıyla seks yapmak için hem deepfake'e benzer bir yazılım hem de sanal gerçeklik kıyafeti kullanır.
  • Sean Connery ve Wesley Snipes'ın başrollerini paylaştığı 1993 yapımı Rising Sun filminde, bir bilgisayar diskinin bir rakibini töhmet altında bırakmak için kişisel kimlikleri dijital olarak değiştirdiğini ortaya çıkaran bir başka karakter olan Jingo Asakuma anlatılmaktadır.
  • Deepfake teknolojisi, 2019 BBC One draması The Capture'ın konusunun bir parçası. Dizi, avukatına saldırmak ve onu kaçırmakla suçlanan İngiliz eski asker Shaun Emery'yi konu alıyor. Ustalıkla değiştirilmiş CCTV görüntüleri, onu tuzağa düşürmek ve onu soruşturan polisi yanıltmak için kullanılıyor.
  • Al Davis NFL'e karşı: ESPN'in 30'a 30 belgesel serisinin bir parçası olan bu 2021 belgeselinin anlatı yapısında, filmin her ikisi de vefat etmiş olan iki ana karakterinin deepfake versiyonları kullanılıyor - takımın Oakland ve Los Angeles'ta görev yaptığı dönemde Las Vegas Raiders'ın sahibi olan Davis ve Davis ile sık sık çatışan NFL komiseri Pete Rozelle.
  • Deepfake teknolojisi, Kanada polis dizisi Hudson and Rex'in ilk kez 6 Ocak 2022'de yayınlanan 57. bölümü "Impawster Syndrome "da, St. John's polis ekibinin bir üyesinin, benzerliği kullanılarak üzerinde oynanmış CCTV görüntüleri nedeniyle soygun ve saldırı şüphesiyle soruşturulduğu bölümde yer almaktadır.
  • Müzisyen Kendrick Lamar, 2022 tarihli single'ı "The Heart Part 5 "in klibinde deepfake teknolojisini kullanarak Nipsey Hussle, O.J. Simpson ve Kanye West'e benzeyen figürlere dönüştü. Videodaki deepfake teknolojisi, South Park'ı yaratan Trey Parker ve Matt Stone tarafından yönetilen bir stüdyo olan Deep Voodoo tarafından yaratıldı.