Ölüyü konuşturan, diriyi haydi haydi konuşturur!

0:00/ 0:00

Bugün hem kişisel hem de toplumsal olarak çok büyük bir tehlikeden bahsetmek istiyorum.

Öyle tehlikeli teknolojiler geliştirildi ki, sizin söylemediğiniz ya da yapmadığınız şeyler, sanki siz söylemiş ya da yapmışsınız gibi gösterilebiliyor…

Bu teknikler aslında teknolojiden ziyade sahtekârlık ve ahlaksızlık…

Bu teknoloji deepfake, Türkçe olarak da derin sahte" olarak adlandırılıyor…

PEKİ “DEEPFAKE” NEDİR?

Bir kişinin yüzünün, sesinin ve hareketlerinin gerçeğe uygun şekilde taklit edilmesini sağlayan görüntü ve ses manipülasyon yöntemlerine deepfake (derin sahte) deniliyor.

Deepfake teknolojisi Avrupa ülkeleri ile ABD’de iş insanları ve ünlü kişileri hedef seçerek şantaj edilmeleriyle gündeme gelen bir yapay zekâ uygulaması.

Deepfake manipüle, sentetik medya içeriği üretimi için kullanılan yöntemlerden bir tanesi…

Kullanılan teknikler ile kişilerin esasında sergilemedikleri davranışları sergilemiş, söylemediği cümleleri söylemiş gibi gösterilebiliyor…

Bu şekilde var olmayan kişi veya nesneler var gibi, yaşanmamış olaylar ise yaşanmış gibi de gösterilebilir…

Kurgu yöntemleri ile gerçekçi bir şekilde olmayan olaylar, kişiler ve davranışlar üretilebiliyor….

Farklı zamanlarda alınmış gerçek ses ve görüntülerin birleştirilmesi ile yaratılan sahte videolar olarak tanımlanabilecek deepfake tehlikesi konusunda ben ve başkanı olduğum Mavi Vatan Denizcilik ve Global Stratejiler Merkezi (@turkdegs) uyarılarda bulunmuştuk.

Bu teknolojide içeriği üretilecek kişiye dair ne kadar fazla fotoğraf, video, ses kaydı varsa, o kadar gerçekliğe yakın içerikler üretilebiliyor.

Yani ne kadar çok görsel, duyusal, ses verinize ulaşılabiliyorsa, o kadar tehlikedesiniz demektir… 

VERİLERİN ÜÇÜNCÜ TARAFLARLA PAYLAŞIMINA HERKES ONAY VERİYOR, VERMEYE ZORLANIYOR…

Deepfake teknolojisi için verilere ihtiyaç var ve bunun da kolay yolu bulunmuş…

Herhangi bir internet sitesine ya da uygulamaya girdiğinizde site ya da uygulama sahibi firmalar bizden kişisel verilerimizin toplanması ve kullanılmasına dair onay istiyorlar…

Firmalar bu onayı vermeyenlerin çeşitli uygulamaları kullanamayacaklarını belirterek verileri ele geçirme noktasında bir dayatma gerçekleştiriyorlar…

Herkes cep telefonlarında kullandığı uygulamalarda bu onayları vermek durumunda kalıyor…

Bize dair kullanacakları bu verilerin üçüncü taraflara devrinin onayını bizden sıklıkla istenmesi de bu bağlamda tesadüf gibi gözükmüyor...

Böylece verilerimiz deepfake teknolojisi kullananlara da gidebiliyor…

DEEPFAKE KONUSUNDA TÜM HALKIMIZA BELKİ DE İLK UYARIYI YAKLAŞIK 2,5 YIL ÖNCE TÜRKİYE’DE BEN YAPMIŞTIM...

Deepfake tehdidine karşı ülkemizde sanıyorum Türkiye’de ilk uyarılardan birini 21 Şubat 2021 tarihinde “Teke Tek Bilim” programında Sayın Fatih Altaylı’nın konuğu olduğumda yapmıştım.

Bu programda deepfake teknolojisi ile üretilen, yapay sinir ağları ile Cumhurbaşkanı Erdoğan’ın bu yolla konuşturulduğu bir videoyu aktararak tehlikenin boyutunu Türk Milleti’ne göstermiştim.

Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 1ÖLÜYÜ KONUŞTURAN BİR TEKNOLOJİ, DİRİYİ HAYDİ HAYDİ KONUŞTURUR!

Güney Kore’de deepfake teknolojisi kullanılarak makina öğrenimi yani yapay zekâ ile ölü insanları yapay sinir ağları ile taklit etmeye/konuşturmaya başladılar.

Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 2Ölüyü konuşturan bir teknoloji, diriyi hayli hayli konuşturur!

Yarın bir gün hepimizin ses verilerini, video verilerini, sohbet uygulamalarından/sosyal medya uygulamalarından paylaştığımız verilerimizi kullanarak aynı şeyi bize yapabilirler.

Söylemediğimiz şeyleri söylemişiz gibi servis edebilir, olmadığımız yerlere/toplantılara bizleri ekleyebilirler.

RAHMETLİ BARIŞ MANÇO BU YOLLA ÖLDÜKTEN SONRA REKLAM FİLMİNDE OYNATILDI

Türkiye’de bu teknoloji ilk kez bir sigorta firmasının reklam filminde kullanıldı ve rahmetli Barış Manço bu yolla reklam filminde oynatıldı.

 Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 3

RUSYA-UKRAYNA SAVAŞI SIRASINDA UKRAYNA DEVLET BAŞKANI ZELENSKİY İÇİN TASARLANAN DEEPFAKE VİDEOSU BENİ HAKLI ÇIKARMIŞTI

Rusya-Ukrayna Savaşı sırasında Ukrayna Devlet Başkanı Zelenskiy'i teslim olurken gösteren deepfake görüntüleri yayınlanmış ve uyarılarımda haklı çıkmıştım.

Deepfake teknolojisi kullanılarak hazırlanan videoda Zelenskiy teslim olmuş ve silah bırakmış gibi gösterildi.

Ukrayna’da ve dünyada büyük bir şaşkınlık oldu.

Bu videonun ardından Zelenskiy bunun bir deepfake olduğunu ve asla silah bırakmayacaklarını açıklamak durumunda kaldı.

İşte yaşanan bu durum terör ve casusluk örgütlerinin benim 3K (kargaşa, karmaşa, kaos) diye adlandırdığım, ülkeleri karıştırma senaryolarında deepfake teknolojisini nasıl kullandıklarını ve kullanabileceklerini fiilen ortaya koymuş oldu.

Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 4DEEPFAKE TEKNOLOJİSİNİN BİR BAŞKA HEDEFİ İSE BAYRAKTAR OLMUŞTU

Deepfake teknolojisiyle, Ukrayna Başbakanı Denis Şmihal'in kılığına giren bir Rus ajanı, Haluk Bayraktar'la görüşmeye çalıştığı ortaya çıkmıştı.

Bu durum ise, deepfake teknolojisinin istihbarat servislerince hedef devletlerin savunma sanayii antlaşmalarına dair devlet sırlarını ortaya çıkarmak için kullanılmaya başlanıldığını gösterdi.

Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 5FETÖ VE BENZERLERİ BU TÜR TEKNOLOJİLERİ KULLANMAKTA ÇOK USTALAR…

İşte ben ve TÜRKDEGS defalarca, FETÖ başta olmak üzere birçok ahlaksız örgüt tarafından derin sahte (deepfake) teknolojisinin kullanılabileceğini, yapay sinir ağları yoluyla kişilerin söylemediği şeyleri söylemiş gibi kurgu görüntülerin oluşturulabileceğini, bu yolla tehdit/şantaj ve siyasî operasyonlar yaşanılabileceğini belirtmiştik...

Ölüyü konuşturan, diriyi haydi haydi konuşturur! - Resim : 6DEEPFAKE İLE YAPILAN BİR VİDEO OLDUĞUNU ANLAYABİLİR MİYİZ?

- Eğer videoda, doğal olmayan kesikli hareketler veya kekeleme gibi anlık, doğal olmayan hareketler varsa,

- Eğer videoda olağan dışı aydınlatma varsa yahut çevreyle uyuşmuyorsa,

- Video yavaş izlendiğinde gölge geçişleri ve olağan dışı çevre halleri varsa,

- Videodaki ses-dudak ve vücut hareketlerinin uyumu yani senkronizasyonunda bozukluklar varsa,

- Videonun kaynağı güvenilir değilse veya videonun içeriği şüpheli görünüyorsa, videonun bir deepfake olduğunun işareti olabilir.

DEEPFAKE TEKNOLOJİSİNİN KURBANI OLMAMAK İÇİN NELERE DİKKAT ETMELİ?

Öncelikle verilerimizin paylaşılmasına izin verirken dikkatli olmalıyız diyeceğim ama bu pek mümkün değil gibi artık…

Resmî kurumlardan açıklama gelmedikçe sosyal medya platformları kapsamında yayılan görüntülere şüphe ile yaklaşmalıyız...

Gördükleriniz ve duyduklarınız sinir uçlarınıza dokunacak hassaslıkta ise hemen inanıp kendimizi kaybetmeyelim, sert tepki vermeyelim…

Algoritmaların bizi yönlendirmesine, duygularımızı kontrol etmesine izin vermeyelim…

Sosyal medya okuryazarı (yeni medya okuryazarı) bir bakış açısı ile her gördüğümüze ve duyduğumuza şüphe ile yaklaşarak gerçekliğini sorgulayalım…

Yani sosyal medya ile kolay aldatılabilen, inandırılabilen ve yönlendirilebilen kişilerden olmayalım...

BAZILARI DA GERÇEKTEN YAPTIKLARI ORTAYA ÇIKINCA KENDİLERİNİ KURTARMAK İÇİN “BU BİR DEEPFAKE KOMPLOSU” DİYEBİLİRLER

Deepfake teknolojisini kullanan örgütler ve devletler iç karışıklık planladıkları ülkelerde devlet başkanlarını, siyasi parti liderlerini ve toplum önderlerini deepfake teknolojisi ile konuşturarak halkları galeyana getirebilir, sokakları bu yolla karıştırabilirler.

Türkiye’de de özellikle bu tehlikelere karşı uyanık olmak lazımdır…

Her şeye inanmayalım, sorgulayalım ama bazılarının da gerçekten yaptıkları şeyler ortaya çıkınca, kendilerini kurtarmak için “Bu bir deepfake komplosu” diyebileceklerini de unutmayalım.