Çıplak gösteren uygulama kapatıldı

Giyinik insanları yapay zeka teknolojileri kullanarak çıplak gösteren 'DeepNude' isimli uygulama faaliyetlerine son verdi. Şirket, "Dünya henüz DeepNude'ye hazır değil" diyerek projeyi sonlandırdıklarını açıkladı.

Çıplak gösteren uygulama kapatıldı

Twitter hesabından bir açıklama yapan DeepNude, bir kaç ay önce başlatılan uygulamanın eğlence amaçlı yapıldığını açıkladı.

Her ay kontrollü olarak satış yaptıklarını ifade eden şirket yetkilileri, kötü niyetli insanların uygulamayı eğlencenin dışında kullanmaya başladığına dikkat çekerek, "Bu şekilde para kazanmak istemiyoruz. DeepNude'nin bazı benzerleri paylaşılmaya başlanacak. Biz bunların yaygınlaşmasını ve satılmasını istemiyoruz. Yazılımı başka kaynaklardan indirmek ya da paylaşmak suç olacaktır. Bundan sonra DeepNude sürümleri yayımlanmayacak ve kimseye kullanım izni verilmeyecek" dedi.

İnsan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu. Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti. Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, “Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.

Yeni nesil skandallar geliyor

Yapay zekanın her geçen gün daha da ilerlemesi beraberinde bazı sorunları da getiriyor. sahte fotoğraf ve video oluşturmak isteyenler için de artık giderek artan oranda bir araç olmaya başladı. Bu tarz fotoğraf ve video uygulamalarında, genel olarak Deepfake teknolojileri kullanılıyor.

Bu yüzden DeepNude bu alanda yaşanan ne ilk ne de son skandal olacak gibi duruyor. Bu tarz uygulamaların sadece müstehcenlik alanında değil, politik skandallarda bile kritik rol oynaması muhtemel.