Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Frostpunk 2, Unknown 9: Awakening ve Dahası: Xbox’ın Partner Preview Etkinliğindeki Duyurular ve Fragmanlar
Yapay zekâ yoluyla istediğiniz kişinin çıplak fotoğrafını önünüze sunabilen “ClothOff” isimli uygulama, reşit olmayan birçok kız çocuğunun şantaja ve ruhsal şiddete maruz kalmasına sebep oldu. Kızların gerçek olmayan lakin gerçeğinden farkı olmayan çıplak imgeleri elden ele yayıldı.
The Guardian’ın öncülüğünde araştırılmaya devam eden hususun ayrıntılarına inmeden önce “deepfake” dediğimiz şey tam olarak nedir ve ne üzere şeyler yapabilir bir bakalım.
Deepfake nedir?
Deepfake, çoğunlukla yapay zekâ teknikleriyle oluşturulan geçersiz ya da manipüle edilmiş ses kayıtları, videolar ya da fotoğraflardır. Örneğin birinin görüntüsü çok gerçekçi bir formda değiştirilerek görüntüde söylediğinden çok farklı şeyler söylüyormuş üzere yapılabilir.
Aynı formda sizin bir fotoğrafınız kullanılarak yapmadığınız bir harekette bulunuyormuş ya da bir şey söylüyormuş üzere gösterilebilirsiniz. Tüm bunlar, birkaç fotoğrafın ya da görüntünün bilgileri kullanılarak kusursuz bir halde gerçekleştirilebilir.
Şuraya bir deepfake görüntüsü da bırakalım:
Tek kurban Taylor Swift de değil.
Hatırlarsanız geçtiğimiz ay Taylor Swift’in deepfake imgeleri hayli gündem olmuştu. Ne yazık ki bu durum sadece birkaç kişinin başına gelmiyor. Bilmediğimiz kentlerde, kasabalarda, topluluklarda; birçok insanın bu halde imgeleri kullanılabiliyor.
Yani Taylor Swift buz dağının yalnızca görünen kısmıydı. Bizim içeriğimize husus olan dehşet verici evrak da İspanya’nın küçük Almendralejo kasabasında geçiyor.
“ClothOff” isimli uygulama, dehşetli bir pedofili ağı başlattı.
The Guardian’ın 1 Mart 2024 tarihinde yayımladığı habere nazaran kasabadaki kız öğrencilerin yapay zekâ tarafından oluşturulan düzinelerce çıplak fotoğrafları, okuldaki başka çocuklar tarafından kurulan bir WhatsApp kümesinde deverana girmişti.
Deepfake fotoğraflar yüzünden önemli anksiyete yaşayan ve depresyona giren kızlar, okula gitmeyi bile bırakmıştı. Panik ataklar geçiriyor, şantaja ve zorbalığa maruz kalıyorlardı.
Kızlardan birinin annesi şu kelamları söylemişti: “Gördüğünüzde şoke oluyorsunuz. Manzara büsbütün gerçek gibi… Kızımın bedenini tanımasaydım kesinlikle o manzaranın gerçek olduğunu düşünürdüm.”
Aynı durum ABD New Jersey’de de yaşanıyordu.
Almendralejo’dan binlerce kilometre uzaklıktaki New Jersey’deki bir lisede de birebir olaylar vardı. Liseli kızlar, sınıflarındaki başka öğrenciler tarafından oluşturulan deepfake imajların kurbanı olmuştu. İspanya ve New Jersey’deki olayların merkezinde ise “ClothOff” isimli tıpkı uygulama vardı.
Ayda 4 milyondan fazla ziyaret edilen ClothOff’a girmek için 18 yaşın üzerinde olduğunuzu onayladıktan sonra 25 görsel için 8.50 euro fiyat ödemeniz kafiydi. Bir kişinin fotoğrafını yüklediğinizde size çıplak versiyonunu veriyordu.
Korkunç pedofili ağının ardındakiler hâlâ araştırılmaya devam ediyor.
ClothOff’un arkasındaki şahıslar anonim olmayı düzgün bir halde sürdürebiliyordu fakat The Guardian’ın yaptığı 6 aylık bir araştırma, birkaç kişinin ismini ortaya çıkardı. İpuçları, Belarus’ta bir erkek ve kız kardeşe götürmüştü. Şirket, paravan şirket üzerinden gelir elde ederek kara para aklıyordu.
Ulaşılan bireylerden biri ClothOff’un kurucusu olduğunu kabul etti ama 18 yaşının altında şahısların imgelerinin kullanılamayacağını söyledi. Avrupa’da kayıtlı işletmeler ve Londra’daki yerleşik paravan şirketler üzerinden çalışan karmaşık bir ağ var.
Uygulamaya erişim birçok ülkeden engellendi ancak dünyanın her yerinden çeşitli prosedürlerle hâlâ kullanılabiliyor. Görüntülerin nasıl oluşturulduğu ve gerisinde tam olarak kimlerin olduğu hâlâ araştırılmaya devam ediyor.
Diğer içeriklerimize göz atmak isterseniz: