Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Haftalık Bitcoin Varsayımı Çıktı: İşte Beklenen Seviyeler!
Yapay zekanın kullanım alanı giderek genişliyor. Bundan en büyük tesirleri ise siyasi başkanlar ve dünyaca ünlü şahıslar görüyor. Eski ABD Lideri Donald Trump ve Papa Francis hakkında çıkan yapay zeka kullanılarak oluşturulan görseller toplumda büyük yankı uyandırmıştı.
Sahte seslerle üretilen müzikler ve görüntüler her ne kadar eğlenceli gözükse de işin bir de karanlık bir boyutu var: Dolandırıcılık. Geçtiğimiz periyotta bir anneden kaçırılan kızı için fidye istenmiş ve durumun gerçekliğini kanıtlamak için kaçırıldığı söylenen kızın düzmece sesi kullanılmıştı. Aslında kız hiç kaçırılmamıştı.
Aynı dolandırıcılık tekniği, yapay zeka ile daha gerçekçi bir hal alıyor
Yapay zeka dolandırıcılığı giderek yaygınlaşıyor ve telefonun ucundaki ses, sevdiğiniz bir insanın sesi üzere geldiği için bu durum oldukça korkutucu bir hal alabiliyor. Günümüzde ülkemiz dahil dünyanın birçok yerinde dolandırıcılık kimileri için artık bir meslek. Teknolojinin de gelişmesiyle bu durum giderek inandırıcılığını artırıyor. Telefonda yapılan dolandırıcılıklar, tabi ki en kolayı ve en yaygını. Lakin artık daha korkutucu.
2023’ün Nisan ayında, yeni jenerasyon yapay zeka dolandırıcılıklarının örneklerini görmüştük. Örneğin davet yanıltma tekniği kullanılarak sevilen biri, kurbanın telefonunda arayan kişi olarak görünmüştü. Bir oburu ise, kaçırılmamış olan kızını özgür bırakmak için bir anneden fidye parası koparmaya çalışmak maksadıyla bir yapay zeka ses klonunu kullanmıştı.
McAfee şirketi, yapay zekanın bu cins makûs kullanımını gördü ve bahisle ilgili derinlemesine bir rapor yayınladı. Şirket yayınladığı raporda, düzmece sesleri önlemenin ve dolandırıcılıktan korunmanın yollarını açıkladı.
Yöntemleri açıklamadan evvel gelin birlikte yapay zeka uydurma seslerinin nasıl çalıştığına bir bakalım.
Yapay zeka ses klonlama nasıl çalışır?
Öncelikle yapay zeka ses dolandırıcılığının uzun vakittir var olan bir tekniğin yeni versiyonu olduğunu lakin ondan çok daha ikna edici olduğunu söyleyebiliriz. Çoklukla bu stil bir dolandırıcılıkta; sevilen birinin sesi kullanılarak acil bir durum için para isteniyor yahut kurbana, sevdiği birini fidye için kaçırdıkları söyleniyor.
2019 yılında, İngiltere merkezli bir güç firması CEO’sunun kimliğine bürünen dolandırıcılar, 243.000 dolar talep etti. Hong Kong’da bir banka müdürü, ses klonlama teknolojisini kullanan biri tarafından kandırılarak 2020’nin başlarında yüklü ölçüde havale yapılmasını sağladı. Kanada’da ise en az sekiz yaşlı vatandaş, bu yılın başlarında ses klonlama dolandırıcılığıyla toplam 200.000 dolar kaybetti.
Yapay zeka ses klonlama araçları çok ucuz ve kullanılabilir olduğundan, berbat niyetli taraflar için ses klonları oluşturmak da aslında epey kolay. Bunu yapmak için örnek ses elde etmenin en kolay yolu da tabi ki toplumsal medya. Sesinizi çevrimiçi olarak ne kadar çok paylaşırsanız, dolandırıcıların sesinizi bulması ve klonlaması da o kadar kolay oluyor.
Yukarıdaki görselde, yapılan bir anketin sonuçlarını görebilirsiniz. Elde edilen bilgilere nazaran; kullanıcıların %26’sı haftada bir ya da iki sefer seslerini toplumsal medyada paylaştığını söylüyor.
Yapay zeka ses dolandırıcılığı ne kadar yaygın?
Haberlerde yapay zeka ses dolandırıcılığı ile ilgili kimi öyküler yeni yeni görünmeye başlasa da, yapılan araştırma bu stil dolandırıcılıkların epey yaygın hale geldiğini ortaya koyuyor.
Küresel anketlere bakıldığında, bireylerin %25’i ya kendisinin ya da tanıdığı birinin yapay zeka dolandırıcılığına maruz kaldığını söylüyor. Anket bilgilerine nazaran yapay zeka ses dolandırıcılığı konusunda en fazla sorun yaşayan ülke %47 ile Hindistan.
Ses klon araçları, %95 oranında doğruluk sağlıyor
Ses klonlama için kullanılan yapay zeka araçları o kadar gerçekçi ki mağdurların neredeyse tamamı uydurma sesin, tanıdıkları kişinin sesine tıpatıp benzediğini söylüyor. Hatta yukarda bahsettiğimiz fidye olayında mağdur anne, kızının sesi dışında “tonlamasının” bile birebir olduğunu söz ediyor.
Yapay zeka uydurma seslerinin gerçeğine bu kadar benzemesi, insanlara kısacık bir vakit diliminde binlerce dolar kaybettiriyor. Araştırmaya nazaran yapay zeka ses dolandırıcılığı kurbanlarının %77‘si paralarını kaptırıyor. Datalar, 2022 yılı genelinde toplamda 2,6 milyar dolarlık bir paranın bu metotla çalındığını gösteriyor.
Peki, düzmece sesler gerçeğinden nasıl ayırt edilir?
Yapay zeka ses dolandırıcılıklarını önlemenin şimdilik kesin ve süratli bir yolu yok. Lakin kendi kendinize alabileceğiniz birtakım tedbirler bulunuyor.