Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Binance’deki Bu 5 Altcoin ‘Boğa Patlamasının’ Eşiğinde!
Dall-E ve Stable Difusion yalnızca başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobe gibilerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra yeni görseller oluşturma gücü de kazanıyor. Fakat yapay zeka takviyeli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin müsaadesiz olarak değiştirilmesi yahut direkt çalınması üzere tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri, çalıntı risklerini hafifletmeye yardımcı olabiliyorken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, müsaadesiz değiştirmeleri önlemeye yardımcı olabilir.
PhotoGuard nasıl çalışıyor?
PhotoGuard, bir imajdaki seçili pikselleri, yapay zekanın imajın ne olduğunu manaya yeteneğini bozacak biçimde değiştirerek çalışıyor. Araştırma grubunun isimlendirdiği biçimiyle bu “düzensizlikler” insan gözüyle görülemez lakin makineler tarafından kolay kolay okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” atak metodu, algoritmik modelin, bir manzaradaki her pikselin pozisyonunu ve rengini tanımlayan karmaşık süreci olan maksat imgenin bâtın temsilini gaye alıyor ve esasen yapay zekanın neye baktığını anlamasını engelliyor.
Daha gelişmiş ve hesaplama açısından ağır olan “difüzyon” akın prosedürü ise, bir imgeyi yapay zekanın gözünde farklı bir manzara olarak kamufle ediyor. Bu usul, bir amaç imgeyi tanımlıyor ve amacına benzeyecek formda imajdaki düzensizlikleri optimize ediyor. Bir yapay zekanın bu güçlü imgeler üzerinde yapmaya çalıştığı rastgele bir düzenleme, geçersiz “hedef” imajlara uygulanarak gerçekçi olmayan bir manzara oluşmasına neden oluyor.
MIT doktora öğrencisi ve çalışmanın baş müellifi Hadi Salman, Engadget ile yaptığı görüşmede “Kodlayıcı saldırısı, modelin giriş imajının (düzenlenecek) öbür bir manzara (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” diyor ve devam ediyor: “Difüzyon saldırısı ise, difüzyon modelini birtakım maksat manzaralara (gri yahut rastgele bir manzara de olabilir) yönelik düzenlemeler yapmaya zorlar.”
Salman yaptığı açıklamada, “Model geliştiricileri, toplumsal medya platformları ve siyaset yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz imaj manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil husus üzerinde çalışmak bugün büyük değer taşıyor” diyor ve kelamlarını “bu tahlile katkıda bulunmaktan memnuniyet duysam da, bu müdafaayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı mümkün tehditlere karşı sağlam tedbirler tasarlamaya yatırım yapması gerekiyor” diyerek tamamlıyor.