Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Fallout’un başarısından sonra, ikonik oyun serisi Yakuza’nın da dizisi geliyor
OpenAI, Rusya, Çin, İran ve İsrail ilişkili operasyonların yapay zeka araçlarını dezenformasyon yaratmak ve yaymak için kullandığını ortaya çıkardı.
ChatGPT sohbet robotunun San Francisco merkezli geliştiricisi, yayınladığı raporda, beş bilinmeyen operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını ve bu formülle daha evvel olduğundan daha az lisan kusuru yapıldığını, ayrıyeten kendi paylaşımlarına yorum ve karşılıklar üretildiğini belirtti.
OpenAI raporunda, içeriklerin “Rusya’nın Ukrayna’yı işgali, Gazze’deki insanlık dramı, Hindistan seçimleri, Avrupa ve Amerika Birleşik Devletleri’ndeki siyaset ve Çinli muhalifler ve yabancı hükümetler tarafından Çin hükümetine yönelik eleştiriler” üzere mevzulara odaklandığı belirtildi.
Yapay zekaya dezenformasyon baskısı artıyor
OpenAI üzere süratle büyüyen yapay zeka şirketleri üzerindeki baskı artıyor çünkü teknolojilerindeki süratli ilerlemeler, dezenformasyon yapanların gerçekçi deepfake’ler yaratmasının, medyayı manipüle etmesinin ve akabinde bu içeriği otomatik bir biçimde yaymasının her zamankinden daha ucuz ve kolay olduğunu gösteriyor. Bu yıl yaklaşık 2 milyar insan sandık başına giderken, siyasetçiler şirketleri uygun muhafaza tedbirleri almaya ve uygulamaya çağırdı.
Microsoft takviyeli OpenAI, bu cins dezenformasyon kampanyalarını ifşa etmeye kararlı olduğunu ve tespit ve tahlili “daha etkili” hale getirmek için kendi yapay zeka dayanaklı araçlarını geliştirdiğini söyledi. OpenAI, güvenlik sistemlerinin faillerin çalışmasını şimdiden zorlaştırdığını ve modellerinin istenen metin ya da imajları üretmeyi birçok sefer reddettiğini de kelamlarına ekledi.
Raporda OpenAI, devlete bağlı birkaç tanınmış dezenformasyon aktörünün araçlarını kullandığını ortaya koydu. Bunlar ortasında birinci defa 2022’de keşfedilen ve çoklukla Ukrayna’ya verilen dayanağı baltalamaya çalışan Doppelganger isimli bir Rus operasyonu ve Pekin’in çıkarlarını yurtdışına taşıyan Spamouflage olarak bilinen bir Çin ağı da vardı. Her iki kampanya da X üzere platformlarda yayınlamadan evvel birden fazla lisanda metin yahut yorum oluşturmak için modellerini kullandı.
Daha evvel bildirilmeyen ve Bad Grammar olarak isimlendirilen bir Rus operasyonunu da açığa çıkaran rapor, bu operasyonun OpenAI modellerini bir Telegram botunu çalıştırmak için kod kusurlarını ayıklamak ve daha sonra iletileşme platformu Telegram’da yayınlanan Rusça ve İngilizce kısa, siyasi yorumlar oluşturmak için kullandığını belirtti.
Ayrıca şirket, Tel Aviv merkezli STOIC isimli bir siyasi kampanya idaresi şirketi tarafından yürütüldüğü argüman edilen ve modellerini X, Instagram ve Facebook’da makaleler ve yorumlar oluşturmak için kullanan İsrail yanlısı bir dezenformasyon girişimini engellediğini söyledi.