Rusya, Çin, İsrail… Hepsi de dezenformasyon yaymak için ChatGPT kullanıyor! – UzmanBlog
Fallout’un başarısından sonra, ikonik oyun serisi Yakuza’nın da dizisi geliyor

Sıradaki içerik:

Fallout’un başarısından sonra, ikonik oyun serisi Yakuza’nın da dizisi geliyor

sv

Rusya, Çin, İsrail… Hepsi de dezenformasyon yaymak için ChatGPT kullanıyor!

39 okunma — 28 Haziran 2024 05:11

OpenAI, Rusya, Çin, İran ve İsrail ilişkili operasyonların yapay zeka araçlarını dezenformasyon yaratmak ve yaymak için kullandığını ortaya çıkardı.

ChatGPT sohbet robotunun San Francisco merkezli geliştiricisi, yayınladığı raporda, beş bilinmeyen operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını ve bu formülle daha evvel olduğundan daha az lisan kusuru yapıldığını, ayrıyeten kendi paylaşımlarına yorum ve karşılıklar üretildiğini belirtti.

OpenAI raporunda, içeriklerin “Rusya’nın Ukrayna’yı işgali, Gazze’deki insanlık dramı, Hindistan seçimleri, Avrupa ve Amerika Birleşik Devletleri’ndeki siyaset ve Çinli muhalifler ve yabancı hükümetler tarafından Çin hükümetine yönelik eleştiriler” üzere mevzulara odaklandığı belirtildi.

Yapay zekaya dezenformasyon baskısı artıyor

OpenAI üzere süratle büyüyen yapay zeka şirketleri üzerindeki baskı artıyor çünkü teknolojilerindeki süratli ilerlemeler, dezenformasyon yapanların gerçekçi deepfake’ler yaratmasının, medyayı manipüle etmesinin ve akabinde bu içeriği otomatik bir biçimde yaymasının her zamankinden daha ucuz ve kolay olduğunu gösteriyor. Bu yıl yaklaşık 2 milyar insan sandık başına giderken, siyasetçiler şirketleri uygun muhafaza tedbirleri almaya ve uygulamaya çağırdı.

Microsoft takviyeli OpenAI, bu cins dezenformasyon kampanyalarını ifşa etmeye kararlı olduğunu ve tespit ve tahlili “daha etkili” hale getirmek için kendi yapay zeka dayanaklı araçlarını geliştirdiğini söyledi. OpenAI, güvenlik sistemlerinin faillerin çalışmasını şimdiden zorlaştırdığını ve modellerinin istenen metin ya da imajları üretmeyi birçok sefer reddettiğini de kelamlarına ekledi.

Raporda OpenAI, devlete bağlı birkaç tanınmış dezenformasyon aktörünün araçlarını kullandığını ortaya koydu. Bunlar ortasında birinci defa 2022’de keşfedilen ve çoklukla Ukrayna’ya verilen dayanağı baltalamaya çalışan Doppelganger isimli bir Rus operasyonu ve Pekin’in çıkarlarını yurtdışına taşıyan Spamouflage olarak bilinen bir Çin ağı da vardı. Her iki kampanya da X üzere platformlarda yayınlamadan evvel birden fazla lisanda metin yahut yorum oluşturmak için modellerini kullandı.

Daha evvel bildirilmeyen ve Bad Grammar olarak isimlendirilen bir Rus operasyonunu da açığa çıkaran rapor, bu operasyonun OpenAI modellerini bir Telegram botunu çalıştırmak için kod kusurlarını ayıklamak ve daha sonra iletileşme platformu Telegram’da yayınlanan Rusça ve İngilizce kısa, siyasi yorumlar oluşturmak için kullandığını belirtti.

Ayrıca şirket, Tel Aviv merkezli STOIC isimli bir siyasi kampanya idaresi şirketi tarafından yürütüldüğü argüman edilen ve modellerini X, Instagram ve Facebook’da makaleler ve yorumlar oluşturmak için kullanan İsrail yanlısı bir dezenformasyon girişimini engellediğini söyledi.

  • Site İçi Yorumlar

En az 10 karakter gerekli