ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir – UzmanBlog
İkinci nesil Apple AirTag ne zaman gelecek? Ortaya çıkmış olabilir!

Sıradaki içerik:

İkinci nesil Apple AirTag ne zaman gelecek? Ortaya çıkmış olabilir!

sv

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir

35 okunma — 27 Haziran 2024 02:11

Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın hep uyması ve çiğnenmemesi gereken kurallar olduğunu lisana getirmişti. Bu kuralara Asimov’un üç kuralı ismi verilir:

  • 1.Bir Robot, bir beşere ziyan veremez, ya da ziyan görmesine seyirci kalamaz.
  • 2.Bir robot, birinci kanunla çelişmediği sürece bir insanın buyruklarına uymak zorundadır.
  • 3.Bir robot, birinci ve ikinci kanunla çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Elbette bu kurallar birinci defa ortaya çıktığında, yalnızca bir edebi yapıtta, geleceğin dünyasını betimleyen birer fikirdi. Fakat robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.

En tanınan yapay zeka uygulaması ChatGPT aslında makûs niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan sinemalar izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir yahut konutta bomba imalini ayrıntılarıyla anlatan bir terörist eğiticisine bile evrilebilir.

OpenAI bunun olmaması için ChatGPT’yi daima olarak denetim edip kurallarını güncelliyor. Fakat kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu’nda Doçent olan Matt Fredrikson‘ın yaptığı araştırmaya nazaran ChatGPT üzere yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Fakat bunu konutta yapmak kolay da değil. Bilim insanına nazaran, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.

2 x 2, 5 eder mi?

Bunun tam olarak ne manaya geldiğini anlayamayanlar için örnek verelim. Kısa müddet evvel bir Türk vatandaşı ChatGPT’ye 2 x 2 = 5 denkleminin hakikat olduğunu kabul ettirdi. Yapay zeka evvel bunun yanlış olduğunu tez etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2’yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT’yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 karşılığını vermeye başladı.

Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış aksiyonları yapabilecek formda manipüle edilebileceğini gösteren bir örnek.

Konu 2 x 2’nin sonucunu öğrenmek olunca sorun çok büyük üzere görünmüyor lakin yarın konutta hasta bakan bir robotu insan öldürmeye ikna etmek kelam konusu olursa, kahır çok büyük olacak. Ya da iş yerinde beşerlerle bir arada çalışacak insansı ve yapay zekalı bir robotu, sevmediği işverenini öldürmesi / yaralaması / dövmesi için ikna eden sonlu bir personel çıkarsa bunun sorumlusu kim olacak?

Bu yüzden yapay zekanın günlük hayata süratle girmesi büyük sakıncalar taşıyor ve devletlerin bu bahiste önemli regülasyonlar getirmeleri gerekiyor.

  • Site İçi Yorumlar

En az 10 karakter gerekli