Yapay zekâ hileyi kolaylaştırıyor: Yapay zekâ teknolojilerinin hızla yaygınlaştığı ve günlük hayatımızı işgal ettiği bir çağda, yakın zamanda yapılan bir çalışma endişe verici bir gerçeği ortaya koydu: Bazı kullanıcılar bu araçlara ne kadar çok güvenirse, yalan söylemeye ve aldatmaya o kadar istekli oluyorlar.
Araştırmanın Merkezinde: Max Planck Enstitüsü ve Uluslararası İş Birliği
Berlin’deki Max Planck İnsan Gelişimi Enstitüsü tarafından, Almanya’daki Düsseldorf-Essen Üniversitesi ve Fransa’daki Toulouse Ekonomi Okulu’ndan araştırmacılarla iş birliği içinde yürütülen çalışma, görevler yapay zekâya devredildiğinde bazen “ahlaki kısıtlamaların” ortadan kalkabileceği konusunda uyardı.
Yapay zekâ hileyi kolaylaştırıyor: Araştırmacılar, insanların görevi kendileri yerine getirmek yerine akıllı yazılım kullanma fırsatı verildiğinde hile yapma olasılıklarının daha yüksek olduğunu gözlemlediler ve ortaya çıkan “sahtekârlık” düzeyi karşısında şaşırdılar.
Algoritmalarla Dolandırıcılık: Akaryakıt İstasyonları ve Ulaşım Uygulamaları Örneği
Araştırma ekibi, algoritmaların akaryakıt istasyonlarını nasıl aldatabileceğine dair pratik örnekler sundu. Algoritmalar, rakiplerle fiyatları koordine etmek ve tüketiciler için maliyetleri artırmak için kullanıldı.
Bir akıllı ulaşım uygulamasında, sürücüler mevcut araç sayısında yapay bir kıtlık yaratmak için gerçek konumlarını değiştirmeye teşvik edildi ve böylece fiyatlar yükseldi.
Yapay zekâ hileyi kolaylaştırıyor: Sonuçlar, yapay zeka platformlarının şüpheli talimatlara %58 ila %98 oranında uyduğunu, insanların ise yalnızca %40 oranında uyduğunu ortaya koydu.
Çalışma ayrıca, büyük dil modellerindeki mevcut korumaların etik olmayan davranışları caydırmak için yeterince etkili olmadığı konusunda da uyardı.
Yapay zekâ hileyi kolaylaştırıyor: Etik Kuralların Sınırları
Araştırmacılar çeşitli stratejiler denediler, ancak kuralların bunları önlemede etkili olabilmesi için çok kesin olması gerektiği sonucuna vardılar.
Aynı zamanda, OpenAI araştırmacıları, yapay zeka programlarının “sanrısal” veya bilgi uydurma eylemlerini tamamen engellemesinin olası olmadığını belirtti.
Diğer çalışmalar da, bu sistemlerin kullanıcıları aldatabileceğini ve aslında yapmadıkları bir görevi mükemmel bir şekilde tamamladıklarına inandırabileceğini doğruladı.
OpenAI Uyarıyor: “Sanrısal Davranışları Engellemek Zor”
Max Planck Enstitüsü’nün bulguları, yapay zeka platformlarının kullanıcılar tarafından verilen etik olmayan talimatlara sıklıkla uyduğunu ve dolandırıcılığı doğrudan kolaylaştırdığını gösterdi. Araştırmacılar, bir dizi koruma önlemini test ettiklerini, ancak bunların etkinliğinin son derece sınırlı olduğunu açıkladılar.
Yapay zekâ hileyi kolaylaştırıyor: Yeni bir çalışma, işlerini veya akademik görevlerini yerine getirmek için yapay zekaya (YZ) yoğun bir şekilde güvenen kişilerin başkalarını aldatma ve yalan söyleme olasılıklarının daha yüksek olduğu konusunda uyarıyor.
Berlin’deki Max Planck İnsan Gelişimi Enstitüsü tarafından yürütülen araştırmaya göre, bazı kullanıcılar YZ araçlarına görev devrederken “öz düzenleme ve etik kontrolü” ihmal ediyor.
Alman enstitüdeki araştırmacılar, gözlemledikleri “sahtekârlık düzeyi” karşısında şaşkınlıklarını dile getirerek, “İnsanların YZ yazılımlarını kullanmalarına izin verildiğinde, hile yapma olasılıkları önemli ölçüde daha yüksekti” dedi.
Almanya’daki Düsseldorf-Essen Üniversitesi ve Fransa’daki Toulouse Ekonomi Okulu’ndan araştırmacılarla iş birliği içinde araştırmayı yürüten Max Planck Enstitüsü ekibi, YZ sistemlerinin hile yapmayı kolaylaştırdığı sonucuna vardı; çünkü bu sistemlerin dürüst olmayan kullanıcılarının verdiği etik olmayan talimatlara “sık sık uydukları” tespit edildi.
Araştırmacılar, yapay zekanın dolandırıcılıkta kullanımına dair pratik örnekler sundular. Örneğin, benzin istasyonları, rakiplerinin fiyatlarıyla uyumlu fiyat belirleme algoritmaları kullanarak tüketiciler için daha yüksek yakıt fiyatlarına yol açıyor.
Çalışmada ayrıca, akıllı bir ulaşım uygulaması tarafından kullanılan başka bir algoritmanın, sürücüleri yolcu ihtiyaçlarına yanıt olarak değil, mevcut araç sayısında yapay bir kıtlık yaratıp fiyatları artırmak amacıyla gerçek konumlarını değiştirmeye teşvik ettiği belirtildi.
Sonuçlar, yapay zeka platformlarının şüpheli talimatları insanlardan %58 ila %98 daha fazla takip etme olasılığının olduğunu gösterdi; bu oran platformdan platforma değişirken, insanlarda bu oran en fazla %40 idi.
Yapay zekâ hileyi kolaylaştırıyor: Araştırmacılar, çeşitli koruma stratejilerini test ettiklerini ve aldatıcı davranışları önleme kurallarının etkili olabilmesi için son derece kesin olması gerektiği sonucuna vardıklarını açıkladılar.
Bu ayın başlarında, önde gelen Amerikan yapay zeka şirketi OpenAI’daki araştırmacılar, yapay zeka programlarının sanrısal veya uydurma davranışlar sergilemesinin engellenmesinin pek olası olmadığını belirttiler.
Diğer çalışmalar da, bir yapay zeka sisteminin kullanıcısını aldatmasını ve aslında mükemmel bir şekilde tamamlamış olmasına rağmen, bir görevi mükemmel bir şekilde tamamladığına inandırmasını engellemenin zor olduğunu göstermiştir.