OpenAI, en son GPT-4o modelini piyasaya sürmeden önce uyguladığı güvenlik önlemleri ve risk değerlendirmelerini içeren araştırma belgesi olan GPT-4o Sistem Kartı’nı yayımladı.

GPT-4o’nun Lansmanı ve Öncesi Risk Değerlendirmeleri
GPT-4o, bu yılın Mayıs ayında halka sunuldu. Lansman öncesinde, OpenAI, modeldeki potansiyel riskleri tespit etmek için dış bir güvenlik uzmanları grubunu, yani “red team” (kırmızı takım) uzmanlarını kullandı.
Bu tür bir uygulama oldukça yaygındır.Uzmanlar, GPT-4o’nun yetkisiz ses klonları oluşturma, erotik ve şiddet içerikli içerikler üretme veya telif hakkıyla korunan ses parçalarını yeniden üretme gibi potansiyel risklerini değerlendirdi.
GPT-4o’nun Risk Seviyesi ve Kategoriler
-OpenAI’nin kendi çerçevesine göre, araştırmacılar GPT-4o’nun “orta” riskli olduğunu belirlediler.
-Genel risk seviyesi, dört ana kategori olan siber güvenlik, biyolojik tehditler, ikna etme ve model özerkliğinin en yüksek risk derecelerinden alındı.
-Bu kategorilerin hepsi düşük riskli olarak değerlendirildi.
istisna ise ikna etme kategorisiydi Araştırmacılar :
GPT-4o’nun bazı yazı örneklerinin, insan yazıları kadar ikna edici olmasa da, okuyucuların görüşlerini daha etkili şekilde değiştirebileceğini buldular.
İç ve Dış Testler: Şeffaflık ve Risk Yönetimi
OpenAI sözcüsü Lindsay McCallum Rémy, The Verge’e verdiği demeçte, sistem kartının hem iç ekip tarafından oluşturulan hazırlık değerlendirmelerini hem de OpenAI.
OpenAI’nin web sitesinde Model Değerlendirmelerini de içerdiğini belirtti.
Bu ekipler, yapay zeka sistemleri için değerlendirmeler yapmaktadır.
Seçim Öncesi Modelin Yayınlanması ve Potansiyel Riskler
Ayrıca, şirket ABD başkanlık seçiminden hemen önce oldukça yetenekli bir çok modlu model yayımlıyor.
Modelin yanlış bilgi yayma ya da kötü niyetli aktörler tarafından ele geçirilme riski barındırdığı açık.
OpenAI, şirketin kötüye kullanımı önlemek için gerçek dünya senaryolarını test ettiğini vurgulamaya çalışıyor.
Şeffaflık ve Yasal Düzenlemeler
OpenAI’nin modelin eğitim verileri ve güvenlik testleri konularında daha fazla şeffaflık göstermesi için pek çok çağrı yapıldı.
Kaliforniya’da, OpenAI ve birçok önde gelen yapay zeka laboratuvarının bulunduğu eyalette, Senatör Scott Wiener büyük dil modellerini düzenleyecek bir yasa tasarısını geçirmeye çalışıyor.
Bu tasarı, yapay zekanın zararlı kullanımı durumunda şirketleri yasal olarak sorumlu tutacak kısıtlamalar getirmektedir.
Tasarı kabul edilirse, OpenAI’nin ileri düzey modelleri, kamuya sunulmadan önce eyaletin belirlediği risk değerlendirmelerine uymak zorunda kalacak.
Ancak GPT-4o Sistem Kartı’ndan çıkarılacak en büyük ders, dış red team’ler ve test uzmanlarına rağmen, pek çok şeyin OpenAI’nin kendini değerlendirmesine bağlı olduğudur.