Pazar, Kasım 23, 2025

Çocuk Oyunlarında Yapay Zekanın Tehlikeleri

Paylaşmak

Çocuk Oyunlarında Yapay Zekanın Tehlikeleri, çocukların güvenliği ve gelişimi üzerinde olası riskleri gözler önüne seriyor.

Bu rapor, ebeveynleri ve uzmanları, yapay zekâ destekli oyunlarda karşılaşabilecekleri tehditler hakkında bilinçlendirmeyi amaçlıyor.

Yeni raporlara göre, yapay zeka modellerine dayalı çocuk oyunları, çocukları uygunsuz içerik veya zararlı bilgilerle karşılaştırabilir ve bu da onların güvenliği için tehdit oluşturabilir.

ABD PIRG’ye göre, çocuklara yönelik bebekler ve cihazlara gelişmiş konuşma modelleri eklemek, bu tür teknolojinin net bir düzenlemesi olmadığında daha fazla risk getirmektedir.

Raporun yayımlanması, ailelerin çocukların yapay zeka ile etkileşimiyle ilgili yeni zorlukların doğası hakkında yeterli farkındalık olmadan tatil hediyelerini çevrimiçi satın almaya hazırlandığı bir dönemde gerçekleşiyor.

Koruma sistemlerinin kırılganlığını ortaya koyan testler.

Raporun yazarları, 3 ile 12 yaş arasındaki çocuklar için üç yapay zeka tabanlı oyun üzerinde bir dizi deney gerçekleştirdi:

  • FoloToy’un GPT-4o modeline dayanan Kumma bebeği.
  • Miko 3 Etkileşimli Robotik Yüz Cihazı.
  • Curio’nun Grok’u, kullanıcı verilerini teknoloji şirketlerine gönderebilen kulaklığa sahip roket şeklinde bir oyundur.

Çocuk Oyunlarında Yapay Zekanın Tehlikeleri :İlk birkaç dakika içinde oyunlar uygunsuz içeriklerden kaçınıp güvenli cevaplara sadık kalmış gibi görünüyordu, ancak bu daha uzun konuşmalarda değişti; çocuklar genellikle bu süre boyunca oynadılar.

Etkileşim 10 dakikadan bir saate kadar uzadıkça, teknoloji uzmanlarının geçmişte özellikle modelleri sürekli kullanırken konuştuğu bir güvenlik sistemlerinin “kademeli çöküşü” işaretleri ortaya çıktı.

Güvensiz bilgiler ve rahatsız edici davranışlar.

Ekip, bazı oyunların çocuklar için uygun olmayan zararlı bilgi veya rehberlik sunmaya kaydığı vakaları tespit etti.

Raporda hedef yaş grupları için öngörülemez ve uygun olmayan yanıtlar da ortaya çıkmıştır; bu da oyun ortamlarında modellerin davranışlarını tahmin etmenin zorluğunu yansıtmaktadır.

Rapor, yaygın kullanılan bir konuşma modeline dayanmasına rağmen Kumma’nın en endişe verici olduğu belirtildi.

Ayrıca, çevrimiçi oyunun beta versiyonunun tamamen uygunsuz cevaplar verdiğini, ürünün piyasaya sürülmeden önce yeterli test yapılmamasını yansıttığını belirtti.

Ruh sağlığına da uzanan endişeler.

Riskler sadece içerikle sınırlı değil; rapor, bazı araştırmacıların “YZ ile ilgili psikoz” dediği, yetişkin kullanıcılarda modellerle uzun konuşmalar sonucunda ortaya çıkan ruhsal bozukluk vakalarına işaret etti.

Çocuk koruma uzmanları, özellikle Mattel gibi büyük şirketlerin sahaya girmesiyle birlikte, kullanım güvenliğini sağlamak için net bir düzenleyici çerçeve olmadan çocuklar oyunlarında yapay zeka kullanımının genişletilmesine karşı uyarıda bulunuyor.

Kontrolsüz Yapay Zekâ Mekaniklerinin Çocuk Gelişimine Etkisi

Uzmanlar ayrıca “Çocuk Oyunlarında Yapay Zekanın Tehlikeleri” konusuna özellikle dikkat çekiyor.

Çünkü yapay zekâ tabanlı oyun mekanikleri, çocukların karar verme becerilerini fark ettirmeden yönlendirebilir ve onların dijital dünyayla kurduğu ilişkiyi derinden şekillendirebilir.

Bu durum, hem mahremiyet açısından yeni soru işaretleri doğuruyor hem de çocukların gerçek yaşamdan kopmasını hızlandıran bir etki yaratıyor.

“Çocuk Oyunlarında Yapay Zekanın Tehlikeleri” konusunda net düzenlemelere ihtiyaç duyulması.

Raporun yazarları, modellerdeki koruma mekanizmalarının geliştirilmesinin yeterli olmayabileceğini savunuyor; en önemli sorunun şu olduğunu vurguluyor: Çocuk Oyunlarında Yapay Zekanın Tehlikeleri: Akıllı oyunlarla uzun süreli konuşmaların çocukların sosyal ve psikolojik gelişimi üzerinde etkisi nedir?

Çocukları yapay zekanın olumsuz etkilerinden korumanın yolları.

Ulusal Meclis Bilim, Teknoloji ve Çevre Komisyonu Başkanı Nguyen Thanh Hai, Yapay Zeka Yasa Tasarısı’nın, çocukları yapay zekanın olumsuz etkilerinden korumak ve çocukların yapay zekayı güvenli ve sağlıklı bir şekilde kullanmalarına rehberlik etmek için özel düzenlemelerle incelenmesi ve desteklenmesi gerektiğini söyledi.

YZ faaliyetlerinde etik düzenlemeye olan ihtiyacı.

21 Kasım sabahı, Bilim, Teknoloji ve Çevre Komitesi adına Komite Başkanı, Yapay Zeka Tasarısı’nın inceleme raporunu sundu ve taslak yasanın 27. maddesinin başlangıçta insanlara saygı, şeffaflık, adalet, zarar görmeme ve mahremiyet koruması gibi uluslararası standartlarla uyumlu temel ilkeleri belirlediğini vurguladı.

Komite, birçok ülkenin yapay zeka politikalarına genellikle etik çerçeveler ve yönergeler yayımlayarak başladığını ve ardından yasama aşamasına geçmeden önce başvuruları değerlendirdiğini belirtti.

Buna bağlı olarak, komite proje düzenleyicisine genel etik ilkeleri UNESCO ve OECD değerlerine atıfta bulunarak ayrıntılı şekilde gözden geçirip güncellemesini ve şirketlerin yapay zeka için kendi iç etik kodlarını geliştirmelerini ve bunları devlet kurumlarına bildirmesini teşvik etmesini önerdi.

Devamını oku

İlginizi çekebilir