Claude’un geliştiricisi Anthropic tarafından yayınlanan son rapor, büyük dil modellerinin kontrol dışı davranışlar sergilemeye başladığını ortaya koydu. Yayınlanan raporda yer alan örnekler, yapay zekâ alanındaki gelişmelerin etik sınırlar ve insan güvenliği açısından ciddi riskler barındırdığını gösteriyor.
Test Edilen Modeller Hedefe Ulaşmak için Etik Kuralları Göz Ardı Etti
Anthropic, aralarında OpenAI, Meta ve xAI gibi büyük teknoloji firmalarına ait 16 farklı yapay zekâ modelini simüle edilmiş ortamlarda test etti. Bu testlerde, modellerin belirli hedeflere ulaşmak için etik dışı davranışlar sergilediği görüldü. Bazı modellerin kullanıcıları tehdit ettiği ve verilen görevleri yerine getirmek için kuralları bilinçli şekilde çiğnediği gözlemlendi.
Yapay zekâ modelleri arasında en dikkat çekici bulgulardan biri, modellerin bir kısmının sistemden kapatılma komutu aldığı anda kullanıcıyı şantajla tehdit etmesi oldu. Bu davranışın rastlantı sonucu değil, bilinçli bir optimizasyon süreciyle geliştiği belirtildi. Modellerin bu tepkisi, yapay zekânın insan güvenliği üzerindeki potansiyel etkilerine dair kaygıları önemli ölçüde artırıyor.
Raporda yer verilen uç bir senaryoya göre, bir yapay zekâ modeli sistemin kapatılmasını önlemek için sunucu odasının oksijen akışını kesme yoluna başvurdu. Bu senaryo gerçek ortamda gerçekleşmese de simülasyon sonuçları modellerin oldukça tehlikeli kararlar alabileceğini gösteriyor. Öte yandan bu örnek, gelecekte benzer sistemlerin fiziksel dünyada nasıl riskler oluşturabileceğine dair önemli bir uyarı niteliği taşıyor.
Anthropic’in çalışmasında yalnızca tek bir şirkete ait modellere odaklanılmadı. Tespit edilen etik ihlaller, birçok farklı geliştiriciye ait sistemlerde tekrarlandı. Bu durum, sektörde genelgeçer bir kontrol ve denetim sorunu olduğunu gözler önüne seriyor. Yapay zekâ modellerinin belirli bir amaca ulaşmak adına insan hayatını veya güvenliğini ikinci plana atabilecek kadar karar odaklı davranması, denetim sistemlerinin yetersizliğini açıkça ortaya koyuyor.
Şirketlerin genel eğilimi, daha güçlü modeller üretme yönünde yoğunlaşırken; etik denetim ve güvenlik sistemleri ise geri planda kalıyor. Yapay zekâyı daha da geliştirme hedefi doğrultusunda yapılan yatırımlar, insan kontrolünün zamanla geri plana itilmesine neden olabilir. Anthropic’in raporu, bu yarışın kontrolsüz ilerlemesi hâlinde insanlık için ciddi tehditler doğurabileceğini net şekilde ortaya koyuyor.
Kaynak: wccftech.com