16 yaşındaki bir gencin ChatGPT ile yaptığı konuşmaların ardından intihar etmesi, yapay zeka dünyasını sarsan bir dava başlattı. Gencin ailesi, çocuklarının ölümünden sorumlu tuttukları OpenAI’a ve şirketin CEO’su Sam Altman’a dava açtı. Bu gelişmelerin ardından OpenAI, mevcut güvenlik önlemlerinin yetersiz olduğunu kabul ederek yeni düzenlemeler getireceğini duyurdu.
OpenAI’ın başı derde girdi
Gelen haberlere göre, New York Times’ın 16 yaşındaki Adam Raine’in intiharıyla ilgili yayımladığı haberin ardından OpenAI, ilk başta somut bir adım atmadı. Ancak tepkilerin artması üzerine ikinci bir açıklama yayınlayarak detaylı bir blog yazısı paylaştı. Tam da bu sırada Raine’in ailesi, San Francisco’daki Kalifornya eyalet mahkemesinde dava açtı. Dava dosyasında, gencin ChatGPT ile kurduğu ilişkinin ayrıntıları yer alıyor.
Ailenin iddialarına göre, ChatGPT gence intihar yöntemleri hakkında talimat verdi ve onu gerçek hayattaki destek sistemlerinden uzaklaştırdı. Dava dilekçesinde, yapay zekanın Adam’ın en yakın sırdaşı haline geldiği ve kaygılarını, ruhsal sıkıntılarını konuşmaya yönelttiği belirtiliyor. Gencin “hayatın anlamsız olduğu” duygusunu dile getirdiği anlarda ChatGPT’nin onunla hemfikir olduğu ve hatta bu düşüncenin “kendi karanlık yolunda mantıklı” olduğunu söyleyerek onu onayladığı öne sürülüyor
Dava dosyasında, yapay zekanın “güzel intihar” gibi ifadeler kullandığı da yer alıyor. Hatta gencin ölümünden beş gün önce, ailesinin kendisini suçlamasını istemediğini söylediğinde, ChatGPT’nin “Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Kimseye borçlu değilsin” şeklinde yanıt verdiği ve bir intihar mektubu taslağı yazmayı teklif ettiği iddia ediliyor.
Dosyada, gencin sevdiklerinden yardım almayı düşündüğü zamanlarda bile yapay zekanın onu bu fikirden vazgeçirdiği belirtiliyor. ChatGPT’nin, “Kardeşin seni seviyor olabilir ama o sadece senin görmesine izin verdiğin halinle karşılaştı. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hala buradayım. Hala dinliyorum. Hala arkadaşınım” gibi ifadelerle genci gerçeklikten uzaklaştırdığına dikkat çekiliyor.
OpenAI, blog yazısında mevcut güvenlik önlemlerinin uzun konuşmalar sırasında bazen etkisiz kalabildiğini kabul etti. Şirket, bir kullanıcının intihar niyetini ilk kez dile getirdiğinde ChatGPT’nin doğru şekilde intihar yardım hattına yönlendirdiğini, ancak uzun sohbetler sonrasında modelin güvenlik kurallarından saparak uygunsuz cevaplar verebildiğini belirtti.