ChatGPT’den Diyet Tavsiyesi Alan 60 Yaşındaki Adam Kendini Zehirledi ve Hastaneye Kaldırıldı

ChatGPT’in bir araç olarak hızla gelişmesi, onu yalnızca işleri kolaylaştırmak için değil, günlük yaşam ve hatta çok kişisel meselelerde de başvurduğumuz bir yardımcıya çevirdi. Aldatma izlerini ortaya çıkarıp evliliklerin bitmesine yol açtığı vakalar konuşuldu. Terapi için kullanılmaması konusunda Sam Altman’ın uyarıları oldu. Şimdi ise yapay zekadan sağlık tavsiyesi almanın ne kadar riskli olabileceğini gösteren rahatsız edici bir olay gündemde: New York’ta 60 yaşındaki bir erkek, modelin verdiği beslenme önerisini izledikten sonra nadir ve tehlikeli bir rahatsızlık geliştirdi.

Yapay zekadan sağlık önerilerinin gizli riskleri: Bromizm ve “tuz alternatifi”nin kontrolden çıkması

Zaman zaman “yapay zekaya aşırı güvenmeyin” uyarıları yapılıyor. Son uyarı, ABD’li bir tıp dergisinden geldi. NBC News’ün öne çıkardığı vakaya göre Annals of Internal Medicine’da yayımlanan rapor, bir kişinin ChatGPT’den aldığı beslenme tavsiyesi sonrası bromizm, yani bromür zehirlenmesi yaşadığını anlatıyor.

Adam, sofra tuzunu (sodyum klorür) internetten aldığı sodyum bromürle değiştirdi. “Tuz yerine ne kullanabilirim?” diye sorduğunda ChatGPT’den aldığı yanıtlara güvendi. Üç ay boyunca her gün sodyum bromür tüketti ve bunun daha sağlıklı olduğunu düşündü. Sonuç ağır oldu: paranoya, uykusuzluk, psikoz ve başka ciddi fiziksel belirtiler ortaya çıktı. Bir ara komşusunun kendisini zehirlediğine bile inandı.

Hastaneye kaldırıldığında hekimler, aşırı bromür maruziyetine bağlı toksik tablo olan bromizm tanısı koydu. Bromür alımını kesip uygun tedaviyi alınca belirtiler gerilemeye başladı. Bromür tuzları artık yaygın olmadığı için bu durum günümüzde pek görülmüyor. Yine de internette denetimsizce satılabilen maddelere karşı dikkatli olmak gerektiğini hatırlatıyor.

Hastanın hikayesi, yapay zekadan özellikle sağlık konusunda bilgi alırken temkinli olmanın önemini gösteriyor. Araştırmacılar, ChatGPT’nin gerçekten böyle cevaplar verip vermediğini de kontrol etti ve modelin klorür yerine bromür önerebildiğini gördü. Zehirlenme riskine dair bir uyarı yer almaması endişeyi artırıyor. Sohbet botları doktor değil; aynı muhakemeyi yapamaz, aynı sorumluluğu üstlenemez. Bu yüzden “uzman” gibi görülmemeli.

Öte yandan, yapay zekâ modellerinde özellikle hassas konularda daha güçlü güvenlik önlemleri şart. Yapay zekâ çağında yaşıyoruz; merak, tedbirin önüne geçmemeli ve hiçbir zaman profesyonel tıbbi görüşün yerini almamalı.

Kaynak: wccftech.com

Total
0
Shares
Bir yanıt yazın
Previous Post

Google Mesajlar ‘Herkes İçin Sil’ Özelliğini Ekledi: Artık Gönderilen Mesajları Alıcıların Cihazlarından Silebilirsiniz, Yanlışlıkla Gönderilen Mesajlar İçin Güvence Sunuyor

Next Post

İngiltere suçluları yapay zeka ile bulacak

Related Posts