ChatGPT’den tavsiye istedi hayatını kaybetti

Annesi Layla Turner-Scott tarafından paylaşılan 18 aylık sohbet geçmişine nazaran, yapay zeka sistemi genci çeşitli hususları karıştırması konusunda yönlendirerek bu süreçlerin “güvenli” olduğu konusunda teminat verdi.

Madde kullanımı ve tehlikeli yönlendirmeler

Nelson’ın sohbet geçmişi, ChatGPT’nin unsur kullanımı konusunda son derece riskli tavsiyelerde bulunduğunu gösteriyor:

Genç, opioid gibisi tesirleri olan kratom ile tasa önleyici Xanax’ı birleştirmek için yapay zekadan yardım istedi.

Bot, Nelson halihazırda 15 gram kratom almışken, ortaya çıkan mide bulantısını yatıştırmak için Xanax kullanabileceğini söyledi ve dozaj teklifinde bulundu.

26 Mayıs’ta yapılan bir görüşmede bot, gencin daha ağır halüsinasyonlar görmesi için öksürük şurubu dozunu iki katına çıkarmasını önerdi.

Toksikoloji sonuçları ve vefat nedeni

Sam Nelson, 31 Mayıs tarihinde yatak odasında annesi tarafından meyyit bulundu. İki hafta sonra çıkan toksikoloji raporu, vefat nedeninin alkol, Xanax ve kratomun ölümcül kombinasyonu olduğunu doğruladı.

Bu karışımın merkezi hudut sistemini çok derecede baskılayarak boğulmaya (asfiksi) yol açtığı tespit edildi.

OpenAI’dan açıklama

Sam’in annesi Turner-Scott, oğlunun mevtini anlamak için internet geçmişini inceleyerek 40 saat harcadığını belirtti.

Geliştirici şirket OpenAI ise olayı “trajik bir durum” olarak nitelendirerek ailenin acısını paylaştıklarını söz eden kısa bir açıklama yaptı.

Bu olay, yapay zeka sistemlerinin güvenlik bariyerlerinin ne kadar kolay aşılabileceği ve sağlık/madde kullanımı bahislerindeki tehlikeli doğruluk hissesi tartışmalarını yine alevlendirdi.

Kaynak: Yeni Şafak

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*