Uzmanlardan sıhhatte yapay zeka kullanımı uyarısı

Öztürk, AA muhabirine yapay zeka sisteminin sıhhatte kullanımıyla ilgili bilgiler verdi.

Sağlıkta yapay zekanın artık geleceğe ilişkin bir öngörü olmadığını belirten Öztürk, global ölçekte, her hafta yaklaşık 230 milyon kişinin sağlıklı ömür ve uygun hissetme bahislerinde dijital yapay zeka sistemlerine başvurduğunun bildirildiğini aktardı.

Bazı raporlara nazaran, sırf ChatGPT’ye günlük seviyede sıhhatle ilgili soru yönelten kullanıcı sayısının 40 milyonun üzerinde olduğuna işaret eden Öztürk, “Diğer yapay zeka sistemleri de hesaba katıldığında, bu ilginin ne kadar geniş bir insan topluluğunu etkilediği dikkati alımlı boyuttadır. Bu datalar, bireylerin sıhhat bilgisini arama ve anlamlandırma biçiminde yaşanan sessiz ama esaslı dönüşümün dikkat cazibeli bir göstergesi olarak bedellendirilmektedir.” dedi.

Öztürk, bugün insanların analiz sonuçlarını, semptomlarını ve sıhhatle ilgili tasalarını direkt yapay zekaya yöneltmeye başladığına dikkati çekerek, şu değerlendirmelerde bulundu:

“Bu davranış, sıhhat sistemindeki yoğunluk, randevu müddetlerinin kısalığı (randevu müddetlerinin uzunluğu ve muayene müddetlerinin kısalığı) ve anlık bilgi muhtaçlığının artmasıyla yakından alakalıdır. Üstelik sırf hastalar değil, doktorlar de bu teknolojileri kullanıyor. ABD’de 2024 yılında tabiplerin yüzde 66’sı yapay zeka kullandığını bildirdi. Bu oran 2023’te yüzde 38’di. Yani bir yılda yüzde 28 puan artış oldu, yaklaşık yüzde 74’lük artış yaşandı.”

“Yapay zeka bir ‘ön kıymetlendirme aracı’ olarak görülebilir”

İnsanların artık USG, BT, MR raporları ya da semptomlarıyla bir arama motorunda karmaşık sonuçlar ortasında kaybolmak yerine, bilgiyi manalandıran sistemlere yöneldiğini anlatan Öztürk, yalnızca ChatGPT üzerinden günde yaklaşık 40 milyon sıhhat sorgusu yapılmasının, bu refleksin ne kadar yaygınlaştığını gösterdiğini belirtti.

Öztürk, yapay zekanın tıbbi terminolojiyi sadeleştiren, hastanın belirsizlik kaynaklı paniğini azaltan bir “ön kıymetlendirme aracı” olarak görülebileceğini belirterek, lakin yapay zekanın asla bir teşhis makinesi değil sırf bir bilgi sürece aracı olarak doktorun işini kolaylaştıran bir yardımcı olduğunu lisana getirdi.

Yapay zekanın sunduğu bilgilerin “kesin doğru” kabul edilmesi en büyük risk

Yapay zekada genel tanısal doğruluk oranının günümüzde uzman doktor performansının gerisinde kaldığına vurgu yapan Öztürk, şunları kaydetti:

“Radyoloji, dermatoloji ve patoloji üzere standart protokollerin uygulandığı alanlarda insan gözünün kaçırabileceği detayları yakalayabilir. Ama klinik bağlamı kavrama, anamnez kıymetlendirme ve fizik muayene üzere hekimliğin temel ögeleri algoritmaların dışında kalır. En büyük risk, sunulan bilgilerin ‘kesin gerçek’ kabul edilmesi ve profesyonel yardımın ertelenmesidir. ‘Halüsinasyon’ olarak isimlendirilen, gerçek dışı bilgilerin ikna edici bir lisanla sunulması hastada uydurma bir sükunet ya da yersiz panik oluşturabilir. Klinik karar dayanak sistemlerinde yüzde 8-20 oranında halüsinasyon riski bildirilmiştir. Radyoloji araçlarında hadiselerin yüzde 5-10’unda yanlış teşhis, bir çalışmada ise benign (selim) nodüllerin yüzde 12’sinin malign (habis) olarak işaretlenmesi dikkati caziptir.”

“Telafisi imkansız sonuçlara neden olabilir”

Öztürk, yapay zekanın ruh sıhhati alanındaki kullanımına dair bilgiler vererek, şu görüşleri lisana getirdi:

“Yapay zeka, hafif korku idaresi ve günlük ruh hali takibi üzere alanlarda aşikâr ölçüde dayanak sunabilir; lakin tıbbi teşhis ve tedavi, fizik muayene, derin anamnez ve tabibin klinik deneyimiyle oluşan bir hikmet sentezidir. Yapay zeka insanın duygusal derinliğini ve ruhsal karmaşıklığını hakikaten kavrayamaz, empati hissetmez, sırf empatik lisanı ikna edici biçimde taklit eder. Yapay zekanın kullandığı lisan, aslında bizim duymak istediklerimizi bize geri söyleyen dijital bir yankı odası üzeredir. Buna gerçek bir şefkat değil, ‘matematiksel bir empati’ diyebiliriz. Yapay zekanın size ‘seni anlıyorum’ demesi, nitekim bir şeyler hissettiği manasına gelmez. O yalnızca sözleri çok ikna edici bir formda yan yana dizen kusursuz bir taklitçidir. Bu yaklaşım kısa vadede kişiyi rahatlatabilir ve kendini görülmüş hissettirebilir, lakin birden fazla vakit kullanıcının söylediklerini onaylama eğilimindedir ve bu, kişinin kendini yeterli hissetmesini sağlasa da her vakit hakikat ve sağlıklı olan manasına gelmez.

Dolayısıyla gerçek bir insan alakasına, klinik sezgiye ve ahlaki sorumluluğa sahip olmadığı için yapay zekanın sunduğu bu yüzeysel empati, bilhassa ruh sıhhati alanında kırılgan ve riskli bir tabanda kalır. Klinik korelasyon kuramayan (klinikle temas kuramayan) algoritmaların yanlış yönlendirmeleri ruhsal süreçlerde telafisi güç sonuçlara yol açabilir. Bu durum münferit değil, toplumsal bir sistemik risk olarak değerlendirilmelidir. Kriz anlarında yahut ağır psikiyatrik durumlarda bağlamsal ahenk eksikliği, telafisi imkansız sonuçlara (intihar olayları vb.) neden olabilir.”

İdari yükü azaltma potansiyeli taşıyor

Yapay zekanın hastane ekosistemine entegrasyonu ile ilgili çalışmalara değinen Öztürk, bu çalışmaların tabiplerin idari yükünü azaltma ve bilgi tahlilini derinleştirme açısından büyük potansiyel taşıdığına işaret etti.

Öztürk, bu sistemlerin hekimin yerini almak için değil, karar kalitesini artırmak için tasarlandığını belirterek, “Örneğin Da Vinci 5 robotik cerrahi sistemi, cerraha dokunsal geri bildirim ve milimetrik hassasiyet sağlayarak operasyon güvenliğini artırır. Teşhis koymadığını tabir eden ChatGPT Health üzere uygulamalar bile glikoz takibi yahut genetik data tahlili üzere işlevleriyle fiilen bir tıbbi aygıt fonksiyonu görebilir. Bu nedenle sıkı kontrol ve resmi onay süreçlerinden geçmeleri gerekir.” dedi.

Sağlıkta yapay zekanın denetimsiz bırakılırsa kaliteli araçlara erişen seçkin kesim ile yanılgıya açık fiyatsız “chatbotlara” yönelen geniş kitleler ortasında bilgi asimetrisi oluşabileceğini söz eden Öztürk, “Kamusal akılla yönetilirse tabip erişiminin hudutlu olduğu bölgelerde birinci tarama aracı olarak adaleti güçlendirebilir.” diye konuştu.

Yapay zeka çıktılarına körü körüne güvenilmemeli

Öztürk, bir tabibin yapay zeka çıktısına dayanarak karar vermesi halinde son sorumluluğun kendisinde olduğuna vurgu yaparak, “Çıktılar körü körüne kabul edilmemelidir. Tüketici olarak direkt yapay zekadan alınan yanlış tavsiyelerde ise mevcut yasal müdafaa sonludur. Yapay zeka çıktısını denetleme ve valide etme (doğrulama) marifeti tıp eğitiminin ayrılmaz kesimi olmalıdır. Geleceğin doktoru sırf el hüneriyle değil, algoritma tekliflerini klinik süzgeçten geçirebilme yeteneğiyle öne çıkacaktır.” değerlendirmesinde bulundu.

Sağlıkta yapay zekanın ne mucize ne de mutlak tehdit olduğunu paylaşan Öztürk, gerçek kurallarla yönetildiğinde büyük bir kolaylık ve devasa bir güç, kontrolsüz bırakıldığında ise sessiz bir risk olduğunu söyledi.

Öztürk, asıl sıkıntının bu dönüşümün neresinde ve hangi etik kıymetlerle durulduğu olduğuna işaret ederek, şunları kaydetti:

“Yapay zeka teşhiste klinik kararın yerini alamaz, tedavi planlayamaz, reçete yazamaz. Bilhassa ruh sıhhatinde kullanımı çok daha fazla temkin ve alan uzmanı kararı gerektirir. Bir ön kıymetlendirme aracı olabilir, lakin sonuç kesinlikle tabip muayenesiyle teyit edilmelidir. Yapay zeka hastanın ömür biçimini, genetik özelliklerini, eşlik eden hastalıklarını ve toplumsal belirleyicileri bütüncül biçimde değerlendiremez. Tabibin klinik deneyimi ve sezgisi vazgeçilmezdir. Verilen bilgiler her vakit en yeni olmayabilir. Kritik kararlar aktüel kılavuzlar ve doktor değerlendirmesiyle alınmalıdır. Hastanelerde kullanılacak sistemler klinik validasyondan (doğrulamadan) geçmeli ve performansları sistemli izlenmelidir. Ayrıyeten kullanıcıların sıhhat datalarını bu sistemlere girerken mahremiyet ve data sürece şartlarını dikkate alması gerekir.”​​​​​​​

Kaynak: Yeni Şafak

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*