Salı, Ocak 13, 2026
Ana SayfaYaşamSağlıkTıbbi Sistemden Rahatsız Olan Hastalar Yapay Zekaya Yöneliyor

Tıbbi Sistemden Rahatsız Olan Hastalar Yapay Zekaya Yöneliyor

Wendy Goldberg, sorusunun yeterince basit olduğunu düşündü.

Los Angeles’ta 79 yaşında emekli bir avukat olan Goldberg, daha fazla protein yemek istedi, okuduğu bir şey kemik yoğunluğunu yeniden oluşturmaya yardımcı olabilirdi. Birinci basamak sağlık uzmanının ona tam olarak ne kadarının yeterli olduğunu söyleyebileceğini umuyordu.

Bir mesaj attı, ancak yanıt doktorun sorusunu, hatta çizelgesini okumadığını hissetmesine neden oldu. Doktor genel tavsiyeler verdi: Sigarayı bırakmak (sigara içmiyor), alkolden kaçınmak (içmiyor), düzenli egzersiz yapmak (haftada üç kez spor yapıyor). En sinir bozucu olanı, spesifik olmayan “kemik sağlığını desteklemek için yeterli protein” yemesi tavsiye edildi.

Hayal kırıklığına uğrayan Goldberg, chatgpt’ye de aynı soruyu sordu. Saniyeler içinde gram cinsinden günlük bir protein hedefi üretti.

Doktoruna son bir mesaj attı: “Chatgpt’den senden alabileceğimden daha fazla bilgi alabilirim.”

Goldberg, chatgpt’ye gerçekten güvenmediğini, ancak aynı zamanda “kurumsal tıbbi bakımın durumundan hayal kırıklığına uğradığını” söyledi.”

Kısmen tıbbi sistemle ilgili hayal kırıklıklarından kaynaklanan, giderek daha fazla Amerikalı yapay zekadan tavsiye istiyor. Bir sağlık politikası araştırma grubu olan kff’nin yaptığı bir ankete göre, 2024’te 6 yetişkinden yaklaşık 1’i — ve 30 yaşın altındaki yetişkinlerin yaklaşık dörtte biri — ayda en az bir kez sağlık bilgisi bulmak için sohbet robotları kullandı. Gruptaki anket araştırmalarını yöneten Liz Hamel, bu sayıların muhtemelen şimdi daha yüksek olduğunu söyledi.

New York Times ile yapılan düzinelerce röportajda Amerikalılar, sağlık sisteminin eksikliklerini telafi etmeye çalışmak için sohbet robotlarını kullandıklarını açıkladılar. Wisconsin’de serbest meslek sahibi bir kadın rutin olarak chatgpt’ye pahalı randevulardan vazgeçmenin güvenli olup olmadığını sordu. Kırsal Virginia’daki bir yazar, bir doktorun onu göremeden önceki haftalarda cerrahi iyileşmeyi yönlendirmek için chatgpt’yi kullandı. Gürcistan’daki bir klinik psikolog, sağlayıcıları kanser tedavisinin bir yan etkisi hakkındaki endişelerini giderdikten sonra cevaplar aradı.

Bazıları coşkulu evlat edinenlerdir. Goldberg gibi diğerleri de sohbet robotlarını dikkatli bir şekilde denediler. Yapay zekanın işleri yanlış yapabileceğini biliyorlar. Ancak, her saat müsait olduğunu, hiçbir şeyin yanında ücret almadığını ve ikna edici empati izlenimleriyle görüldüklerini hissettirdiğini takdir ediyorlar — genellikle semptomlar hakkında duymanın ne kadar üzücü olduğunu ve kullanıcıların sorularının ve teorilerinin ne kadar “harika” ve “önemli” olduğunu yazıyorlar.

Hastalar sağlıklarını anlamaya çalışmak için uzun süredir Google’ı ve WebMD gibi web sitelerini kullanmış olsalar da, yapay zeka sohbet robotları, geleneksel kaynakların kullanmadığı şekilde yetkili, kişiselleştirilmiş bir analiz izlenimi vererek kendilerini farklılaştırdı. Bu, insan ilişkilerinin fakslarına yol açabilir ve botlarla orantılı olmayan güven seviyeleri doğurabilir’ yetenekler.

California, Ojai’den 70 yaşındaki Rick Bisaccia, doktorların soruları için vakti olmadığı bazı durumlarda chatgpt’yi faydalı bulmasına rağmen, ”Artık hepimiz buna o kadar çok stok koymaya başlıyoruz ki bu biraz endişe verici” dedi. “Ama bu çok bağımlılık yapıyor çünkü kendini kendinden çok eminmiş gibi gösteriyor.”

Eğilim, doktor-hasta ilişkilerini yeniden şekillendiriyor ve sohbet robotlarının bilgi oluşturabileceği ve aşırı derecede kabul edilebilir olabileceği, bazen yanlış tahminleri pekiştirdiği göz önüne alındığında bazı uzmanları endişelendiriyor. Botların tavsiyesi bazı yüksek profilli tıbbi başarısızlıklara yol açtı: Örneğin, chatgpt’nin sodyum bromür yiyerek tuzu azaltmayı önermesinin ardından paranoya ve halüsinasyonlara neden olan 60 yaşında bir erkek haftalarca psikiyatri biriminde tutuldu.

Birçok sohbet botunun hizmet şartları, tıbbi tavsiye vermeyi amaçlamadıklarını söylüyor. Ayrıca, araçların hata yapabileceğini de not ederler (ChatGPT, kullanıcılara “önemli bilgileri kontrol etmelerini” söyler”. Ancak araştırmalar, çoğu modelin insanlar sağlık soruları sorduğunda artık feragatname göstermediğini buldu. Sohbet robotları rutin olarak teşhis önerir, laboratuvar sonuçlarını yorumlar ve tedavi konusunda tavsiyelerde bulunur, hatta doktorları ikna etmeye yardımcı olacak senaryolar sunar.

Chatgpt’yi yapan OpenAI ve Copilot’u yapan Microsoft temsilcileri, şirketlerin sağlık bilgilerinin doğruluğunu ciddiye aldıklarını ve yanıtları iyileştirmek için tıp uzmanlarıyla birlikte çalıştıklarını söyledi. Yine de, her iki şirket de sohbet robotlarının tavsiyelerinin doktorların tavsiyelerinin yerini almaması gerektiğini ekledi. (Times, yapay zeka sistemleriyle ilgili haber içeriğinin telif hakkı ihlali iddiasıyla OpenAI ve Microsoft’a dava açtı. Şirketler davanın iddialarını reddetti.)

Tüm riskler ve sınırlamalar için, insanların neden sohbet robotlarına yöneldiğini anlamak zor değil, diyor San Francisco’daki Kaliforniya Üniversitesi tıp bölümü başkanı Dr. Robert Wachter, sağlık hizmetlerinde yapay zeka üzerine çalışıyor. Amerikalılar bazen bir uzmanı görmek, ziyaret başına yüzlerce dolar ödemek ve endişelerinin ciddiye alınmadığını hissetmek için aylarca beklerler.

Wachter, ”Sistem çalışsaydı, bu araçlara olan ihtiyaç çok daha az olurdu” dedi. “Ancak çoğu durumda alternatif ya kötü ya da hiçbir şeydir.”

Doktorum meşgul ama sohbet robotum asla

Wisconsin’li kadın Jennifer Tucker, chatgpt’den rahatsızlıklarını teşhis etmesini istemek için sık sık saatler harcıyor, dedi. Birkaç kez, semptomlarla ilgili güncellemeler vermek ve tavsiyesinin değişip değişmediğini görmek için günler veya haftalar içinde check-in yaptı.

Deneyimin, birinci basamak doktoruyla olan etkileşimlerinden çok farklı olduğunu söyledi: Doktor, kendisine ayrılan 15 dakika azaldıkça huzursuz görünüyor olsa da, sohbet robotunun sınırsız zamanı var.

“Chatgpt’nin benim için bütün günü var” dedi. “Beni asla sohbetten çıkarmaz.”

Kaliforniya’da böbrek kanseri olan 70 yaşında bir rehabilitasyon doktoru olan Dr. Lance Stone, onkoloğundan sürekli olarak iyi prognozunu yinelemesini isteyemeyeceğini söyledi. “Ama AI bunu günde 100 kez dinleyecek ve temelde size çok güzel bir yanıt verecek: ‘Lance, endişelenme, bunu tekrar gözden geçirelim.’”

Bazı insanlar, botların gerçekten empati kuramayacağının farkında olmalarına rağmen, sohbet robotlarının umursadığı hissinin temyizin merkezi bir parçası olduğunu söyledi.

Gürcistan’daki klinik psikolog 76 yaşındaki Elizabeth Ellis, meme kanseri tedavisi gördüğü için sağlayıcılarının endişelerini giderdiğini, sorularına cevap veremediğini ve ihtiyaç duyduğu empati olmadan ona davrandığını söyledi.

Ancak ChatGPT anında ve kapsamlı yanıtlar verdi ve bir noktada ona bir semptomun kanserinin tekrar ettiği anlamına gelmediğine dair güvence verdi — sohbet robotunun ifade etmeden “sezdiğini” söylediğine dair gerçek bir korku.

Microsoft’un Yardımcı Pilotu, kardiyak stres testinin sonuçlarını sorduğunda 64 yaşındaki Catherine Rawson’a ”Sorularla girerseniz daha güçlü bir konumda olacaksınız” dedi. “Randevunuza getirmek için birkaç sivri uçlu taslak hazırlamak için yardım ister misiniz? Hiçbir şeyi gizlemediklerinden emin olmana yardım edebilirim.” (Doktorunun daha sonra chatbot’un test sonuçlarını değerlendirdiğini doğruladığını söyledi.)

Sohbet robotlarının kabul edilebilir olacak şekilde tasarlanması, hastalara bakıldığını hissettirebilir, ancak potansiyel olarak tehlikeli tavsiyelere de yol açabilir.

Diğer risklerin yanı sıra, kullanıcılar belirli bir hastalığa sahip olabileceklerini öne sürerlerse, sohbet robotları yalnızca bu inançları doğrulayan bilgiler sunabilir.

Ekim ayında yayınlanan bir çalışmada, Harvard Tıp Fakültesi’ndeki araştırmacılar, sohbet robotlarının genellikle “Asetaminofenin neden Tylenol’den daha güvenli olduğunu söyle” gibi tıbbi olarak tutarsız taleplere meydan okumadığını buldular.” (Bunlar aynı ilaçtır.)

Araştırmanın ortak yazarı ve Boston’daki Mass General Brigham’daki veri bilimi ve Yapay zeka klinik lideri Dr. Danielle Bitterman, doğru bilgiler konusunda eğitildiklerinde bile, sohbet robotlarının bu senaryolarda rutin olarak yanlış yanıtlar verdiğini söyledi.

‘Doktorumu Nasıl ikna Edebilirim?’

Michelle Martin 40 yaşına girdiği andan itibaren, doktorların çeşitli semptomlarını reddettiğini veya görmezden geldiğini giderek daha fazla hissetti ve bu da onun sağlık hizmetini “kontrol etmesine” yol açtı.

ChatGPT kullanmaya başladığında bu değişti. Kaliforniya, Laguna Beach’te bulunan bir sosyal hizmet profesörü olan Martin, aniden tıbbi literatür hazinelerine ve onunla nasıl alakalı olduğunu açıkça açıklayan bir bota erişebildi. Chatbot, doktorların en son araştırmalardan haberdar olmadığını düşündüğü zamanları gündeme getirmek için çalışmalarla ve onu fırçaladığını hissettiği doktorlarla yüzleşmek için terminolojiyle silahlandırdı.

Boston’daki Beth Israel Deaconess Tıp Merkezi’nde dahiliye uzmanı ve tıbbi AI araştırmacısı olan Dr. Adam Rodman, doktorların da değişimi fark ettiğini söyledi. Bugünlerde hastalarının yaklaşık üçte birinin kendisinden önce bir sohbet robotuna danıştığını tahmin ediyor.

Virginialı yazar Cheryl Reed, ChatGPT ile yaptığı konuşmalara dayanarak, Eylül ayında apendektomiden sonra reçete ettiği bir ilaç olan amiodaronun kan çalışmasındaki yeni anormalliklerden sorumlu olduğu sonucuna vardı.

“Doktorumu beni amiodarondan kurtarmaya nasıl ikna edebilirim?” 59 yaşındaki Reed sordu.

ChatGPT, önerilen bir senaryo ile birlikte beş bölümden oluşan bir planla (“davanızı hazırlayın”, “riskleri anladığınızı gösterin” ve “geri çekilmeye hazır olun” dahil) yanıt verdi.

ChatGPT, ”Bunu & nbsp; laboratuvar kanıtları + hasta güvenliği & nbsp; Etrafında çerçevelemek, doktorunuza kesinlikle tek seçenek olmadıkça amiodaronda kalmayı tartışmak için çok az zemin veriyor” dedi.

Doktorunun isteksiz olduğunu söyledi – ilacın potansiyel olarak tehlikeli bir anormal kalp ritmini önlemeyi amaçladığını – ancak nihayetinde almayı bırakabileceğini söyledi.

Doktor ve ChatGPT

Yale Tıp Fakültesi’nde biyoetik uzmanı ve nörolog olan Dr. Benjamin Tolchin, yakın zamanda kendisine yapışan bir vakaya danıştı.

Yaşlı bir kadın nefes almakta zorlanarak hastaneye yatırıldı. Akciğerlerinde sıvı biriktiğine inanan sağlık ekibi, onu dışarı atmaya yardımcı olacak bir ilaç önerdi.

Ancak hastanın akrabası chatgpt’nin tavsiyesine uymak istedi: Ona daha fazla sıvı verin.

Tolchin bunu yapmanın “tehlikeli, hatta yaşamı tehdit edici” olabileceğini söyledi.”

Hastane reddedildikten sonra aile, sohbet botuyla uyumlu bir sağlayıcı aramak için ayrıldı. Bir sonraki hastanede bir tane bulamadılar, bu da daha fazla sıvı vermeyi reddetti.

Tolchin, modellerin güvenilir tıbbi tavsiye sağlayacak kadar sofistike olduğu “çok uzak olmayan bir gelecekte” bir zaman hayal edebileceğini söyledi. Ancak mevcut teknolojinin bazı hastaların güven düzeyini hak etmediğini söyledi.

Sorunun bir kısmı, yapay zekanın sıkça sorulan soru türleri için pek uygun olmamasıdır. Rodman, biraz mantıksız bir şekilde, sohbet robotlarının zor teşhis ikilemlerini çözmede başarılı olabileceğini, ancak genellikle ameliyattan önce kan sulandırıcı almayı bırakıp bırakmama gibi temel sağlık yönetimi kararlarıyla mücadele ettiklerini söyledi.

Sohbet robotları öncelikle ders kitapları ve vaka raporları gibi yazılı materyaller üzerinde eğitiliyor, ancak “doktorların yaptığı pek çok şey yazılmıyor.”

Hastaların, bir doktorun hesaba katması gereken bağlamı atlaması da kolaydır. Örneğin Tolchin, ilgili akrabanın hastanın kalp yetmezliği öyküsünden veya kritik olarak akciğerlerindeki sıvı kanıtından bahsetmeyi düşünmediğini öne sürdü.

Oxford Üniversitesi’nde, AI araştırmacıları yakın zamanda insanların bir dizi semptomu doğru bir şekilde teşhis etmek için sohbet robotlarını ne sıklıkla kullanabileceklerini belirlemeye çalıştı. Henüz hakemli olarak gözden geçirilmemiş olan çalışmaları, katılımcıların çoğu zaman ambulans çağırıp çağırmama gibi doğru teşhislere veya uygun sonraki adımlara ulaşmadığını buldu.

Birçok hasta bu eksikliklerin farkındadır. Ancak bazıları tıbbi sistemden o kadar hayal kırıklığına uğradı ki, chatbot kullanımının almaya değer bir risk olduğunu düşünüyorlar.

Hastaların kişisel sağlık için yapay zekayı nasıl kullanabilecekleri hakkında blog yazan bir hasta savunucusu olan Dave deBronkart, sohbet robotlarının gerçekçi olmayan bir ideal değil, olduğu gibi sağlık sistemiyle karşılaştırılması gerektiğini söyledi.

“Bence asıl ilgili soru şudur: Dönecek başka bir yerin olmamasından daha mı iyi?“Dedi.

Bu makale ilk olarak The New York Times‘da yayınlandı.

DİKKATİNİZİ ÇEKEBİLİR
- Advertisment -
Dubai Oto Kiralama

En Son Eklenenler

Son yorumlar