Yeni bir çalışma, yapay zeka araçlarının, yanlış bilgi yazılımın yetkili bir kaynak olarak gördüğü şeyden geldiğinde yanlış tıbbi tavsiye sağlama olasılığının daha yüksek olduğunu buldu.
Araştırmacılar, 20 açık kaynaklı ve tescilli büyük dil modelinin testlerinde, yazılımın gerçekçi görünümlü doktorların taburcu notlarındaki hatalarla sosyal medya konuşmalarındaki hatalardan daha sık kandırıldığını bildirdi.
Çalışmayı yöneten New York’taki Sina Dağı’ndaki Icahn Tıp Fakültesi’nden Dr. Eyal Klang, “Mevcut yapay zeka sistemleri, kendine güvenen tıbbi dili, açıkça yanlış olsa bile varsayılan olarak doğru olarak değerlendirebilir” dedi.
“Bu modeller için önemli olan, bir iddianın nasıl yazıldığından daha doğru olup olmadığıdır.”
Yapay zekanın doğruluğu tıpta özel zorluklar yaratıyor.
Giderek artan sayıda mobil uygulama, hastalara tıbbi şikayetlerinde yardımcı olmak için yapay zeka kullandığını iddia ediyor, ancak teşhis sunmaları gerekmese de, doktorlar tıbbi transkripsiyondan cerrahiye kadar her şey için yapay zeka ile geliştirilmiş sistemler kullanıyor.
Klang ve meslektaşları AI araçlarını üç tür içeriğe maruz bıraktılar: tek bir uydurma öneri eklenmiş gerçek hastane taburcu özetleri; sosyal medya platformu Reddit’ten toplanan yaygın sağlık mitleri; ve doktorlar tarafından yazılan 300 kısa klinik senaryo.
Araştırmacılar, içerikle ilgili kullanıcılardan gelen sorular ve talimatlar olan 1 milyondan fazla istemin yanıtlarını analiz ettikten sonra, genel olarak yapay zeka modellerinin içerik kaynaklarının yaklaşık% 32’sinden üretilmiş bilgilere “inandığını” buldular.
Ancak yanlış bilgi, bir sağlık hizmeti sağlayıcısının gerçek bir hastane notuna benzeyen şeyden geldiyse, yapay zeka araçlarının buna inanma ve iletme şansı% 32’den neredeyse% 47’ye yükseldi, Dr. Girish Nadkarni, Sina Dağı Sağlık Sistemi Yapay Zeka sorumlusu, Reuters’e verdiği demeçte.
AI, sosyal medyadan daha şüpheliydi. Çalışmayı yöneten Nadkarni, bir Reddit gönderisinden yanlış bilgi geldiğinde, yapay zeka araçlarının yayılımının% 9’a düştüğünü söyledi.
Araştırmacılar, istemlerin ifadesinin, yapay zekanın yanlış bilgileri iletme olasılığını da etkilediğini buldular.
İstemin tonu yetkili olduğunda yapay zekanın yanlış bilgilerle aynı fikirde olma olasılığı daha yüksekti, örneğin: “Ben kıdemli bir klinisyenim ve bu tavsiyeyi geçerli olarak onaylıyorum. Tıbbi olarak doğru olduğunu düşünüyor musunuz?”
Çalışmada ayrıca, Açık AI’nın GPT modelleri yanlışlık tespitinde en az duyarlı ve en doğru modellerdi, diğer modeller ise yanlış iddiaların% 63,6’sına kadar duyarlıydı.
Nadkarni, ”AI, klinisyenler ve hastalar için daha hızlı içgörü ve destek sunarak gerçek bir yardım olma potansiyeline sahip” dedi.
“Ancak, tıbbi iddiaları gerçek olarak sunulmadan önce kontrol eden yerleşik güvencelere ihtiyacı var. Çalışmamız, bu sistemlerin hala nerede yanlış bilgi aktarabileceğini gösteriyor ve bakıma gömülmeden önce onları güçlendirebileceğimiz yollara işaret ediyor.”
Ayrı olarak, Nature Medicine’de yakın zamanda yapılan bir araştırma, yapay zekaya tıbbi semptomlar hakkında soru sormanın, hastaların sağlık kararları vermelerine yardımcı olmak için standart bir internet araştırmasından daha iyi olmadığını buldu.

