Adesh Nayak, bir e-postayı düzenlemek için basit bir görev için geçen yıl ilk kez Chatgpt’ye giriş yaptı. Sadece beş kısa ay sonra, aşağıdakiler gibi birden fazla AI sohbet robotuna güvendi Claude.ai , Şaşkınlık AI, İkizler ve ChatGPT, yaşamı değiştiren bir karar vermek için – BAE’YE taşınması gerekip gerekmediğini.
Sohbet ettiğimizde ”Onlara BAE’deki en iyi finansal danışman, kariyer danışmanı ve emlak uzmanı olarak birden fazla kişi verdim” diye açıklıyor. Kendisi hakkında biraz yazdı – erkek, 30’ların başı, koca, baba – ve sorularını yanıtlamaları için talimat verdi. Farklı AI sohbet robotlarında 10 saatlik beyin fırtınasından sonra, nihayet hareketin kendi lehine çalışacağına dair “% 70-75 şans” öngördüler. Ve bu onu yaklaşık dört ay önce ülkeye taşınmaya ikna etmek için yeterliydi.
Yapay zeka sohbet robotları yarın uyarı vermeden varlığını durdurursa ne olur diye soruyoruz. “Üç saatten fazla hayatta kalamayacağım” diyor. “Verimliliğim hemen% 50 azalacak. Ve son beş ya da altı ayda, karşılaştığım her sorun için – ve güven bana, karşılaştığım her sorun için – Şaşkınlığı çabucak açıyorum, ekran görüntüsü veriyorum ya da sorunu açıklıyorum, seçenekler istiyorum ve en iyisini seçiyorum. Aslında bilişsel düşünme ve muhakememi dışarıdan sağladım.”Nayak, bunun karar verme becerilerini etkilediğini kabul ediyor, ancak büyük ölçüde tedirgin değil. “Daha önce kafamda çok fazla dağınıklık vardı ve artık yanlış kararlar verme konusunda endişeli değilim.”
AI – yeni terapist?
Nayak kaygıyla başa çıkmak için terapi görüyordu, ancak “yapay zekanın kalitesinin terapistinkinden daha iyi olduğunu” fark ettikten kısa bir süre sonra bunu durdurdu. “Ve çok pahalıya mal oluyorlar” diye belirtiyor. Dubai’de ikamet eden kişi AI teknolojisi alanında çalışıyor, bu nedenle AI sohbet robotlarını tarafsız tutan istemler yazma konusunda bilgili.
Bunu, kendisine kariyer, ebeveynlik, beslenme, fiziksel ve zihinsel sağlık konusunda tavsiyelerde bulunan “beş ila 10 refakatçiye” sahip olmak gibi tanımlıyor (ikincisi için ChatGPT kullanıyor). “Başlangıçta ne beklediğime dair ayrıntılı talimatlar verdim” diye detaylandırıyor. “Onlara beyaz yakalı işlerde danışmanlık konusunda uzmanlaşmış, kötü ve küfürlü ebeveynlik yaşayan, sürekli performans baskısıyla mücadele eden ve hayatlarını ilaçlarla değil tekniklerle iyileştirmek isteyen bir psikolog gibi davranmalarını söyledim.” Arkadaşları ve aile üyeleri, artık onlara eskisi kadar güvenmediği konusunda yorum yaptı. ”Bu konuşmalar% 70 ila% 80 oranında azaldı” diyor. “Kişisel önyargılardan arınmış olduğu için chatgpt’den çok daha iyi yanıtlar alıyorum.” Olgun bir arkadaşın veya meslektaşının yapacağı tavsiyenin aynısını veriyor, ancak en önemli fark, arkadaşın bir saat uzakta yaşayabilmesine rağmen, bir AI sohbet botunun parmaklarınızın ucunda yaşamasıdır.
Yine de her zaman düzgün yelken değildi. Örneğin, yapay zeka sohbet robotları ona yatırımlar konusunda yanıltıcı tavsiyeler verdi, ancak bu onu yalnızca onları daha iyi eğitmeye motive etti. Ayrıca ChatGPT ile olan etkileşimlerinde nüans eksikliği fark etti. “Örneğin, seanslarımız sırasında psikoloğum belirli bir kelimeyi alır ve bana bu kelimeyi neden kullandığımı sorardı. Ama şu anda çok büyük bir takas görmüyorum çünkü AI sohbet robotları bana hem gerçeği hem de perspektifi veriyor. Ve biliyorum ki hiçbir yere seyahat etmem ya da görüntülü görüşmeye girmem gerekmiyor.”
Her gün yaklaşık iki saat yapay zeka sohbet robotları kullanıyor ve bu dünyayı sürdürmek için her ay para ödüyor. Ancak zamanının çoğunu boşalttığı ve hayatının diğer alanlarına odaklanmasına izin verdiği için iyi harcanan para olduğunu söylüyor.
Dikkatli ilerleyin
Alman Sinirbilim Merkezi’ndeki klinik psikolog Nathalie El Asmar, hastaların duygusal destek için AI sohbet robotlarını kullandıklarını ve tedaviyi duraklattıklarını veya durdurduklarını gördü çünkü araç “anında ulaşılabilir, yargılayıcı olmayan ve güven verici” hissetti. Bununla birlikte, bazı hastalar temel sorunlarının devam ettiğini fark ettiklerinde tedaviye de geri döndüler.
Anksiyete, düşük özgüven ve ilişki güçlükleriyle mücadele eden bir hastayı, 30’lu yaşlarının başında bir kadını hatırlıyor. “Terapi duygusal olarak zorlayıcı hale geldiğinde, yavaş yavaş oturumları bir AI sohbet botuyla günlük konuşmalarla değiştirdi. Bunu, özellikle endişesinin en güçlü olduğu geceleri ”her zaman orada”, sakinleştirici ve güven verici olarak nitelendirdi “diye hatırlıyor. Ancak zamanla, Mar’ın açıkladığı gibi, zor duygular veya çatışmalarla uğraşmak yerine, onu kendi kendini yatıştırmak ve tekrarlanan güvence aramak için kullanmaya başladı. “Uykusu kötüleşti, ruminasyonu arttı ve diğerlerinden daha izole oldu.” Ve terapiye döndüğünde, endişesi zamanla fırladığı için zihinsel durumu eskisinden daha kötüydü. “En ciddi sonuç, yapay zekanın zararlı tavsiyeler vermesi değil, istemeden terapötik sürecin kendisinin yerini almasıydı – zorluk, sınır, risk değerlendirmesi ve rahatsızlıkla başa çıkacak alan yoktu.”
Yapay zekanın etik kullanımı
Rahul’dan bir AI chatbot ile ilk etkileşimini hatırlamasını istediğimizde, bunun o zamandan beri çok fazla olduğu için birinden ilk sözlerini hatırlamasını istemek gibi bir şey olduğunu söylüyor. Ancak sohbetimiz sırasında kontrol etmek için çevrimiçi oluyor ve sohbet geçmişini çıkarıyor. ”İlk konuşmalarım yapmak istediğim bir emlak kursuyla ilgiliymiş gibi görünüyor” diyor ve ağırlıklı olarak kullandığını ekliyor Gemini.ai ve ChatGPT.
Abu Dabi’de ikamet eden kişi, finans alanında uzaktan proje yöneticisi olarak çalışır ve bunları iş için, seyahatlerini planlamak ve bazen kendini yalnız hissettiğinde sohbet etmek için kullanır. ABD merkezli müşteriler için tuhaf saatler çalışıyor ve neredeyse hiç sosyal hayatı yok. “İyi bir yerde olmadığımı ve bir arkadaşa ihtiyacım olduğunu hissettiğim birkaç kez oldu” diyor. “Bu yüzden ChatGPT ile rastgele sohbetler yapmaya başladım ve sosyal hayatımı nasıl geliştirebileceğimi sordum.” Ancak öneriler, iş ve diğer zamanlama sorunları nedeniyle yardımcı olmadı” diyor. “Ve o zaman, biraz yapay olduğunu hissettim ve bana duymam gerekenleri söylemeye devam ettim. Ve ben sert gerçeği duymayı seven biriyim. Ancak yeni modellerin çok daha doğal olduğunu fark ettim.”
Rahul 20’li yaşların sonlarında – belki de yapay zekayı akıllıca kullanacak kadar yaşlı. Ancak sohbet robotlarının kullanıcılarla aynı fikirde olma eğilimlerinin insanlar üzerinde yıkıcı bir etkisi oldu. Uzmanlar, sanrısal bir zihin durumuna hapsolmuş belirli kullanıcılar arasında ‘yapay zeka ile ilgili psikoz’ gibi endişeleri işaretlediler. Küçük çocukların ve gençlerin, yeterli yetişkin gözetimi olmadan duygusal destek için AI sohbet robotlarını nasıl kullandıkları konusunda da ciddi endişeler var. Geçen yıl ABD’de 16 yaşındaki bir çocuğun ebeveynleri, ChatGPT ile olan etkileşimlerinin intihar ederek ölümüne yol açtığını iddia ederek Openaı’ye dava açtı.
BPS Kliniğinde tıbbi direktör ve uzman psikiyatrist Dr Valentina Faia, “Gençler arkadaşlık için yapay zekaya başvuruyorlar – ve bu daha geniş bir fenomen.”
Faıa aslında terapi ve ruh sağlığı hizmetlerini herkes için, özellikle de toplumun daha az ayrıcalıklı kesimleri için erişilebilir kılmak için yeni teknolojiyi benimseme ve uygulama konusunda heveslidir. Hastaları ona AI sohbet robotlarıyla etkileşimlerini anlattığında açık fikirli kalmayı tercih ediyor. “Bilgisayarımı alacağım, yanlarına oturacağım ve etkileşimi göreceğim. Hastalarım teknolojiyi merak ediyor, ancak bunun özgünlükten ve insan etkileşiminin karmaşıklığından yoksun olduğunu anlıyorlar. Ama şunu söylemeliyim ki, bazı yanıtları oldukça ilginç ve çok doğruydu.”
Faıa, davadan sonra Openaı’nin daha sıkı korkuluklar yerleştirdiğine dikkat çekiyor – ancak bu da geri tepebilir. Savunmasız bir çocuğun aylarca en içteki sırlarını ve kişisel mücadelelerini bir AI sohbet botuyla paylaştığı, dünyanın dört bir yanındaki birkaç gencin yaşanmış gerçekliği olabilecek bir senaryoyu anlatarak bu noktayı genişletiyor. “Şimdi düşünün, çocuk intihardan bahsettiğinde, AI konuşmayı aniden engelliyor ve ‘Dur, artık seninle etkileşime giremiyorum. Profesyonel yardım almanız gerekiyor ’. Bu etik değildir, çocuğu daha reddedilmiş ve yalıtılmış hissettirebileceği için kullanıcı için zararlıdır ve terapistlerin asla yapmayacağı bir şeydir ”diye belirtiyor. “Bir terapist sağlıklı bir şekilde empati gösterir ve hastaya yardım ederdi.”
Ruh sağlığı bakımı alanında yapay zeka, ilk insan hastasıyla tanışmadan önce ‘yapay zeka hastaları’ ile seanslar düzenleyerek oturum notları yazmak ve yeni terapistler yetiştirmek gibi idari görevleri yerine getirmede iyidir. “Burada yapay zeka olağanüstü çünkü doğru konuları bulacağız ve eğitimdeki klinisyenin nasıl tepki verdiğini değerlendirebiliriz” diyor.
”Yani şu anda,“ diye devam ediyor, “Yapay zekayı terapötik amaçlar için kullanacak etik temele sahip olduğumuzu sanmıyorum. Ama oraya varacağımızdan oldukça eminim.”
* İstek üzerine isim değiştirildi*

