Yapay zekâ destekli sohbet botları, sağlıkla ilgili sorulara anında yanıt verebilme yetenekleri sayesinde giderek daha fazla kişinin başvurduğu bir kaynak haline geldi. Özellikle Birleşik Krallık’ta sağlık sistemine erişimin zor olabildiği durumlarda, kullanıcılar ChatGPT, Gemini ve Grok gibi araçlara yöneliyor.
Bir kullanıcı olan Abi, anksiyete ile mücadele ederken yapay zekânın kendisine daha kişiselleştirilmiş yanıtlar sunduğunu belirtiyor. “Birlikte problem çözüyormuşsunuz gibi hissettiriyor” diyen Abi, bazı durumlarda doğru yönlendirme aldığını ifade ediyor. Örneğin, idrar yolu enfeksiyonu şüphesiyle yaptığı sorgulamada eczaneye gitmesi önerilmiş ve ardından kendisine antibiyotik verilmiş.
Ancak deneyimler her zaman olumlu değil. Abi’nin yaşadığı bir düşme sonrası yapay zekâ, ciddi bir iç yaralanma ihtimali olduğunu söyleyerek acil servise gitmesini önerdi. Hastanede yapılan değerlendirmede durumun ciddi olmadığı anlaşıldı. Bu olay, yapay zekânın zaman zaman gereksiz panik yaratabilecek hatalar yapabileceğini gösterdi.
Doğruluk oranı kullanıcıya bağlı
Oxford Üniversitesi bünyesinde yapılan bir araştırma, yapay zekâ ile sağlık tavsiyesinin doğruluğunun kullanıcıya bağlı olarak değiştiğini ortaya koydu. Doktorların eksiksiz bilgi verdiği senaryolarda doğruluk oranı yüzde 95’e kadar çıkarken, sıradan kullanıcıların eksik veya parçalı bilgi verdiği durumlarda bu oran yüzde 35’e kadar düştü.
Araştırmayı yürüten Adam Mahdi, kullanıcıların belirtileri eksik veya dağınık aktarmasının yanlış yönlendirmelere neden olduğunu belirtiyor. Özellikle hayati risk taşıyan durumlarda küçük ifade farklarının bile ciddi sonuçlar doğurabileceği vurgulanıyor.
“Kişisel tavsiye hissi” yanıltıcı olabilir
Margaret McCartney, sohbet botlarının kullanıcıya özel hazırlanmış gibi görünen yanıtlar sunduğunu ancak bunun yanıltıcı olabileceğini ifade ediyor. Geleneksel internet aramalarında kaynakların güvenilirliğini değerlendirme imkânı varken, yapay zekâ yanıtlarının bu süreci ortadan kaldırdığına dikkat çekiyor.
Benzer şekilde Chris Whitty de bu araçların çoğu zaman “yeterince iyi olmadığını” ve “kendinden emin ama yanlış” cevaplar verebildiğini belirtiyor.
Araştırmalar uyarıyor: Yanıtların yarısı problemli
ABD’de The Lundquist Institute for Biomedical Innovation tarafından yapılan bir analizde, yapay zekâ sohbet botlarının verdiği yanıtların yarısından fazlasının problemli olduğu tespit edildi.
Araştırmada kanser, aşılar ve beslenme gibi kritik konularda yanlış veya yanıltıcı bilgiler üretilebildiği görüldü. Çalışmayı yürüten Nicholas Tiller, bu sistemlerin otoriter ve kendinden emin bir dil kullanmasının kullanıcıda yanlış bir güven duygusu oluşturduğunu ifade etti.
Uzmanlar: Doktorun yerini tutmaz
OpenAI da yaptığı açıklamada, ChatGPT’nin profesyonel tıbbi tavsiyenin yerine geçmediğini, yalnızca bilgi ve eğitim amacıyla kullanılması gerektiğini vurguladı.
Uzmanlar, yapay zekânın sağlık alanında yardımcı bir araç olabileceğini ancak tek başına karar verici olarak kullanılmasının riskli olduğunu belirtiyor. Kullanıcıların, özellikle ciddi belirtiler söz konusu olduğunda mutlaka bir sağlık profesyoneline başvurması gerektiği ifade ediliyor.