• BIST 12433.5
  • Altın 6844.75
  • Dolar 44.8872
  • Euro 52.8075
  • Ankara 17 °C
  • İstanbul 16 °C
  • Bursa 21 °C
  • Antalya 18 °C
  • İzmir 22 °C

Yapay zekâdan sağlık tavsiyesi güvenilir mi? Uzmanlar uyarıyor

Yapay zekâdan sağlık tavsiyesi güvenilir mi? Uzmanlar uyarıyor
ChatGPT, Gemini ve Grok gibi yapay zekâ araçları sağlık alanında giderek daha fazla kullanılıyor. Ancak uzmanlara göre bu sistemler “kendinden emin ama yanlış” yanıtlar verebiliyor.

Yapay zekâ destekli sohbet botları, sağlıkla ilgili sorulara anında yanıt verebilme yetenekleri sayesinde giderek daha fazla kişinin başvurduğu bir kaynak haline geldi. Özellikle Birleşik Krallık’ta sağlık sistemine erişimin zor olabildiği durumlarda, kullanıcılar ChatGPT, Gemini ve Grok gibi araçlara yöneliyor.

Bir kullanıcı olan Abi, anksiyete ile mücadele ederken yapay zekânın kendisine daha kişiselleştirilmiş yanıtlar sunduğunu belirtiyor. “Birlikte problem çözüyormuşsunuz gibi hissettiriyor” diyen Abi, bazı durumlarda doğru yönlendirme aldığını ifade ediyor. Örneğin, idrar yolu enfeksiyonu şüphesiyle yaptığı sorgulamada eczaneye gitmesi önerilmiş ve ardından kendisine antibiyotik verilmiş.

Ancak deneyimler her zaman olumlu değil. Abi’nin yaşadığı bir düşme sonrası yapay zekâ, ciddi bir iç yaralanma ihtimali olduğunu söyleyerek acil servise gitmesini önerdi. Hastanede yapılan değerlendirmede durumun ciddi olmadığı anlaşıldı. Bu olay, yapay zekânın zaman zaman gereksiz panik yaratabilecek hatalar yapabileceğini gösterdi.

Doğruluk oranı kullanıcıya bağlı

Oxford Üniversitesi bünyesinde yapılan bir araştırma, yapay zekâ ile sağlık tavsiyesinin doğruluğunun kullanıcıya bağlı olarak değiştiğini ortaya koydu. Doktorların eksiksiz bilgi verdiği senaryolarda doğruluk oranı yüzde 95’e kadar çıkarken, sıradan kullanıcıların eksik veya parçalı bilgi verdiği durumlarda bu oran yüzde 35’e kadar düştü.

Araştırmayı yürüten Adam Mahdi, kullanıcıların belirtileri eksik veya dağınık aktarmasının yanlış yönlendirmelere neden olduğunu belirtiyor. Özellikle hayati risk taşıyan durumlarda küçük ifade farklarının bile ciddi sonuçlar doğurabileceği vurgulanıyor.

“Kişisel tavsiye hissi” yanıltıcı olabilir

Margaret McCartney, sohbet botlarının kullanıcıya özel hazırlanmış gibi görünen yanıtlar sunduğunu ancak bunun yanıltıcı olabileceğini ifade ediyor. Geleneksel internet aramalarında kaynakların güvenilirliğini değerlendirme imkânı varken, yapay zekâ yanıtlarının bu süreci ortadan kaldırdığına dikkat çekiyor.

Benzer şekilde Chris Whitty de bu araçların çoğu zaman “yeterince iyi olmadığını” ve “kendinden emin ama yanlış” cevaplar verebildiğini belirtiyor.

Araştırmalar uyarıyor: Yanıtların yarısı problemli

ABD’de The Lundquist Institute for Biomedical Innovation tarafından yapılan bir analizde, yapay zekâ sohbet botlarının verdiği yanıtların yarısından fazlasının problemli olduğu tespit edildi.

Araştırmada kanser, aşılar ve beslenme gibi kritik konularda yanlış veya yanıltıcı bilgiler üretilebildiği görüldü. Çalışmayı yürüten Nicholas Tiller, bu sistemlerin otoriter ve kendinden emin bir dil kullanmasının kullanıcıda yanlış bir güven duygusu oluşturduğunu ifade etti.

Uzmanlar: Doktorun yerini tutmaz

OpenAI da yaptığı açıklamada, ChatGPT’nin profesyonel tıbbi tavsiyenin yerine geçmediğini, yalnızca bilgi ve eğitim amacıyla kullanılması gerektiğini vurguladı.

Uzmanlar, yapay zekânın sağlık alanında yardımcı bir araç olabileceğini ancak tek başına karar verici olarak kullanılmasının riskli olduğunu belirtiyor. Kullanıcıların, özellikle ciddi belirtiler söz konusu olduğunda mutlaka bir sağlık profesyoneline başvurması gerektiği ifade ediliyor.

Kaynak: Haber Kaynağı
Bu haber toplam 138 defa okunmuştur
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
EDİTÖRÜN SEÇTİKLERİ
    12345
    Tüm Hakları Saklıdır © 2006 Sağlık Aktüel | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
    Tel : (0216) 606 17 18 - (0224) 334 1 335 | Faks : (0216) 606 17 19 | Haber Yazılımı: CM Bilişim