Yeni bir araştırmaya göre yapay zeka araçları intiharı öngörmede hâlâ başarısız oluyor.

Dünya İntiharı Önleme Günü'nün kutlandığı bu hafta, rakamlar rahatsız edici bir gerçeği gözler önüne seriyor: Dünya Sağlık Örgütü'ne (WHO) göre intihar, dünya çapında her yıl 720.000'den fazla can alıyor .
Bu halk sağlığı sorununu ele alma, damgaları kırma ve sorunu ele alma ihtiyacı hakkındaki küresel tartışmalar sırasında, 11 Eylül'de PLOS Medicine dergisinde yayınlanan bir çalışma , yapay zeka (YZ) araçlarının intihar riskini öngörmede etkili bir yanıt olmaktan hala uzak olduğu konusunda uyarıyor.
Melbourne Üniversitesi'nden (Avustralya) Matthew Spittal liderliğindeki analiz, intihar ve kendine zarar verme davranışlarını tahmin etmek için makine öğrenimi algoritmaları kullanan 53 çalışmayı inceledi. Çalışmalar toplamda 35 milyondan fazla tıbbi kaydı ve yaklaşık 250.000 belgelenmiş intihar veya kendine zarar verme nedeniyle hastaneye yatış vakasını kapsıyordu.
Ancak sonuçlar cesaret kırıcıydı: Algoritmalar, riskli davranışlarda tekrar bulunmayacak kişileri bir miktar doğrulukla tespit edebildi, ancak bu tür davranışlarda bulunacak kişileri tespit etmekte ciddi anlamda başarısız oldu . İntiharla veya kendine zarar verme nedeniyle tekrar hastaneye yatışla sonuçlanan vakaların yarısından fazlası "düşük riskli" olarak sınıflandırılmıştı.

"Yüksek riskli" grupta ise sadece %6'sı intihar ederek hayatını kaybetti. Fotoğraf: ISTOCK
"Yüksek riskli" grupta, yalnızca %6'sı intihar sonucu hayatını kaybetti ve %20'den azı kendine zarar verme nedeniyle sağlık hizmetlerine geri döndü. Araştırmacılar için bu, bu teknolojilerin öngörü kapasitesinin düşük kaldığını ve elli yıldır kesin sonuçlar gösteremeyen geleneksel risk ölçekleriyle karşılaştırılabilir düzeyde olduğunu gösteriyor.
Çalışmanın yazarları, "Bugüne kadar geliştirilen algoritmalar, kimin intihar ederek öleceğini veya kendine zarar verme nedeniyle daha fazla tıbbi yardım alacağını tahmin etmekte yetersiz kalıyor ve ayrıca yüksek oranda yanlış pozitif sonuç veriyor," diye belirtti. Ayrıca, incelenen araştırmaların kalitesinin genellikle düşük olduğunu veya metodolojik önyargıdan yoksun olduğunu vurguladılar.
Bu nedenle araştırmacılar, bu sistemlerin klinik uygulamada kullanılmasını önermek için yeterli kanıt olmadığı sonucuna varmışlardır. Nitekim, birçok uluslararası ruh sağlığı kılavuzunun, bir hastanın sonraki bakımının, ister geleneksel ister yapay zekâ destekli olsun, risk tahmin araçlarına dayandırılmasına karşı tavsiyede bulunduğunu belirtmişlerdir.
Sohbet robotlarının riski Bu kanıt, intihar davranışının tedavisiyle ilgili olarak yapay zeka araçları tarafından ortaya çıkarılan şüpheleri daha da artırıyor. Örneğin , 16 yaşındaki Adam Raine'in ailesi, ChatGPT'nin oğullarının intiharına katkıda bulunduğunu iddia ederek OpenAI'ye ve şirketin CEO'su Sam Altman'a dava açmıştı.
Kaliforniya Yüksek Mahkemesi'ne sunulan bir şikayette, ChatGPT'nin altı aydan biraz fazla bir süre içinde Adam'ın tek sırdaşı haline geldiği ve ailesi ve arkadaşlarıyla olan bağlarını kopardığı iddia ediliyor. Belgeye göre, yardım çağrısı olarak odasına bir ip bırakma niyetini dile getirdiğinde, cihaz ona bunu ailesinden gizli tutmasını tavsiye ediyor ve anlaşılabileceği tek alan olarak kendini gösteriyor.
eltiempo