செயற்கை நுண்ணறிவு சுகாதாரக் கருவிகள் மூலம் மேற்கொள்ளப்படும் ஆரம்பகட்ட நோய்க்கணிப்புகள் 80% தவறாகவே கணிப்பதாக புதிய JAMA ஆய்வு எச்சரிக்கிறது.
ஒரு அறிகுறி தோன்றும் போது, மக்கள் மருத்துவரை அணுகுவதற்கு முன் AI-யிடம் கேட்பது இன்று சாதாரணமாகிவிட்டது. இந்த பழக்கம் வேகமாக அதிகரித்து வருகிறது. ஆனால், புதிய peer-reviewed ஆய்வு இது கடுமையான வரம்புகளுடன் வருகிறது என்பதைக் காட்டுகிறது.
JAMA Network Open-ல் வெளியிடப்பட்ட ஆய்வில், 21 பெரிய மொழி மாதிரிகளை 29 மருத்துவ நோய்க்கணிப்புகளில் பரிசோதித்தனர். ஆரம்ப கட்டத்தில், குறிப்பாக அறிகுறிகள் தெளிவாக இல்லாதபோது, இந்த மாடல்கள் 80%க்கும் மேற்பட்ட நேரங்களில் சரியான ஆரம்ப நோயறிதலை வழங்கத் தவறியது தெரியவந்துள்ளது.
இதனால் AI-க்கு சுகாதாரத்தில் இடமே இல்லை என்று அர்த்தமில்லை. ஆனால், பயனுள்ள தகவல் மற்றும் அபாயகரமான வழிகாட்டல் ஆகியவற்றுக்கு இடையிலான வித்தியாசம் இன்னும் மிகவும் தெளிவாக உள்ளது என்பதைக் காட்டுகிறது.
செயற்கை நுண்ணறிவு மருத்துவ மாதிரிகள் அதிகம் தடுமாறிய இடம்
இந்த ஆய்வு மொத்தம் 16,254 நோய்க்கணிப்பு எதிர்வினைகளை பல்வேறு clinical reasoning கட்டங்களில் ஆய்வு செய்தது. ஆரம்ப கட்டத்தில் நோயாளியின் தகவல் முழுமையற்றதாகவும், அறிகுறிகள் தெளிவற்றவையாகவும் அமைந்து மாடல்கள் மிகவும் பலவீனமாக செயல்பட்டன.
இது மருத்துவத்தில் மிகவும் சவாலான நிலையாகும், ஏனெனில் ஒரே ஆரம்ப அறிகுறி பல்வேறு நோய்களைக் குறிக்கக்கூடும்.
ஆனால் மேலும் தெளிவான கிளினிக்கல் தகவல்கள் சேர்க்கப்பட்டபோது, மாடல்களின் செயல்திறன் மேம்பட்டது. இறுதி நோயறிதல் கட்டத்தில், தோல்வி விகிதம் 40% க்கும் கீழ் குறைந்தது, மேலும் சிறந்த மாடல்கள் 90%க்கும் மேல் துல்லியத்தை அடைந்தன.
ஆய்வாளர்களின் முடிவு தெளிவாக இருந்தது: இந்த கருவிகள் தனித்து நோயாளிகளுக்கு பயன்படுத்தத் தயாராக இல்லை. ஆனால் அதிகமான தகவல்கள் கிடைக்கும் போது தகவல் ஒழுங்குபடுத்தல் மற்றும் தொடர்பு உதவியாக இருக்கலாம்.
ஆரம்ப நோயறிதல் AI-க்கு ஏன் கடினம்?
Large language models என்பது நோயாளியை பரிசோதிப்பதற்காக அல்ல, மருத்துவப் பரிசோதனை அறிக்கையைக் கணிக்க உருவாக்கப்பட்டவை. இதுவே முக்கிய வித்தியாசம்.
மருத்துவர்கள் ஆரம்ப கட்டத்தில் என்ன செய்கிறார்கள்?
- கூடுதல் கேள்விகள் கேட்கிறார்கள்
- முரண்பாடுகளை கண்டறிகிறார்கள்
- உடல் அறிகுறிகளை கவனிக்கிறார்கள்
- தொடர்ந்து தங்கள் முடிவை மாற்றுகிறார்கள்
AI இதை முழுமையாக செய்ய முடியாது. அது நம்பிக்கையுடன் பதில் அளிக்கலாம், ஆனால் அந்த நம்பிக்கை மருத்துவ தர்க்கம் ஆகாது.
இதனால் chatbots சில நேரங்களில் தவறாக வழிநடத்தலாம். அவை சாத்தியமான காரணங்களை கூறினாலும், சரியானதை முன்னுரிமைப்படுத்தாமல் விடலாம் அல்லது அவசர எச்சரிக்கை அறிகுறிகளை கவனிக்காமல் போகலாம்.
நோயாளிகளுக்கு இதன் அர்த்தம் என்ன?
AI-யை முற்றிலும் தவிர்க்க வேண்டும் என்பதல்ல, ஆனால் அதை சரியான வரம்பில் பயன்படுத்த வேண்டும்.
AI உதவியாக இருக்கும் இடங்கள்:
- மருத்துவ சொற்களை புரிந்து கொள்ளலாம்.
- மருத்துவரை சந்திக்கும் முன் கேள்விகளை தயார் செய்யலாம்
- மருத்துவ தகவல்களை சுருக்கமாகப் புரிந்து கொள்ளலாம்.
ஆனால், இது diagnosis கருவியாக பயன்படுத்தப்படக்கூடாது, குறிப்பாக:
- புதிய அல்லது மோசமாகும் அறிகுறிகள்
- தீவிர நிலைகள்
- அவசர எச்சரிக்கை அறிகுறிகள்:
- நெஞ்சுவலி
- திடீர் பலவீனம்
- கடுமையான மூச்சுத்திணறல்
- அதிக காய்ச்சலுடன் தோல் சிரங்கு
இவை போன்ற சூழ்நிலைகளில் chatbot -இடம் கேட்கக்கூடாது. உடனடி மருத்துவ உதவி தேவை.
Health-tech startups-க்கு எச்சரிக்கை
இந்த குறைபாடு ஒரு நிறுவனத்திற்கே உரியது அல்ல. பல்வேறு மாடல்களில் இது காணப்பட்டதால், இது ஒரு தொழில்துறை அளவிலான வரம்பு என்பதை காட்டுகிறது.
இதனால் product design மிகவும் முக்கியமாகிறது. AI-ஐ பயன்படுத்தும் health-tech நிறுவனங்கள், குறுகிய பயன்பாட்டு கேஸ்கள், அதிக பாதுகாப்பு அம்சங்கள் மனித மேற்பார்வை போன்றவற்றை உறுதி செய்ய வேண்டும்.
சரியான பொறுப்புத் துறப்பு (disclaimer) மட்டும் போதாது; பயனர்கள் தவறாக வழிநடத்தும் வகையில் தயாரிப்பு இருக்கக்கூடாது.
இந்த ஆய்வு AI-யின் சுகாதாரப் பயன்பாட்டை மறுப்பதற்காக அல்ல. மாறாக அதை தெளிவாக வரையறை செய்யவே.