डॉक्टरों का मानना है कि कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलिजेंस) की स्वास्थ्य सेवा में एक भूमिका है, लेकिन कुछ विशेषज्ञ चिकित्सा सलाह के लिए केवल चैटबॉट पर निर्भर रहने के खिलाफ चेतावनी देते हैं। डेटा कंपनी आईमेरिट में एक अभ्यास करने वाले सर्जन और एआई स्वास्थ्य सेवा नेता डॉ. सीना बारी ने एक उदाहरण साझा किया कि कैसे ChatGPT ने एक रोगी को दवा के संभावित दुष्प्रभावों के बारे में गलत चिकित्सा जानकारी प्रदान की।
डॉ. बारी के अनुसार, रोगी ने ChatGPT से एक प्रिंटआउट प्रस्तुत किया जिसमें दावा किया गया था कि दवा से फुफ्फुसीय अन्त:शल्यता (पल्मोनरी एम्बोलिज्म) होने की 45% संभावना है। आगे की जांच से पता चला कि यह आंकड़ा तपेदिक के रोगियों के एक विशिष्ट उपसमूह पर केंद्रित एक अध्ययन से लिया गया था, जो इसे व्यक्ति के मामले के लिए अप्रासंगिक बनाता है।
इन चिंताओं के बावजूद, डॉ. बारी ने OpenAI की ChatGPT Health की हालिया घोषणा के बारे में आशावाद व्यक्त किया, जो स्वास्थ्य संबंधी बातचीत के लिए डिज़ाइन किया गया एक समर्पित चैटबॉट है। नए प्लेटफ़ॉर्म का उद्देश्य उपयोगकर्ताओं को एक अधिक निजी वातावरण प्रदान करना है जहाँ उनके संदेशों का उपयोग AI मॉडल को प्रशिक्षित करने के लिए नहीं किया जाता है। "मुझे लगता है कि यह बहुत अच्छा है," डॉ. बारी ने कहा। "यह कुछ ऐसा है जो पहले से ही हो रहा है, इसलिए रोगी की जानकारी की रक्षा करने और इसके चारों ओर कुछ सुरक्षा उपाय करने के लिए इसे औपचारिक रूप देना रोगियों के उपयोग के लिए इसे और भी अधिक शक्तिशाली बना देगा।"
ChatGPT Health के आने वाले हफ्तों में शुरू होने की उम्मीद है, जो उपयोगकर्ताओं को व्यक्तिगत मार्गदर्शन प्रदान करेगा। यह विकास स्वास्थ्य सेवा तक पहुंच और दक्षता में सुधार करने की AI की क्षमता में बढ़ती रुचि के बीच आया है। हालांकि, विशेषज्ञों ने योग्य स्वास्थ्य सेवा पेशेवरों के साथ AI-जनित चिकित्सा जानकारी को सत्यापित करने के महत्व पर जोर दिया है। डॉ. बारी के रोगी से जुड़ी घटना बिना सत्यापित AI सलाह पर निर्भर रहने के संभावित जोखिमों पर प्रकाश डालती है, खासकर जब यह दवा और उपचार निर्णयों की बात आती है। जबकि AI एक मूल्यवान उपकरण हो सकता है, लेकिन इसे मानव डॉक्टरों की विशेषज्ञता और निर्णय का स्थान नहीं लेना चाहिए।
Discussion
Join the conversation
Be the first to comment