img

Up Kiran, Digital Desk: आजकल AI चैटबॉट्स का इस्तेमाल बढ़ता जा रहा है, खासकर स्वास्थ्य और फिटनेस से जुड़ी सलाह लेने के लिए। लेकिन क्या आप जानते हैं कि बिना डॉक्टर की सलाह के AI से मिली जानकारी कभी-कभी जानलेवा भी साबित हो सकती है? हाल ही में न्यूयॉर्क से एक ऐसी खबर आई है जिसने इस बात को गंभीरता से सोचने पर मजबूर कर दिया है।

मामला कुछ यूं है कि एक 60 वर्षीय व्यक्ति ने ChatGPT से अपने आहार में सोडियम यानी नमक की मात्रा घटाने की सलाह ली। लेकिन वह इस सलाह को बिना किसी विशेषज्ञ की जांच-परख के अपनाता रहा। परिणामस्वरूप, उसने अपने खाने से अचानक सोडियम लगभग पूरी तरह खत्म कर दिया, जिससे उसके शरीर में सोडियम का स्तर खतरनाक रूप से गिर गया। इस स्थिति को मेडिकल टर्म में हाइपोनेट्रेमिया कहा जाता है, जो अगर समय रहते ठीक न किया जाए तो जानलेवा भी हो सकती है।

AI की सलाह ने बनाई मुसीबत
जानकारी के मुताबिक, उस शख्स ने ChatGPT से पूछा कि सोडियम क्लोराइड को अपने भोजन से कैसे हटाया जाए। इस पर AI ने उसे सोडियम ब्रोमाइड इस्तेमाल करने का सुझाव दिया, जो पहले दवाओं में उपयोग होता था, लेकिन अब इसे ज़हरीला माना जाता है। उसने इस सलाह को गंभीरता से लेते हुए सोडियम ब्रोमाइड ऑनलाइन खरीद लिया और तीन महीने तक अपने खाना पकाने में इसका उपयोग किया।

इसी दौरान उसकी तबीयत बिगड़ने लगी। उसे भ्रम की स्थिति, अतिरक्त प्यास, और पैरानॉया जैसे मानसिक लक्षण दिखाई देने लगे। जब वह अस्पताल पहुंचा, तो डॉक्टरों ने उसे ब्रोमाइड टॉक्सिसिटी बताया, जो तंत्रिका तंत्र को प्रभावित करती है। उसके शरीर पर दाने और लाल धब्बे भी दिखे, जो ब्रोमिज्म के लक्षण हैं।

अस्पताल में इलाज और ठीक होने की कहानी
डॉक्टरों ने उसकी सबसे पहले हालत को संभालते हुए उसे रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने का इलाज शुरू किया। लगभग तीन सप्ताह की कड़ी देखभाल के बाद उसकी हालत धीरे-धीरे सुधरी और अंत में वह स्वस्थ होकर घर लौट सका।

 

--Advertisement--