_528667568.png)
Up Kiran, Digital Desk: आजकल AI चैटबॉट्स का इस्तेमाल बढ़ता जा रहा है, खासकर स्वास्थ्य और फिटनेस से जुड़ी सलाह लेने के लिए। लेकिन क्या आप जानते हैं कि बिना डॉक्टर की सलाह के AI से मिली जानकारी कभी-कभी जानलेवा भी साबित हो सकती है? हाल ही में न्यूयॉर्क से एक ऐसी खबर आई है जिसने इस बात को गंभीरता से सोचने पर मजबूर कर दिया है।
मामला कुछ यूं है कि एक 60 वर्षीय व्यक्ति ने ChatGPT से अपने आहार में सोडियम यानी नमक की मात्रा घटाने की सलाह ली। लेकिन वह इस सलाह को बिना किसी विशेषज्ञ की जांच-परख के अपनाता रहा। परिणामस्वरूप, उसने अपने खाने से अचानक सोडियम लगभग पूरी तरह खत्म कर दिया, जिससे उसके शरीर में सोडियम का स्तर खतरनाक रूप से गिर गया। इस स्थिति को मेडिकल टर्म में हाइपोनेट्रेमिया कहा जाता है, जो अगर समय रहते ठीक न किया जाए तो जानलेवा भी हो सकती है।
AI की सलाह ने बनाई मुसीबत
जानकारी के मुताबिक, उस शख्स ने ChatGPT से पूछा कि सोडियम क्लोराइड को अपने भोजन से कैसे हटाया जाए। इस पर AI ने उसे सोडियम ब्रोमाइड इस्तेमाल करने का सुझाव दिया, जो पहले दवाओं में उपयोग होता था, लेकिन अब इसे ज़हरीला माना जाता है। उसने इस सलाह को गंभीरता से लेते हुए सोडियम ब्रोमाइड ऑनलाइन खरीद लिया और तीन महीने तक अपने खाना पकाने में इसका उपयोग किया।
इसी दौरान उसकी तबीयत बिगड़ने लगी। उसे भ्रम की स्थिति, अतिरक्त प्यास, और पैरानॉया जैसे मानसिक लक्षण दिखाई देने लगे। जब वह अस्पताल पहुंचा, तो डॉक्टरों ने उसे ब्रोमाइड टॉक्सिसिटी बताया, जो तंत्रिका तंत्र को प्रभावित करती है। उसके शरीर पर दाने और लाल धब्बे भी दिखे, जो ब्रोमिज्म के लक्षण हैं।
अस्पताल में इलाज और ठीक होने की कहानी
डॉक्टरों ने उसकी सबसे पहले हालत को संभालते हुए उसे रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने का इलाज शुरू किया। लगभग तीन सप्ताह की कड़ी देखभाल के बाद उसकी हालत धीरे-धीरे सुधरी और अंत में वह स्वस्थ होकर घर लौट सका।
--Advertisement--