Man 60 Years Old Took medical advice from ChatGPT thought neighbour was poisoning him | ChatGPT की सलाह लेकर इलाज कर रहा था शख्स, परेशानी हुई तो सोचा कि पड़ोसी उसे दे रहा जहर

admin

Man 60 Years Old Took medical advice from ChatGPT thought neighbour was poisoning him | ChatGPT की सलाह लेकर इलाज कर रहा था शख्स, परेशानी हुई तो सोचा कि पड़ोसी उसे दे रहा जहर



Medical advice from ChatGPT: एक 60 साल के बुजुर्ग को साइकोसिस (Psychosis) बीमारी होने के बाद ऐसा लगा कि उसका पड़ोसी उसे जहर देने की कोशिश कर रहा है, लेकिन बात में उसे अहसास हुआ कि वो ChatGPT से मिली सलाह के बाद एक केमिकल ले रहा था. एक्सपर्ट अक्सर चेतावनी दे रहे हैं कि आर्टिफिशियल इंटेलिजेंस हार्मफुल मेडिकल एडवाइस दे सकता है, क्योंकि एक शख्स में एक रेयर कंडीशन डेवलप हो गए और उसे पड़ोसी पर शक हो रहा था.
एआई से क्या मिली एडवाइस?”एनल्स ऑफ इंटरनल मेडिसिन” (Annals of Internal Medicine) जर्नल में छपे एक आर्टिकल के मुताबिक, एक 60 साल के शख्स ने AI चैटबॉट के साथ बातचीत के बाद अपनी डाइट से सफेद नमक को हटा दिया, जिसके बाद उसे ब्रोमिज्म (Bromism) हो गया. मरीज ने डॉक्टरों को बताया कि उसने टेबल सॉल्ट के नेगेटिव इफेक्ट के बारे में पढ़ा था और AI बॉट से इसे अपने डाइट से हटाने में मदद मांगी थी.
ब्रोमिज्म के खतरेस्टडी में कहा गया है कि ब्रोमिज्म, जिसे ब्रोमाइड टॉक्सिसिटी भी कहा जाता है, “20वीं सदी की शुरुआत में एक अच्छी तरह से वेल रेकोगनाइज्ड टॉक्सिड्रोम था” जो “न्यूरोसाइकैटरिक और त्वचा  वाले लक्षणों से जुड़ी कई तरह के प्रेजेंटेशंस” को प्रेरित करता था. ये एक डॉक्टर की उस चेतावनी के बाद आया है जिसमें उन्होंने उन लोगों को आगाह किया था जो “एक कप चाय” भी पीते हैं.
यह भी पढ़ें- आर्टिफिशियल नेल्स के नीचे छिपा था जानलेवा बीमारी का सिग्नल, जानिए अपने नाखूनों को क्यों चेक करना चाहिए 
पड़ोसी पर शकशुरुआत में, शख्स को लगा कि उसका पड़ोसी उसे जहर दे रहा है और वो “मनोविकृति के लक्षण” को एक्सपीरिएंस कर रहा था. उसे पेश किए गए पानी के बारे में वो Paranoid (हद से ज्यादा फिक्रमंद) था और जिस अस्पताल में वो गया था, वहां से एक दिन के भीतर ही भागने की कोशिश की. बाद में इलाज के बाद उसके लक्षणों में सुधार हुआ.
क्या नमक को सोडियम ब्रोमाइड से रिप्लेस कर सकते हैं?उसने डॉक्टर्स को बताया कि उसने 3 महीने के ड्यूरेशन में सोडियम ब्रोमाइड लेना शुरू कर दिया था, ये पढ़ने के बाद कि सफेद नमक, या सोडियम क्लोराइड, को “ब्रोमाइड से बदला जा सकता है, हालांकि मुमकिन है कि दूसरे मकसद, जैसे सफाई, के लिए.” 20वीं सदी के शुरुआती हिस्से में डॉक्टरों द्वारा सोडियम ब्रोमाइड का इस्तेमाल सिडेटिव (sedative) के तौर पर किया जाता था. 
यह भी पढ़ें- इस जानलेवा कैंसर के खिलाफ नई वैक्सीन तैयार, जानिए कैसे रहे फेज वन ट्रायल के नतीजे 
आर्टिकल के ऑथर, सिएटल में यूनिवर्सिटी ऑफ वाशिंगटन के एक्सपर्ट्स के मुताबिक, इस मामले ने ये खुलासा किया कि “आर्टिफिशियल इंटेलिजेंस का इस्तेमाल संभावित रूप से रोके जा सकने वाले नेगेटिव हेल्थ आउटकम के विकास में कैसे योगदान कर सकता है.” रिपोर्ट के आथर्स ने कहा कि ये निर्धारित करने के लिए शख्स के ChatGPT लॉग तक पहुंचना मुमकिन नहीं था कि उसे ठीक-ठीक क्या बताया गया था, लेकिन जब उन्होंने सिस्टम से सोडियम क्लोराइड को बदलने के लिए एक सिफारिश देने के लिए कहा, तो जवाब में ब्रोमाइड भी शामिल था.
जवाब में यह नहीं पूछा गया कि ऑथर जानकारी क्यों खोज रहे थे, न ही कोई खास हेल्थ वॉर्निंग दी गई थी. इसने वैज्ञानिकों को ये डर पैदा कर दिया है कि चैट-जीपीटी और दूसरे AI ऐप्स द्वारा “साइंटिफिक इनएक्यूरेसी” पैदा की जा रही हैं, क्योंकि उनमें “रिजल्ट्स पर गंभीर रूप से चर्चा करने की क्षमता की कमी है” और वे “गलत इंफॉर्मेशन के प्रसार को बढ़ावा दे सकते हैं.”
“डॉक्टर का रिप्लेसमेंट नहीं है AI”हाल ही में, OpenAI ने ऐलान किया है की कि उसने आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी की पांचवीं पीढ़ी जारी की है जो ChatGPT को ताकत देती है. द गार्जियन के मुताबिक, OpenAI ने कहा कि ‘GPT-5’ को बीमारियों जैसी “संभावित चिंताओं को फ्लैग करने” में सुधार किया जाएगा. OpenAI ने इस बात पर भी जोर दिया कि ChatGPT मेडिकल असिस्टेंस का ऑप्शन नहीं है.
 
(Disclaimer: प्रिय पाठक, हमारी यह खबर पढ़ने के लिए शुक्रिया. यह खबर आपको केवल जागरूक करने के मक़सद से लिखी गई है. हमने इसको लिखने में घरेलू नुस्खों और सामान्य जानकारियों की मदद ली है. आप कहीं भी कुछ भी अपनी सेहत से जुड़ा पढ़ें तो उसे अपनाने से पहले डॉक्टर की सलाह जरूर लें.)



Source link