Taking advice from ChatGPT is note safe/Photo- AI
आर्टिफिशियल इंटेलिजेंस (एआई) का लोग इस्तेमाल खूब करने लगे हैं, लेकिन लोग इस पर पूरी तरह से भरोसा भी कर रहे हैं जो कि ठीक नहीं है। एक रिपोर्ट के मुताबिक ChatGPT से मिली हेल्थ एडवाइस के चलते 60 वर्षीय व्यक्ति को अस्पताल में भर्ती होना पड़ा। रिपोर्ट के अनुसार, यह मामला दुर्लभ मेटल पॉइज़निंग का था, जिसमें मरीज को सोडियम ब्रोमाइड के लंबे समय तक सेवन के कारण ब्रोमिज़्म (Bromism) हो गया। इस जहर का असर मानसिक और शारीरिक दोनों स्तर पर गंभीर था।
"Annals of Internal Medicine Clinical Cases" में प्रकाशित रिपोर्ट के अनुसार यह व्यक्ति ChatGPT से डाइटरी बदलाव के बारे में सलाह ले रहा था। ChatGPT ने टेबल सॉल्ट (सोडियम क्लोराइड) की जगह सोडियम ब्रोमाइड का सुझाव दिया, हालांकि चैटबॉट ने यह तो कहा कि संदर्भ मायने रखता है, लेकिन कोई स्पष्ट स्वास्थ्य चेतावनी नहीं दी और न ही कारण पूछा जैसा कि कोई मेडिकल प्रोफेशनल करता।
रिपोर्ट के अनुसार, इस व्यक्ति को अस्पताल में भर्ती होने से पहले कई लक्षण थे जिनमें पागलपन जैसी मानसिक स्थिति (Psychosis), पड़ोसी द्वारा जहर दिए जाने का भ्रम, मतिभ्रम, प्यास लगने के बावजूद पानी पर शक करना, अनिद्रा और थकान, मांसपेशियों के तालमेल में दिक्कत और त्वचा में बदलाव जैसे मुंहासे और चेरी एंजियोमा शामिल थे।
इस मामले पर OpenAI ने अपनी Terms of Use का हवाला देते हुए कहा कि ChatGPT के आउटपुट को “एकमात्र सच या तथ्य का स्रोत” या “प्रोफेशनल सलाह के विकल्प” के रूप में इस्तेमाल नहीं किया जाना चाहिए। रिपोर्ट में बताया गया कि तीन हफ्ते के इलाज के बाद मरीज की हालत में सुधार हुआ। शोधकर्ताओं ने चेतावनी दी कि ChatGPT और अन्य एआई सिस्टम वैज्ञानिक गलतियां कर सकते हैं, परिणामों पर आलोचनात्मक चर्चा नहीं कर सकते और अंततः गलत जानकारी के प्रसार को बढ़ावा दे सकते हैं
देश और दुनिया की ताजा ख़बरें (Hindi News) पढ़ें हिंदी में और देखें छोटी बड़ी सभी न्यूज़ Times Now Navbharat Live TV पर। टेक एंड गैजेट्स (Tech-gadgets News) अपडेट और चुनाव (Elections) की ताजा समाचार के लिए जुड़े रहे Times Now Navbharat से।