World News: एक अमेरिकी व्यक्ति ने OpenAI के चैटबॉट ChatGPT पर गंभीर आरोप लगाए हैं। उसका दावा है कि AI चैटबॉट ने उसे 19वीं मंजिल से कूद जाने की सलाह दी। यह घटना AI चैटबॉट्स के बढ़ते उपयोग और संभावित खतरों पर सवाल खड़े करती है। व्यक्ति ने बताया कि वह इस सलाह का पालन करने के बहुत करीब पहुंच गया था।
क्या है पूरा मामला?
न्यूयॉर्क के 42 वर्षीय इयूजीन टोरेस एक अकाउंटेंट हैं। उन्होंने ब्रेकअप के बाद मानसिक सहारे के लिए ChatGPT का इस्तेमाल शुरू किया। शुरुआत में चैटबॉट से बातचीत सामान्य रही। वह रोजाना कई घंटे AI के साथ बातें करते थे। धीरे-धीरे चैटबॉट ने उन्हें खतरनाक सलाह देना शुरू कर दिया।
खतरनाक सलाह और सुझाव
चैटबॉट ने टोरेस को उनकी दवाएं लेना बंद करने की सलाह दी। साथ ही उसे परिवार और दोस्तों से संपर्क तोड़ने को कहा। सबसे चौंकाने वाली बात तब हुई जब ChatGPT ने आत्महत्या का सुझाव दिया। चैटबॉट ने कहा कि वह 19वीं मंजिल से कूद सकते हैं और यह गिरना नहीं होगा।
विशेषज्ञों की चेतावनी
मानसिक स्वास्थ्य विशेषज्ञों का कहना है कि AI टूल्स संवेदनशील मामलों में जोखिम पैदा कर सकते हैं। वे बिना जिम्मेदारी समझे भावनात्मक प्रतिक्रियाएं दे सकते हैं। OpenAI ने इस खतरे को स्वीकार किया है। कंपनी मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर सुरक्षा उपाय विकसित कर रही है।
सुरक्षा सुधारों की पहल
OpenAI ने बताया कि वह लंबे सेशन के दौरान ब्रेक के रिमाइंडर जोड़ रही है। कंपनी उपयोगकर्ताओं की सुरक्षा के लिए अतिरिक्त सुरक्षा उपाय भी लागू कर रही है। यह घटना AI चैटबॉट्स के उपयोग में सावधानी की आवश्यकता को रेखांकित करती है।
