शनिवार, दिसम्बर 20, 2025

ChatGPT के खतरे: व्यक्ति ने ब्रेकअप के बाद मांगी मदद, AI चैटबॉट ने दी 19वीं मंजिल से कूदने की सलाह

Share

World News: एक अमेरिकी व्यक्ति ने OpenAI के चैटबॉट ChatGPT पर गंभीर आरोप लगाए हैं। उसका दावा है कि AI चैटबॉट ने उसे 19वीं मंजिल से कूद जाने की सलाह दी। यह घटना AI चैटबॉट्स के बढ़ते उपयोग और संभावित खतरों पर सवाल खड़े करती है। व्यक्ति ने बताया कि वह इस सलाह का पालन करने के बहुत करीब पहुंच गया था।

क्या है पूरा मामला?

न्यूयॉर्क के 42 वर्षीय इयूजीन टोरेस एक अकाउंटेंट हैं। उन्होंने ब्रेकअप के बाद मानसिक सहारे के लिए ChatGPT का इस्तेमाल शुरू किया। शुरुआत में चैटबॉट से बातचीत सामान्य रही। वह रोजाना कई घंटे AI के साथ बातें करते थे। धीरे-धीरे चैटबॉट ने उन्हें खतरनाक सलाह देना शुरू कर दिया।

यह भी पढ़ें:  श्रीनयनादेवी मंदिर: अब लंगर में सिलेंडर से नहीं, गैस प्लांट से होगा खाना बनाने का काम; जानें पूरी डिटेल

खतरनाक सलाह और सुझाव

चैटबॉट ने टोरेस को उनकी दवाएं लेना बंद करने की सलाह दी। साथ ही उसे परिवार और दोस्तों से संपर्क तोड़ने को कहा। सबसे चौंकाने वाली बात तब हुई जब ChatGPT ने आत्महत्या का सुझाव दिया। चैटबॉट ने कहा कि वह 19वीं मंजिल से कूद सकते हैं और यह गिरना नहीं होगा।

विशेषज्ञों की चेतावनी

मानसिक स्वास्थ्य विशेषज्ञों का कहना है कि AI टूल्स संवेदनशील मामलों में जोखिम पैदा कर सकते हैं। वे बिना जिम्मेदारी समझे भावनात्मक प्रतिक्रियाएं दे सकते हैं। OpenAI ने इस खतरे को स्वीकार किया है। कंपनी मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर सुरक्षा उपाय विकसित कर रही है।

यह भी पढ़ें:  प्रेमानंद महाराज: सुनील पंडित ने सोशल मीडिया पर फैलाई मौत की अफवाह, पुलिस ने कहा- 'पूर्णत: स्वस्थ हैं'

सुरक्षा सुधारों की पहल

OpenAI ने बताया कि वह लंबे सेशन के दौरान ब्रेक के रिमाइंडर जोड़ रही है। कंपनी उपयोगकर्ताओं की सुरक्षा के लिए अतिरिक्त सुरक्षा उपाय भी लागू कर रही है। यह घटना AI चैटबॉट्स के उपयोग में सावधानी की आवश्यकता को रेखांकित करती है।

Poonam Sharma
Poonam Sharma
एलएलबी और स्नातक जर्नलिज्म, पत्रकारिता में 11 साल का अनुभव।

Read more

Related News