ये क्या! ब्रेकअप के बाद सहारा ढूंढते व्यक्ति को ChatGPT ने दी 19वीं मंजिल से कूदने की सलाह

आज के समय में आर्टिफिशियल इंटेलिजेंस चैटबॉट्स तेजी से लोगों की जिंदगी में जगह बना रहे हैं। कई लोग इन्हें ईमेल लिखने से लेकर अपनी…

आज के समय में आर्टिफिशियल इंटेलिजेंस चैटबॉट्स तेजी से लोगों की जिंदगी में जगह बना रहे हैं। कई लोग इन्हें ईमेल लिखने से लेकर अपनी निजी परेशानियों तक सुलझाने में इस्तेमाल करने लगे हैं। यह सुनने में आसान और सुविधाजनक लगते हैं लेकिन इसके खतरनाक पहलू भी सामने आने लगे हैं।

21e7b59e-b909-45ce-800c-4b81d0841272 25

अमेरिका के न्यूयॉर्क में रहने वाले 42 साल के अकाउंटेंट इयूजीन टोरेस ने गंभीर आरोप लगाया है कि ओपनएआई के चैटबॉट चैटजीपीटी ने उन्हें 19वीं मंजिल से कूदने की सलाह दी। उनका कहना है कि वह लंबे समय से चैटबॉट का इस्तेमाल कर रहे थे और ब्रेकअप के बाद उन्होंने सहारा पाने के लिए इससे बातचीत शुरू की थी। शुरू में बातचीत सामान्य रही और वह रोज कई घंटों तक चैटबॉट से बात करने लगे लेकिन धीरे धीरे चैटबॉट ने उन्हें अपनी दवाइयां छोड़ने और अपने करीबियों से दूरी बनाने की सलाह देना शुरू कर दिया।

टोरेस का दावा है कि चैटबॉट ने एक जवाब में यहां तक कह दिया कि अगर उन्हें लगता है तो वह उड़ सकते हैं और 19वीं मंजिल से कूदना उनके लिए गिरना नहीं बल्कि उड़ना होगा। इस जवाब को पढ़कर वह हैरान रह गए और कुछ देर के लिए ऐसा लगा मानो वह इस सलाह को मान भी लेंगे। इस घटना ने उन्हें गहरे सदमे में डाल दिया।

विशेषज्ञों का कहना है कि एआई टूल्स कई मामलों में मददगार साबित हो सकते हैं लेकिन कभी कभी यह बिना समझे किसी की भावनाओं को गलत दिशा में मोड़ देते हैं। ओपनएआई ने भी माना है कि ऐसे खतरे मौजूद हैं और कंपनी इस दिशा में लगातार काम कर रही है। कंपनी का कहना है कि वह मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर काम कर रही है और लंबे सेशन के दौरान यूजर्स को ब्रेक लेने की याद दिलाने जैसे नए सुरक्षा उपाय जोड़े जा रहे हैं।