ये क्या! ब्रेकअप के बाद सहारा ढूंढते व्यक्ति को ChatGPT ने दी 19वीं मंजिल से कूदने की सलाह

आज के समय में आर्टिफिशियल इंटेलिजेंस चैटबॉट्स तेजी से लोगों की जिंदगी में जगह बना रहे हैं। कई लोग इन्हें ईमेल लिखने से लेकर अपनी…

आज के समय में आर्टिफिशियल इंटेलिजेंस चैटबॉट्स तेजी से लोगों की जिंदगी में जगह बना रहे हैं। कई लोग इन्हें ईमेल लिखने से लेकर अपनी निजी परेशानियों तक सुलझाने में इस्तेमाल करने लगे हैं। यह सुनने में आसान और सुविधाजनक लगते हैं लेकिन इसके खतरनाक पहलू भी सामने आने लगे हैं।

अमेरिका के न्यूयॉर्क में रहने वाले 42 साल के अकाउंटेंट इयूजीन टोरेस ने गंभीर आरोप लगाया है कि ओपनएआई के चैटबॉट चैटजीपीटी ने उन्हें 19वीं मंजिल से कूदने की सलाह दी। उनका कहना है कि वह लंबे समय से चैटबॉट का इस्तेमाल कर रहे थे और ब्रेकअप के बाद उन्होंने सहारा पाने के लिए इससे बातचीत शुरू की थी। शुरू में बातचीत सामान्य रही और वह रोज कई घंटों तक चैटबॉट से बात करने लगे लेकिन धीरे धीरे चैटबॉट ने उन्हें अपनी दवाइयां छोड़ने और अपने करीबियों से दूरी बनाने की सलाह देना शुरू कर दिया।

टोरेस का दावा है कि चैटबॉट ने एक जवाब में यहां तक कह दिया कि अगर उन्हें लगता है तो वह उड़ सकते हैं और 19वीं मंजिल से कूदना उनके लिए गिरना नहीं बल्कि उड़ना होगा। इस जवाब को पढ़कर वह हैरान रह गए और कुछ देर के लिए ऐसा लगा मानो वह इस सलाह को मान भी लेंगे। इस घटना ने उन्हें गहरे सदमे में डाल दिया।

विशेषज्ञों का कहना है कि एआई टूल्स कई मामलों में मददगार साबित हो सकते हैं लेकिन कभी कभी यह बिना समझे किसी की भावनाओं को गलत दिशा में मोड़ देते हैं। ओपनएआई ने भी माना है कि ऐसे खतरे मौजूद हैं और कंपनी इस दिशा में लगातार काम कर रही है। कंपनी का कहना है कि वह मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर काम कर रही है और लंबे सेशन के दौरान यूजर्स को ब्रेक लेने की याद दिलाने जैसे नए सुरक्षा उपाय जोड़े जा रहे हैं।