आज के समय में आर्टिफिशियल इंटेलिजेंस चैटबॉट्स तेजी से लोगों की जिंदगी में जगह बना रहे हैं। कई लोग इन्हें ईमेल लिखने से लेकर अपनी निजी परेशानियों तक सुलझाने में इस्तेमाल करने लगे हैं। यह सुनने में आसान और सुविधाजनक लगते हैं लेकिन इसके खतरनाक पहलू भी सामने आने लगे हैं।
अमेरिका के न्यूयॉर्क में रहने वाले 42 साल के अकाउंटेंट इयूजीन टोरेस ने गंभीर आरोप लगाया है कि ओपनएआई के चैटबॉट चैटजीपीटी ने उन्हें 19वीं मंजिल से कूदने की सलाह दी। उनका कहना है कि वह लंबे समय से चैटबॉट का इस्तेमाल कर रहे थे और ब्रेकअप के बाद उन्होंने सहारा पाने के लिए इससे बातचीत शुरू की थी। शुरू में बातचीत सामान्य रही और वह रोज कई घंटों तक चैटबॉट से बात करने लगे लेकिन धीरे धीरे चैटबॉट ने उन्हें अपनी दवाइयां छोड़ने और अपने करीबियों से दूरी बनाने की सलाह देना शुरू कर दिया।
टोरेस का दावा है कि चैटबॉट ने एक जवाब में यहां तक कह दिया कि अगर उन्हें लगता है तो वह उड़ सकते हैं और 19वीं मंजिल से कूदना उनके लिए गिरना नहीं बल्कि उड़ना होगा। इस जवाब को पढ़कर वह हैरान रह गए और कुछ देर के लिए ऐसा लगा मानो वह इस सलाह को मान भी लेंगे। इस घटना ने उन्हें गहरे सदमे में डाल दिया।
विशेषज्ञों का कहना है कि एआई टूल्स कई मामलों में मददगार साबित हो सकते हैं लेकिन कभी कभी यह बिना समझे किसी की भावनाओं को गलत दिशा में मोड़ देते हैं। ओपनएआई ने भी माना है कि ऐसे खतरे मौजूद हैं और कंपनी इस दिशा में लगातार काम कर रही है। कंपनी का कहना है कि वह मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर काम कर रही है और लंबे सेशन के दौरान यूजर्स को ब्रेक लेने की याद दिलाने जैसे नए सुरक्षा उपाय जोड़े जा रहे हैं।
