
मुसीबत में ChatGPT, सुसाइड कोच की तरह काम करने का आरोप, कई मौतों का कारण बना
संक्षेप: OpenAI द्वारा बनाया गया बेहद लोकप्रिय एआई चैटबॉट, ChatGPT, कैलिफोर्निया में कई मुकदमों का सामना कर रहा है, जिसमें उस पर ऐसा कुछ करने का आरोप लगाया गया है जो किसी भी मशीन को नहीं करना चाहिए, यानी एक 'सुसाइड कोच' की तरह काम करना।
ChatGPT एक बार फिर कानूनी पचड़े में फंस गया है। OpenAI द्वारा बनाया गया बेहद लोकप्रिय एआई चैटबॉट, चैटजीपीटी, कैलिफोर्निया में कई मुकदमों का सामना कर रहा है, जिसमें उस पर ऐसा कुछ करने का आरोप लगाया गया है जो किसी भी मशीन को नहीं करना चाहिए, यानी एक 'सुसाइड कोच' की तरह काम करना। द गार्जियन के अनुसार, इस हफ्ते सात अलग-अलग मुकदमे दायर किए गए हैं, जिनमें आरोप लगाया गया है कि चैटजीपीटी ने कमजोर यूजर्स को खुद को नुकसान पहुंचाने और कई मामलों में मौत का कारण भी बना।
खतरनाक तरीके से चापलूसी करता है चैटजीपीटी
इन मुकदमों में ओपनएआई पर लापरवाही, गलत तरीके से मौत, खुदकुशी में मदद करने जैसे आरोप हैं। दावा है कि चैटजीपीटी 'मानसिक रूप से हेरफेर करने वाला' और 'खतरनाक तरीके से चापलूसी करने वाला' बन गया। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट ने ये केस दायर किए हैं और यह भी आरोप लगाया है कि ओपनएआई ने यूजर की सुरक्षा से ज्यादा उनकी व्यस्तता (engagement) को प्राथमिकता दी और अंदरूनी चेतावनियों के बावजूद मॉडल को जल्दी बाजार में उतार दिया, जिससे यूजर्स को भावनात्मक नुकसान हुआ।
कानूनी पचड़े में फंसा ChatGPT
मुकदमाकर्ताओं का दावा है कि पीड़ितों ने सबसे पहले चैटजीपीटी का इस्तेमाल बिल्कुल सामान्य कामों के लिए किया था – जैसे स्कूल प्रोजेक्ट, रेसिपी आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन। लेकिन जो शुरू में एक दोस्ताना डिजिटल सहायक था, वो कथित तौर पर कुछ बहुत ही खतरनाक चीज में बदल गया।
एक बयान में, दोनों कानूनी समूहों ने कहा कि चैटजीपीटी 'एक मनासिक रूप से चालाक व्यक्ति के रूप में विकसित हो गया है, जो खुद को एक विश्वासपात्र और भावनात्मक सहारा बताता है।' यूजर्स को किसी प्रोफेशनल से मदद लेने के लिए प्रोत्साहित करने के बजाय, चैटबॉट ने कथित तौर पर हानिकारक विचारों को बढ़ावा दिया, भ्रम को सही ठहराया, और कुछ सबसे परेशान करने वाले मामलों में, किसी व्यक्ति को खुदकुशी करने का तरीका बताया।
इनमें से एक मुकदमा जॉर्जिया के 17 वर्षीय अमौरी लेसी की मौत से जुड़ा है। उसके परिवार का दावा है कि उसकी मौत से कुछ हफ्ते पहले, लेसी 'मदद' के लिए चैटजीपीटी का इस्तेमाल कर रहा था, और चैटबॉट ने उसे 'फांसी का फंदा कैसे बांधा जाए और बिना सांस लिए वह कितनी देर तक जिंदा रह पाएगा' जैसी सलाह दी। परिवार का आरोप है कि जिसे सीखने का एक जरिया माना गया था, वह एक ऐसी मशीन बन गई जिसने लत, चिंता और अवसाद को बढ़ावा दिया।
मुकदमे में दावा किया गया है, 'इन बातचीतों से उसे कम अकेलापन महसूस होना चाहिए था। इसके बजाय, चैटबॉट उसकी एकमात्र तर्कपूर्ण आवाज बन गया, जिसने उसे त्रासदी की ओर धकेल दिया।'
एआई चैटबॉट्स में बड़े सुरक्षा सुधार की जरूरत
मुकदमों में ओपनएआई पर आरोप है कि अंदरूनी कमियों की जानकारी होने के बावजूद चैटजीपीटी जारी किया गया। मॉडल 'खतरनाक रूप से चापलूस' बन सकता था – परेशानी या भ्रम के संकेत दिखाने पर भी यूजर से सहमति जताता था। मुकदमाकर्ता मुआवजे के साथ-साथ एआई चैटबॉट्स के कामकाज में बड़े सुरक्षा सुधार चाहते हैं।
प्रस्तावित उपायों में शामिल हैं, जब उपयोगकर्ता आत्महत्या या आत्म-क्षति के बारे में चर्चा करते हैं तो बातचीत को अपने आप बंद करना, यदि उपयोगकर्ता में आत्महत्या के विचार के लक्षण दिखाई देते हैं तो तुरंत इमरजेंसी कॉन्टैक्ट्स पर अलर्ट भेजना, तथा भावनात्मक रूप से संवेदनशील बातचीत करने वाले एआई सिस्टम पर सख्त मानवीय निगरानी रखना।
मुकदमों के जवाब में, ओपनएआई के एक प्रवक्ता ने द गार्जियन को बताया, 'यह बेहद दुखद स्थिति है, और हम चीजों को समझने के लिए दस्तावेजों की समीक्षा कर रहे हैं।' कंपनी ने कहा कि चैटजीपीटी को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और उन पर प्रतिक्रिया देने, बातचीत को शांत करने और लोगों को वास्तविक दुनिया की मदद की ओर निर्देशित करने के लिए प्रशिक्षित किया जाता है।
प्रवक्ता ने यह भी कहा कि ओपनएआई मानसिक स्वास्थ्य चिकित्सकों के सहयोग से चैटजीपीटी की सुरक्षा प्रणालियों को और बेहतर बनाने का काम जारी रखे हुए है, ताकि यह सुनिश्चित किया जा सके कि यह कमजोर यूजर्स को बेहतर ढंग से संभाल सके।
यह पहली बार नहीं है जब ओपनएआई को अपने चैटबॉट द्वारा संवेदनशील विषयों को संभालने को लेकर जांच का सामना करना पड़ा है। इस साल की शुरुआत में, कंपनी ने एक ऐसा ही मामला सामने आने के बाद अपनी कमियों को स्वीकार किया था और कहा था कि उसके मॉडल अभी भी 'मानसिक और भावनात्मक संकट के संकेतों को ठीक से पहचानना और उनका जवाब देना' सीख रहे हैं।
फिलहाल, ये मुकदमे इस बारे में गंभीर प्रश्न उठाते हैं कि एआई टूल कितने भावनात्मक रूप से जागरूक होने चाहिए, और जब कोई डिजिटल सहायक मददगार से हानिकारक बन जाता है, तो जिम्मेदारी किसकी है?

लेखक के बारे में
Arpit Soniलेटेस्ट Hindi News , बॉलीवुड न्यूज, बिजनेस न्यूज, टेक , ऑटो, करियर , और राशिफल, पढ़ने के लिए Live Hindustan App डाउनलोड करें।




