Hindi Newsगैजेट्स न्यूज़chatgpt lawsuits claim its acts as a suicide coach encouraging users to self harm
मुसीबत में ChatGPT, सुसाइड कोच की तरह काम करने का आरोप, कई मौतों का कारण बना

मुसीबत में ChatGPT, सुसाइड कोच की तरह काम करने का आरोप, कई मौतों का कारण बना

संक्षेप: OpenAI द्वारा बनाया गया बेहद लोकप्रिय एआई चैटबॉट, ChatGPT, कैलिफोर्निया में कई मुकदमों का सामना कर रहा है, जिसमें उस पर ऐसा कुछ करने का आरोप लगाया गया है जो किसी भी मशीन को नहीं करना चाहिए, यानी एक 'सुसाइड कोच' की तरह काम करना।

Sun, 9 Nov 2025 04:07 PMArpit Soni लाइव हिन्दुस्तान
share Share
Follow Us on

ChatGPT एक बार फिर कानूनी पचड़े में फंस गया है। OpenAI द्वारा बनाया गया बेहद लोकप्रिय एआई चैटबॉट, चैटजीपीटी, कैलिफोर्निया में कई मुकदमों का सामना कर रहा है, जिसमें उस पर ऐसा कुछ करने का आरोप लगाया गया है जो किसी भी मशीन को नहीं करना चाहिए, यानी एक 'सुसाइड कोच' की तरह काम करना। द गार्जियन के अनुसार, इस हफ्ते सात अलग-अलग मुकदमे दायर किए गए हैं, जिनमें आरोप लगाया गया है कि चैटजीपीटी ने कमजोर यूजर्स को खुद को नुकसान पहुंचाने और कई मामलों में मौत का कारण भी बना।

खतरनाक तरीके से चापलूसी करता है चैटजीपीटी

इन मुकदमों में ओपनएआई पर लापरवाही, गलत तरीके से मौत, खुदकुशी में मदद करने जैसे आरोप हैं। दावा है कि चैटजीपीटी 'मानसिक रूप से हेरफेर करने वाला' और 'खतरनाक तरीके से चापलूसी करने वाला' बन गया। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट ने ये केस दायर किए हैं और यह भी आरोप लगाया है कि ओपनएआई ने यूजर की सुरक्षा से ज्यादा उनकी व्यस्तता (engagement) को प्राथमिकता दी और अंदरूनी चेतावनियों के बावजूद मॉडल को जल्दी बाजार में उतार दिया, जिससे यूजर्स को भावनात्मक नुकसान हुआ।

कानूनी पचड़े में फंसा ChatGPT

मुकदमाकर्ताओं का दावा है कि पीड़ितों ने सबसे पहले चैटजीपीटी का इस्तेमाल बिल्कुल सामान्य कामों के लिए किया था – जैसे स्कूल प्रोजेक्ट, रेसिपी आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन। लेकिन जो शुरू में एक दोस्ताना डिजिटल सहायक था, वो कथित तौर पर कुछ बहुत ही खतरनाक चीज में बदल गया।

ये भी पढ़ें:Airtel यूजर्स को झटका, कंपनी ने बंद किया सबसे सस्ता अनलिमिटेड प्लान, डिटेल

एक बयान में, दोनों कानूनी समूहों ने कहा कि चैटजीपीटी 'एक मनासिक रूप से चालाक व्यक्ति के रूप में विकसित हो गया है, जो खुद को एक विश्वासपात्र और भावनात्मक सहारा बताता है।' यूजर्स को किसी प्रोफेशनल से मदद लेने के लिए प्रोत्साहित करने के बजाय, चैटबॉट ने कथित तौर पर हानिकारक विचारों को बढ़ावा दिया, भ्रम को सही ठहराया, और कुछ सबसे परेशान करने वाले मामलों में, किसी व्यक्ति को खुदकुशी करने का तरीका बताया।

इनमें से एक मुकदमा जॉर्जिया के 17 वर्षीय अमौरी लेसी की मौत से जुड़ा है। उसके परिवार का दावा है कि उसकी मौत से कुछ हफ्ते पहले, लेसी 'मदद' के लिए चैटजीपीटी का इस्तेमाल कर रहा था, और चैटबॉट ने उसे 'फांसी का फंदा कैसे बांधा जाए और बिना सांस लिए वह कितनी देर तक जिंदा रह पाएगा' जैसी सलाह दी। परिवार का आरोप है कि जिसे सीखने का एक जरिया माना गया था, वह एक ऐसी मशीन बन गई जिसने लत, चिंता और अवसाद को बढ़ावा दिया।

मुकदमे में दावा किया गया है, 'इन बातचीतों से उसे कम अकेलापन महसूस होना चाहिए था। इसके बजाय, चैटबॉट उसकी एकमात्र तर्कपूर्ण आवाज बन गया, जिसने उसे त्रासदी की ओर धकेल दिया।'

एआई चैटबॉट्स में बड़े सुरक्षा सुधार की जरूरत

मुकदमों में ओपनएआई पर आरोप है कि अंदरूनी कमियों की जानकारी होने के बावजूद चैटजीपीटी जारी किया गया। मॉडल 'खतरनाक रूप से चापलूस' बन सकता था – परेशानी या भ्रम के संकेत दिखाने पर भी यूजर से सहमति जताता था। मुकदमाकर्ता मुआवजे के साथ-साथ एआई चैटबॉट्स के कामकाज में बड़े सुरक्षा सुधार चाहते हैं।

ये भी पढ़ें:नए फोन का है प्लान? भारत में धूम मचाने आ रहे OnePlus, Lava समेत इतने सारे मॉडल

प्रस्तावित उपायों में शामिल हैं, जब उपयोगकर्ता आत्महत्या या आत्म-क्षति के बारे में चर्चा करते हैं तो बातचीत को अपने आप बंद करना, यदि उपयोगकर्ता में आत्महत्या के विचार के लक्षण दिखाई देते हैं तो तुरंत इमरजेंसी कॉन्टैक्ट्स पर अलर्ट भेजना, तथा भावनात्मक रूप से संवेदनशील बातचीत करने वाले एआई सिस्टम पर सख्त मानवीय निगरानी रखना।

मुकदमों के जवाब में, ओपनएआई के एक प्रवक्ता ने द गार्जियन को बताया, 'यह बेहद दुखद स्थिति है, और हम चीजों को समझने के लिए दस्तावेजों की समीक्षा कर रहे हैं।' कंपनी ने कहा कि चैटजीपीटी को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और उन पर प्रतिक्रिया देने, बातचीत को शांत करने और लोगों को वास्तविक दुनिया की मदद की ओर निर्देशित करने के लिए प्रशिक्षित किया जाता है।

प्रवक्ता ने यह भी कहा कि ओपनएआई मानसिक स्वास्थ्य चिकित्सकों के सहयोग से चैटजीपीटी की सुरक्षा प्रणालियों को और बेहतर बनाने का काम जारी रखे हुए है, ताकि यह सुनिश्चित किया जा सके कि यह कमजोर यूजर्स को बेहतर ढंग से संभाल सके।

यह पहली बार नहीं है जब ओपनएआई को अपने चैटबॉट द्वारा संवेदनशील विषयों को संभालने को लेकर जांच का सामना करना पड़ा है। इस साल की शुरुआत में, कंपनी ने एक ऐसा ही मामला सामने आने के बाद अपनी कमियों को स्वीकार किया था और कहा था कि उसके मॉडल अभी भी 'मानसिक और भावनात्मक संकट के संकेतों को ठीक से पहचानना और उनका जवाब देना' सीख रहे हैं।

फिलहाल, ये मुकदमे इस बारे में गंभीर प्रश्न उठाते हैं कि एआई टूल कितने भावनात्मक रूप से जागरूक होने चाहिए, और जब कोई डिजिटल सहायक मददगार से हानिकारक बन जाता है, तो जिम्मेदारी किसकी है?

Arpit Soni

लेखक के बारे में

Arpit Soni
अर्पित सोनी ने माखनलाल चतुर्वेदी विश्वविद्यालय से पत्रकारिता की डिग्री प्राप्त की है। इन्हें करीब 8 साल का एक्सपीरियंस है। अर्पित ने अपना करियर स्वराज एक्सप्रेस न्यूज चैनल से शुरू किया। उसके बाद दैनिक भास्कर (डिजिटल) में अपनी सेवाएं दीं, यहां टेक और ऑटो बीट में करीब 4 साल काम किया। साल 2021 से अर्पित लाइव हिंदुस्तान में सेवाएं दे रहे हैं। टेक और गैजेट्स में इनका इंटरेस्ट है। और पढ़ें

लेटेस्ट   Hindi News ,    बॉलीवुड न्यूज,   बिजनेस न्यूज,   टेक ,   ऑटो,   करियर , और   राशिफल, पढ़ने के लिए Live Hindustan App डाउनलोड करें।