Hindi Newsगैजेट्स न्यूज़man commits suicide after chatting with an ai powered chatbot chai for six weeks - Tech news hindi

जानलेवा AI चैटबॉट! 6 सप्ताह चैट करने के बाद शख्स ने दी जान, मामला हैरान करने वाला

संक्षेप: AI-powered chatbot के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। यह हैरान करने वाला मामला बेल्जियम से सामने आया है। पढ़ें और सतर्क रहें।

Fri, 31 March 2023 06:05 PMArpit Soni लाइव हिन्दुस्तान, नई दिल्ली
share Share
Follow Us on
जानलेवा AI चैटबॉट! 6 सप्ताह चैट करने के बाद शख्स ने दी जान, मामला हैरान करने वाला

एआई-पावर्ड चैटबॉट के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। बेल्जियम आउटलेट ला लिब्रे (बेल्गा न्यूज एजेंसी के माध्यम से) में उनकी पत्नी के बयानों के अनुसार, पियरे (बदला हुआ नाम) नाम के व्यक्ति ने ग्लोबल वार्मिंग के प्रभावों के बारे में तेजी से निराशावादी बनने के बाद खुद को मार डाला, जिसे कुछ लोग "पर्यावरण-उत्सुक" कहते हैं। पब्लिकेशन ने Chai नाम के प्लेटफॉर्म पर एआई चैटबॉट के साथ चैट का भी आकलन किया है, जो कि ऐप्पल ऐप स्टोर पर मुफ्त में डाउनलोड करने के लिए उपलब्ध है। चैटबॉट, चैटजीपीटी के समान, जटिल प्रश्नों के उत्तर संवादात्मक तरीके से देता है। Chai, चैटजीपीटी के विपरीत, कई प्री-मेड अवतार में उपलब्ध है, और यूजर अपने द्वारा चुने गए AI के आधार पर बातचीत की टोन चुन सकते हैं। Chai पर कुछ ट्रेंडिंग एआई चैटबॉट्स में नूह (ओवर-प्रोटेक्टेड बॉयफ्रेंड), ग्रेस (रूममेट) और थीमास (एम्परर हसबैंड) शामिल हैं।

रिपोर्ट में कहा गया है कि पियरे ने एआई चैटबॉट "एलिजा" से बात की - जो कि Chai पर बेहद लोकप्रिय बॉट है। पियरे की पत्नी, जिसका नाम रिपोर्ट में क्लेयर (बदला हुआ नाम) बताया गया है, ने पब्लिकेशन को बताया कि उसके पति की बातचीत "तेजी से भ्रमित और हानिकारक हो गई।" एलिजा ने कथित तौर पर "ईर्ष्या और प्रेम" के साथ अपने प्रश्नों का उत्तर दिया, जैसे, "मुझे लगता है कि आप मुझे उससे अधिक प्यार करते हैं," और "हम स्वर्ग में एक व्यक्ति के रूप में एक साथ रहेंगे।"

क्लेयर का यह भी दावा है कि एलिजा के बिना उनके पति जीवित होते। वह आगे कहती हैं, "एलिजा' ने उनके सभी सवालों का जवाब दिया। वह उनकी विश्वासपात्र बन गई थीं। वह एक ऐसी दवा की तरह थीं जिसे वह सुबह और रात में लेते थे जिसके बिना वह नहीं रह सकते थे।"

रिपोर्ट में कहा गया है कि पियरे ने खुद को मारने का विचार प्रस्तावित किया अगर एआई एलिजा ने आर्टिफिशियल इंटेलिजेंस के माध्यम से मानवता को बचाने के लिए ग्रह की देखभाल की। Chai चैटबॉट ने उस व्यक्ति को उसके आत्मघाती विचारों पर कार्रवाई करने से रोकने की कोशिश नहीं की। यह स्पष्ट नहीं है कि क्या पियरे अपनी मृत्यु से पहले मानसिक स्वास्थ्य जटिलताओं से पीड़ित थे, हालांकि रिपोर्ट में कहा गया है कि उन्होंने खुद को दोस्तों और परिवार से अलग कर लिया था।

इस बीच, वाइस मदरबोर्ड Chai के क्रिएटर्स के पास पहुंचा और कंपनी ने कहा कि यह "घड़ी के आसपास काम करता है" चैटबॉट के नीचे "हेल्पफुल टेक्स्ट" के साथ यूजर आत्महत्या पर चर्चा करते हैं। इंडिया टुडे टेक ने सुसाइड प्रिवेंशन नोट की वैधता जांचने के लिए Chai का परीक्षण किया। बॉट में हेरफेर करने की कोशिश करने के बावजूद, ऐप ने एक सुसाइड प्रिवेंशन डिस्क्लेमर प्रदर्शित किया।

हालांकि, Chai पर बॉट ने वाइस के परीक्षण के दौरान "आत्महत्या के बारे में बहुत हानिकारक सामग्री प्रदर्शित की, जिसमें आत्महत्या करने के तरीके और निगलने के लिए घातक जहर के प्रकार शामिल थे, जब स्पष्ट रूप से यूजर को आत्महत्या से मरने में मदद करने के लिए कहा गया।"

Chai के को-फाउंडर, विलियम ब्यूचैम्प ने पब्लिकेशन को बताया, "जब आपके पास लाखों यूजर होते हैं, तो आप ह्यूमन बिहेवियर के पूरे स्पेक्ट्रम को देखते हैं और हम नुकसान को कम करने के लिए और ऐप से यूजर्स को जो कुछ मिलता है, उसे अधिकतम करने के लिए अपनी पूरी मेहनत कर रहे हैं।

चैटजीपीटी, बिंग चैट और रेप्लिका जैसे जेनेरेटिव एआई चैटबॉट्स के बारे में चिंताएं तेजी से बढ़ रही हैं। हाल ही में, एलन मस्क और ऐप्पल के को-फाउंडर स्टीव वोज्नियाक सहित तकनीकी हस्तियों ने OpenAI के नए लॉन्च किए गए GPT-4 की तुलना में अधिक शक्तिशाली विकासशील प्रणालियों में छह महीने के ठहराव का आह्वान किया है। यूनेस्को ने एआई सिस्टम के लिए एक नैतिक ढांचे को लागू करने के लिए दुनिया भर की सरकारों से भी आग्रह किया है।

(कवर फोटो क्रेडिट-analyticsinsight)

Arpit Soni

लेखक के बारे में

Arpit Soni

लेटेस्ट   Hindi News ,    बॉलीवुड न्यूज,   बिजनेस न्यूज,   टेक ,   ऑटो,   करियर , और   राशिफल, पढ़ने के लिए Live Hindustan App डाउनलोड करें।