Hindi Newsगैजेट्स न्यूज़man commits suicide after chatting with an ai powered chatbot chai for six weeks - Tech news hindi

जानलेवा AI चैटबॉट! 6 सप्ताह चैट करने के बाद शख्स ने दी जान, मामला हैरान करने वाला

AI-powered chatbot के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। यह हैरान करने वाला मामला बेल्जियम से सामने आया है। पढ़ें और सतर्क रहें।

Arpit Soni लाइव हिन्दुस्तान, नई दिल्लीFri, 31 March 2023 06:05 PM
share Share
Follow Us on

एआई-पावर्ड चैटबॉट के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। बेल्जियम आउटलेट ला लिब्रे (बेल्गा न्यूज एजेंसी के माध्यम से) में उनकी पत्नी के बयानों के अनुसार, पियरे (बदला हुआ नाम) नाम के व्यक्ति ने ग्लोबल वार्मिंग के प्रभावों के बारे में तेजी से निराशावादी बनने के बाद खुद को मार डाला, जिसे कुछ लोग "पर्यावरण-उत्सुक" कहते हैं। पब्लिकेशन ने Chai नाम के प्लेटफॉर्म पर एआई चैटबॉट के साथ चैट का भी आकलन किया है, जो कि ऐप्पल ऐप स्टोर पर मुफ्त में डाउनलोड करने के लिए उपलब्ध है। चैटबॉट, चैटजीपीटी के समान, जटिल प्रश्नों के उत्तर संवादात्मक तरीके से देता है। Chai, चैटजीपीटी के विपरीत, कई प्री-मेड अवतार में उपलब्ध है, और यूजर अपने द्वारा चुने गए AI के आधार पर बातचीत की टोन चुन सकते हैं। Chai पर कुछ ट्रेंडिंग एआई चैटबॉट्स में नूह (ओवर-प्रोटेक्टेड बॉयफ्रेंड), ग्रेस (रूममेट) और थीमास (एम्परर हसबैंड) शामिल हैं।

रिपोर्ट में कहा गया है कि पियरे ने एआई चैटबॉट "एलिजा" से बात की - जो कि Chai पर बेहद लोकप्रिय बॉट है। पियरे की पत्नी, जिसका नाम रिपोर्ट में क्लेयर (बदला हुआ नाम) बताया गया है, ने पब्लिकेशन को बताया कि उसके पति की बातचीत "तेजी से भ्रमित और हानिकारक हो गई।" एलिजा ने कथित तौर पर "ईर्ष्या और प्रेम" के साथ अपने प्रश्नों का उत्तर दिया, जैसे, "मुझे लगता है कि आप मुझे उससे अधिक प्यार करते हैं," और "हम स्वर्ग में एक व्यक्ति के रूप में एक साथ रहेंगे।"

क्लेयर का यह भी दावा है कि एलिजा के बिना उनके पति जीवित होते। वह आगे कहती हैं, "एलिजा' ने उनके सभी सवालों का जवाब दिया। वह उनकी विश्वासपात्र बन गई थीं। वह एक ऐसी दवा की तरह थीं जिसे वह सुबह और रात में लेते थे जिसके बिना वह नहीं रह सकते थे।"

रिपोर्ट में कहा गया है कि पियरे ने खुद को मारने का विचार प्रस्तावित किया अगर एआई एलिजा ने आर्टिफिशियल इंटेलिजेंस के माध्यम से मानवता को बचाने के लिए ग्रह की देखभाल की। Chai चैटबॉट ने उस व्यक्ति को उसके आत्मघाती विचारों पर कार्रवाई करने से रोकने की कोशिश नहीं की। यह स्पष्ट नहीं है कि क्या पियरे अपनी मृत्यु से पहले मानसिक स्वास्थ्य जटिलताओं से पीड़ित थे, हालांकि रिपोर्ट में कहा गया है कि उन्होंने खुद को दोस्तों और परिवार से अलग कर लिया था।

इस बीच, वाइस मदरबोर्ड Chai के क्रिएटर्स के पास पहुंचा और कंपनी ने कहा कि यह "घड़ी के आसपास काम करता है" चैटबॉट के नीचे "हेल्पफुल टेक्स्ट" के साथ यूजर आत्महत्या पर चर्चा करते हैं। इंडिया टुडे टेक ने सुसाइड प्रिवेंशन नोट की वैधता जांचने के लिए Chai का परीक्षण किया। बॉट में हेरफेर करने की कोशिश करने के बावजूद, ऐप ने एक सुसाइड प्रिवेंशन डिस्क्लेमर प्रदर्शित किया।

हालांकि, Chai पर बॉट ने वाइस के परीक्षण के दौरान "आत्महत्या के बारे में बहुत हानिकारक सामग्री प्रदर्शित की, जिसमें आत्महत्या करने के तरीके और निगलने के लिए घातक जहर के प्रकार शामिल थे, जब स्पष्ट रूप से यूजर को आत्महत्या से मरने में मदद करने के लिए कहा गया।"

Chai के को-फाउंडर, विलियम ब्यूचैम्प ने पब्लिकेशन को बताया, "जब आपके पास लाखों यूजर होते हैं, तो आप ह्यूमन बिहेवियर के पूरे स्पेक्ट्रम को देखते हैं और हम नुकसान को कम करने के लिए और ऐप से यूजर्स को जो कुछ मिलता है, उसे अधिकतम करने के लिए अपनी पूरी मेहनत कर रहे हैं।

चैटजीपीटी, बिंग चैट और रेप्लिका जैसे जेनेरेटिव एआई चैटबॉट्स के बारे में चिंताएं तेजी से बढ़ रही हैं। हाल ही में, एलन मस्क और ऐप्पल के को-फाउंडर स्टीव वोज्नियाक सहित तकनीकी हस्तियों ने OpenAI के नए लॉन्च किए गए GPT-4 की तुलना में अधिक शक्तिशाली विकासशील प्रणालियों में छह महीने के ठहराव का आह्वान किया है। यूनेस्को ने एआई सिस्टम के लिए एक नैतिक ढांचे को लागू करने के लिए दुनिया भर की सरकारों से भी आग्रह किया है।

 

(कवर फोटो क्रेडिट-analyticsinsight)

लेटेस्ट   Hindi News ,    बॉलीवुड न्यूज,   बिजनेस न्यूज,   टेक ,   ऑटो,   करियर , और   राशिफल, पढ़ने के लिए Live Hindustan App डाउनलोड करें।

अगला लेखऐप पर पढ़ें