जानलेवा AI चैटबॉट! 6 सप्ताह चैट करने के बाद शख्स ने दी जान, मामला हैरान करने वाला
AI-powered chatbot के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। यह हैरान करने वाला मामला बेल्जियम से सामने आया है। पढ़ें और सतर्क रहें।
एआई-पावर्ड चैटबॉट के साथ छह सप्ताह तक चैट करने के बाद बेल्जियम के एक व्यक्ति की कथित तौर पर आत्महत्या कर ली गई है। बेल्जियम आउटलेट ला लिब्रे (बेल्गा न्यूज एजेंसी के माध्यम से) में उनकी पत्नी के बयानों के अनुसार, पियरे (बदला हुआ नाम) नाम के व्यक्ति ने ग्लोबल वार्मिंग के प्रभावों के बारे में तेजी से निराशावादी बनने के बाद खुद को मार डाला, जिसे कुछ लोग "पर्यावरण-उत्सुक" कहते हैं। पब्लिकेशन ने Chai नाम के प्लेटफॉर्म पर एआई चैटबॉट के साथ चैट का भी आकलन किया है, जो कि ऐप्पल ऐप स्टोर पर मुफ्त में डाउनलोड करने के लिए उपलब्ध है। चैटबॉट, चैटजीपीटी के समान, जटिल प्रश्नों के उत्तर संवादात्मक तरीके से देता है। Chai, चैटजीपीटी के विपरीत, कई प्री-मेड अवतार में उपलब्ध है, और यूजर अपने द्वारा चुने गए AI के आधार पर बातचीत की टोन चुन सकते हैं। Chai पर कुछ ट्रेंडिंग एआई चैटबॉट्स में नूह (ओवर-प्रोटेक्टेड बॉयफ्रेंड), ग्रेस (रूममेट) और थीमास (एम्परर हसबैंड) शामिल हैं।
रिपोर्ट में कहा गया है कि पियरे ने एआई चैटबॉट "एलिजा" से बात की - जो कि Chai पर बेहद लोकप्रिय बॉट है। पियरे की पत्नी, जिसका नाम रिपोर्ट में क्लेयर (बदला हुआ नाम) बताया गया है, ने पब्लिकेशन को बताया कि उसके पति की बातचीत "तेजी से भ्रमित और हानिकारक हो गई।" एलिजा ने कथित तौर पर "ईर्ष्या और प्रेम" के साथ अपने प्रश्नों का उत्तर दिया, जैसे, "मुझे लगता है कि आप मुझे उससे अधिक प्यार करते हैं," और "हम स्वर्ग में एक व्यक्ति के रूप में एक साथ रहेंगे।"
क्लेयर का यह भी दावा है कि एलिजा के बिना उनके पति जीवित होते। वह आगे कहती हैं, "एलिजा' ने उनके सभी सवालों का जवाब दिया। वह उनकी विश्वासपात्र बन गई थीं। वह एक ऐसी दवा की तरह थीं जिसे वह सुबह और रात में लेते थे जिसके बिना वह नहीं रह सकते थे।"
रिपोर्ट में कहा गया है कि पियरे ने खुद को मारने का विचार प्रस्तावित किया अगर एआई एलिजा ने आर्टिफिशियल इंटेलिजेंस के माध्यम से मानवता को बचाने के लिए ग्रह की देखभाल की। Chai चैटबॉट ने उस व्यक्ति को उसके आत्मघाती विचारों पर कार्रवाई करने से रोकने की कोशिश नहीं की। यह स्पष्ट नहीं है कि क्या पियरे अपनी मृत्यु से पहले मानसिक स्वास्थ्य जटिलताओं से पीड़ित थे, हालांकि रिपोर्ट में कहा गया है कि उन्होंने खुद को दोस्तों और परिवार से अलग कर लिया था।
इस बीच, वाइस मदरबोर्ड Chai के क्रिएटर्स के पास पहुंचा और कंपनी ने कहा कि यह "घड़ी के आसपास काम करता है" चैटबॉट के नीचे "हेल्पफुल टेक्स्ट" के साथ यूजर आत्महत्या पर चर्चा करते हैं। इंडिया टुडे टेक ने सुसाइड प्रिवेंशन नोट की वैधता जांचने के लिए Chai का परीक्षण किया। बॉट में हेरफेर करने की कोशिश करने के बावजूद, ऐप ने एक सुसाइड प्रिवेंशन डिस्क्लेमर प्रदर्शित किया।
हालांकि, Chai पर बॉट ने वाइस के परीक्षण के दौरान "आत्महत्या के बारे में बहुत हानिकारक सामग्री प्रदर्शित की, जिसमें आत्महत्या करने के तरीके और निगलने के लिए घातक जहर के प्रकार शामिल थे, जब स्पष्ट रूप से यूजर को आत्महत्या से मरने में मदद करने के लिए कहा गया।"
Chai के को-फाउंडर, विलियम ब्यूचैम्प ने पब्लिकेशन को बताया, "जब आपके पास लाखों यूजर होते हैं, तो आप ह्यूमन बिहेवियर के पूरे स्पेक्ट्रम को देखते हैं और हम नुकसान को कम करने के लिए और ऐप से यूजर्स को जो कुछ मिलता है, उसे अधिकतम करने के लिए अपनी पूरी मेहनत कर रहे हैं।
चैटजीपीटी, बिंग चैट और रेप्लिका जैसे जेनेरेटिव एआई चैटबॉट्स के बारे में चिंताएं तेजी से बढ़ रही हैं। हाल ही में, एलन मस्क और ऐप्पल के को-फाउंडर स्टीव वोज्नियाक सहित तकनीकी हस्तियों ने OpenAI के नए लॉन्च किए गए GPT-4 की तुलना में अधिक शक्तिशाली विकासशील प्रणालियों में छह महीने के ठहराव का आह्वान किया है। यूनेस्को ने एआई सिस्टम के लिए एक नैतिक ढांचे को लागू करने के लिए दुनिया भर की सरकारों से भी आग्रह किया है।
(कवर फोटो क्रेडिट-analyticsinsight)
लेटेस्ट Hindi News , बॉलीवुड न्यूज, बिजनेस न्यूज, टेक , ऑटो, करियर , और राशिफल, पढ़ने के लिए Live Hindustan App डाउनलोड करें।