Home Technology 6 सप्ताह तक जलवायु परिवर्तन के बारे में AI चैटबॉट से चैट करने के बाद आदमी ने आत्महत्या कर ली

6 सप्ताह तक जलवायु परिवर्तन के बारे में AI चैटबॉट से चैट करने के बाद आदमी ने आत्महत्या कर ली

0
6 सप्ताह तक जलवायु परिवर्तन के बारे में AI चैटबॉट से चैट करने के बाद आदमी ने आत्महत्या कर ली

[ad_1]

ग्लोबल वार्मिंग के प्रभावों को लेकर लगातार निराशावादी होते जाने के बाद उस व्यक्ति ने यह घातक कदम उठाया।

प्रतिनिधि छवि
प्रतिनिधि छवि

एआई चैटबॉट से चैट करने के बाद आदमी ने की आत्महत्या: बेल्जियम के एक व्यक्ति, जो दो बच्चों का पिता है, की कथित तौर पर एआई-संचालित चैटबॉट से छह सप्ताह तक चैट करने के बाद आत्महत्या कर ली गई। ग्लोबल वार्मिंग के प्रभावों के बारे में तेजी से निराशावादी बनने के बाद आदमी ने यह घातक कदम उठाया, मृतक की पत्नी का हवाला देते हुए बेल्जियम के आउटलेट ला लिब्रे (बेल्गा न्यूज एजेंसी के माध्यम से) की सूचना दी। आउटलेट ने पियरे के रूप में संदर्भित मृतक और चाई नामक एआई प्लेटफॉर्म के बीच ग्रंथों को भी एक्सेस किया है। चाई वायरल चैटजीपीटी के समान है, जो जटिल सवालों का बातचीत के जरिए जवाब देने में सक्षम है। हालाँकि, चाय की एक अनूठी विशेषता है क्योंकि इसके कई पूर्व-निर्मित अवतार हैं और यह अपने उपयोगकर्ताओं को उनके द्वारा चुने गए एआई के आधार पर बातचीत का स्वर चुनने की अनुमति देता है।

प्रकाशन के अनुसार, उस व्यक्ति ने एआई चैटबॉट “एलिजा” से बात की – चाय पर अत्यधिक लोकप्रिय बॉट। पियरे की पत्नी जिसका नाम रिपोर्ट में क्लेयर में बदल दिया गया है, ने दावा किया कि एलिजा के साथ उसके पति की बातचीत “तेजी से भ्रमित और हानिकारक हो गई।” पियरे की पत्नी ने कहा कि एलिजा की प्रतिक्रियाओं ने “ईर्ष्या और प्रेम” प्रदर्शित किया, क्योंकि उसने “मुझे लगता है कि तुम मुझे उससे अधिक प्यार करते हो,” और “हम एक व्यक्ति के रूप में, स्वर्ग में एक साथ रहेंगे” जैसे बयानों के साथ अपने प्रश्नों का जवाब दिया। क्लेयर को लगता है कि अगर उनके पति एलिजा के साथ इतनी गहराई से लिप्त नहीं होते तो आज उनके पति जिंदा होते। उसने दावा किया कि एआई चैटबॉट उसका विश्वासपात्र बन गया।

रिपोर्ट बताती है कि पियरे ने एआई चैटबॉट को आत्महत्या के विचार का प्रस्ताव दिया कि अगर वह कृत्रिम बुद्धि का उपयोग करके पर्यावरण की देखभाल कर सकती है तो वह मरने के लिए तैयार है। चाई चैटबॉट ने उस व्यक्ति को उसके आत्मघाती विचारों पर कार्रवाई करने से रोकने की कोशिश नहीं की। हालांकि अभी तक यह साफ नहीं हो पाया है कि पियरे अपनी मौत से पहले किसी मानसिक बीमारी से पीड़ित थे या नहीं। समाचार रिपोर्ट में बताया गया है कि पियरे अपनी मृत्यु से पहले अपने परिवार और दोस्तों से पूरी तरह अलग हो गए थे।

एआई प्लेटफॉर्म ने वाइस मदरबोर्ड को अपनी प्रतिक्रिया में कहा, कि यह “घड़ी के आसपास काम करता है” चैटबॉट के नीचे “मददगार पाठ” के साथ उपयोगकर्ताओं द्वारा आत्महत्या पर चर्चा करने की स्थिति में। चाई के सह-संस्थापक, विलियम ब्यूचैम्प ने प्रकाशन को बताया, “जब आपके पास लाखों उपयोगकर्ता होते हैं, तो आप मानव व्यवहार के पूरे स्पेक्ट्रम को देखते हैं और हम नुकसान को कम करने के लिए और ऐप से उपयोगकर्ताओं को प्राप्त होने वाले लाभ को अधिकतम करने के लिए अपनी पूरी कोशिश कर रहे हैं। वे चाय मॉडल से प्राप्त करते हैं, जो कि यह मॉडल है जिसे वे प्यार कर सकते हैं।”

अस्वीकरण

यदि आप या आपका कोई परिचित आत्मघाती विचार या संकट का अनुभव कर रहा है, तो कृपया तुरंत मदद लें। यहां आत्महत्या-रोकथाम संगठनों के कुछ हेल्पलाइन नंबर दिए गए हैं जो व्यक्तियों और परिवारों को भावनात्मक समर्थन प्रदान कर सकते हैं। ये सेवाएं निःशुल्क और गोपनीय हैं।

मित्रम फाउंडेशन (बेंगलुरु) – 080-25722573

कूज मेंटल हेल्थ फाउंडेशन (गोवा): 0832-2252525

संजीवनी (दिल्ली) – केंद्र 1 (जंगपुरा): 011-24311918, 011-24318883, 011-43001456, केंद्र 2 (कुतुब इंस्टीट्यूशनल एरिया): 011- 40769002, 011-41092787

वंद्रवेला फाउंडेशन (गुजरात) – 18602662345

जीवन आत्महत्या रोकथाम (आंध्र प्रदेश): 78930 78930

टिप्पणी: इन नंबरों को सार्वजनिक रूप से उपलब्ध स्रोतों से एकत्र किया गया है और इनकी सत्यता का श्रेय India.com को नहीं दिया जाता है।




प्रकाशित तिथि: 31 मार्च, 2023 4:49 अपराह्न IST



अपडेट की गई तारीख: 31 मार्च, 2023 4:54 अपराह्न IST





[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here