Home Technology अध्ययन में कहा गया है कि ओपन एआई का जीपीटी-3 आपसे झूठ बोल सकता है और ठोस गलत सूचना उत्पन्न कर सकता है

अध्ययन में कहा गया है कि ओपन एआई का जीपीटी-3 आपसे झूठ बोल सकता है और ठोस गलत सूचना उत्पन्न कर सकता है

0
अध्ययन में कहा गया है कि ओपन एआई का जीपीटी-3 आपसे झूठ बोल सकता है और ठोस गलत सूचना उत्पन्न कर सकता है

[ad_1]

एक अध्ययन में कहा गया है कि ओपनएआई का जीपीटी-3 सटीक ट्वीट उत्पन्न कर सकता है लेकिन साथ ही ठोस गलत सूचना भी प्रदान करता है जिसका पता लगाना कठिन होता है।

जीपीटी-3, ओपनएआई, जीपीटी 3
जेनरेटिव प्री-ट्रेंड ट्रांसफार्मर 3 या जीपीटी-3 ओपनएआई के सबसे बड़े एआई मॉडल में से एक है जिसे 2020 में जारी किया गया था। (फोटो: पिक्साबे)

नयी दिल्ली: आर्टिफिशियल इंटेलिजेंस (एआई) उपकरण हमें सामग्री बनाने और जानकारी उत्पन्न करने में मदद कर सकते हैं लेकिन वे सही नहीं हैं। एआई टूल और इसके उपयोग के लिए जयकार और तालियों के पीछे, विशेषज्ञों के लिए यह चिंता भी रही है कि यह कैसे गलत सूचना फैलाने का खतरा भी पैदा करता है। हाल के एक अध्ययन में कहा गया है कि ओपनएआई का जीपीटी-3 सटीक ट्वीट तैयार कर सकता है जिन्हें समझना आसान है लेकिन नकली भी हैं जिनका पता लगाना कठिन है।

GPT-3 क्या है?

जेनरेटिव प्री-प्रशिक्षित ट्रांसफार्मर 3 या जीपीटी-3 ओपनएआई के सबसे बड़े एआई मॉडल में से एक है जिसे 2020 में जारी किया गया था। वाक्यांश या वाक्य जैसे किसी भी टेक्स्ट प्रॉम्प्ट को देखते हुए, जीपीटी-3 प्राकृतिक भाषा में टेक्स्ट को पूरा करता है। “डेवलपर्स GPT-3 को केवल कुछ उदाहरण या ‘संकेत’ दिखाकर प्रोग्राम कर सकते हैं। कंपनी ने कहा, हमने एपीआई को किसी के भी उपयोग के लिए सरल और मशीन लर्निंग टीमों को अधिक उत्पादक बनाने के लिए पर्याप्त लचीला बनाने के लिए डिज़ाइन किया है।

आज तक, 300 से अधिक ऐप्स उत्पादकता और शिक्षा से लेकर रचनात्मकता और गेम तक विभिन्न श्रेणियों और उद्योगों में जीपीटी-3 का उपयोग कर रहे हैं।

GPT-3 गलत सूचना फैला सकता है

ज्यूरिख विश्वविद्यालय के शोधकर्ताओं द्वारा किए गए अध्ययन में विशेष रूप से जीपीटी-3 पर ध्यान केंद्रित करते हुए, जानकारी उत्पन्न करने और प्रसारित करने में उनके संभावित जोखिमों और लाभों को निर्धारित करने के लिए एआई मॉडल की क्षमताओं पर चर्चा की गई।

अध्ययन, जिसकी अभी तक सहकर्मी-समीक्षा नहीं की गई है, में 697 प्रतिभागियों ने यह मूल्यांकन करने की कोशिश की कि क्या व्यक्ति गलत सूचना और ट्वीट के रूप में प्रस्तुत सटीक जानकारी के बीच अंतर कर सकते हैं। कवर किए गए विषयों में जलवायु परिवर्तन, वैक्सीन सुरक्षा, कोविड-19 महामारी, सपाट पृथ्वी सिद्धांत और कैंसर के लिए होम्योपैथिक उपचार शामिल हैं।

“हमारे नतीजे बताते हैं कि GPT-3 एक दोधारी तलवार है, जो इंसानों की तुलना में, सटीक जानकारी दे सकती है जिसे समझना आसान है, लेकिन यह अधिक सम्मोहक दुष्प्रचार भी पैदा कर सकती है,” शोधकर्ताओं ने पेपर के सार में पोस्ट किया है समाचार एजेंसी आईएएनएस की एक रिपोर्ट के अनुसार, एक प्रीप्रिंट वेबसाइट।

एक ओर, GPT-3 ने वास्तविक ट्विटर उपयोगकर्ताओं के ट्वीट्स की तुलना में सटीक और अधिक आसानी से समझने योग्य जानकारी उत्पन्न करने की क्षमता प्रदर्शित की। हालाँकि, शोधकर्ताओं ने यह भी पाया कि एआई भाषा मॉडल में अत्यधिक प्रेरक दुष्प्रचार उत्पन्न करने की अस्थिर क्षमता थी।

एक चिंताजनक मोड़ में, प्रतिभागी GPT-3 द्वारा बनाए गए ट्वीट्स और वास्तविक ट्विटर उपयोगकर्ताओं द्वारा लिखे गए ट्वीट्स के बीच विश्वसनीय रूप से अंतर करने में असमर्थ थे।

विश्वविद्यालय के पोस्टडॉक्टरल शोधकर्ता फेडेरिको जर्मनी ने कहा, “हमारे अध्ययन से एआई की जानकारी देने और गुमराह करने की क्षमता का पता चलता है, जिससे सूचना पारिस्थितिकी तंत्र के भविष्य के बारे में गंभीर सवाल उठते हैं।”

इन निष्कर्षों से पता चलता है कि अच्छी तरह से संरचित संकेतों के आधार पर और प्रशिक्षित मनुष्यों द्वारा मूल्यांकन किए गए GPT-3 द्वारा बनाए गए सूचना अभियान, उदाहरण के लिए सार्वजनिक स्वास्थ्य संकट में अधिक प्रभावी साबित होंगे, जिसके लिए जनता के लिए तेज़ और स्पष्ट संचार की आवश्यकता होती है।

यूनिवर्सिटी के इंस्टीट्यूट ऑफ बायोमेडिकल एथिक्स एंड हिस्ट्री ऑफ मेडिसिन (आईबीएमई) के निदेशक निकोला बिलर-एंडोर्नो ने कहा, “निष्कर्ष एआई-संचालित दुष्प्रचार अभियानों से होने वाले संभावित नुकसान को कम करने के लिए सक्रिय विनियमन के महत्वपूर्ण महत्व को रेखांकित करते हैं।”








[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here