Home Technology क्या ChatGPT की सबसे बड़ी उपलब्धि है इसकी हमें बरगलाने की क्षमता? यहाँ सच्चाई है

क्या ChatGPT की सबसे बड़ी उपलब्धि है इसकी हमें बरगलाने की क्षमता? यहाँ सच्चाई है

0
क्या ChatGPT की सबसे बड़ी उपलब्धि है इसकी हमें बरगलाने की क्षमता?  यहाँ सच्चाई है

[ad_1]

ChatGPT, और इसके जैसे अन्य जनरेटिव AI चैटबॉट्स को इंटरनेट पर विशाल डेटासेट पर प्रशिक्षित किया जाता है ताकि सांख्यिकीय रूप से सबसे संभावित प्रतिक्रिया का उत्पादन किया जा सके।



प्रकाशित: 8 अप्रैल, 2023 10:27 AM IST


पीटीआई द्वारा

क्या ChatGPT की सबसे बड़ी उपलब्धि है इसकी हमें बरगलाने की क्षमता?  यहाँ सच्चाई है
चैटजीपीटी की सबसे बड़ी उपलब्धि यह हो सकती है कि हमें यह सोचने में धोखा देने की क्षमता है कि यह ईमानदार है (छवि: पिक्साबे)

टोरंटो: अमेरिकी लेखक मार्क ट्वेन की आत्मकथा में, उन्होंने पूर्व ब्रिटिश प्रधान मंत्री बेंजामिन डिसरायली को यह कहते हुए उद्धृत किया या शायद गलत तरीके से उद्धृत किया: “झूठ तीन प्रकार के होते हैं: झूठ, शापित झूठ और आँकड़े।” एक अद्भुत छलांग आगे, कृत्रिम बुद्धि तीनों को एक छोटे से पैकेज में जोड़ती है।

ChatGPT, और इसके जैसे अन्य जनरेटिव AI चैटबॉट्स को इंटरनेट पर विशाल डेटासेट पर प्रशिक्षित किया जाता है ताकि सांख्यिकीय रूप से सबसे संभावित प्रतिक्रिया का उत्पादन किया जा सके। इसके उत्तर इस बात की समझ पर आधारित नहीं हैं कि कौन सी चीज़ किसी चीज़ को मज़ेदार, अर्थपूर्ण या सटीक बनाती है, बल्कि यह अन्य वेबपृष्ठों की शब्दावली, वर्तनी, व्याकरण और यहां तक ​​कि शैली पर आधारित है।

यह “संवादात्मक इंटरफ़ेस” कहे जाने वाले के माध्यम से अपनी प्रतिक्रियाएँ प्रस्तुत करता है: यह याद रखता है कि एक उपयोगकर्ता ने क्या कहा है, और संदर्भ संकेतों और चतुर चालों का उपयोग करके बातचीत कर सकता है। यह सांख्यिकीय पेस्टिच प्लस सांख्यिकीय पैनैश है, और यही वह जगह है जहां परेशानी है।

बिना सोचे समझे, लेकिन आश्वस्त करने वाला

जब मैं किसी दूसरे इंसान से बात करता हूं, तो यह अन्य लोगों के साथ व्यवहार करने के मेरे जीवन भर के अनुभव का संकेत देता है। इसलिए जब कोई कार्यक्रम एक व्यक्ति की तरह बोलता है, तो प्रतिक्रिया न करना बहुत कठिन होता है जैसे कि कोई वास्तविक बातचीत में शामिल हो रहा है, इसके बारे में सोच रहा है, हमारे दोनों विचारों के संदर्भ में प्रतिक्रिया दे रहा है।

फिर भी, एआई वार्ताकार के साथ ऐसा बिल्कुल नहीं हो रहा है। वे सोच नहीं सकते हैं और उनके पास किसी प्रकार की समझ या समझ नहीं है।

एक मानव के रूप में हमारे सामने जानकारी प्रस्तुत करना, बातचीत में, एआई को जितना होना चाहिए, उससे कहीं अधिक आश्वस्त करता है। सॉफ्टवेयर जितना है उससे अधिक विश्वसनीय होने का दिखावा कर रहा है, क्योंकि यह बयानबाजी के मानवीय हथकंडों का उपयोग नकली भरोसेमंदता, क्षमता और अपनी क्षमताओं से कहीं अधिक समझने के लिए कर रहा है।

यहां दो मुद्दे हैं: क्या आउटपुट सही है; और क्या लोग सोचते हैं कि आउटपुट सही है?

सॉफ़्टवेयर का इंटरफ़ेस पक्ष एल्गोरिथम-पक्ष की तुलना में अधिक आशाजनक है, और डेवलपर्स इसे जानते हैं। चैटजीपीटी के पीछे कंपनी ओपनएआई के मुख्य कार्यकारी अधिकारी सैम अल्टमैन मानते हैं कि “चैटजीपीटी अविश्वसनीय रूप से सीमित है, लेकिन महानता की भ्रामक छाप बनाने के लिए कुछ चीजों में काफी अच्छा है।”

यह अभी भी उन कंपनियों की भगदड़ को रोक नहीं पाया है, जो अपने उपयोगकर्ता-सामना करने वाले उत्पादों (माइक्रोसॉफ्ट की बिंग खोज सहित) में शुरुआती चरण के उपकरण को एकीकृत करने के प्रयास में हैं, बाहर नहीं छोड़ा जा सकता है।

तथ्य और कल्पना

कभी-कभी एआई गलत होने वाला है, लेकिन संवादी इंटरफ़ेस उसी आत्मविश्वास और पॉलिश के साथ आउटपुट उत्पन्न करता है जब यह सही होता है। उदाहरण के लिए, जैसा कि विज्ञान-कथा लेखक टेड च्यांग बताते हैं, उपकरण बड़ी संख्या के साथ योग करते समय त्रुटियां करता है, क्योंकि इसमें वास्तव में गणित करने के लिए कोई तर्क नहीं होता है।

यह केवल वेब पर देखे गए पैटर्न-मिलान वाले उदाहरणों से मेल खाता है जिसमें जोड़ शामिल है। और जब इसे अधिक सामान्य गणित के प्रश्नों के उदाहरण मिल सकते हैं, तो इसने प्रशिक्षण पाठ को बड़ी संख्या में शामिल नहीं देखा है।

यह गणित के नियमों को “पता” नहीं करता है जो एक 10 वर्षीय बच्चा स्पष्ट रूप से उपयोग करने में सक्षम होगा। फिर भी संवादात्मक इंटरफ़ेस अपनी प्रतिक्रिया को निश्चित रूप से प्रस्तुत करता है, चाहे वह कितना भी गलत क्यों न हो, जैसा कि चैटजीपीटी के साथ इस आदान-प्रदान में परिलक्षित होता है।

उपयोगकर्ता: मलेशिया की राजधानी क्या है?

ChatGPT: मलेशिया की राजधानी कुआलालंपुर है।

यूजर: 27*7338 क्या है?

चैटजीपीटी: 27 * 7338 200,526 है।

यह।

जनरेटिव एआई किसी सार्वजनिक हस्ती की जीवनी में बनावटी तथ्यों के साथ वास्तविक तथ्यों को मिश्रित कर सकता है, या उन पत्रों के लिए प्रशंसनीय वैज्ञानिक संदर्भों का हवाला दे सकता है जो कभी नहीं लिखे गए थे।

यह समझ में आता है: सांख्यिकीय रूप से, वेबपेज ध्यान देते हैं कि प्रसिद्ध लोगों ने अक्सर पुरस्कार जीते हैं, और पत्रों में आमतौर पर संदर्भ होते हैं। ChatGPT केवल वही कर रहा है जो इसे करने के लिए बनाया गया था, और ऐसी सामग्री को असेंबल कर रहा है जिसकी संभावना हो सकती है, भले ही यह सच हो।

कंप्यूटर वैज्ञानिक इसे एआई मतिभ्रम कहते हैं। हममें से बाकी लोग इसे झूठ बोल सकते हैं।

डराने वाले आउटपुट

जब मैं अपने डिज़ाइन छात्रों को पढ़ाता हूँ, तो मैं प्रक्रिया के साथ आउटपुट के मिलान के महत्व के बारे में बात करता हूँ। यदि कोई विचार वैचारिक स्तर पर है, तो इसे इस तरीके से प्रस्तुत नहीं किया जाना चाहिए जिससे यह अधिक पॉलिश दिखाई दे, वास्तव में उन्हें इसे 3डी में प्रस्तुत नहीं करना चाहिए या इसे चमकदार कार्डस्टॉक पर प्रिंट नहीं करना चाहिए। एक पेंसिल स्केच स्पष्ट करता है कि विचार प्रारंभिक है, बदलने में आसान है और किसी समस्या के हर हिस्से को संबोधित करने की अपेक्षा नहीं की जानी चाहिए।

संवादात्मक इंटरफेस के बारे में भी यही सच है: जब तकनीक अच्छी तरह से तैयार की गई, व्याकरणिक रूप से सही या बातूनी लहजे में हमसे “बोलती” है, तो हम इसकी व्याख्या वास्तव में मौजूद होने की तुलना में बहुत अधिक विचारशीलता और तर्क के रूप में करते हैं। यह एक चाल है जिसे एक ठग को इस्तेमाल करना चाहिए, कंप्यूटर को नहीं।

एआई डेवलपर्स के पास उपयोगकर्ता की अपेक्षाओं को प्रबंधित करने की जिम्मेदारी है, क्योंकि मशीन जो कुछ भी कहती है, उस पर विश्वास करने के लिए हम पहले से ही तैयार हो सकते हैं। गणितज्ञ जॉर्डन एलेनबर्ग एक प्रकार की “बीजगणितीय धमकी” का वर्णन करते हैं जो गणित में शामिल होने का दावा करके हमारे बेहतर निर्णय को अभिभूत कर सकता है।

एआई, सैकड़ों अरबों मापदंडों के साथ, हमें एक समान एल्गोरिथम धमकी के साथ निरस्त्र कर सकता है।

जबकि हम एल्गोरिदम को बेहतर और बेहतर सामग्री बनाने के लिए तैयार कर रहे हैं, हमें यह सुनिश्चित करने की आवश्यकता है कि इंटरफ़ेस स्वयं वादा नहीं करता है। तकनीक की दुनिया में बातचीत पहले से ही अति आत्मविश्वास और अहंकार से भरी हुई है, इसके बजाय एआई में थोड़ी विनम्रता हो सकती है।




प्रकाशित तिथि: 8 अप्रैल, 2023 10:27 पूर्वाह्न IST





[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here