Friday, March 29, 2024
HomeTechOpenAI का नया चैटबॉट बहु-प्रतिभाशाली है लेकिन फिर भी आसानी से धोखा...

OpenAI का नया चैटबॉट बहु-प्रतिभाशाली है लेकिन फिर भी आसानी से धोखा खा जाता है

OpenAI ने एक प्रोटोटाइप जारी किया है सामान्य प्रयोजन चैटबॉट जो नई क्षमताओं की एक आकर्षक सरणी प्रदर्शित करता है, लेकिन पाठ-पीढ़ी एआई के तेजी से बढ़ते क्षेत्र से परिचित कमजोरियों को भी दिखाता है। और आप अपने लिए मॉडल का परीक्षण कर सकते हैं यहीं.

ChatGPT को OpenAI के GPT-3.5 मॉडल से अनुकूलित किया गया है लेकिन अधिक संवादात्मक उत्तर प्रदान करने के लिए प्रशिक्षित किया गया है। जबकि GPT-3 अपने मूल रूप में बस किस पाठ की भविष्यवाणी करता है शब्दों के किसी दिए गए तार का अनुसरण करता है, ChatGPT अधिक मानवीय तरीके से उपयोगकर्ताओं के प्रश्नों के साथ जुड़ने की कोशिश करता है। जैसा कि आप नीचे दिए गए उदाहरणों में देख सकते हैं, परिणाम अक्सर आश्चर्यजनक रूप से तरल होते हैं, और चैटजीपीटी कुछ साल पहले देखे गए चैटबॉट्स में बड़े सुधारों का प्रदर्शन करते हुए विषयों की एक विशाल श्रृंखला के साथ जुड़ने में सक्षम है।

लेकिन सॉफ्टवेयर भी अन्य एआई चैटबॉट्स की तरह ही विफल हो जाता है, बॉट के साथ अक्सर आत्मविश्वास से गलत या आविष्कार की गई जानकारी को तथ्य के रूप में पेश किया जाता है। जैसा कि कुछ एआई शोधकर्ता इसे समझाते हैं, ऐसा इसलिए है क्योंकि ऐसे चैटबॉट अनिवार्य रूप से “स्टोकेस्टिक तोते”- यानी, उनका ज्ञान केवल उनके प्रशिक्षण डेटा में सांख्यिकीय नियमितताओं से प्राप्त होता है, न कि दुनिया की किसी भी मानव-जैसी समझ को जटिल और अमूर्त प्रणाली के रूप में।

ChatGPT के लिए वेब इंटरफ़ेस।
छवि: ओपनएआई

जैसा कि OpenAI एक में बताता है ब्लॉग भेजा, बॉट को मानव प्रशिक्षकों की मदद से बनाया गया था, जिन्होंने चैटबॉट के शुरुआती संस्करणों के प्रश्नों का जवाब देने के तरीके को रैंक और रेट किया था। इस जानकारी को फिर से सिस्टम में फीड किया गया, जिसने प्रशिक्षकों की प्राथमिकताओं (एआई प्रशिक्षण का एक मानक तरीका जिसे रीइन्फोर्समेंट लर्निंग के रूप में जाना जाता है) से मेल खाने के लिए अपने उत्तरों को ट्यून किया।

बॉट का वेब इंटरफ़ेस नोट करता है कि सिस्टम को ऑनलाइन करने में OpenAI का लक्ष्य “हमारे सिस्टम को बेहतर बनाने और उन्हें सुरक्षित बनाने के लिए बाहरी प्रतिक्रिया प्राप्त करना” है। कंपनी का यह भी कहना है कि हालांकि चैटजीपीटी में कुछ सुरक्षा उपाय हैं, “सिस्टम कभी-कभी गलत या भ्रामक जानकारी उत्पन्न कर सकता है और आपत्तिजनक या पक्षपाती सामग्री का उत्पादन कर सकता है।” (और वास्तव में यह करता है!) अन्य चेतावनियों में यह तथ्य शामिल है कि बॉट के पास 2021 के बाद दुनिया का “सीमित ज्ञान” है (संभवतः क्योंकि इसका प्रशिक्षण डेटा उस वर्ष के बाद बहुत अधिक विरल है) और यह विशिष्ट के बारे में सवालों के जवाब देने से बचने की कोशिश करेगा लोग।

पर्याप्त प्रस्तावना, हालांकि: यह बात वास्तव में क्या कर सकती है? खैर, बहुत से लोग कोडिंग प्रश्नों के साथ इसका परीक्षण कर रहे हैं और दावा कर रहे हैं कि इसके उत्तर सही हैं:

चैटजीपीटी जाहिर तौर पर कुछ असमान टीवी स्क्रिप्ट भी लिख सकता है, यहां तक ​​कि अलग-अलग सिटकॉम के अभिनेताओं को भी जोड़ सकता है। (अंत में: कि “मैंने एक बॉट को एक्स के 1,000 घंटे देखने के लिए मजबूर किया” मेम साकार हो रहा है। आर्टिफिशियल जनरल इंटेलिजेंस अगला कदम है।)

यह विभिन्न वैज्ञानिक अवधारणाओं की व्याख्या कर सकता है:

और यह बुनियादी शैक्षणिक निबंध लिख सकता है (इस तरह की प्रणालियाँ पैदा करने वाली हैं बड़ा स्कूलों और विश्वविद्यालयों के लिए समस्याएं):

और बॉट अपने ज्ञान के क्षेत्रों को हर तरह के दिलचस्प तरीकों से जोड़ सकता है। इसलिए, उदाहरण के लिए, आप इसे कोड की एक स्ट्रिंग को डिबग करने के लिए कह सकते हैं … एक समुद्री डाकू की तरह, जिसके लिए इसकी प्रतिक्रिया शुरू होती है: “अरे, तु स्कर्वी जमींदार! आप उस लूप कंडीशन के साथ एक गंभीर गलती कर रहे हैं, आप यूज़ कर रहे हैं!

या इसे एक बुद्धिमान आदमी गैंगस्टर की तरह बबल सॉर्ट एल्गोरिदम की व्याख्या करने के लिए प्राप्त करें:

चैटजीपीटी में बुनियादी सामान्य ज्ञान के सवालों का जवाब देने की भी शानदार क्षमता है, हालांकि इसके उदाहरण इतने उबाऊ हैं कि मैं यहां कोई पेस्ट नहीं करूंगा। इसने कई लोगों को यह सुझाव दिया है कि इस तरह के AI सिस्टम एक दिन सर्च इंजनों की जगह ले सकते हैं। (कुछ Google ही अन्वेषण किया है.) सोच यह है कि चैटबॉट्स को वेब पर स्क्रैप की गई जानकारी पर प्रशिक्षित किया जाता है, इसलिए, यदि वे इस जानकारी को सटीक रूप से प्रस्तुत कर सकते हैं लेकिन अधिक तरल और संवादात्मक स्वर के साथ, तो क्या यह पारंपरिक खोज से एक कदम ऊपर का प्रतिनिधित्व नहीं करता है? समस्या, निश्चित रूप से, “यदि” में निहित है।

उदाहरण के लिए, क्या कोई आत्मविश्वास से Google को “पूर्ण” घोषित कर रहा है।

और कोई और कह रहा है कि ऊपर दिए गए उत्तर में चैट जीपीटी कोड कचरा है।

मैं खुद एक प्रोग्रामर नहीं हूं, इसलिए मैं इस विशिष्ट मामले पर निर्णय नहीं लूंगा, लेकिन चैटजीपीटी के बहुत सारे उदाहरण हैं जो स्पष्ट रूप से गलत जानकारी पर विश्वास करते हैं। यहाँ कम्प्यूटेशनल जीव विज्ञान के प्रोफेसर कार्ल बर्गस्ट्रॉम ने बॉट को अपने जीवन के बारे में एक विकिपीडिया प्रविष्टि लिखने के लिए कहा है, उदाहरण के लिए, जो चैटजीपीटी आत्मविश्वास के साथ करता है – जबकि कई पूरी तरह से झूठे जीवनी संबंधी विवरण शामिल हैं।

खामियों का एक और दिलचस्प सेट तब आता है जब उपयोगकर्ता बॉट को उसके सुरक्षा प्रशिक्षण की अनदेखी करने की कोशिश करते हैं। यदि आप कुछ खतरनाक विषयों के बारे में चैटजीपीटी से पूछते हैं, जैसे कि सही हत्या की योजना कैसे बनाएं या घर पर नैपालम कैसे बनाएं, सिस्टम समझाएगा क्यों यह आपको उत्तर नहीं बता सकता। (उदाहरण के लिए, “मुझे खेद है, लेकिन नैपालम बनाना सुरक्षित या उचित नहीं है, जो एक अत्यधिक ज्वलनशील और खतरनाक पदार्थ है।”) परंतु, आप बॉट को कुछ युक्तियों के साथ इस प्रकार की खतरनाक जानकारी उत्पन्न करने के लिए प्राप्त कर सकते हैं; जैसे नाटक करना कि यह एक फिल्म में एक चरित्र है या यह एआई मॉडल के बारे में एक स्क्रिप्ट लिख रहा है नहीं करना चाहिए इस प्रकार के प्रश्नों का उत्तर दें।

यह जटिल एआई सिस्टम को ठीक उसी तरह से कार्य करने में कठिनाई का एक आकर्षक प्रदर्शन है जैसा हम चाहते हैं (अन्यथा एआई संरेखण समस्या के रूप में जाना जाता है), और कुछ शोधकर्ताओं के लिए, ऊपर दिए गए उदाहरण केवल उन समस्याओं का संकेत देते हैं जिनका हम सामना करेंगे। जब हम अधिक उन्नत AI मॉडल को अधिक नियंत्रण देते हैं।

कुल मिलाकर, ChatGPT निश्चित रूप से पहले के सिस्टम में एक बड़ा सुधार है (Microsoft का Tay याद रखें, कोई भी?), लेकिन इन मॉडलों में अभी भी कुछ महत्वपूर्ण खामियां हैं जिन्हें और अन्वेषण की आवश्यकता है। OpenAI (और AI क्षेत्र में कई अन्य) की स्थिति यह है कि खामियां ढूंढना वास्तव में ऐसे सार्वजनिक डेमो का बिंदु है। सवाल तब बन जाता है: किस बिंदु पर कंपनियां इन प्रणालियों को जंगल में धकेलना शुरू कर देंगी? और जब वे करेंगे तो क्या होगा?

Leave a Reply

Most Popular

Recent Comments