Tuesday, April 16, 2024
HomeTechकैसे 'रेडियोधर्मी डेटा' दुर्भावनापूर्ण AI को प्रकट करने में मदद कर सकता...

कैसे ‘रेडियोधर्मी डेटा’ दुर्भावनापूर्ण AI को प्रकट करने में मदद कर सकता है

बिट दर बिट, आर्टिफिशियल इंटेलिजेंस द्वारा उत्पन्न टेक्स्ट मुख्यधारा में रेंग रहा है। यह सप्ताह खबर लेकर आया कि आदरणीय उपभोक्ता टेक साइट सीएनईटीजहां मैंने 2012 से 2013 तक काम किया था, “ऑटोमेशन तकनीक” का उपयोग कर रहा है नवंबर से वित्तीय विषयों पर कम से कम 73 व्याख्याताओं को प्रकाशित करने के लिए. जबकि साइट ने किसी भी प्रश्न का उत्तर देने से इंकार कर दिया है, यह शायद ही पहला समाचार संगठन है जिसने मानव श्रम को रोबोट से बदलने का पता लगाया है: एसोसिएटेड प्रेस स्वचालित कहानियां प्रकाशित कर रहा है 2014 के बाद से.

इस सप्ताह द न्यूयॉर्क टाइम्स‘ कैड मेट्ज़ प्रोफाइल कैरेक्टर एआई, एक वेबसाइट जो आपको उन चैटबॉट्स से इंटरैक्ट करने देती है जो अनगिनत वास्तविक लोगों और काल्पनिक पात्रों की नकल करते हैं। साइट पिछली गर्मियों में लॉन्च हुई थी और फिलहाल मनोरंजन के उपयोग पर बहुत अधिक निर्भर करती है – एनीमे सितारों, वीडियो गेम पात्रों और माई लिटिल पोनी ब्रह्मांड के साथ बातचीत के हिंडोला की पेशकश। लेकिन अधिक गंभीर व्यवसाय के संकेत हैं, बॉट्स के साथ जो आपको नई भाषाओं में निर्देश देंगे, रचनात्मक लेखन परियोजनाओं में आपकी सहायता करेंगे, और आपको इतिहास पढ़ाएंगे।

ये सभी परियोजनाएं अविश्वास के निलंबन पर निर्भर करती हैं। जब आप एक लेख पढ़ते हैं जैसे “ज़ेल क्या है और यह कैसे काम करता है?,” पाठ कोई स्पष्ट प्रमाण नहीं देता है कि यह भविष्य कहनेवाला पाठ का उपयोग करके उत्पन्न किया गया था। (सीएनईटी मनी बायलाइन के तहत फाइन प्रिंट केवल इतना कहता है कि “इस लेख को एक एआई इंजन द्वारा सहायता प्रदान की गई थी और हमारे संपादकीय कर्मचारियों द्वारा इसकी समीक्षा, तथ्य-जांच और संपादन किया गया था”; संपादक की बायलाइन भी दिखाई देती है।) और इस मामले में, शायद वह इससे कोई फर्क नहीं पड़ता: यह लेख पारंपरिक संपादकीय कारणों से नहीं बनाया गया था बल्कि इसलिए बनाया गया था क्योंकि यह एक लोकप्रिय Google खोज को संतुष्ट करता है; सीएनईटी पेज पर विज्ञापन बेचता है, जिसे उसने पैनी के लिए जेनरेट किया था, और अंतर को पॉकेट में डालता है।

क्या हुआ अगर किया था यद्यपि गुप्त उद्देश्य हैं?

समय के साथ, हमें और अधिक उपभोक्ता वेबसाइटों से इस तरह की “ग्रे” सामग्री की सुविधा की उम्मीद करनी चाहिए: अच्छी-पर्याप्त एआई लेखन, मानव संपादकों द्वारा हल्की समीक्षा की गई (लेकिन हमेशा नहीं), डिजिटल प्रकाशन को उतना ही संभालेंगे जितना पाठक सहन करेंगे। कभी-कभी सच्चे लेखक का खुलासा हो जाएगा; दूसरी बार इसे छुपाया जाएगा।

एआई कुडज़ू लताओं का शांत फैलाव सीएनईटी पत्रकारिता के लिए एक गंभीर विकास है, क्योंकि प्रवेश स्तर के लेखकों के लिए एक बार आरक्षित किए गए अधिक काम तेजी से स्वचालित हो जाते हैं। सामग्री, हालांकि, अनिवार्य रूप से सौम्य है: यह पाठक के सवालों का सही और कुशलता से जवाब देती है, कुछ सहबद्ध लिंक की सेवा से परे कोई गुप्त उद्देश्य नहीं है।

क्या हुआ अगर किया था यद्यपि गुप्त उद्देश्य हैं? इस सप्ताह मैंने पढ़े एक आकर्षक नए पेपर के दिल में यही सवाल है, जो इस बात का व्यापक विश्लेषण प्रस्तुत करता है कि कैसे एआई-जनित पाठ प्रचार और अन्य प्रभाव संचालन को फैलाने के लिए उपयोग किया जा सकता है और लगभग निश्चित रूप से उपयोग किया जाएगा – और क्या सरकारों पर कुछ विचारशील विचार प्रस्तुत करता है , एआई डेवलपर्स और टेक प्लेटफॉर्म इसके बारे में कर सकते हैं।

कागज है “जनरेटिव लैंग्वेज मॉडल और ऑटोमेटेड इन्फ्लुएंस ऑपरेशंस: उभरते हुए खतरे और संभावित कमी,” और इसे जॉर्जटाउन यूनिवर्सिटी के सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी, और स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी और एआई के बीच सहयोग के रूप में लिखा गया था।

पिछले एक दशक के दौरान वैश्विक स्तर के सामाजिक नेटवर्क के उद्भव ने राज्य अभिनेताओं को एक समृद्ध नया कैनवास प्रदान किया, जिस पर वे जनमत को आकार देने का प्रयास कर सकते थे। सबसे प्रसिद्ध रूप से, रूस ने फेसबुक, इंस्टाग्राम और अन्य प्लेटफार्मों पर हजारों नकली अमेरिकियों को बनाने के लिए अपनी ट्रोल सेना का इस्तेमाल किया और 2016 के चुनाव में डोनाल्ड ट्रम्प को स्विंग करने के प्रयास में उन्हें असली लोगों के खिलाफ खड़ा कर दिया। इस बारे में एक वास्तविक बहस है कि वह अभियान कितना प्रभावी है – और सामान्य रूप से संचालन को प्रभावित करता है – वास्तव में हैं। लेकिन अब सालों से, मैं इस कहानी का अनुसरण कर रहा हूं कि कैसे तकनीक इस प्रकार के हमलों को सशक्त बनाती है।

कागज बताता है कि एआई में इन हमलों को और अधिक प्रभावी बनाने की क्षमता है – आंशिक रूप से उन्हें अदृश्य बनाकर। ये हैं जोश ए. गोल्डस्टीन, गिरीश शास्त्री, मीका मूसर, रेनी डिरेस्टा, मैथ्यू जेंटज़ेल और कतेरीना सेडोवा:

कम लागत पर मानव-लिखित सामग्री को टक्कर देने के लिए भाषा मॉडल की क्षमता से पता चलता है कि ये मॉडल-किसी भी शक्तिशाली तकनीक की तरह-उन प्रचारकों को अलग-अलग लाभ प्रदान कर सकते हैं जो उनका उपयोग करना चुनते हैं। ये फायदे अधिक संख्या में अभिनेताओं तक पहुंच का विस्तार कर सकते हैं, प्रभाव की नई रणनीति को सक्षम कर सकते हैं और अभियान के संदेश को कहीं अधिक अनुरूप और संभावित रूप से प्रभावी बना सकते हैं।

प्रभाव संचालन कई आकार ले सकता है; ऐसे अधिकांश ऑपरेशन सरकारों द्वारा अपने ही नागरिकों पर चलाए जाते हैं। विशिष्ट रूप से वे आलोचना से ध्यान हटाना चाहते हैं और सत्ताधारी दल को सकारात्मक प्रकाश में लाना चाहते हैं; वे नीतियों की वकालत या विरोध भी कर सकते हैं, या सहयोगियों या प्रतिद्वंद्वियों के बारे में राय बदलने का प्रयास कर सकते हैं। अन्य समयों में, जैसा कि रूस के मामले में, प्रभाव अभियान विरोधियों को अस्थिर करने का प्रयास करते हैं।

और सबसे अच्छे समय में भी, उनका पता लगाना कठिन हो सकता है। जैसा कि लेखकों ने नोट किया है, “इन अप्रामाणिक खातों की पहचान अक्सर सूक्ष्म संकेतों पर निर्भर करती है: एक गलत मुहावरा, एक बार-बार व्याकरण संबंधी त्रुटि, या यहां तक ​​कि एक बैकटिक (`) का उपयोग जहां एक प्रामाणिक वक्ता एपोस्ट्रोफी (‘) का उपयोग करेगा।”

प्रभावित करने वाले कार्यों को प्रभावित करने के लिए एआई का उपयोग करने पर विचार करने के लिए संभावित रूप से अधिक प्रकार के विरोधियों को आकर्षित करेगा

आने वाले महीनों और वर्षों में, OpenAI के ChatGPT जैसे उपकरण अधिक व्यापक रूप से उपलब्ध होने, अपने कार्यों में बेहतर और उपयोग करने में सस्ते होने की उम्मीद है। पेपर के लेखकों का कहना है कि राज्य स्तर के अभिनेताओं के साथ शुरू होने वाले प्रभाव संचालन के लिए एआई का उपयोग करने पर विचार करने के लिए संभावित रूप से अधिक प्रकार के विरोधियों को आकर्षित करेगा, लेकिन जल्द ही धनी लोगों और अंततः औसत नागरिकों तक पहुंच जाएगा।

वे किस प्रकार के एआई हमलों की तलाश में हैं? यहाँ कुछ लेखकों द्वारा प्रस्तावित हैं:

  • स्वचालित “भाला फ़िशिंग”अभियान, एआई के साथ वैयक्तिकृत, आपको गोपनीय जानकारी प्रकट करने के लिए डिज़ाइन किया गया है।
  • आपकी प्रतिष्ठा पर हमला करने के लिए डीपफेक।
  • वैयक्तिकृत धागे बनाने और सामाजिक दबाव लागू करने के लिए बॉट्स को सामाजिक नेटवर्क पर तैनात करना।
  • झूठे और भ्रामक दावों को उत्पन्न करने के लिए एआई का उपयोग करना, और एआई को समय के साथ और अधिक प्रभावी बनाने के लिए परिष्कृत करना, जिसके आधार पर झूठ सामाजिक प्लेटफॉर्म पर सबसे अधिक जुड़ाव पैदा करता है।

सबसे खराब स्थिति कुछ इस तरह की हो सकती है जैसा कि शोधकर्ता अवीव ओवद्या ने कहा है infocalypse: एक इंटरनेट जहां सर्वव्यापी सिंथेटिक मीडिया सामाजिक विश्वास को लगभग शून्य तक कम कर देता है, क्योंकि कोई भी निश्चित नहीं है कि वे क्या देख रहे हैं या क्यों बना रहे हैं।

तो इसका क्या करें? लेखकों का कहना है कि ऐसे चार स्थान हैं जहां विभिन्न पार्टियां हस्तक्षेप कर सकती हैं।

हम यह नियंत्रित कर सकते हैं कि AI मॉडल कैसे डिज़ाइन किए जाते हैं, और उन्हें बनाने के लिए आवश्यक हार्डवेयर तक किसकी पहुँच है। हम यह नियंत्रित कर सकते हैं कि मॉडलों तक किसकी पहुंच हो। प्लेटफ़ॉर्म एआई प्रभाव संचालन की पहचान करने और उनके प्रसार को रोकने के लिए उपकरण विकसित कर सकते हैं। और उद्योग, नागरिक समाज और पत्रकार मीडिया साक्षरता को बढ़ावा दे सकते हैं और एआई टेक्स्ट की पहचान करने का प्रयास करने वाले काउंटर-एआई टूल का निर्माण कर सकते हैं।

ये सभी समाधान महत्वपूर्ण ट्रेडऑफ़ के साथ आते हैं, जिनका विवरण लेखक देते हैं। पेपर 71 पृष्ठों तक चलता है और एआई या प्लेटफ़ॉर्म अखंडता में रुचि रखने वाले किसी भी व्यक्ति के लिए पूरी तरह से पढ़ने लायक है।

एक क्योंकि यह इतना सीधा और आवश्यक है; दूसरा क्योंकि इसने मेरे दिमाग को उड़ा दिया

लेकिन मैं अगली पीढ़ी के प्रभाव संचालन के लिए दो प्रस्तावित समाधानों को उजागर करना चाहता हूं: एक क्योंकि यह बहुत सीधा और आवश्यक है; दूसरा क्योंकि इसने मेरे दिमाग को उड़ा दिया।

सीधे से शुरू करो। एक पहलू यह है कि 2022 प्रभाव अभियान 2016 के समान दिखते हैं: बुरे लोगों को अभी भी अपना संदेश फैलाने के लिए मंचों की आवश्यकता है। और प्रभाव नेटवर्क की पहचान करने और हटाने के बाद से प्लेटफॉर्म बहुत अधिक परिष्कृत हो गए हैं।

एआई सामाजिक प्लेटफार्मों के लिए कुछ कठिन नए नीतिगत प्रश्नों का परिचय देता है, हालाँकि। वे एआई द्वारा उत्पन्न पोस्टिंग टेक्स्ट पर प्रतिबंध लगाने की संभावना नहीं रखते हैं, क्योंकि इसके लिए बहुत सारे वैध और रचनात्मक उपयोग हैं। लेकिन पेचीदा सवाल भी हैं, कागज के लेखक ध्यान दें: “क्या एआई द्वारा निर्धारित किए गए पदों को चिह्नित किया जाना चाहिए? यदि प्लेटफ़ॉर्म जानते हैं कि कुछ बाहरी साइटें एआई-जनित सामग्री-विशेष रूप से एक राजनीतिक प्रकृति की सामग्री की मेजबानी करती हैं-बिना इसका खुलासा किए, तो क्या यह अपने आप में उन साइटों के लिंक को ब्लॉक करने के लिए पर्याप्त आधार हो सकता है?

अगर मैं मंच की अखंडता पर काम करता, तो मैं इन सवालों के बारे में बात करना शुरू करने के लिए एक कार्य समूह शुरू करता।

लेकिन जैसा कि लेखकों ने नोट किया है, एआई द्वारा उत्पन्न किए गए टेक्स्ट की पहचान करना अक्सर मुश्किल या असंभव होता है। (यह विशेष रूप से छोटे पाठों के साथ सच प्रतीत होता है।) और इसलिए लेखकों का सुझाव है कि Facebook जैसे प्लेटफ़ॉर्म AI डेवलपर्स जैसे OpenAI के साथ सहयोग करते हैं। कल्पना करें कि OpenAI ने कुछ समय के लिए ChatGPT से प्रत्येक आउटपुट को संग्रहीत किया, और Facebook को संदिग्ध अप्रमाणिक सामग्री को फ़्लैग करने और OpenAI के डेटाबेस के विरुद्ध इसकी जाँच करने की अनुमति दी।

लेखक लिखते हैं, “इस प्रकार के सहयोग से अनुवर्ती लाभ हो सकते हैं।” “एक बार एआई कंपनी यह सुनिश्चित कर लेती है कि उपयोगकर्ता सोशल मीडिया पर आउटपुट को दोबारा पोस्ट कर रहा है, तो वे प्लेटफ़ॉर्म के साथ काम कर सकते हैं ताकि यह निर्धारित किया जा सके कि उस उपयोगकर्ता द्वारा उत्पन्न अन्य सामग्री को अन्य सोशल मीडिया प्लेटफ़ॉर्म पर दोबारा पोस्ट किया गया है, संभावित रूप से अन्य समन्वित अप्रमाणिक खातों को पकड़ना जो प्लेटफॉर्म शुरू में हो सकते हैं चूक गया।”

यह मुझे स्मार्ट लगता है – और मुझे उम्मीद है कि इस तरह की बातचीत पहले से ही हो रही है।

लेकिन हमें यह समझने के लिए और अधिक उपकरणों की आवश्यकता होगी कि पाठ कहाँ उत्पन्न हुआ है, लेखक लिखते हैं। और यह हमें वर्ष के अब तक के मेरे पसंदीदा शब्द पर लाता है: “रेडियोधर्मी डेटा।”

कंप्यूटर दृष्टि के उपक्षेत्र में, मेटा के शोधकर्ताओं ने प्रदर्शित किया है कि एआई मॉडल द्वारा निर्मित छवियों को एआई-जनित के रूप में पहचाना जा सकता है यदि उन्हें “रेडियोधर्मी डेटा” पर प्रशिक्षित किया जाता है – अर्थात, ऐसी छवियां जिन्हें प्रशिक्षण प्रक्रिया को थोड़ा विकृत करने के लिए अगोचर रूप से बदल दिया गया है। . यह पता लगाना तब भी संभव है जब किसी मॉडल के प्रशिक्षण डेटा का 1% से कम रेडियोधर्मी हो और तब भी जब मॉडल के दृश्य आउटपुट सामान्य छवियों के समान दिखते हैं। ऐसे भाषा मॉडल बनाना संभव हो सकता है जो रेडियोधर्मी डेटा पर इसी तरह प्रशिक्षण देकर अधिक पता लगाने योग्य आउटपुट उत्पन्न करते हैं; हालाँकि, इस संभावना का व्यापक रूप से पता नहीं लगाया गया है, और दृष्टिकोण अंततः काम नहीं कर सकता है।

कोई निश्चित रूप से निश्चित नहीं है कि यह कैसे (या यदि) काम करेगा; पाठ की तुलना में किसी छवि को सूक्ष्म रूप से बदलना बहुत आसान है। लेकिन मूल विचार यह होगा कि “प्रसारकों को बड़ी मात्रा में ऑनलाइन सामग्री की गुप्त पोस्टिंग में संलग्न होने की आवश्यकता होगी,” वे इस उम्मीद में लिखते हैं कि इस पर प्रशिक्षित मॉडल ऐसे पाठ का उत्पादन करेंगे जो उन “रेडियोधर्मी” पदों पर वापस आ सकते हैं।

यह परमाणु-में-वेब योजना “मजबूत नैतिक चिंताओं को उठाती है”

अगर अब तक आप सोच रहे हैं कि “यह बकवास है,” तो आप अकेले नहीं हैं। अन्य बातों के अलावा, लेखक नोट करते हैं, यह परमाणु-में-वेब योजना “जानबूझकर इंटरनेट को इतनी तेजी से दोबारा बदलने के लिए किसी भी सरकार या कंपनी के अधिकार के बारे में मजबूत नैतिक चिंताओं को उठाती है।” और भले ही कोई किया था उन लंबाई पर जाएं, वे लिखते हैं, “यह स्पष्ट नहीं है कि क्या इस पुनर्प्रशिक्षण के परिणामस्वरूप अधिक पता लगाने योग्य आउटपुट होंगे, और इस प्रकार पता लगाने योग्य प्रभाव संचालन होगा।”

फिर भी, ये बातचीत करने का समय अब ​​​​है। यहां तक ​​​​कि अगर आपको लगता है कि विघटन से समाज को होने वाले अंतिम खतरे को पिछले आधे-दशक में बढ़ा-चढ़ाकर पेश किया गया था, तो इस बात की कोई गारंटी नहीं है कि इसका एआई-संचालित संस्करण वास्तविक खतरा पैदा नहीं करेगा। उम्मीद है कि हमें इसे बचाने के लिए वेब को “रेडियोधर्मी” नहीं बनाना पड़ेगा। लेकिन जैसा कि यह पेपर स्पष्ट करता है, कुछ सख्त कदम बहुत जरूरी साबित हो सकते हैं।

Leave a Reply

Most Popular

Recent Comments