साम्राज्यवाद की गिरफ्त में ‘आर्टिफिशियल इंटेलीजेंस’ [AI]

पूंजीवाद अपनी शुरुआत से ही अपने लिए एक ऐसे क्षेत्र की तलाश करता रहा है, जहाँ उस पर कोई नियम-कानून लागू न हो. जहाँ वह अपनी मूल प्रकृति के साथ काम कर सके और निर्बाध मुनाफा कमा सके. उपनिवेशवाद के दौर में एशिया, अफ्रीका और लैटिन अमरीका वे क्षेत्र थे जहाँ पूंजीवाद अपने सबसे नंगे और क्रूर रूप में मौजूद था और इन देशों के मानवीय/प्राकृतिक संसाधन लूट कर अपने देश [यूरोप-अमरीका] ले जाता रहा है, जहाँ एक हद तक उसे कुछ नियम-कानून के तहत काम करना पड़ता था.
आज के पूंजीवाद यानी साम्राज्यवाद के लिए इन्टरनेट की दुनिया या ‘क्लाउड’ की दुनिया वह क्षेत्र है, जहाँ फिलहाल कोई प्रभावी नियम-कानून लागू नहीं है. पूंजीवाद यहाँ अपने सबसे नंगे और क्रूर रूप में मौजूद है.
चिप बनाने वाली मशहूर कंपनी इंटेल [INTEL] के CEO Andy Grove को उधृत करते हुए गूगल के पूर्व CEO Eric Schmidt ने 2011 में ‘वाशिंगटन पोस्ट’ को दिए एक इंटरव्यू में खुलासा कर दिया कि ये कम्पनियाँ कभी भी किसी नियम-कानून के दायरे में नहीं आयेंगी- ‘’उच्च तकनीक वाली कंपनियां सामान्य व्यापार करने वाली कंपनियों से तीन गुना तेज़ चलती हैं. और सरकारें सामान्य व्यापार करने वाली कंपनियों से तीन गुना पीछे चलती हैं. अतः हमारे और सरकारों के बीच 9 गुने का फर्क है…इसलिए आप महज यह चाहते हैं कि सरकारें हमारे रास्ते में न आयें और चीजों को धीमा न करें.’’
[https://www.washingtonpost.com/national/on-leadership/googles-eric-schmidt-expounds-on-his-senate-testimony/2011/09/30/gIQAPyVgCL_story.html]
‘Eric Schmidt’ एक अन्य जगह इसे दूसरी तरह से कहते हैं- “तकनीक इतनी तेजी से बदलती है कि सरकारों को वास्तव में इसे नियंत्रित करने का प्रयास नहीं करना चाहिए, क्योकि यह बहुत तेजी से बदलती है…..हम किसी भी सरकार के मुकाबले कहीं अधिक तेजी से आगे बढ़ते हैं.’’
[https://www.businessinsider.com/eric-schmidt-google-eg8-2011-5?IR=T]
ठीक इसीलिए अपनी बहुचर्चित किताब ‘The Age of Surveillance Capitalism’ में ‘Shoshana Zuboff’ गूगल, फेसबुक जैसी कंपनियों की तुलना पिछली शताब्दी के ‘robber barons’ से करते हुए लिखती हैं- ’’कानून-विहीन जगह के इन दावों की तुलना पिछली शताब्दी उन रबर बैरोन [robber barons] से उल्लेखनीय रूप में की जा सकती है. गूगल के मालिकों की तरह ही उन्नीसवीं शताब्दी के अंत में वे बड़े पूंजीपति अपने हित में उन अरक्षित क्षेत्रों पर अपना दावा ठोकते थे, उन क्षेत्रों पर अपने विशेषाधिकारों को उचित ठहराते थे और किसी भी तरीके से अपने नए पूंजीवाद को लोकतंत्र से बचाते थे.’’ [page-105-6]

ग्रीस के वित्त-मंत्री रह चुके और मशहूर लेखक Yanis Varoufakis इंटरनेट की इस दुनिया को उचित ही ‘क्लाउड एम्पायर’ [Cloud Empires] की संज्ञा देते हैं. हमारे रोज मर्रा के जीवन से पैदा होने वाले असंख्य ‘मामूली’ डेटा को अपने इस साम्राज्य में गूगल, फेसबुक, एप्पल, माइक्रोसॉफ्ट जैसी बिलियन-ट्रिलियन डॉलर बहुरास्ट्रीय कम्पनियाँ प्रोसेस करती हैं, उनसे नए नए मॉडल बनाती हैं और ‘आर्टिफीसियल इंटेलिजेंस’ [AI] के बहुविध प्रकारों को ट्रेंड [Machine Learning] करती हैं.
डेटा के इसी महत्व के कारण आज के साम्राज्यवादियों का यह नारा बन चुका है कि ‘डेटा इज़ न्यू आयल’ [Data is the new oil].
आगे बढ़ने से पहले हम एक नज़र इस पर डाल लेते हैं कि आखिर डेटा है क्या? और यह इतना महत्वपूर्ण क्यों हो गया है. एक उदाहरण लेते हैं. अगर आप बाज़ार जाने से पहले कागज़ पर जरूरी सामानों की लिस्ट तैयार करते हैं और फिर घर आने के बाद उस बेकार हो चुके कागज़ के टुकड़े को फाड़ कर डस्ट-बिन में डाल देते हैं, तो कहानी यहीं पर खत्म हो जाती है. लेकिन अगर आप अपने सामानों की यह लिस्ट कागज़ के एक टुकड़े पर नहीं बल्कि ‘Google Keep’ जैसे किसी app पर बनाते हैं तो कहानी बिल्कुल अलग हो जाती है. आपकी इस मामूली सी लिस्ट को Google Keep पर मौजूद लाखों-करोड़ों अन्य लिस्ट के साथ सम्मिलित [merge] कर दिया जाता है और लाखों-करोड़ों ऐसे मामूली डेटा की प्रोसेसिंग करके अनेकों मॉडल तैयार किये जाते हैं. इन मॉडल्स के आधार पर हमारे जैसे उपभोक्ताओं के [और खास व्यक्ति का भी] ‘ उपभोक्ता व्यवहार’ [consumer behavior] का अनुमान लगाया जाता है और फिर इसे तीसरी पार्टी [third party] को बेचा जाता है.
पहले उदाहरण में आपने अपने दो अधिकारों का इस्तेमाल किया था. पहला ‘निजता का अधिकार’ और दूसरा ‘भूल जाने का अधिकार’ [Right to be Forgotten, जब आपने लिस्ट को फाड़ कर डस्ट-बिन में डाल दिया]. लेकिन ‘Google Keep’ वाले दूसरे उदाहरण में आपसे यह दोनों अधिकार छीन लिया जाता है. बिना आपको सूचित किये.

लेकिन कहानी अभी भी खत्म नहीं हुई है. गूगल हमारी नितांत निजी सूचनाओं से पैसे कमा रहा है, बिना हमे एक पाई दिए. और इन सूचनाओं पर आधारित माडलों [‘customer behavior prediction models’] को जो कंपनियां [उदाहरण के लिए ‘रिलायंस फ्रेश’] खरीदेंगी उन्हें बिजनेस में भारी फायदा [advantage] मिलेगा और उनके सामने छोटा दुकानदार जल्दी ही मार्केट से बाहर हो जायेगा, क्योंकि उसके पास ये महत्वपूर्ण सूचनाएँ नहीं होंगी. नतीजा होगा एकाधिकार. और इस एकाधिकार से एक ओर बड़े पैमाने पर बेरोजगारी बढ़ेगी दूसरी ओर धन का केंद्रीकरण बढ़ेगा. और फिर इस धन से देश की राजनीति को प्रभावित करना और आसान हो जायेगा.
इसके अलावा ‘उपभोक्ता व्यवहार संभावना माडल’ [customer behavior prediction models] के कारण हमारे पास ‘लक्षित विज्ञापन ’ [targeted ad] आयेंगे और हम उनके बनाये इस मॉडल में कैद होकर रह जायेंगे. यानी वे हमारे व्यवहार को भी बदलने का प्रयास करेंगे ताकि हम ‘अच्छे उपभोक्ता’ बन जाये. यानी ये कम्पनियां हमारे ‘व्यवहार बेशी’ [behavior surplus] के आधार पर हमारे व्यवहार को बदलने का काम [behavior modification] भी करेंगी.
यहाँ उदाहरण जरूर ‘भविष्य काल’ में है. लेकिन आज यह बड़े पैमाने पर घटित हो रहा है.
अब आप इसमें अपनी अन्य ऑनलाइन गतिविधियों को भी जोड़ लीजिये. आपने कितनी बार गूगल किया, किन-किन वेबसाइटों पर गये [एक अनुमान के अनुसार अगर आप 100 वेबसाइट पर जाते हैं तो आपके कम्प्युटर/फोन में करीब 7 हजार ‘कुकीस’ [cookies] स्टोर हो जाती है.और इनमे से करीब 80 प्रतिशत ‘थर्ड पार्टी कुकीस’ होती हैं, जिनका आप द्वारा देखे गये वेबसाइट से कोई सम्बन्ध नहीं होता], क्या आर्डर किया, कितनी बार ऑनलाइन पेमेंट किया, कितनी बार ‘अलेक्सा’ जैसे टूल्स का इस्तेमाल किया कितनी बार सेल्फी ली, कितनी बार फेसबुक, इंस्ट्राग्राम पर गये, कितनी बार वाट्सऐप किया, ‘चैट जीपीटी’ [ChatGPT] से कितने सवाल पूछे और कितनी बार उसे करेक्ट किया आदि आदि… और अगर आपने ‘स्मार्ट वाच’ भी पहन रखी है तो ‘दिल की धड़कन’ और ‘स्लीप पैटर्न’ जैसी नितांत निजी जानकारी भी. यानी पिछले 24 घंटे में आपने सैकड़ों- हजारों सूचनाएँ पैदा की हैं. आपके द्वारा पैदा की हुई इन सूचनाओं पर दुनिया की चंद बड़ी कंपनियों गूगल/फेसबुक/माइक्रोसॉफ्ट/एप्पल….का कब्ज़ा ठीक उसी प्रकार से है जैसे फैक्ट्री में मजदूरों द्वारा बनायी गयी चीजों पर पूंजीपति का होता है.
यह ठीक वैसे ही है जैसे अडानी को लगभग मुफ्त में कोयले की खदाने मिली हैं और वह उसे बेच कर अकूत मुनाफा कमा रहा है.
इसके अलावा हम एक उपभोक्ता के साथ-साथ एक सामाजिक/राजनीतिक व्यक्ति भी हैं. इसलिए ‘सामाजिक कैशिंग’ [social caching] के जरिये हमारी व्यक्तिगत सूचनाओं को इकठ्ठा करके हमारी ‘व्यक्तिगत/सामुदायिक प्रोफाइलिंग’ भी की जाती है. इसकी खरीददार व्यावसायिक कम्पनियाँ नहीं, बल्कि सरकारें होती हैं. इन प्रोफाइल के आधार पर राजनीतिक दल ‘व्यक्ति लक्षित’ [micro-targeted] चुनाव प्रचार करते हैं.
कुख्यात ‘कैम्ब्रिज एनैलिटिका’ का उदाहरण हमारे सामने है. ‘कैम्ब्रिज एनैलिटिका’ ने फेसबुक के करोड़ों डेटा का इस्तेमाल करते हुए अमेरिकी मतदाताओं की प्रोफाइलिंग की और इसके आधार पर अनेको मॉडल बनाये और ट्रम्प की प्रचार रणनीति में मदद करते हुए करोड़ों अमेरिकी मतदाताओं को गलत तरीके से प्रभावित किया. भारत के चुनावों में भी ‘कैम्ब्रिज एनैलिटिका’ की भूमिका साबित हो चुकी है [https://theprint.in/politics/exclusive-inside-story-cambridge-analytica-actually-india/44012/].
यानी इसने भविष्य में चुनावों को ‘हैक’ करना आसान बना दिया है. और चुनावों को ‘हैक’ करने का मतलब है लोकतंत्र को ‘हैक’ करना. और यह ‘हैकिंग’ अब बड़े पैमाने पर शुरू भी हो चुकी है.
इसके अलावा इसका इस्तेमाल सरकारे अपने नागरिकों पर ख़ुफ़िया निगरानी रखने के लिए भी कर रही हैं. ‘सोशल फिजिक्स’ [Social Physics] के लेखक ‘Alex Pentland’ तो यह दावा करते हैं ‘डेटा ड्रिवेन मैथमेटिकल माडल’ [data-driven mathematical model] से हम जनता के सामाजिक व्यवहार का पहले ही पता लगा सकते हैं. और उसके हिसाब से रणनीति बना सकते हैं.
यानी ये कंपनिया प्रतिक्रियावादी सरकारों के साथ मिलकर समाज को एक ‘मछलीघर’ [Aquarium] में बदल देना चाहती हैं जहाँ प्रत्येक ‘मछली’ की प्रत्येक गतिविधि पर नज़र रखी जा सके. इसी सन्दर्भ में गूगल और NSA/CIA के रिश्ते को ‘Shoshana Zuboff’ इस तरह बयां करती हैं- ’24 भाषाओँ में 15 मिलियन दस्तावेजों की खोज करने में समर्थ सर्च उपकरण [ search appliance] के लिए एन.एस.ए ने गूगल को पैसे दिए…….. 2003 में गूगल ने अपने इंटरलिंक मैनेजमेंट ऑफिस [Interlink Management Office] के लिए सीआइए के साथ विशेष संपर्क के तहत अपने सर्च इंजन को भी अनुकूलित [customizing] करना शुरू किया. [‘The Age of Surveillance Capitalism’, p-117]

ऊपर कही गयी बातों के अलोक में देंखे तो ‘The Costs Of Connection’ के लेखक का यह सूत्रीकरण बेहद महत्वपूर्ण है- ’’सार रूप में देंखे तो डेटा उपनिवेशवाद [Data colonialism] उभरती हुई वह व्यवस्था है जहाँ मानव जीवन का विनियोजन [appropriation] किया जाता है, ताकि मुनाफे के लिए इससे डेटा का लगातार दोहन किया जा सके. डेटा संबंधों [data relations] व डिजिटल उपकरणों के जरिये एक दूसरे से व दुनिया से विभिन्न तरीकों से बनाये जाने वाले संबंधों के जरिये इस दोहन को कार्यान्वित किया जाता है. डेटा संबंधों [data relations] के जरिये न सिर्फ मानव जीवन को पूंजीवाद अपने वश में कर लेता है, बल्कि उसे लगातार अपनी निगरानी [surveillance] में भी रखता है. इसका परिणाम यह होता है कि मानव जीवन की स्वायत्तता बुनियादी रूप से खंडित हो जाती है और इससे स्वतंत्रता के उस मूल्य के बुनियादी आधार के लिए खतरा उत्पन्न हो जाता है जिस मूल्य की प्रशंसा पूंजीवाद के समर्थक करते रहते है.’’ [उसी किताब की भूमिका से]
‘औद्योगिक पूंजीवाद’ प्रकृति और मानवीय श्रम का इस्तेमाल करके मुनाफा कमाता था. आज इन दोनों के साथ एक और तत्व जुड़ गया- व्यक्ति का समूचा अनुभव यानि खुद व्यक्ति ही. जिस तरह से पूंजीपति सोते समय भी पैसे कमाता है, ठीक उसी तरह एक आम आदमी सोते समय भी बगल में रखे अपने फोन से गूगल/फेसबुक जैसी कम्पनियों के लिए डेटा पैदा करता रहता है. और जिस तरह से औद्योगिक पूंजीवाद ने प्रकृति को बरबाद किया है, उसी तरह से यह ‘नया’ पूंजीवाद ‘व्यवहारगत बदलाव’ [behavior modification] द्वारा मानव प्रकृति को बर्बाद कर रहा है.
इसी ‘विशाल डेटा फ्लो’ [huge data-flow] पर खड़े होकर लाखों AI विकसित किये जा रहे हैं. पिछले दिनों AI अचानक से चर्चा में तब आया जब इसी इंडस्ट्री से जुड़े कुछ लोगों ने अचानक हल्ला मचाना शुरू कर दिया कि AI से दुनिया नष्ट हो सकती है. इस सन्दर्भ में ‘Artificial Intelligence’ [A Guide for Thinking Humans] की लेखिका Melanie Mitchell की ‘Munk Debate’ [https://youtu.be/144uOfr4SYA] में कही गयी बात एकदम सटीक लगती है कि AI से दुनिया के नष्ट होने का हव्वा खड़ा करना वास्तव में इसके असली खतरे से ध्यान हटाना है.
ठीक इसी तरह AI के चेतस [sentient] होने की बात महज ‘साइंस फिक्शन’ है और कुछ नहीं, भले ही यह बात वैज्ञानिकों की तरफ से ही क्यों न आ रही हों. ‘HAL 9000’ [2001: A Space Odyssey] की लाल आँखें कम्प्यूटर की लाल आँखे नहीं बल्कि उन साम्राज्यवादियों की लाल आँखे हैं, जिनके लिए ‘एक्सपर्ट’ [AI Experts] निरंतर काम कर रहे हैं.
AI की कार्यप्रणाली पर चर्चा करने से पहले आइये यह जान लेते हैं कि पिछली सभी तकनीक [technology] से यह अलग क्यों है. दरअसल AI मशीन ‘लर्निंग’ के सिद्धांत पर काम करता है. यानी अब तक के तकनीकी अविष्कारों में यह पहला आविष्कार है जो हर क्षण अपने में सुधार [improve] करता रहता है. और ऐसा यह निरंतर मिलने वाले ‘डेटा फ्लो’ [data-flow] के आधार पर करता है. दरअसल मशीन ‘लर्निंग’ एक रूपक है. यह समझना बहुत जरूरी है कि कोई भी मशीन ‘लर्न’ [learn] नहीं करती. ‘लर्न’ करना यानी सीखना मनुष्यों और एक हद तक जानवरों यानी सजीव की निशानी है. मशीन, मनुष्यों द्वारा बनाये अलगोरिदम [algorithm] और मनुष्यों द्वारा पैदा ‘डेटा फ्लो’ [data-flow] के आधार पर अपने आपको निरंटर ‘अपग्रेड’ [upgrade] करता रहता है. यह कभी भी अलगोरिदम और डेटा की सीमा से बाहर नहीं जा सकता. जिस तरह ‘हिग्स-बोसान’ पार्टिकल को ‘गॉड पार्टिकल’ कहना गलत है, उसी तरह ‘मशीन लर्निंग’ शब्द भी गलत है.
बहुचर्चित किताब ‘वीपन्स ऑफ़ मैथ्स डिस्ट्रक्शन’ [Weapons of Math Destruction] में Cathy O’Neil ने कई AI मॉडल की पड़ताल की है. चलिए उसी में से एक उदाहरण लेते हैं.
अमेरिका के कई राज्यों में ‘अपराधी’ को बेल देने/न देने या उसकी सजा बढ़ाने/कम करने के लिए जजों की मदद के लिए ‘रीसीवीडिसम माडल’ [recidivism model] का एक AI काम करता है.
आइये देखते हैं यह कैसे काम करता है. मान लीजिये एक गिरफ्तार ब्लैक नौजवान ‘मार्टिन’ की बेल के लिए अर्जी जज के पास आई है. जज AI की मदद लेता है. AI इस ‘मार्टिन’ नाम के ब्लैक नौजवान का डेटा खंगालेगा. उसे क्या मिलेगा?
1. यह बेरोजगार है 2. यह जिस झोपड़पट्टी वाले इलाके में रहता है, वहां अपेक्षाकृत अधिक अपराध घटित होते हैं. 3. मार्टिन कम पढ़ा-लिखा है. और सबसे बढकर मार्टिन के दोस्त/रिश्तेदार/पड़ोसी में से बहुत से ऐसे लोग हैं जिनका आपराधिक इतिहास रहा है.
इसके अलावा इस AI के जटिल एल्गोरिदम [complex algorithm] में स्तर दर स्तर [layer by layer] ऐसी सूचनाएँ भी दर्ज है कि किस क्षेत्र में ज्यादा अपराध घटित होते हैं, किस सामाजिक वर्ग के लोग अपराध में ज्यादा लिप्त होते हैं आदि आदि….. यहाँ जो महत्वपूर्ण बात है वह यह कि इसमें यह सूचना दर्ज नहीं होगी कि वह ब्लैक है. और ठीक इसी कारण यह दावा किया जाता है की AI पूरी तरह से पूर्वाग्रह से मुक्त है, जबकि जज मार्टिन का काला रंग देखकर पूर्वाग्रह से ग्रसित हो सकता है. लेकिन ध्यान से देखने पर पता चलेगा कि AI को जो ‘डेटा फ्लो’ [data-flow] मिल रहा है, उसमे यह तथ्य बेमानी हो जाता है कि मार्टिन ‘ब्लैक’ है.
बहरहाल AI उपरोक्त डेटा को सेकंडो में प्रोसेस करके मार्टिन को बेल से इनकार कर देगा या उसकी सजा को बढ़ा देगा. लेकिन कहानी यहीं खत्म नहीं होती.
मार्टिन के बेल का रिजेक्ट होना या उसकी सजा में बढ़ोत्तरी भी एक डेटा है. और अगले ही क्षण यह खास डेटा ‘डेटा फ्लो’ [data-flow] के साथ इस AI का हिस्सा बन जायेगा. और जब अगली बार किसी ‘जोर्ज’ नामक बेरोजगार नौजवान ‘ब्लैक’ का मामला कोर्ट में आएगा तो मार्टिन का यही डेटा उसके खिलाफ काम करेगा. इसे ही Cathy O’Neil ‘पोईजेनस फीडबैक लूप’ [poisonous feedback loop] कहती हैं. लेकिन अगर एक गोरे जज को मार्टिन/जोर्ज के बारे में खुद निर्णय करना हो तो यह संभावना हमेशा मौजूद होगी कि वह उन्हें बेल दे दे या उनकी सजा कम कर दे. लेकिन AI में संयोग का कारक [chance factor] नहीं होता.
हम जानते हैं कि व्यक्ति के जीवन में संयोग [chance factor] की बहुत बड़ी भूमिका होती है. लेकिन AI में यह संभव नहीं है.
उपरोक्त उदाहरण में अब मार्टिन/जोर्ज की जगह किसी मध्यवर्गीय गोरे नौजवान को रख कर देखिये. नतीजा एकदम उल्टा आएगा. यानी समाज में मौजूद बटवारे/अन्याय को खत्म करने की बात तो छोड़िये, AI उसे और बढ़ा रहा है.
मार्क्स ने पूंजीवाद की तुलना पिशाच [vampire] से करते हुए कहा था कि यह मजदूरों का श्रम चूसकर जिन्दा रहता है. लेकिन ‘आर्टिफिशियल इंटेलिजेंस’ [AI] से लैस यह ‘नया’ पूंजीवाद मानव-जीवन के सभी पहलुओं को निचोड़ कर, चूस कर जीवित रहता है.
यही कारण है कि अमेरिका में AI के इस ‘रीसीवीडिसम माडल’ [recidivism model] के ख़िलाफ़ जबरदस्त विरोध के कारण कई राज्यों में इसे बंद करना पड़ा है.
दरअसल AI हमेशा अतीत के डेटा [भले ही वह 1 सेकंड पहले का हो] पर निर्भर करता है और यह मानकर चलता है कि पैटर्न दोहराया जायेगा. जबकि मानव जीवन हमेशा पैटर्न को तोड़कर ही आगे बढ़ता है.
हाल ही में तेजी से पापुलर हो रहा OpenAI ‘ChatGPT’ भी इसका अपवाद नहीं है. आईआईटी मुंबई के पूर्व प्रोफेसर ‘विनय कृपाल’ ने ‘द हिन्दू’ में लिखे लेख में ‘चैट जीपीटी’ के बारे में किये जा रहे तमाम दावों को पंचर किया है- ‘’पहले से ज्ञात सूचनाओं को ‘चैट जीपीटी’ एक साथ तो ला सकता है, लेकिन वह नए सवाल नहीं खड़े कर सकता या उन सवालों के जवाब नहीं दे सकता. इसकी वही सीमा है जो उस टीम की सीमा है जो इस प्लेटफोर्म [चैट जीपीटी] को सूचना मुहैया करवा रहा है.’’ [https://www.thehindu.com/opinion/open-page/its-only-search-not-research/article67165221.ece#:~:text=Assembly%20seats%20revised-,Research%20has%20no%20value%20if%20it%20only%20summarises%20known%20information,Research%20is%20not%20a%20joke.]
ऐसे ही सैकड़ों AI मॉडल के अध्ययन के आधार पर ‘Cathy O’Neil’ जोरदार तरीके से कहती हैं- ‘’इन माडलों में बहुत से माडल मानवीय पूर्वाग्रह, गलत समझदारी और पक्षपात को कोडिंग के स्तर पर अपने सॉफ्टवेयर सिस्टम में समेटे रहते हैं और आज यही माडल ज्यादा से ज्यादा हमारी जिंदगी को नियंत्रित कर रहे हैं. ईश्वर की तरह ही ये गणितीय माडल भी हमारी पहुँच से दूर होते हैं और इस क्षेत्र के बड़े ‘पुजारियों’ [mathematicians and computer scientists] के अलावा इनके काम करने के तरीकों को और कोई नहीं जान सकता. गलत और हानिकारक होने के बाद भी इनके निर्णयों के खिलाफ़ आप कहीं अपील नहीं कर सकते. इस तरह वे हमारे समाज में गरीब और शोषित को दंड देते हैं वहीँ अमीर को और अमीर बनाते हैं.’’ [ ‘Weapons of Math Destruction’ 2% in EPUB format]
मनुष्य की चेतना [Human Intelligence] से AI की तुलना करते हुए और ‘वैकल्पिक AI’ की बात करते हुए Cathy O’Neil बहुत ही महत्वपूर्ण बात कहती हैं- “बिग डेटा प्रक्रिया अतीत का कोडीकरण करता है [Big Data processes codify the past]. वे भविष्य को नहीं गढ़ सकते. यह करने के लिए नैतिक कल्पना की जरूरत होती है और यह काम सिर्फ मनुष्य कर सकता है. हमें अपने अल्गोरिदम में स्पष्ट रूप से बेहतर मूल्यों को गूथना होगा, ऐसे बिग डेटा माडल का निर्माण करना होगा जो हमारी नैतिकताओं का अनुसरण करें. कभी कभी इसका मतलब यह होगा कि हमें मुनाफे की बजाय निष्पक्षता पर जोर देना चाहिए.’’ [81% in EPUB format]
प्लेटो के दर्शन में इस भौतिक जगत का ‘परफेक्ट रूप’ दूसरी दुनिया यानी ईश्वरीय दुनिया में है. ठीक उसी शब्दावली में कहें तो इस दुनिया में आज जितनी में असमानता और अन्याय मौजूद है, उसका ‘परफेक्ट रूप’ आज के इन AI मॉडलों में मौजूद है.
ठीक इसीलिए ‘Meredith Broussard’ अपनी चर्चित किताब ‘Artificial Unintelligence’ में साफ़ साफ़ लिखती हैं- ’’मैंने जिस एक खतरे को इस किताब में उठाया है, वह वह गलत धारणा है, जिसे मैं तकनीक-भक्ति [technochauvinism] कहती हूँ. तकनीक-भक्ति का मतलब यह मानना है कि तकनीक से सभी चीजों का समाधान किया जा सकता है. [‘Artificial Unintelligence’, 3% in EPUB format ]
‘Meredith Broussard’ और भी आगे जाकर इसके वर्ग-चरित्र का पर्दाफाश करती हैं- ’’पुरुषों का एक छोटा विशिष्ट समूह है जो अपनी गणितीय क्षमताओं में जरूरत से ज्यादा विश्वास करता है, जिसने व्यवस्थित तरीके से सदियों से महिलाओं और काले लोगों को बाहर कर रखा है और इनकी बजाय मशीन को तरजीह दी है, ये विज्ञान गल्प को हमेशा वास्तविक बनाना चाहते हैं, ये सामाजिक परंपरा की रत्ती भर परवाह नहीं करते, उनका मानना है कि सामाजिक मानदंड और नियम उन पर लागू नहीं होते, वे सरकार द्वारा उपलब्ध अकूत धन पर बैठे हुए हैं, और उनकी विचारधारा धुर दक्षिणपंथी उदारवादी अराजक पूंजीवाद [far-right libertarian anarcho-capitalists] की है. [‘Artificial Unintelligence’, 36% in EPUB format ]
आज तमाम सरकारें और उनके बुद्धिजीवी हर सामाजिक समस्या का हल AI तकनीक में खोज रहे हैं और सामाजिक क्रांति या रैडिकल सामाजिक बदलाव से जनता का ध्यान भटका रहे है. इस सन्दर्भ में मुझे एक कहानी याद आ रही है. एक व्यक्ति ‘स्ट्रीट लाईट’ में कुछ ढूढ़ रहा था. वहां से गुजर रहे पुलिसवाले ने जब उससे पूछा तो उसने बताया कि वह अपने घर की चाभी ढूढ़ रहा है. पुलिसवाले ने जब यह पूछा कि क्या तुम्हारी चाभी यहीं गिरी थी तो उसने कहा कि नहीं, लेकिन रोशनी तो यहीं है न.
अब हम भारत पर आते हैं. Information technology, Internet, AI, Cloud Computing, Data-Mining, Quantum computing……. इन सभी क्षेत्रों में भारत कहीं नहीं है. सच तो यह है कि पिछले 20-25 सालों में इन तकनीकों के आने के बाद भारत साम्राज्यवाद के साथ अपने अर्ध-औपनेवेशिक संबंधों में और भी मजबूती से बंध गया है. पुराने समय की तरह ही भारत, गूगल/फेसबुक जैसी साम्राज्यवादी कंपनियों को लगभग फ्री में डेटा सप्लाई कर रहा है और उनसे काफी महंगे दामों पर तकनीक और तमाम ‘AI मॉडल’ खरीद रहा है.
आज भारत निम्न-तकनीक [low-tech] के लिए चीन पर और उच्च तकनीक [high-tech] के लिए अमेरिका व अन्य यूरोपीय देशों पर बुरी तरह से निर्भर है. तमाम चीन विरोधी प्रोपोगैंडा के बावजूद चीन के साथ भारत का व्यापार घाटा लगातार बढ़ता ही जा रहा है.
चीन के साथ अमेरिका व योरोपीय देशों के टकराव की वजह से बहुत सी बहुरास्ट्रीय कम्पनियाँ भारत आ रही हैं. इसी आधार पर सरकार और उनके ‘पालिसी इंटेलेक्चुअल’ [policy intellectual] यह हल्ला मचाने लगे हैं कि भारत अब मोबाइल फोन और मेमोरी/लॉजिक चिप जैसी आधुनिक तकनीक आधारित समान बनाने जा रहा है. लेकिन रघुराम राजन ने 11 अगस्त 2023 को करन थापर को दिए एक इन्टरव्यू [https://www.youtube.com/watch?v=t4pd7BVJ5Vw] में इस दावे की पोल खोलते हुए साफ़ साफ़ कहा कि हम कतई मोबाइल नहीं बना रहे हैं. हम महज उसे ‘असेम्बल’ [assemble] कर रहे हैं. और कई अध्ययन यह बताते हैं कि किसी भी प्रोडक्ट की मूल्य कड़ी [Value chain] में असेम्बली [assemble] की ‘कास्ट’ [cost] महज 4 से 6 प्रतिशत के आसपास होती है.
भारत में आज लगभग 1 लाख ‘स्टार्टअप’ काम कर रहे हैं. इनमे से अधिकांश में साम्राज्यवादी निवेश है और अधिकांश का बुनियादी काम डेटा इकठ्ठा करना या इन डेटा के आधार पर प्राथमिक मॉडल तैयार करना और फिर उसे साम्राज्यवादी कंपनियों को सप्लाई कर देना है या फिर फ्लिप्कार्ट की तरह अपने आपको किसी बहुराष्ट्रीय कंपनी [फ्लिप्कार्ट को वालमार्ट ने खरीद लिया है] को बेच देना है.
पहले की तरह ही आज भी भारत के दलाल शासक साम्राज्यवाद और उनकी अत्याधुनिक तकनीक का सहारा लेकर आर्थिक और राजनीतिक दोनों ही स्तरों पर अपनी जनता का गला घोंटने का प्रयास कर रहे हैं. 16 मार्च 2020 को huffpost.com पर एक बेहद महत्वपूर्ण स्टोरी आयी. इस स्टोरी में कुमार संभव श्रीवास्तव साफ़ साफ़ लिखते हैं- ‘’नरेंद्र मोदी सरकार भारत के 1.2 अरब से अधिक निवासियों में से प्रत्येक के जीवन के हर पहलू पर नज़र रखने के लिए एक सर्वव्यापी, ऑटो-अपडेटिंग, खोज योग्य डेटाबेस [auto-updating, searchable database] बनाने के अंतिम चरण में है.’’
[https://www.huffpost.com/archive/in/entry/aadhaar-national-social-registry-database-modi_in_5e6f4d3cc5b6dda30fcd3462]
और यह कहने की जरूरत नहीं है कि यह बेहद निर्दोष दिखाई देने वाले ‘आधार’ के आधार पर किया जा रहा है.
पिछले साल पास किये गए ‘The Digital Personal Data Protection Bill, 2023’ में ‘डेटा फ्लो’ को एकतरफा [one way] कर दिया गया है. यानी सरकार से आप कोई जानकारी प्राप्त नहीं कर सकते, लेकिन सरकार के पास आपसे सम्बंधित सभी डेटा होंगे. इस बिल के बाद अब ‘सूचना के अधिकार’ [Right to Information Act] का कोई मतलब नहीं रह गया.
अंत में एक अन्य महत्वपूर्ण बिंदु पर चर्चा करना बहुत जरूरी है. वह है AI का जलवायु [Climate] पर असर. ‘ई-कचरे’ [E-waste] पर तो काफी लिखा जा चुका है. इसके अलावा ‘बिग डेटा प्रोसेसिंग’ के लिए बहुत ज्यादा उर्जा की जरूरत होती है. ‘क्वांटम कंप्यूटर’ [quantum computer] आने के बाद उर्जा की जरूरत कई कई गुना बढ़ जाएगी. यह उर्जा हम जिस भी माध्यम से दें, उसका ‘ग्लोबल वार्मिंग’ के साथ बहुत नजदीकी रिश्ता होगा.
इसके अलावा गूगल/फेसबुक जैसी बहुरास्ट्रीय कंपनियों समेत कई देशों ने समुद्र के अंदर अपने विशाल केबल बिछाये हुए है. CSIS [Center for Strategic and International Studies] के अनुसार इन सभी केबल को अगर लम्बाई में नापे तो यह 13 लाख किलोमीटर आएगी. इन्ही विशाल केबल से होकर अंतर्राष्ट्रीय डेटा का करीब 95 प्रतिशत गुजरता है. [https://www.csis.org/analysis/invisible-and-vital-undersea-cables-and-transatlantic-security] प्रति सेकण्ड बड़े पैमाने पर डेटा [huge data] के गुजरने से केबल गर्म होती रहती है और समुद्र के पानी से ठंडी हो रही होती है. यानी बिना कोई पैसे खर्च किये ये साम्राज्यवादी देश और कम्पनियाँ विशाल समुद्र को अपने व्यक्तिगत रेफ्रिजरेटर के रूप में इस्तेमाल कर रहे हैं. और इस तरह समुद्र के ‘इको-सिस्टम’ [ecosystem] को तबाह कर रहे हैं.
दिलचस्प यह है कि इस महत्वपूर्ण पहलू पर कोई गंभीर शोध मौजूद नहीं है. इसका स्पष्ट कारण यह है कि गूगल-फेसबुक जैसी कंपनियों और साम्राज्यवादी देशों ने शोध संस्थाओं को भारी मात्रा में फंड देकर अपने हित में प्रभावित कर रखा है.
मार्क्स ने ‘कम्युनिस्ट मैनिफेस्टो’ में लिखा है कि पूंजीवाद अपने ही इमेज में दुनिया को गढ़ता है [It creates a world after its own image.]. पूंजीवाद के 200-300 सालों बाद अब लगता है कि यह ‘तस्वीर’ पूरी हो चुकी है. आज हम ‘विकल्पहीनता की तानाशाही’ [The Dictatorship of No Alternatives] में रहने को बाध्य हैं. इस तानाशाही को ध्वस्त करके ही हम एक नया विकल्प खड़ा कर सकते हैं, जहाँ हम AI जैसे अत्याधुनिक तकनीक को जनता की सेवा में लगा सकते है.
‘मेटा’ [Meta] में काम कर चुके AI वैज्ञानिक ‘Yann LeCun’ ने ‘मंक डिबेट’ [Munk Debate] में दावा किया है कि फेसबुक द्वारा निर्मित एक AI फेसबुक पर मौजूद करीब 95 प्रतिशत ‘हेट कंटेंट’ को पकड़ सकता है, और डिलीट भी कर सकता है. यह अलग बात है कि फेसबुक इस AI का इस्तेमाल नहीं करता.
‘Shoshana Zuboff’ ने अपनी किताब ‘द ऐज ऑफ़ सर्विलांस कैपिटलिज्म’ को जिस बात से समाप्त किया है, वह यहाँ भी इस लेख के अंत में बेहद प्रासंगिक है- ”प्रकृति को तबाह करने के क्रम में औद्योगिक पूंजीवाद की शिकार प्रकृति कुछ बोल नहीं सकती थी, लेकिन जो लोग आज मानव प्रकृति [human nature] को जीतना चाहते हैं, वे जान लें कि उनके शिकार लोगों के पास अपनी जोरदार आवाज है, और वे इस खतरे को पहचानेंगे भी और उसे हराएंगे भी.” [p-525]
मनीष आज़ाद

This entry was posted in General. Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *