January 9, 2026 7:14 am
image - 2026-01-06T155658.394

सन् २०१८ मा लेखक युवाल नोआ हरारीले एउटा शान्त भीडको अगाडि उभिएर चेतावनी दिए: कृत्रिम बुद्धिमत्ता (एआई) अब मानव स्वतन्त्रतामाथि इतिहासकै ठूलो खतरा बन्न सक्छ। फासीवादभन्दा पनि ठूलो, आणविक हतियारभन्दा पनि ठूलो। किनभने पहिलोपटक हामी तर्क गर्न सकिने, लज्जित बनाउन सकिने वा अपदस्थ गर्न सकिने मानवलाई होइन, त्यस्ता प्रणालीलाई शक्ति सुम्पँदै छौँ जसले केही महसुसै गर्दैन र अझ कम बुझ्दछ।

आठ वर्षपछि हेर्दा हरारीको त्यो भविष्यवाणी वास्तविकतासँग हुबहु मिलेको देखिन्छ। केही क्लिकमै मानिसका व्यक्तिगत जीवन नष्ट गर्ने डिपफेक भिडियोहरू सजिलै बनिरहेका छन्। किशोर किशोरीहरू एआई च्याटबोटसँग मित्रता गाँसेर समय व्यतीत गरिरहेका छन् जसको न कहिल्यै उमेर बढ्छ, न कहिल्यै त्यसले विवादै गर्छ। पक्षपात लुकाउन सक्ने र जिम्मेवारी अस्वीकार गर्न सक्ने अपारदर्शी तरिकाले निर्णय गर्ने ब्ल्याक-बक्स अल्गोरिदमहरू प्रयोगमा छन्।

एक अर्थमा हामीले यान्त्रिक बुद्धिमत्ताको अन्वेषण गर्ने क्रममा दिन प्रतिदिन नियन्त्रणबाहिर गइरहेको प्रणाली सिर्जना गरेका छौँ। एआईको आवरणमा हामीले सायद असुर भेट्टाएका छौँ। जसका अनेकौँ खतरामध्ये मुख्य पाँचलाई यहाँ उल्लेख गरिएको छ।

अलाइन्मेन्ट समस्या

सन २०२० मा प्रकाशित ब्रायन क्रिस्टियनको पुस्तक द अलाइन्मेन्ट प्रब्लममा एउटा यस्तो अनुच्छेद छ: अहिले हामी कृत्रिम बुद्धिमत्ताको प्रणालीमा कसरी मानव मूल्यहरू अपनाउने भन्ने जान्दैनौँ, र यस्तो प्रणाली मानव स्तरभन्दा धेरै बुद्धिमान हुनुअघि नै यसको समाधान गर्न कुनै विश्वसनीय योजना पनि छैन।

पाँच वर्षपछि फर्केर हेर्दा यो अनुच्छेदमा भनिएभन्दा अवस्था बदलिएको छैन। मोडलहरूको आकार र क्षमता बरु घातांकीय रूपमा बढिरहेको देखिन्छ। मानव र कृत्रिम बुद्धिमत्ताबीचको यही अन्तरलाई क्रिस्टियनले ‘अलाइन्मेन्ट समस्या’ भनेर परिभाषित गरेका छन्।

एआई अनुसन्धान तथा प्रयोगमा विश्वका तीन ठूला कम्पनीहरू ओपेन एआई, एन्थ्रोपिक र गुगल डिपमाइन्डसमेत कृत्रिम बुद्धिमत्ता प्रणालीहरूले मानव बुद्धिमत्ताको तह पार गरेको दिन अहिले प्रयोग भइरहेका रिवार्ड मोडेलिङ र स्केलेबल ओभरसाइटजस्ता ‘अलाइन्मेन्ट’ तरिका असफल हुने स्विकार्छन्। र यो जोखिम कुनै सुदूरको कल्पना होइन। निष्पक्षता

निष्पक्षता त्यो सिद्धान्त हो जसले व्यक्तिलाई जन्म, जात, लिंग वा सामाजिक हैसियतका आधारमा होइन, क्षमताका आधारमा मूल्यांकन गर्छ। निष्पक्ष न्याय मानव सभ्यताको साझा सपना पनि हो। आधुनिक कानुन र लोकतान्त्रिक संस्थाहरू यही आदर्शको वरिपरि बनेका छन्। तर सदियौँदेखि हामी पूर्वाग्रह, रूढिवाद र ‘ह्युरिस्टिक्स’ नामक निर्णय लिने छोटो मार्गहरू बोक्दै आएका छौँ।

यही पृष्ठभूमिमा एआईको उदयले आशा जगाएको थियो- भावना, थकान वा व्यक्तिगत स्वार्थले नभई विशुद्ध तर्कले निर्देशित हुने यो एक निष्पक्ष न्यायकर्ता हुनेछ। तर, यो आशा एक भ्रम साबित भएको छ।

सन् २०१६ र २०२० को बीचमा, मेसिन लर्निङ समुदायले अल्गोरिदम ‘निष्पक्ष’ बनाउनका लागि फरक समूहहरूलाई समान व्यवहार गर्ने, भरपर्दो भविष्यवाणी प्रदान गर्ने, स्कोरहरू सबैका लागि समान सुनिश्चित गर्नेजस्ता दुई दर्जनभन्दा बढी परिभाषा विकास गरेका थिए। यद्यपि, यी परिभाषाहरू अक्सर एकआपसमा बाझिने गरेको अनुसन्धानले देखाएको छ।

जस्तो, नर्थपोइन्टले विकास गरेको आपराधिक जोखिम मूल्यांकन सफ्टवेयर कम्पास (करेक्सनल अफेन्डर म्यानेजमेन्ट प्रोफाइलिङ फर अल्टरनेटिभ स्याङसन)को त्रुटि दर फरक फरक जाति समूहहरूका लागि अत्यधिक असमान थियो। एप्पलले ‘लिङ्ग-तटस्थ’ ऋण दिने दाबी गरे पनि महिलाहरूलाई पुरुषको तुलनामा कम क्रेडिट सीमा दियो। यस्तै अस्पतालहरूले उपचारको प्राथमिकता तय गर्न जाति-तटस्थ भनिने जोखिम मूल्यांकन अल्गोरिदम प्रयोग गरे जसले विगतको स्वास्थ्य सेवा खर्चलाई समेत सूचकको रूपमा प्रयोग गर्ने भएकाले अश्वेत बिरामीहरूलाई लाइनको पछाडि पठाए। ऐतिहासिक रूपमा अश्वेत समुदायले स्वास्थ्य सेवा कम पाउनु वा आर्थिक अभावमा स्वास्थ्य सेवा नलिनुलाई अल्गोरिदमले कम जोखिम भएको भन्दै मूल्यांकन गरिदियो। ‘म्याथ डेस्ट्रक्सन’को हतियार

एआईबाट उत्पन्न तेस्रो खतरा अहिले समाजमा पूर्णरूपमा कार्यान्वयनमा छ र इतिहासमा कुनै पनि तानाशाही शासकले समेत हासिल गर्न नसकेको स्तरमा सञ्चालन भइरहेको छ। करिब एक दशकअघि गणितज्ञ क्याथी ओ’नीलले यी प्रणालीलाई नाम दिएकी थिइन्- वेपन्स अफ म्याथ डेस्ट्रक्सन।

माथि नै भनियो- कसले ऋण पाउँछ, कसलाई जमानतमा छोडिन्छ, कसलाई रोजगारीको अन्तर्वार्ता हुन्छ, कसले स्वास्थ्य बीमा सुरक्षित गर्छ, कसलाई बाल संरक्षण सेवाले शंकाको सूचीमा राख्छ र अस्पतालमा कुन बिरामीको पालो अगाडि आउँछ भन्ने निर्णय आज गणितीय मोडेल (अल्गोरिदम)हरूले गर्छन्। तर यो निष्पक्ष नभएर पूर्वाग्रहको विस्तार बनेको छ। दशकौँ लामो मानव इतिहासमा बुनिएका पूर्वाग्रहरू मेसिन लर्निङको माध्यमबाट ‘निष्पक्ष गणित’ को आवरणमा हामीतिरै फर्किइरहेका छन्। जसले एकसाथ लाखौँ मानिसको जीवन बर्बाद पारिरहेको छ।

क्याथीका अनुसार यी गणितीय मोडेलहरूले भेदभावलाई झन् प्रश्रय दिइरहेका छन्। जस्तो, कुनै जोखिम मूल्यांकन मोडेलले निर्धारण गरेकै आधारमा यदि कुनै गरिब विद्यार्थीले ऋण नपाएमा ऊ शिक्षाबाट मात्रै वञ्चित हुने छैन, उसलाई गरिबीको दुश्चक्रबाट निकाल्ने समाधानबाटै विमुख हुनेछ। क्याथीको भाषा भन्ने हो भने यस्ता मोडेलहरूले ऐतिहासिकरूपमा लाभान्वित समूहलाई नै साथ दिएर उत्पीडितलाई थप दण्डित गरिरहेका छन् जसले लोकतन्त्रका लागि विषाक्त ‘ककटेल’ तयार पारिरहेको छ।

विगतको स्वास्थ्य उपचार खर्चका आधारमा उपचारको प्राथमिकता निर्धारण गरिएको माथिल्लो उदाहरणले पनि इतिहासको गणितीय मूल्यांकनले कसरी उत्पीडितलाई दण्डित गरिरहेको छ भन्ने प्रस्ट हुन्छ।

यी प्रणालीहरू मानव भेदभावभन्दा तीन कारणले बढी खतरनाक छन्। एक, यी विस्तार हुन्छन्। दुई, यी गुप्त हुन्छन् र तीन, यिनको प्रत्यक्ष सामना गर्न सकिँदैन। विनाशका यी गणितीय हतियारले नियम तोडेका हुँदैनन्। यी स्वयं निष्पक्ष देखिने शैलीमा नियमका रूपमा स्थापित हुन्छन्।

कथाको विखण्डन

प्राचीन इतिहासदेखि आजसम्म सामूहिक कथाहरूले नै मानव समाजको मानसिक ढाँचा तयार पारेका छन्। यिनैले अपेक्षाहरू मिलाउँथे र सहकार्य तथा सरकार सञ्चालन सम्भव बनाउने साझा वास्तविकता तयार पार्थे। प्लेटोदेखि हाना अरेन्टसम्मका दार्शनिकहरूले तर्क गरेका छन् कि संस्थाहरूले मात्र होइन, सार्वजनिक सहभागिताले पनि राजनीतिक वैधता कायम राख्छन्। हरारीको त्यो डरलाग्दो सपना अब वास्तविकतामा परिणत हुँदै छ। अर्बौं मानिसहरू एउटा अल्गोरिद्‌मिक मेसिनका कारण निष्क्रिय र सजिलै नियन्त्रण गर्न सकिने पुर्जामा बदलिँदै छन्। जसका लक्ष्यहरू कहिल्यै हाम्रो सामाजिक हितसँग मेल खाँदैनन्, जसका निर्णयहरू परीक्षण गर्न सकिँदैनन्, जसको न्याय केवल भ्रम हो।

तथापि, हामीसँग अझै एक साँघुरो ढोका बाँकी छ जसबाट हामी भन्न सक्छौँ कि, सभ्यता बदल्ने क्षमतासम्म पुगेको कुनै पनि प्रणालीले पहिला सभ्यता भत्काउँदैनौँ भनेर प्रमाणित गर्नुपर्छ।

Leave a Reply

Your email address will not be published. Required fields are marked *