close

डीपफेक प्रविधिः जसबाट अमेरिकी राष्ट्रपति चुनाव नै खतरामा छ

टेकपाना टेकपाना

जेठ ११, २०७७ ११:१५

डीपफेक प्रविधिः जसबाट अमेरिकी राष्ट्रपति चुनाव नै खतरामा छ

काठमाडौं । डीपफेक प्रविधि, सुरक्षाको दष्टिले खतरनाक छ । आगामी नोभेम्बरका लागि तय भएको २०२० को अमेरिकी राष्ट्रपति पदको चुनावलाई यो प्रविधिले प्रभावित पार्ने आशंकाहरु व्यक्त भइरहेका थिए तर अहिले नयाँ शुभ खबर आएको छ । 

एकजना उम्मेद्वारको डीपफेकले २०२० को चुनावलाई प्रभावित पार्न नसक्नेमा विज्ञहरुले सहमति जनाएका छन् । तर सँगै अर्को खराब समाचार पनि छ । कुनै उम्मेद्वारको डीफेक बाहिर नआए पनि डीपफेक प्रविधिले मात्रै पनि चुनावलाई प्रभावित पार्न सक्नेछ । 

डीपफेक प्रविधि प्रयोग गरेर एउटा उम्मेद्वारले कहिल्यै गर्दै नगरेको अपराध आफैंले स्वीकार गर्दै गरेको भिडियो सार्वजनिक हुनसक्ने त्रास आम मानिसहरुमा छ । तर विज्ञहरु यसलाई ठूलो खतरा मान्दैनन् । 

डीपट्रस्ट अलायन्सका सीईओ तथा संस्थापक क्याथरिन ह्यारिसन भन्छन्, ‘२०२० को चुनावलाई सबैभन्दा ठूलो खतरा केबाट छ भनेर प्रश्न गर्‍यो भने म त्यो डीपफेक होइन भन्छु । तर डीपफेकसँग झुटा डिजिटल जानकारीहरु मिलाएर त्यसलाई भाइरल गरियो भने एउटा वास्तविक भिडियोको रुप लिनेछ जसलाई वस्तविक हो वा बनावटी भनेर प्रमाणित गर्न नै गाह्रो हुनेछ ।’

यो एउटा ठूलो खतरा हो । जसलाई चलाखीपूर्ण ढंगले सिर्जना गरिएको छ । यसलाई ‘लायर्स डिभिडेन्ड’ को नाम दिइएको छ । यो शब्द डीपफेक रिसर्च सर्कलमाझ निकै लोकप्रिय छ ।

डीपफेक मात्र प्रयोग भएको खण्डमा यो त्यति विश्वसनीय हुँदैन । वास्तवमा एउटा अपराध गरेको उम्मेद्वारले पनि डीपफेकको प्रयोग गरेर आफ्ना मतदाताहरुलाई सजिलै झुक्याउन सक्छ ।  

यदि डीपफेक प्रयोग गरेर कसैले प्रजातन्त्रलाई भाँड्न चाहन्छ भने त्यसले एकजना उम्मेद्वारलाई मात्र निशाना बनाउने छैन । चुनावप्रतिको जन विश्वासको नै यसले गला रेट्नसक्छ । 

मिडियालाई तोडमोड गर्नु कुनै नयाँ तरिका होइन । फोटोग्राफीको आविष्कारदेखि नै मानिसहरुले स्थिर तस्वीरहरु तोडमोड गरिरहेकै छन् । फोटोसप जस्ता प्रोग्रामहरुले यसलाई थप सहयोग पुर्‍याइरहेका छन् । 

डीपफेक अल्गोरिदम स्टेरोएडमा फोटोसप जस्तै हुन्छ । डीपफेकमा आर्टिफिसियल इन्टेलिजेन्सले यति अत्याधुनिक नक्कली भिडियो बनाइदिन सक्छ, जहाँ एउटा व्यक्तिले कहिल्यै नगरेको र नबोलेको कुरा उसले स्वीकार गरिरहेको हुन्छ । 

अहिलेसम्म त्यति धेरै घातक डीपफेक भिडियोहरु आइसकेका छैनन् । मतदान नजिकिँदै गर्दा डीपफेकको समस्या बुझाउन अमेरिकाको डेमोक्र्याटिक दल आफैले आफ्ना अध्यक्षको डीपफेक बाहिर ल्याएको थियो । 

लायर्स डिभिडेन्ड शब्दको सुरुवात गर्ने टेक्सस युनिभर्सिटीका कानून विषयका प्राध्यापक बब्बी चेस्नीका अनुसार डेमोक्रेटिक पीएसएले पहिलोपटक डीपफेक विरुद्ध लड्न मानिसहरुलाई यसबारे जानकारी दिएको थियो ।

तर यसको नकारात्मक पक्ष के रह्यो भने मानिसहरुलाई यसबारे सिकाउँदा डीपफेकको प्रयोग अझ बढेर गयो । डीपफेकबारे सिक्ने प्रत्येक व्यक्तिले अर्को व्यक्तिलाई  वास्तविक जस्तो देखिने भिडियो वास्तविक हुन्न भन्ने कुरा सिकाउन सक्छ । 

अमेरिकी चुनावको मिति नोभेम्बर ३ नजिकिँदै गर्दा सबै अमेरिकी मतदाताहरुले आफूलाई यहि दुविधामा पाइरहेका छन् । चेस्नीको अनुसार फर्जी समाचारको रुवाई अब डीपफेक समाचारको रुवाई बनिसकेको छ । 

आर्टिफिसियल इन्टेलिजेन्सबाट उत्पन्न भएको यो नवीन प्रविधिले मानिसहरुको आखाँलाई मुर्ख बनाउन एकदमै प्रभावकारी छ । यो प्रविधिलाई जीएएन अर्थात् जेनेरेटिभ एड्भर्सियल नेटवर्क भनिन्छ ।

आर्टिफिसियल इन्टेलिजेन्स विकास भएको दशक भइसक्यो । तर यो जीएएन प्रविधि छ वर्ष पहिले मात्र विकास भएको हो । 

जीएएन एक प्रकारको डीप मसिन लर्निङ हो । यसको अवधारणा बुझ्न एउटा उदाहरण हेराैं । यसमा आर्टिस्ट एउटा जेनेरेटर हुन्छ र आलोचक एउटा डिस्क्रिमिनेटर हुन्छ । दुवै न्युरल नेटवर्क हुन् ।

मस्तिष्कले कसरी काम गर्छ भन्ने यो एउटा एआई मोडल हो । जेनेरेटरले स्केचबाट नमुना तयार गर्दछ । डिस्क्रिमिनेटरले  जेनेरेटरको नमूना हेर्छ । जसमा वास्तविक कुराहरु पनि मिसिएको हुन्छ ।

त्यसपछि डिस्क्रिमिनेटरले कुन कुरा वास्तविक हो र कुन कुरा फेक हो भनेर मूल्याङ्कन गरी सुझावको रुपमा जेनेरेटरलाई पठाउँछ । त्यसपछि जेनेरेटरले त्यस्ता सुजावलाई प्रयोग गरेर आफ्नो अर्को स्याम्पलमा थप सुधार ल्याउँछ । उसले निरन्तर यसरी नै काम गरिरहन्छ । 

जीएएन एउटा सिस्टम हो, जून मानिसहरुलाई झुक्याउँदै आफू पनि राम्रो बन्दै जाने एउटा सुधारोन्मुख सिस्टम हो । यसले फोटो, आवाज, भिडियो र अन्य जुनसुकै किसिमको सामग्री बनाउन सक्छ ।

डीपफेकले भिडियोको अर्थ मात्र बुझाउँछ । तर वास्तवमा डीप फेक मसिन लर्निङले उत्पादन गर्न सक्ने सबै किसिमको सेन्थेटिक मिडिया सामग्री हो । 

 यसकारण डीपफेक तपाईंको नाङ्गो आखाँले पहिचान गर्न गाह्रो हुन्छ । डीपफेकको जन्मलले अर्को नयाँ शब्दलाई जन्म दिएको छ । त्यो होः चिपफेक । सेल्लोफेक । मिडिया बहकाउने पुरानो तरिकालाई व्याख्या गर्ने यी नयाँ विधिहरु हुन् ।

यसको सबैभन्दा चर्चित उदारहण भनेको अमेरिकी सदनकी सभामुख नेन्सी पेलोसीको हो । जसको बोलीको गतिलाई ढिलो बनाएर मदिरा सेवन गरेर मातेको जस्तो बनाइएको थियो ।

यो एउटा सामान्य, सजिलो र सस्तो मेनिपुलेसन (तोडमोड) थियो । जुन गलत सूचना फैलाउन प्रभावकारी समेत रह्यो । अमेरिकन सिभिल लिबर्टिज युनियनका अटोर्नी बेन विजनरका अनुसार डीपफेक एउटा ठूलो समस्या हो ।

अर्बौं डलरको लगानी र आम्दानी गरेर मानिसहरुमाझ महत्वपूर्ण जानकारी पुर्‍याउन गूगल, फेसबुक तथा युट्युव प्लेटफर्मलेभन्दा डीपफेकका आक्रमक सामग्रीहरुले तपाईको ध्यान सजिलै खिच्न सक्छ ।

परिणामस्वरुप हानिकारक झुटा कुराहरुले प्रश्रय पाउँछन् र वास्तविकता र सत्यताहरु ओझेलमा पर्छन् । चिपफेकले जसरी डीपफेकले पनि सिस्टमलाई शोषण गर्न सक्छ ।

तर डीपफेक महंगो छ र यसलाई तयार पार्न पनि गाह्रो छ । यसकारण एकदमै कम मानिसहरुले मात्र घतलाग्दो डीपफेक बनाउन सक्छन् । जसलाई नकार्न वा अस्वीकार गर्न गाह्रो हुनेछ ।

प्रविधिमा पोख्त व्यक्तिहरुले शक्तिशाली कम्प्युटरबाट ओपन सोर्स डीपफेक सोर्स प्रयोग गरी सेलिब्रेटी वा अन्य जोकोहीको अनुहार र आवाजमा डीपफेक बनाउन सक्छन् ।

तर ह्यारिसनका अनुसार धेरै क्षति पुर्‍याउन सक्ने डीपफेक तयार गर्न ठूलो डेटा सेट, एकदमै विशेष अल्गोरिदम र ठूलो कम्प्युटिङ पावरको आवश्यकता पर्दछ । यस्ता भिडियो बनाउन सक्नेहरुको कमी छैन ।

तर ती सबै शिक्षित पृष्ठभूमीबाट आएको हुँदा उनीहरु प्रजातन्त्रलाई कमजोर बनाउन चाहँदैनन् ।  दुःखको कुरा के छ भने, शिक्षित व्यक्तिहरुले पनि नजानेर नै लायर्स डिभिडेन्डलाई भरणपोषण गरिरहेका छन् ।

डीपफेकबारे हामीहरुले थाहा पाउने भनेको विश्वविद्यालय र अनुसन्धान संस्थानहरुबाट हो । तर यी विज्ञहरुले मानिसहरुलाई यसबारे सिकाएर जति सुरक्षित बनाउन खोज्छन्, त्यति नै यस्ता भिडियो तथा सामग्रीहरुको जोखिममा पर्ने मानिसहरुको संख्या बढ्दै जान्छ ।  

यसबारे सबैले थाहा पाउन थालेका छन् र यसबारे जानकारी दिएर यसको बिउ रोप्ने काम अप्रत्यक्षरुपमा विज्ञहरुले नै गरेका हुन् । तर लायर्स डिभिडेन्डको दुई सम्भावित समाधानका उपायहरु छन् । 

डीपफेक डिटेक्सन टूलले डीपफेक प्रविधिको प्रगतिलाई पकड्न सक्छ । यसबाट फर्जी भिडियोलाई चाँडो र आधिकारिक रुपमा खारेज गर्न सकिन्छ । 

डीपफेकले २०२० को अमेरिकी चुनावमा अवरोध पुर्‍याउने कुरामा विज्ञहरुले चिन्ता व्यक्त गरेका छैनन् । तर अन्य किसिमका डीपफेकले तपाईंले नसोचेको क्षति पुर्‍याउन भने सक्छ । 

मिडिया र प्रविधिको जमानामा एउटा वास्तविक वा झुटो भिडियो सामग्रीकै भरमा मतदाताहरुले आफ्नो प्रिय उम्मेद्वारप्रतिको धारणा परिवर्तन नगर्ने विज्ञहरु बताउँछन् । तर अर्को खतरा के उत्पन्न भएको छ भने यसले चुनावको संयन्त्रलालाई कमजोर बनाउन सक्छ ।

जस्तै प्रशासनिक निकायले भोटर टर्नाउटबारे गलत सूचना, मतदानस्थलहरु अवरुद्ध भएको गलत जानकारी, भोटिङ मसिनले मतपत्र परिवर्तन गरेको गलत जानकारी दिनसक्छ ।

अमेरिकामा हुने चुनावमा अस्थिरता ल्याउन सक्ने अर्को तनावपूर्ण कुरा भनेको डीपफेकले विदेशमा रहेका अमेरिकी आउटपोस्टहरुमा विनाश ल्याउन सक्छ ।

विशेषगरी युद्धग्रस्त क्षेत्रहरुमा यदि अमेरिकाले कुनै  हिंसात्मक मिसन सुरु गरेको फेक भिडियोहरु सृजना भए भने यसले अमेरिकी सैनिक तथा कूटनीतिज्ञलाई पनि खतरामा पार्न सक्छ ।

खासगरी तानाशाहले शासन गरेको त्यस्तो युद्धग्रस्त मुलुकहरुमा जहाँका जनताहरु सत्यतथ्यलाई अफवहाबाट छुट्याउन कसरत गरिरहेका हुन्छन् । 

रसियाबाट अमेरिकालाई यस किसिमको खतरा छ । तर रसिया अहिलेसम्म डीपफेकको अग्रभागमा देखिएको छैन । उसले फर्जी समाचारमात्र फैलाउने काम गर्दै आइरहेको छ ।

तर डीप फेक तिनै खेलाडीहरुको पहुँचभित्रै छ । चीनमा अझ पूर्णरुपमा डीपफेक टेलिभिजन प्रस्तोताहरु छन् । साथै मध्यपूर्वका मुलुकहरुले पनि फर्जी समाचारहरुलाई आउटसोर्स गर्न हाइटेक प्राइभेट कम्पनीहरुमा लगानी गर्न गर्छन् । 

चुनावअघि जस्तोसुकै स्वरुपमा डीपफेक आए पनि चुनावमा आफ्नो अमूल्य भोट खसाल्नु अघि उच्च सतर्कता अपनाउन आवश्यक छ । 

एजेन्सीको सहयोगमा । 

पछिल्लो अध्यावधिक: असोज २, २०७९ २२:३३