close

डिपफेक प्रविधिः यसरी बनाउँछ सक्कली र नक्कली भिडिओ-फोटो छुट्याउनै मुस्किल

टेकपाना टेकपाना

कात्तिक २४, २०८० १४:२

डिपफेक प्रविधिः यसरी बनाउँछ सक्कली र नक्कली भिडिओ-फोटो छुट्याउनै मुस्किल

काठमाडौं । ​तपाईंले कहिले प्रधानमन्त्री पुष्पकमल दाहाल ‘प्रचण्ड’ले विपक्षी दलका कुनै नेतालाई खुलेआम गालीगलौज गरेको भिडिओ देख्नु भएको छ ? वा नेपाली नायिकाको कुनै पोर्न भिडिओ हेर्नु भएको छ ? या त कुनै महत्वपूर्ण ओहोदामा बसेको व्यक्तिबाट कुनै आपत्तिजनक अभिव्यक्ति ?

यस्ता सामग्रीहरू फेसबुक तथा अन्य कुनै किसिमका सामाजिक सञ्जालमा देख्नु भएको खण्डमा तपाईं के गर्नुहुन्छ ? त्यसलाई तत्काल शेयर गरेर सनसनी बनाउनमा योगदान दिनु हुन्छ ? वा त्यसको वास्तविकता पत्ता लगाउने प्रयास गर्नुहुन्छ ।

भिडिओ वा तस्वीरमा देखेको त्यस्तो दृश्यलाई तपाईं कुन आधारमा सही हो वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहनसक्नुहुन्छ ।

तर एआई प्रविधिसँगै विकास भएका अल्गोरिदम तथा मेसिन लर्निङ यति धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईंले देख्ने र सुन्ने हरेक अस्वाभाविक सामग्रीहरूमाथि तपाईंले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।

यही मेसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याई दिनसक्छ । यो प्रविधिले तपाईंको अनुहारमा जुनसुकै सेलिब्रेटी वा व्यक्तिको अनुहारलाई मिलाइ दिन्छ ।

एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत हुने भन्ने कुरामा व्यक्ति आफै अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्यक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।

आफूलाई मन परेको जुनसुकै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रूप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरुको अनुहार अश्लीलजन्य भिडिओ सामग्रीमा प्रयोग हुन थाल्यो ।

साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्यक्तिहरूको आवाज प्रयोग गरेर विभिन्न अभिव्यक्तिहरू फेक समाचारको रुपमा प्रयोग गर्न थालियो । आर्टीफिसियल न्युरल नेटवर्क तथा मेसिन लर्निङको प्रयोग गरेर व्यक्तिको आवाज समेत कपी गरी ठूला बैंकिङ फ्रडका काण्डसम्म घटिसकेका घटनाहरू दर्ता भईसकेका छन् ।

डिपफेक प्रविधिमा कुनै सार्वजनिक व्यक्तिको आवाजको ‘क्लोनिङ’ तथा कपि पनि गर्न सकिन्छ । 

फेक समाचार तथा साइबर ह्याकिङले ठूला ठूला मुलुकहरुको चुनावी अभियानलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्‍याउने विश्लेषकहरूले चेतावनी दिदैँ आएका छन् ।

मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्राविधिहरूले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सृजना गर्ने अवस्था नआउला भन्न सकिदैँन । केही समयअघि मात्र चर्चित युट्युबर मिस्टर बिस्टको भिडिओ डिफफेक प्रविधिबाट तयार पारी ठगी गर्ने काम भइरहेको थियो ।

युट्युब भिडिओमा कहिले गाडी, कहिले पैसा र कहिले अन्य किसिमका सामाजिक कार्य गरिरहेका देखिने मिस्टर बिस्टको उक्त भिडिओ उनले दुई डलरमै आईफोन १५ उपलब्ध गराउने उल्लेख थियो । त्यसैमा लिङ्क राखिएको थियो ।

केही प्रयोगकर्ताले वास्तविक जस्तै सोचेर रकम बुझाएको पनि दाबी गरेका थिए । पछि मिस्टर बिस्ट आफैले उक्त भिडिओ डिपफेक प्रविधिबाट तयार पारिएको उल्लेख गरेका थिए ।

डिपफेक प्रविधिको इतिहास

वास्तवमा डिपफेकको सुरुवात ‘फोटो म्यानुपुलेसनबाट सुरु भएको मानिन्छ । सन् १८६० मा अमेरिकी गृह युद्ध चलिरहेको समयमा राजनीतिज्ञ जोन कलहवनको शरीरमा अब्राहम लिङ्कनको टाउको जोडेको तस्वीर बनाइएको थियो । राजनीतिक स्वार्थका लागि बनाइएको यो फोटोलाई नै पहिलो फोटो म्यानुपुलेट दाबी गरिएको छ ।

२० औं शताब्दीमा सोभियत युनियनका नेता जोशेप स्टेलिनले आफ्नो प्रोपोगान्डा फैलाउनका लागि फोटो म्युपुलेसनको सहयोग लिएको थिए । ५ मे १९२० का दिन उनका पूर्ववर्ती भ्लादिमिर लेनिनले सोभियत सेनाका लागि एउटा भाषण राखेका थिए जसमा कम्युनिस्ट नेता लियोन ट्रस्की उपस्थित थिए ।

त्यस सम्मेलनमा खिचिएको सो फोटोमा ट्रस्की पनि देखिएका थिए । पछि प्रोपोग्रान्डा फैलाउनका लागि उक्त फोटोबाट ट्रस्कीलाई हटाइएको थियो । सन् १९४२ तिर इटालियन जासुस बेनिटो मुस्सोलिनीको तस्वीरबाट घोडा सम्हान्ने व्यक्तिको फोटो मेटाइएको थियो । ताकि बाहिर सर्वसाधारणलाई मुस्सोलिनी घोडा पनि सम्हाल्न नसक्ने रहेछन् भन्ने नपरोस् । 

यति मात्र होइन इतिहासमा फोटो म्यानुपुलेसनका कारण कैयौं ठूला विवाद पनि निम्तिएका थिए । सन् १९८२ तिर नेसनल जिओग्राफिक्स म्यागजिनको कभरमा फिट गर्नका लागि दुई पिरामिडलाई धेरै नजिक देखाइएकको थियो । त्यसरी फोटो म्यानुपुलेट गर्दा नेसनल जिओग्राफिक्सको चौतर्फी आलोचना भयो । जसले गर्दा उक्त म्यागजिनले पछि माफी माग्नु परेको थियो ।

फोटो तोडमोड गरेकै कारण यस्ता घटना कैयौं सतहमा आएका थिए । त्यसरी एउटाको फोटोमा अर्काको फोटो जोड्ने, फोटोलाई वास्तविकभन्दा भिन्न बनाउने कार्यलाई फोटो म्यानुपुलेसन भन्न थालिएको थियो । त्यतिबेला फोटोलाई तोडमोड गर्न वा एउटाको शरीरको फोटोमा अर्काकै अनुहार जोड्नका लागि विज्ञ व्यक्ति चाहिन्थ्यो । यो पक्रिया बढी खर्चिलो पनि हुन्थ्यो । त्यसैले ठूला ठूला राजनीतिक स्वार्थका लागि यसको बढी प्रयोग हुन्थ्यो । 

सन् २०१७ मा डिपफेक पोर्न भिडिओ रेड्डिट नामक सामाजिक सञ्जालमा भाइरल भयो । त्यस लगतै सामाजिक सञ्जालमा विभिन्न सेलिब्रेटी तथा चर्चित व्यक्तिहरूको अनुहार पोर्न भिडिओमा जोडेर बदनाम गर्ने गतिविधि बढ्न थाले ।

सन् २०१९ मा एआई फर्म डिप ट्रेसले इन्टरनेटमा १५ हजार बढी डिपफेक प्रविधिबाट तयार पारेको भिडिओ रहेको पत्ता लगायो । जसमा ९६ प्रतिशत पोर्न भिडिओ रहेको पत्ता लाग्यो । त्यसमा पनि ९९ प्रतिशत भिडिओमा महिला सेलिब्रेटीलाई जोडिएको थियो ।

डिपफेक प्रविधिले कसरी काम गर्छ ?

डिपफेक एआईले आर्टिफिसियल इन्टेलिजेन्सको प्रयोग गरी कुनै दोस्रो व्यक्तिको फोटो, अडियो वा भिडिओ बनाउने काम गर्छ ।  डिपफेक दुई ओटा एल्गोरिदमको सहायताले काम गर्छ । पहिलो जेनेरेटर र अर्को हो डिस्क्रिमिनेटर । जेनेरेटरले नक्कली कन्टेन्ट बनाउने । र, डिस्क्रिमिनेटरले उक्त नक्कली कन्टेन्ट कत्तिको सक्कली जस्तो देखिन्छ भन्ने पहिचान गर्छ ।

अर्थात् जबसम्म फेक फोटो वा भिडिओ सक्कली जस्तो लाग्दैन तबसम्म डिस्क्रिमिनेटरले त्यसलाई ठिक बनाउँछ । यही जेनेरेटर र डिस्क्रिमिनेटर एल्गोरिदमको संयोजनलाई जेनेरेटिभ एड्भर्सेरियल नेटवर्क (जीएएन) भनिन्छ । जीएएनले डिप लर्निङको प्रयोग गरी नक्कली कन्टेन्ट तयार पार्छ । डिफफेक भिडिओ सामान्यः दुई तरिकाले बनाइन्छ ।

जसको फेक भिडिओ बनाउनुछ, उसको सक्कली भिडिओ लिएर त्यसको अनुहार र शरीरको हाउभाउ रेकर्ड गरिन्छ । त्यसपछि त्यो व्यक्तिको यस्तो भिडिओ भिडिओ बनाइन्छ जहाँ व्यक्तिलाई जे बोल्न लगाउन खोजियो त्यस्तो देखाइन्छ । त्यस्तै अर्को तरिका हुन्छ ‘फेस स्वाइप’ ।  यो त्यस्तो तरिका हो जसमा एउटाको भिडिओमा अर्कै व्यक्तिको अनुहार राखेर तयार पारिन्छ । रश्मिका मन्धनाको प्रकरणमा अनुहार परिवर्तन गरेको हो । 

फोटो मात्र नभइ भ्वाइस पनि डिप फेक प्रविधिद्वारा तयार पारिन्छ । पछिल्लो समय टिकटकमा विभिन्न राजनीतिज्ञ, कलाकार तथा अन्य व्यक्तिहरूको आवाज पनि भाइरल हुन थालेको छ । त्यही आवाजलाई लिप सिङ्क गरेर वास्तविक जस्तै देखाउने होड नै चलेको छ । डिपफेकको सहायताले जे पनि गर्न थालिएको छ । 

डिपफेक एआई कति खतरनाक छ ?

विकसित राष्ट्रमा डिपफेक प्रविधिको दुरुपयोग बढी हुने घटना दिनानुदिन बढ्दै गइरहेका छन् । रुस र युक्रेनको युद्ध भइरहेको समयमा युक्रेनका राष्ट्रपति भ्लादिमिर जेलेनेस्कीको एउटा डिफफेक भिडिओ टेलिग्राममा सर्कुलेट भएको थियो । जसमा उनले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको देख्न सकिन्थ्यो । सोच्नुहोस् कही युद्ध भइरहेको छ, अनि कुनै एक देशको प्रमुख व्यक्तिले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको छ भने त्यहाँको अवस्था के होला ?

डिपफेकबाट बनाएको भिडिओ सेनाले साँच्चै मानेर विश्वास गरे भने कुनै देशको रक्षाका लागि त्यो कति खतरनाक होला ? फेसबुकका मालिक मार्क जुकरबर्गले एक डिपफेक भिडिओमा अर्बौं मानिसहरूबाट चोरी गरेको डेटालाई नियन्त्रण गरिरहेको छु भनेको भाइरल भएको थियो । यस्तो हुँदा ठूला व्यवसाय रातारात अर्बौं डलर गुमाउन पुग्छन् । उनीहरू अनावश्यक रूपमा कानुनी फन्दामा पर्छन् ।

कम्पनीको स्टक मूल्य समेत प्रभावित हुन्छ । चुनावका क्रममा विरोधी दलले नेताको नक्कली भिडिओ बनाएर अफवाह फैलाइरहेका हुन्छन् । यस्तो हुँदा मतदातालाई उनीहरूको प्रतिनिधिमाथि विश्वास घट्छ र उनीहरू भोट दिनबाट पछि हट्छन् । यसले मत सङ्ख्यालाई ठूलो प्रभाव पार्छ ।

अमेरिकी राष्ट्रपति जोय बाइडेनले एक कार्यक्रममा भनेका थिए, “मैले एआईबाट तयार पारिएको मेरै एक भिडिओ हेरेको थिएँ । त्यहीबेला मैले भने, मैले कहिले यस्तो बोलेको थिएँ ? एउटा तीन सेकेन्डको तपाईंको भ्वाइस रेकर्डिङ तपाईंको परिवारलाई मूर्ख बनाउन पर्याप्त हुन्छ । यसलाई कतिपय मानिहरूले कुनै व्यक्तिको आफन्तबाट रकम माग गर्नका लागि पनि प्रयोग गरिरहेका छन् ।”

यही प्रविधिको प्रयोग गरेर मानिसको संवेदनशील जानकारी चोर्ने काम भइरहेको विभिन्न सञ्चार माध्यमले उल्लेख गरेका छन् । डिपफेककै दुरुपयोग गरेर कुनै देशको विदेश नीतिलाई पनि प्रभावित पार्न सकिन्छ । उदाहरणका लागि हालै भ्लादिमिर पुटिनको डिपफेक भिडिओ इन्टरनेटमा सर्कुलेट भएको थियो । जहाँ उनले अमेरिकी प्रजातन्त्रमाथि हमला गरिरहेका थिए । यसरी डिफफेक प्रविधिको दुरुपयोग हुँदा दुई देशबीचको सम्बन्ध पनि बिग्रिने जोखिम हुन्छ । डिफफेक भिडिओकै दुरुपयोग गरी आतङ्ककारी समूहले जनतालाई भड्काउन सक्छन् ।

यसरी अधिकांश प्रकरणमा डिफफेक भिडिओ सतहमा आइरहँदा पछि कसैले साँच्चिकै गलत गरे पनि डिपफेक प्रविधिलाई नै दोष दिने जोखिम बढेको छ । दिनानुदिन प्रविधि यति अत्याधुनिक हुँदै छ कि कुनै दिन जतिसुकै तरिका अपनाए पनि भिडिओ सक्कली हो वा नक्कली हो पत्ता लगाउनै सकस पर्न सक्छ ।

त्यस्तै केही वर्षअघि डिपफेक भिडिओका लागि विज्ञता हासिल गरेका व्यक्तिले मात्र भिडिओ बनाउन सक्थे भने अहिले सामान्य वेबसाइट प्रयोग गर्न जानेको अवस्थामा डिफफेक भिडिओ तयार पार्न सकिन्छ । 

डिजिटल साक्षरताका हिसाबले पछाडि परेको नेपाल जस्तो मुलुकमा डिफफेक प्रविधिको जोखिम उच्च हुने जोखिम देखिन्छ । त्यसैले कुनै पनि भिडिओ वा फोटोमा जे देख्यो त्यो नै साँचो हुन्छ भन्ने कुरा पहिलो नजरमै विश्वास गर्न नसकिने अवस्था आएको छ ।

पछिल्लो अध्यावधिक: कात्तिक २४, २०८० १४:२