close

तपाईंले जे देख्नुभएको छ विश्वास नगर्नुहोस, त्यो डिपफेक प्रविधि हुनसक्छ

टेकपाना टेकपाना

फागुन २२, २०७७ २२:३६

तपाईंले जे देख्नुभएको छ विश्वास नगर्नुहोस, त्यो डिपफेक प्रविधि हुनसक्छ

काठमाडाैं । तपाईंले कहिले प्रधानमन्त्री केपी ओलीले विपक्षी दलका कुनै नेतालाई खुलेआम गालीगलौज गरेको भिडियो देख्नु भएको छ ? वा कुनै नायिकाकाे पोर्न भिडियो हेर्नुभएको छ ? या त कुनै महत्वपूर्ण अहोदामा बसेको व्याक्तिबाट कुनै आपत्तिजनक अभिव्यक्ति ?

यस्ता सामाग्रीहरु फेसबुक, टिकटक, युट्युब तथा अन्य कुनै किसिमका सामाजिक सञ्जालमा देख्नुभएको खण्डमा तपाईं के गर्नुहुन्छ ? त्यसलाई तत्काल शेयर गरेर सनसनी बनाउनमा योगदान दिनु हुन्छ ? वा त्यसको वास्तविकता पत्ता लगाउने प्रयास गर्नुहुन्छ ।

भिडियो वा तस्वीरमा देखेको त्यस्तो दृश्यलाई तपाईं कुन आधारमा सही हो वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै हुन्छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहनसक्नुहुन्छ ?

तर एआई प्रविधिसँगै विकास भएका अल्गोरिदम तथा मसिन लर्निङ यति धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईंले देख्ने र सुन्ने हरेक अस्वभाविक सामाग्रीहरुमाथि तपाईंले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।

अमेरिकी कलाकार टम क्रुज हालै डिप फेकको शिकार भए ।

यही मसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याउन सक्छ । यो प्रविधिले तपाईंको अनुहारमा जुनसुकै सेलिब्रेटी वा व्याक्तिको अनुहारलाई मिलाइदिन्छ ।

एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत हुने भन्ने कुरामा व्यक्ति आफैं अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्याक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।

आफूलाई मन परेको जुनसुनै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रुप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरुको अनुहार अश्लीलजन्य भिडियो सामाग्रीमा प्रयोग हुन थाल्यो ।

केही समयअघि फेसबुक लगायतका सामाजिक सञ्जाल र अन्य अनलाइन प्लेटफर्ममा राखिएका एक लाखभन्दा बढी महिलाको तस्वीर डिपफेक प्रविधिको प्रयोग गरी नग्न रुपमा सार्वजनिक गरिएको थियाे ।

विभिन्न च्यालेन्जका रुपमा प्रयोग भएका र अनलाइनमा सार्वजनिक रुपमा उपलब्ध फोटोलाई डिपफेक प्रविधि प्रयाेग गरी नग्न बनाउने काम ती भूमिगत समूहहरूले गरिरहेका थिए । साथै केही नाबालिगहरूकाे तस्वीर समेत सार्वजनिक भएकाे थियाे ।

साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्याक्तिहरुको आवाज प्रयोग गरेर विभिन्न अभिव्यक्तिहरु फेक समाचारको रुपमा प्रयोग गर्ने अभ्यास बढेकाे छ । आर्टीफिशियल न्युरल नेटवर्क तथा मेसिन लर्निङको प्रयोग गरेर व्याक्तिको आवाज समेत कपी गरी ठूला बैंकिङ फ्रडका काण्डसम्म घटिसकेका घटनाहरु दर्ता भईसकेका छन् ।

त्यस्तै पछिल्लाे क्रिसमस डेको अवसरमा महारानी एलिजावेथको डिपफेक प्रयोग गरी बनाइएको फेक भिडियो प्रसारण गरेपछि बेलायती टेलिभिजन च्यानल च्यानल फोर विवादको घेरामा तानिएको थियाे ।

पाँच मिनेटको उक्त भिडियोमा महारानी एलिजावेथको अल्टर भर्सन देखाइएको छ, जसमा उनले २०२० को वर्षको समिक्षा गरेकी छन् । जसमा राजकुमार ह्यारी र राजकुमारी मेघन मर्कल दरबारबाट बाहिरिएको देखि महामारी असन्तुष्ट रहेकी वित्तीय अधिकारी जेफ्रे इपिस्टेनसँग ड्युक अफ योर्कको संलग्नता जस्ता गम्भीर पारिवारिक विषयको जिकिर गरिएको थियो ।

वास्तवमा डिपफेक प्रविधिमा कुनै सार्वजनिक व्याक्तिकोे आवाजको ‘क्लोनिङ’ तथा कपि पनि गर्न सकिन्छ । केही समयअघि जर्मन एनर्जी फर्मको वेलायत सब्सीडेरीका प्रमुखले हंगेरी बैंकलाई २ लाख युरो भुक्तानी गरेका थिए । उक्त घटनामा कसैले जर्मन सीईओको आवाज डिपफेक प्रविधिबाट क्लोन गरी कम्पनीमा फोन गरी पैसा मगाएका थिए ।

पछि कम्पनीले उक्त घटना डिपफेकका कारणले हुन गएको वयान त दियो तर त्यसलाई प्रमाणित गर्न भने सकेन । फेक समाचार तथा साइबर ह्याकिङहरुले ठूला ठूला मुलुकहरुको चुनावी अभियानहरुलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्‍याउने विश्लेषकहरुले चेतावनी दिदैँ आएका छन् ।

मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्रविधिहरुले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सृजना गर्ने अवस्था नआउला भन्न सकिँदैन । अझ डिजिटल साक्षरताको कमी भएको नेपाल जस्तो मुलुकमा यस्ता प्रविधिले विकराल समस्या ल्याउने देखिन्छ ।

यस्ता प्रविधि दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रदेखि मानिसहरुको सामान्य सामाजिक जीवनमा पनि क्षति पुर्‍याउने देखिन्छ । यदि हामीले नयाँ अन्वेषण तथा खोजलाई हौसला दिने हो भने, यसबाट हुने क्षतिलाई रोक्नुपर्छ ।

यसका लागि यस्ता प्रविधिका अनुसन्धानकर्ताले डिपफेक प्रविधिसँगै वास्तविक र फेक कन्टेन्टलाई छुट्याउने प्रविधि पनि विकास गर्नुपर्ने डच साइबर सेक्युरिटी कम्पनी डिपट्रेसका निर्देशक जर्जियो प्याट्रीनी बताउँछन् ।

पछिल्लो अध्यावधिक: असोज २, २०७९ २२:३१