close

तपाईंले जे देख्नु भएको छ विश्वास नगर्नुहोस, त्यो डिपफेक प्रविधि हुनसक्छ

टेकपाना टेकपाना

माघ १२, २०७६ १०:९

तपाईंले जे देख्नु भएको छ विश्वास नगर्नुहोस, त्यो डिपफेक प्रविधि हुनसक्छ

एजेन्सी । तपाईंले कहिले प्रधानमन्त्री केपी ओलीले विपक्षी दलका कुनै नेतालाई खुलेआम गालीगलौज गरेको भिडियो देख्नु भएको छ ? वा रेखा थापाको कुनै पोर्न भिडियो हेर्नु भएको छ ? या त कुनै महत्वपूर्ण अहोदामा बसेको व्याक्तिबाट कुनै आपत्तिजनक अभिव्यक्ति ?

यस्ता सामाग्रीहरु फेसबुक तथा अन्य कुनै किसिमका सामाजिक सञ्जालमा देख्नु भएको खण्डमा तपाईं के गर्नुहुन्छ ? त्यसलाई तत्काल शेयर गरेर सनसनी बनाउनमा योगदान दिनु हुन्छ ? वा त्यसको वास्तविकता पत्ता लगाउने प्रयास गर्नुहुन्छ ।

भिडियो वा तस्विरमा देखेको त्यस्तो दृश्यलाई तपाई कुन आधारमा सही हो वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै हुन्छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहनसक्नुहुन्छ ।

तर एआई प्रविधिसँगै विकास भएका अल्गोरिद्म तथा मेसिन लर्निङ यति धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईले देख्ने र सुन्ने हरेक अस्वभाविक सामाग्रीहरुमाथि तपाईले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।

यहीँ मेसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याई दिनसक्छ । यो प्रविधिले तपाईको अनुहारमा जुनसुकै सेलिब्रेटी वा व्याक्तिको अनुहारलाई मिलाइ दिन्छ ।

एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत हुने भन्ने कुरामा व्याक्ति आफै अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्याक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।

आफूलाई मन परेको जुनसुनै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामाग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामाग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रुप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरुको अनुहार अश्लिलजन्य भिडियो सामाग्रीमा प्रयोग हुन थाल्यो ।

साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्याक्तिहरुको आवाज प्रयोग गरेर विभिन्न अभिव्याक्तिहरु फेक समाचारको रुपमा प्रयोग गर्न थालियो । आर्टीफिशियल न्युरल नेटवर्क तथा मेसिन लर्निङको प्रयोग गरेर व्याक्तिको आवाज समेत कपि गरी ठूला बैंकिङ फ्रडका काण्डसम्म घटिसकेका घटनाहरु दर्ता भईसकेका छन् ।

डिपफेक प्रविधिमा कुनै सार्वजनिक व्याक्तिकोे आवाजको ‘क्लोनिङ’ तथा कपि पनि गर्न सकिन्छ । गत मार्चमा जर्मन एनर्जी फर्मको वेलायत सब्सीडेरीका प्रमुखले हंगेरी बैंकलाई २ लाख युरो भुक्तानी गरेका थिए । उक्त घटनामा कसैले जर्मन सीईओको आवाज डिपफेक प्रविधिबाट क्लोन गरी कम्पनीमा फोन गरी पैसा मगाएका थिए ।

पछि कम्पनीले उक्त घटना डिपफेकका कारणले हुन गएको वयान त दियो तर त्यसलाई प्रमाणित गर्न भने सकेन । फेक समाचार तथा साइबर ह्याकिङहरुले ठूला ठूला मुलुकहरुको चुनावी अभियानहरुलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्‍याउने विश्लेषकहरुले चेतावनी दिदैँ आएका छन् ।

मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्रविधिहरुले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सृजना गर्ने अवस्था नआउला भन्न सकिदैँन । अझ डिजिटल साक्षरताको कमि भएको नेपाल जस्तो मुलुकमा यस्ता प्रविधिले विकराल समस्या ल्याउने देखिन्छ ।

यस्ता प्रविधि दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रदेखि मानिसहरुको सामान्य सामाजिक जीवनमा पनि क्षति पुर्‍याउने देखिन्छ । यदि हामीले नयाँ अन्वेषण तथा खोजलाई हौसला दिने हो भने, यसबाट हुने क्षतिलाई रोक्नुपर्छ ।

यसका लागि यस्ता प्रविधिका अनुसन्धानकर्ताले डिपफेक प्रविधिसँगै वास्तविक र फेक कन्टेन्टलाई छुट्याउने प्रविधि पनि विकास गर्नुपर्ने डच साइबर सेक्युरिटी कम्पनी डिपट्रेसका निर्देशक जर्जियो प्याट्रीनी बताउँछन् ।

पछिल्लो अध्यावधिक: असोज २, २०७९ २२:३१