डीपफेक भनेको के हो र कसरी बनाइन्छ?

0
37

कहिले पनि नघटेका घटनाहरुलाई दृश्यकै रुपमा प्रमाण बनाउन सम्भव तुल्याउने प्रविधि नै डिपफेक हो। यसले बढाउँदै गरेको असहजताका गतिविधिहरु त्यही प्रविधिहरुका वरपर थिग्रिन थालेका छन्। त्यस्ता डीपफेक सामग्रीहरूबाट प्रख्यात व्यक्तित्व (सेलेब्रेटी) हरुका हुँदैनभएका यौनजन्य अश्लिल गतिविधि भएका श्रव्य-दृश्य उत्पादन भएका छन्। तथा राजनीतिकर्मीहरूले आफूले भन्दै नभनेका कुरा तिनीहरुकै मुखबाट बोल्दै गरेका श्रब्यदृश्य बनाई देखाइएको छ।

यस्ता डीपफेकहरुबाट उव्जेका सरोकारहरुले अब त्यसका विरुद्धमा उपायहरु अपनाउने कार्यलाई अघि बढाउन सहयोग पुगेको छ। डीपफेक गरिएका सामग्रीहरूको उत्पादन तथा वितरणलाई निरुत्साहित गर्ने उद्देश्यले कानुनहरु बनाइएका छन्। यस वर्षको शुरुवातमा फेसबुक र ट्वीटर लगायत सामाजिक संञ्जालहरुले आफ्ना संजालबाट डीपफेकलाई प्रतिबन्धित गरेका छन्। र कम्प्युटर भिजन र ग्राफिक्स सम्मेलनहरुले डीपफेक विरुद्ध प्रतिरक्षा गर्ने उपायहरुबारे प्रसार गर्न हातेमालो गर्न थालेका छन्। त्यसो भए डीपफेक भनेको ठ्याक्कै के हो र मानिसहरु किन अत्यन्त डराएका छन् त?

डीपफेक के हो?
डीपफेक प्रविधिको उपयोग गरी कुनै पनि व्यक्तिले/लाई आफू/उ संलग्न हुँदै नभएको भिडियो वा फोटोमा छुट्याउनै नसकिने गरी आफू/उसलाई सामेल गराइदिन सक्छ। यस्तो क्षमता विकास भएको दशकौं भइसकेको छ। जसको उदाहरण स्वर्गीय चलचित्र नायक पल वाकरलाई “फास्ट एण्ड फ्युरियस-७” नामक सिनेमामा पुन: ब्युताइएर अभिनय गरेको देखाइएको छ।

तर त्यसरी अभिनय गरेको देखाउने बनाउन धेरै विशेषज्ञहरूको टोली भएको एउटा सिंगो स्टुडियोलाई वर्षदिन लाग्ने गर्थ्यो। तर अब डीपफेक प्रविधि नयाँ स्वचालित कम्युटर ग्राफिक्स वा यन्त्रले सिक्ने प्रणालीहरुले तस्बिर र भिडियोहरुलाई धेरै छिटो ग्रहणयोग्य बनाउन सक्छन्।

डीपफेक पदावलीका बारेमा धेरै भ्रम रहिरहेको छ तापनि कम्प्युटर भिजन र ग्राफिक्सका अनुसन्धाताहरू यस पदावलीलाई एकै श्वरमा निन्दा गर्छन्। यो पदावली ती सबै गतिविधिहरु चाहे कृतिम बौद्धिकता (AI) सृजित अत्याधुनिक भिडियो होउन् वा हेर्दै नक्कली भनी ठम्याउन सकिन फोटो होउन् लाई व्यक्त गर्ने डीपफेक भनिएका प्रसस्त सामग्रीहरु डीपफेक नभएका उदाहरण पनि छन्। जस्तै “क्रिकेट” को विवादास्पद भिडियो, जुन डेमोक्रेटिक पार्टीको अमेरिकाको राष्ट्रपति निर्वाचनका पूर्व प्रत्याशी माइकल ब्लुमवर्गको पहिलो चरणको क्याम्पेनले प्रसारण गरेको थियो। यो डिपफेक थिएन तर यो भिडियोको निर्माण आमरुपमा उपलब्ध सम्पादकीय दक्षता प्रयोग गरी निर्माण गरिएको थियो।

डीपफेक कसरी बनाइन्छ?
डीपफेको मुख्य तत्व नै यन्त्र–सिकाइ (machine-learning) हो। जसले कम मेहनत नगरिकनै धेरै छिटो डीपफेकहरूको उत्पादन सम्भव बनाइदिएको छ। कुनै एक व्यक्तिको डीपफेक भिडियो बनाउन परे त्यसको निर्माताले सबैभन्दा पहिले डीपफेक बनाइने व्यक्ति विभिन्न कोण र फरक फरक प्रकाशमा कस्तो देखिन्छन् भनेर दुरुस्तै ‘थाहापाउन’ त्यो व्यक्तिका पुराना भिडियो सामग्रीहरुबाट कुनै असंलग्न सञ्जाल (Netural network) लाई धेरै घण्टा तालिम दिने गर्दछन्। त्यसपछि अर्को कुनै अभिनयकर्तामा उक्त व्यक्तिलाई प्रतिस्थापन गर्न निर्माताले तालिमप्राप्त नेटवर्क (trained network) लाई कम्युटर ग्राफिक्ससँग जोड्दछन्।

कृत्रिम बौद्दिकता (AI) ले यो प्रक्रियालाई पहिले भन्दा कता हो कता छिटो छरितो बनाइदिन्छ तर के सम्झनु पर्छ भने एउटा व्यक्तिलाई एउटा काल्पनिक अवस्थामा समग्र ढंगले प्रतिस्थापन गर्ने गरी विश्वसनीय सामग्री उत्पादन गर्ने प्रक्रियामा अझै पनि केही समय त लाग्छ नै र यो प्रकृया भने सुने झैं त्यति सरल भने छैन्।

धेरै मानिसहरु के लख काट्छन् भने भविष्यमा डीपफेकको विकास गर्ने मुख्य इन्जिन भनेको जेनेरिटक एड्भरसरियल सञ्जालहरु (GANs/जीएएन्) भनिने गहिरो ज्ञानका अल्गोरिदम (deep learning Algorithms) को पाठशाला नै हो। जीएएन् बाट उत्पादित अनुहारहरु वास्तविक अनुहारबाट अलग छ भनी छुट्याउन निकै गारो पर्छ।

जीएएन्को एउटा कुनै भागको पहिलो निष्कर्षले के इंकित गरेको छ भने डीपफेकका उत्पादनहरुमा जटिल सिर्जना जो कोहीले पनि गर्न सम्भव बनाएको छ।

तथापि एसयुएनवनई (SUNY Buffalo) का सीवेई लिउको भनाइ अनुसार यो खास प्रविधि माथिको अत्याधिक जोड गलत मोडमा पुर्याउने खालको छ। उनका अनुसार अल्गोरिदमका सहयोगले निर्माण भइरहेको अधिकांश डीपफेक भिडियोहरुमा जीएएन्को धेरै ठूलो भूमिका छैन।

जीएएन्हरूको प्रयोग बहुतै मुस्किलको काम हो र यसका निम्ति प्रशस्त मात्रामा तालिमका तथ्यांकहरु आवश्यक पर्दछन्। यसमा प्रतिस्थापन गरिने तस्वीरहरुको उत्पादन गर्न अन्य प्रविधिका तुलनामा अभिनयकर्ताहरुलाई बढी समय लाग्छ। र सबैभन्दा महत्वपूर्ण कुरा जीएएन् मोडलहरु तस्विरहरुको प्रयोगयोग्य ढाचाँ – निर्माण गर्न त धेरै सहायक हुन्छन् तर भिडियो निर्माण गर्न त्यति सहायक हुन्नन्। तीनलाई तत्कालिक एकरुपता कायम राखिरहन एकदमै मुस्किल पर्दछ अथवा यसो भनौं एउटा फ्रेमबाट अर्को फ्रेममा त्यही तस्बिरलाई मिलाएर राख्न कठिन हुन्छ।

धेरै प्रसिद्धि कमाएका डीपफेकले पनि जीएएनको प्रयोग गरेका छैनन्। जुन बेला कृतृम बौद्धिकताको क्यानाडियन कम्पनी डेसा (जुन अहिले स्क्वायर नामको कम्पनीको स्वामित्वमा छ) ले टेलिभिजन कार्यक्रम प्रस्तोता जो रोगनका आवाज उसले कहिले नभनेका वाक्यहरूको उच्चारण गर्न प्रयोग गर्यो जीएएनहरु प्रयुक्त गरिएका थिएनन्। वास्तवमा आजकल निर्माण गरिएका डीपफेकहरु मध्ये अधिकांशको निर्माणमा कृत्रिम बौद्धिकता (AI)तथा अकृत्रिम बौद्धिकता(non AI)संग सम्बन्धित थुप्रै प्रकारका प्रविधिहरुको प्रयोग गरिएका हुन्छन्।

डीपफेकको सिर्जना कसले गर्‍यो?
अधिकांश चमत्कारिक डीपफेकका उदाहरणहरु विश्वविद्यालयका प्रयोगशालाहरू तथा तिनको आर्थिक सहयोग प्राप्त गरेका नवप्रर्वतकहरुबाट निर्मित देखिन्छ जस्तै प्रसिद्ध फुटबल खेलाडी डेभिड व्याकहामले नौ वटा भाषामा धाराप्रवाह बोलेको देखाइएको भनि सामाजिक सञ्जालमा घुमिरहेको एउटा भिडियोलाई लिन सकिन्छ। जबकि उनलाई तीमध्ये एउटा भाषा अङ्ग्रेजीमात्र आउँछ र यो विधिका गुह्य सूत्रहरु जर्मनीस्थित म्युनिख प्रविधि विश्वविद्यालयमा विकास गरिएको थियो।
साथै अपोलो ११ को प्रक्षेपण असफल भएको भए अमेरिकी राष्ट्रपति रिचर्ड निक्सनले गर्नुपर्ने वैकल्पिक भाषणको भिडियो म्यासाचुसेट इन्स्टिच्युट अफ टेक्नोलोजीका अनुसन्धाताहरूले उत्पादन प्रसारण गरेका छन्।

तर यी सरकार तथा प्राज्ञहरुलाई यति धेरै चिन्तित तुल्याउने डीपफेकहरु होइनन्। सामाजिक तानावानाहरुमा विध्वंसात्मक प्रभाव पुर्याउन डीपफेकहरु प्रयोगशाला स्तरका वा उच्च प्रविधियुक्त हुन जरुरी छैन। जस्तोकि प्रतिस्थापन गरिएको व्यक्तिको व्यक्तिको स्वीकृति बेगर बनाइएका मैथुन क्रियायुक्त डीपफेकहरुमा र अन्य समस्या निम्त्याउने सक्ने सामग्रीहरुमा देखाइन्छ।

वास्तवमा मैथुनकृडारत भिडियोमा अभिनय गर्नेहरूको अनुहारमा अभिनेत्रीहरूको अनुहार प्रतिस्थापन गर्ने गुगलको सर्वसुलभ औजारहरुको सङ्ग्रह प्रयोग गर्ने तथा आफूलाई दिक्क बनाउने रेडिट(Reddit) प्रयोगकर्ताले सन् १९१७ मा सिर्जना गरेको कामको प्रकृतिबाट डीपफेक भनी नामाकरण भएको पाइन्छ। आजकल आमरुपमा पाइने “यो तपाई नै गर्नुहोस्” (DIV-Do It Yourself) डीपफेकहरु भित्रका गुह्य सूत्रहरुका मुख्य स्रोत यही रेडिट (Reddit) आदि सूत्र हो। र यसरी उत्पादित केही सामग्रीलाई विचारको मनोरञ्जनात्मक प्रयोग भन्न सकिए पनि कुनैपनि चित्तबुझ्दो स्तरका भने छैनन्।

त्यसोभए मानिसहरु किन आत्तिएका छन् त ?
‘प्रविधि सधैं प्रगतिउन्मुख हुन्छ यसको कार्य प्रणाली नै यही हो’ भनी वर्कले स्थित क्यालिफोर्निया विश्वविद्यालयका डिजिटल अपराध विज्ञानका विशेषज्ञ हानी फरिद बताउँछन्। साँच्चै नै खतरापूर्ण अवस्थामा पुर्‍याउने गरी “यो तपाई नै गर्नुहोस्” (DIF) प्रविधि खारिने छ भन्ने कुरामा अनुसन्धानकर्ताहरूको समुदायमा एकमत बनिसकेको छैन। गरिएका आकंलनहरु पनि आन का तान फरक छन् कोही दुई वर्ष लाग्छ भन्छन् भने अरु १० वर्ष लाग्ने बताउँछन्। तर अन्ततोगत्वा विशेषज्ञहरूले के कुरामा सहमत छन् भने कुनै पनि व्यक्तिले आफ्नो स्मार्टफोनमा एउटा एपको मद्दतले अर्थात् जस्तै देखिने गरी अरुको डीपफेक बनाउन सक्छ।

डीपफेकहरु के का लागि प्रयुक्त हुन्छन्?
डीपफेकहरुले तत्काल सबैभन्दा खतरा महिलाहरूका निम्ति निम्त्याएको छ इन्टरनेटमा उपलब्धहरु मध्ये ९६ प्रतिशत अभिनयकर्ता देखाइएका ब्यक्तिको स्वीकृति बेगरका सम्भोगरत श्रव्य-दृश्य सामग्री छन्। अधिकांशले प्रसिद्धि कमाएका व्यक्तिहरुलाई शिकार बनाएका छन् र अम्स्टरकम स्थित अनुसन्धान कम्पनी डीपट्रेसका अनुसन्धान समूहका प्रमुख हेनरी ऐदरको भनाई अनुसार बदला लिने उद्देश्यले बनाइएका संभोगरत श्रव्य-दृश्य सामग्रीहरूको निर्माण गर्न डीपफेकको प्रयोग गर्ने सिलसिला बढ्दो क्रममा छ।

तर महिलाहरुमा मात्र यस्ता कुकृत्यको एकल निशाना भने होइनन्। डीपफेकहरु आमरूपमै डरत्रास देखाउने माध्यम बन्न सक्छन् – चाहे त्यो स्कूलमा होस् या कुनै कार्यक्षेत्र, किनभने कसैले पनि कसैलाई पनि हास्यास्पद, खतरनाक वा लज्जास्पद स्थितिमा प्रदर्शित गर्न सक्छ।

ठुला मात्राका डीपफेकहरुले खेल्न सक्ने भूमिकालाई लिएर ठूला कम्पनी (कर्पोरेसन)हरु डराएका छन्। कर्मचारीहरुलाई ठगहरुले भने जसरी पैसा पठाउन मुख्य कार्यकारी अधिकृतको आवाजको डीपफेक निर्माण गरेर ठगी गरेका यथार्थ जानकारी प्रकाशनमा आएका छन्। यसका प्रमुख दुरुपयोग मध्ये भय दोहन एक हुनसक्छ। आईप्रुभ (iproov) नाम गरेको एउटा बायोमेट्रिक कम्पनीले साइवर सुरक्षा उद्योगीहरुका बीचमा गरेको एक मत सर्वेक्षणमा परिचय माथिको धोकाधडी नै डीपफेकहरूको सँग सम्बन्धी मुख्य चिन्ता भएको कुरा तीन चौथाईभन्दा बढी सहभागीहरुले व्यक्त गरेको पाइयो। सहभागीहरूको मुख्य चिन्ता डीपफेकहरुको प्रयोग धोकाघडीपूर्ण अनलाइन भुक्तानी तथा व्यक्तिसँग बैंकिंङ सेवाहरु माथि धोकाघडी पूर्ण हस्तक्षेप (hackiup) का विषयमा थियो।

सरकारहरूको मुख्य चिन्ता डीपफेकहरुले लोकतन्त्रमा पुर्‍याउने खतराका बारेमा छ। कुनै व्यक्तिलाई व्यक्तिले एक प्रसिद्व महिलाहरुलाई सम्भोगरत भिडियोमा सामेल भएको देखाउन सक्छ भने उसले पुननिर्वाचित हुन कोसिस गरिरहेको एउटा राजनीतिकर्मीलाई पनि त त्यसरी पेश गर्न सक्छ। सन् २०१८ मा ब्राजिलको साओ पाउलोका गभर्नर योआओ डोरिया, जो आफै विवादित छन् विवाहेत्तर सम्भोगक्रियामा भाग लिइरहेको भिडियोलाई प्रदर्शित गरियो। यो डीपफेक हो भन्ने उनको जिकिर छ। यस्ता अरु पनि उदाहरणहरु छन्। सन् २०१८ मा ग्याबोनका राष्ट्रपति अली बोंगो जो बिरामी छन् भनि प्रचारित गरिएको थियो। जनतालाई आश्वस्त गर्दै गरेको एउटा शंकास्पद भिडियोमार्फत देखापरे जसले गर्दा यो एउटा असफल सैन्य तख्ता पलट निम्त्यायो।

क्षमता जेसुकै भएपनि यी सत्यापन नभएका मामलाहरुका आवर्तमा रहेका अपारदर्शीताले डीपफेकका सबैभन्दा ठूला खतरातिर इंकित गर्दछन्। वर्तमानरुपमा बुझ्न सकिन्छ र त्यस्तो ठगको नाफा वा तरिकाले भन्नु जोसुकैले जे मन लाग्यो त्यही गर्ने कार्यलाई डीपफेकको अस्तित्वले ढालको काम गरेको छ। किनभने गलत क्रियाकलापका प्रभावहरुलाई ‘ए त्यो त डीपफेक हो’ भनेर हावामा उडाइदिन सक्छन्। यो एउटा सर्वसुलभ अस्वीकृतिको हतियार बनेको छ। फरिह भन्छन् ‘यो नै त्यही प्रवृत्ति हो जसलाई तपाईहरु अब देख्न थाल्नुभएको छ कि झमेलाबाट उम्कन ‘ठगको नाफा’को प्रयोग गरिरहेको छ।

चरित्रहत्या गर्ने डीपफेकहरुलाई हामी कसरी रोक्न सक्छौं?
डीपफेक सम्बन्धी धेरैवटा अमेरिकी कानूनहरु गतवर्षहरु देखि लागु गरिएका छन्। अमेरिकी राज्यहरूले डीपफेक यौनजन्य सामग्रीहरु तथा निर्वाचनका सन्दर्भमा डीपफेकको प्रयोगका प्रतिबन्ध लगाउन डीपफेकलाई आपराधिक क्रियाकलाप रुपमा लिन विधेयकहरु प्रस्तुत गरेका छन्। टेक्सास, भर्जिनिया र क्यालिफोर्नियाले डीपफेक यौनजन्य सामग्रीलाई आपराधिक क्रियाकलापको श्रेणीमा राखेका छन् र गत डिसेम्बर महिनामा नेशनल डिफेन्स अथराइजेसन एक्टका एक भागका रुपमा पहिलो संघीय कानूनमा हस्ताक्षर गरेका छन्। तर यी नयाँ कानूनहरु कानुनको उल्लंघन गर्ने व्यक्ति कानुनको लागू हुने स्थानमा बसोबास गर्ने व्यक्ति भए मात्र उपयोगी हुनसक्छन्।

अमेरिका बाहेक तथापि डीपफेकको धोकाधडी निमिट्यान्न पार्न ठोस कदम चाल्ने देशहरु चीन र दक्षिण कोरिया हुन्। संयुक्त अधिराज्यमा डीपफेकको सिर्जना गर्ने विविध उपायहरूको सम्बोधन गर्ने विषयलाई दृष्टिगत गर्दै बदलाभावका यौनसामग्रीसँग सम्बन्धित कानून आयोगले पुनरावलोकन गरिरहेको छ।

यसरी यो काममा अमेरिकाले नेतृत्व गरिरहेको भएपनि अघि सारिएका कानूनहरु लागु गर्न सकिने खालका छन् वा त्यहाँ ठिक तरिकाले जोड दिइरहिएको छ भन्ने कुराको पुष्टता प्रमाण छैन।

साथै छेडछाड गरिएका भिडियोहरुको पहिचान तथा इंकित गर्न धेरै अनुसन्धान ल्यावहरुले नयाँ तरिकाहरु उदाहरणका लागि वाटरमार्कको व्यवस्था वा व्लकचेन विकसित गरेको भएपनि अरु दुरुस्त झैं लाग्ने डीपफेकहरुको निर्माण गर्न तत्काल प्रयोग नगरिएका ‌औजारहरुको पहिचान गर्ने डीपफेक पहिचानकर्ताको निर्माण गर्न बहुतै दुस्कर छ।

यस्तो माहोलकाबीचमा पनि सूचना प्रविधि कम्पनीहरु यस्तो समस्याको समाधान गर्न प्रयत्नशील छन्। डीपफेक खुट्याउने प्रविधिको विकास गर्न र आफ्नो कम्पनीले लागू गरेका प्रतिबन्धको नीतिको अनुपालनमा सहयोग पुर्‍याउन फेसबुकले वर्गले, अक्सफोर्ड र अन्य अन्य शैक्षिक संस्थाहरुबाट अनुसन्धाताहरू नियुक्त गरेको छ। त्यसभन्दा अझ एक कदम अघि बढ्दै अन्तत हटाउन आदेश दिएका डीपफेकहरुलाई चीन्हित गर्ने उपायका योजना हटाउन वाटरले बनाइदिएका सूचना प्राप्त भएको छ। साथै युट्युबले फेब्रुअरीमा घोषणा नै गरेको छ की अमेरिकी निर्वाचन प्रक्रिया वा सन् २०२० को अमेरिकी जनगणना सम्बन्धी डीपफेक भिडियोहरुलाई यसले अनुमति प्रदान गर्ने छैन।

तर यी चार पर्खाल भित्रका बगैँचा बाहेक अन्यन्त्र के हुने भन्ने ठूलो प्रश्न मुख वाएर बसेको छ। यथार्थता रक्षक ( reality defender) र गहिरो अन्वेषण (Deeptrace) नाम गरेका दुइ ओटा कार्यक्रमहरूबाट डीपफेकलाई तपाईंबाट टाढा नै राख्ने लक्ष्यसहित क्रियाशील छन्। डीपट्रेसले अपलोड गरिएका श्रव्यदृश्य सामग्रीहरुलाई पूर्व छनौट गर्दै तथा अश्लिल सामग्रीहरुलाई अलग्गै भण्डारण गरेर राख्ने एन्टिभाइरस/स्पाम फिल्टर जसरी काम गर्ने एपीआई मा काम गरिरहेको छ। यसले जसरी जीमेलले तपाईंको ईमेल इनबक्स पुग्नुअघि नै स्पामहरुलाई स्वचालित ढंगले अर्कोतिर मोडिदिन्छ, त्यसरी नै काम गर्छ। एआई फाउण्डेसन नामको कम्पनीले निर्माण गरिरहेको reality defender ले पनि ट्याग गरिएका वा पठाइएका विकृत चित्र वा भिडियोहरुले नोक्सानी पुर्याउनु अघिनै ती सामग्रीहरुलाई पहिचान गर्दछ। एडजेर भन्दछन् ‘हाम्रो सोचाई के छ भने श्रव्यदृश्य सामग्रीको सत्यापन गर्ने दायित्व व्यक्तिलाई सुम्पनु त्यति युक्तिसंगत हुँदैन’।

 

फेसबुकबाट तपाईको प्रतिक्रिया

LEAVE A REPLY

Please enter your comment!
Please enter your name here