विविध विषयांवर अधिकारवाणीने लेखन करणारे तरूण लेखक, पर्यावरणवादी कार्यकर्ते आणि आयटी व्यावसायिक राहुल बनसोडे यांच्या आकस्मिक निधनानंतर ब्लॅक इंक मीडिया या संस्थेने तयार केलेले त्यांच्या संकलित लेखनाचे पुस्तक ‘राहुल बनसोडे, निवडक लेखसंग्रह’ या शीर्षकाने आज नाशिकमध्ये प्रकाशित होत आहे. या पुस्तकातील हा एक लेख…
– – –
‘प्रतिमा संश्लेषण’ हा शब्द वाचायला सोपा जाऊ शकतो, पण समजायला तो तितकाच कठीण आहे. शासनाच्या मराठी भाषा विभागाचा शब्दकोश सोडल्यास या शब्दाचा कधीही कुठे वापर झालेला दिसून येत नाही. मराठी माध्यमातून शिक्षण घेतलेल्यांना ‘प्रकाश संश्लेषण’ हा मराठी शब्द माहिती असेल. झाडे आपल्या पानांमध्ये असलेल्या हरितद्रव्याच्या साहाय्याने हवेतला कार्बन डाय ऑक्साईड आणि पाण्याच्या संयोगातून आपले अन्न तयार करतात आणि या प्रक्रियेला प्रकाश संश्लेषण म्हणतात. प्रतिमा संश्लेषणच्या प्रक्रियेत एखाद्या व्यक्तीचे खूप सारे फोटो आणि व्हिडीओ एकत्र करून त्याचा मशीनच्या मदतीने अभ्यास करून त्या व्यक्तीच्या शरीराचे आकारमान आणि चेहर्याचा वापर करीत अस्तित्वातच नसलेली पूर्णत: नवी प्रतिमा तयार करतात. याला प्रतिमा संश्लेषण म्हणतात.
आपल्यापैकी गुगल फोटो वापरणार्यांना काहींना गुगलने त्यांचे स्पेशल इफेक्ट असलेले फोटो वा अॅनिमेशन दाखविले असतील, ज्यात वापरकर्त्याच्या एकसारख्या दिसणार्या प्रतिमा एकत्र करून गुगल आर्टिफिशियल इंटेलिजन्सच्या मदतीने एक व्हिडिओ ‘जीआयएफ’ बनवते आणि लोक ती पाहून उगाचच चकित होतात. अर्थात ही या तंत्रज्ञानाची अतिशय प्राथमिक पायरी आहे. एखाद्या व्यक्तीचे असंख्य फोटो आणि व्हिडिओ उपलब्ध असल्यास अॅनिमेशनच काय, पूर्ण लांबीचा एखादा व्हिडिओ देखील बनवला जाऊ शकतो. किंवा मग दुसर्या एखाद्या व्हिडिओमधल्या व्यक्तीच्या चेहर्याच्या जागी या व्यक्तीचा चेहरा चिकटवून त्या व्यक्तीने अगोदर व्हिडिओसमोर कधीही न केलेली कृत्ये आणि न म्हटलेले शब्द एकत्र करून एक नवाच व्हिडिओ बनविला जाऊ शकतो. या तंत्रज्ञानाचा वापर सिनेमामध्ये थोडा वेगळ्या प्रकारे होतो आहे, पण या तंत्रज्ञानाचे फायदे कमी आणि तोटे जास्त असल्याचे समोर येते आहे.
प्रतिमा संश्लेषण आणि मशीन लर्निंगच्या वापरातून ‘फेक व्हिडिओ’ बनविले जातात. या व्हिडिओची पिक्चर क्वालिटी आणि हावभाव इतके अस्सल असतात की वरवर पाहता ते खोटे असल्याचेच कळून येत नाही. आर्टिफिशियल इंटेलिजन्स आणि डीपमशीन लर्निंग वापरून बनविलेल्या या व्हिडिओला ‘डीपफेक’ असे म्हटले जाते.
व्हिडिओ एडिटिंग सॉफ्टवेअर वापरून सिनेमातल्या सेलिब्रिटीजचे खोटे व्हिडिओ बनवण्याचे काम गेली कित्येक वर्षे चालू आहे, पण आर्टिफिशियल इंटेलिजन्सने गेल्या काही वर्षांत केलेल्या प्रगतीचा आलेख पाहिल्यास हे तंत्र दिवसेंदिवस अधिक प्रगत होते आहे, ते वापरण्यासाठी विशेष मेहनतीची आवश्यकता राहिलेली नाही आणि सर्वात महत्त्वाचे त्याचा काम करण्याचा वेग प्रचंड जास्त आहे.
या तंत्रज्ञानाचा वापर खोटे सेलिब्रिटी पोर्नोग्राफिक व्हिडिओ बनविण्यात होत असून अनेक प्रसिद्ध भारतीय अभिनेत्रींचे डीपफेक व्हिडिओ इंटरनेटवर उपलब्ध आहेत. पोर्नोग्राफिक व्हिडिओचे सर्वात लोकप्रिय संकेतस्थळ असलेल्या ‘पॉर्नहब’ने अशा व्हिडिओवर कार्यवाही करून ते आपल्या साइटवरून हटविले जातील अशी घोषणा गेल्या वर्षी केली होती. दर्शकांना डीपफेक व्हिडिओ दिसल्यास ते तो व्हिडिओ फ्लॅग करतील आणि त्यानंतर ‘पोर्नहब’ त्याची दखल घेऊन असे व्हिडिओ साईटवरून काढून टाकेल असे साईटतर्पेâ सांगण्यात आले होते. या सगळ्या प्रक्रियेत सर्वात मोठा दोष असा की डीपफेक शोधण्यासाठी पॉर्नहबला त्यांच्या वापरकर्त्यांची मदत घ्यावी लागणार आहे आणि वापरकर्ते असा व्हिडिओ फ्लॅग करण्याऐवजी तो लोकप्रिय व्हावा म्हणून अधिक प्रयत्नशील असल्याचे दिसून आले आहे. इंटरनेटवर वाईट आणि खोट्या गोष्टींची लोकप्रियता अधिक वेगाने वाढण्याच्या दिवसात असे डीपफेक व्हिडिओ अधिक जास्त प्रसिद्ध न झाले तरच नवल. शिवाय या व्हिडिओंचा दर्जा अपेक्षेपेक्षा जास्त चांगला असल्याने वापरकर्ते त्यातले असत्य शोधण्यापेक्षा क्षणभरासाठी त्यालाच सत्य मानून कल्पनांच्या दुसर्या मनोराज्यात जाणे पसंत करीत आहेत.
डीपफेकचा भयंकर प्रभावी वापर करण्याचे दुसरे क्षेत्र आहे ते म्हणजे राजकारण. एखाद्या लोकप्रिय राजकारण्याच्या भाषणांचे मोठ्या प्रमाणात जमा केलेले व्हिडिओ मशीन लर्निंगला पुरवून त्यातून बनविलेल्या नव्या व्हिडिओतून राजकीय नेत्याच्या तोंडी कुठलेही शब्द आणि वाक्ये घातली जाऊ शकतात. असे व्हिडिओ तुम्ही अगोदरच पाहिलेले असण्याचीही शक्यता आहे. परंतु त्याच्याशेवटी येणारे हसर्या इमोजी, वॉटरमार्कमुळे हे व्हिडिओ फक्त गंमतीकरता आहेत हे लगेचच कळून येते.
पण तंत्रज्ञानाच्या सध्याच्या टप्प्यात वॉटरमार्क आणि इमोजी नसल्यास अशा व्हिडिओचा नागरिकांच्या मतांवरती विपरीत परिणाम होऊ शकतो. आपल्या लाडक्या नेत्याच्या तोंडातून निघालेले शब्द मोत्यांसारखे झेलणार्या ‘झॉम्बी अपोकोलिप्टिक’ काळात डीपफेक्सचा वापर झॉम्बी कार्यकर्त्यांना भडकविण्यासाठी केला जाऊ शकतो. सुदैवाने लोकप्रियतेच्या वाटेवर स्वार असलेल्या अनेक नेत्यांचे अस्सल व्हिडिओच बरेचसे भडकावू असल्याने या तंत्रज्ञानाचा म्हणावा तितका धोका अद्याप निर्माण झालेला नाही.
गंमतीची गोष्ट अशी की हेच लोकप्रिय नेते आपल्या विरोधकांचे फेक व्हिडिओ पसरविण्यात मात्र पुढाकार घेत आहेत. सत्याची रीतसर तोडफोड आणि अपलाप करून सत्तेवर आलेल्यांचा सत्याशी तसाही फार संबंध नसतो; पण समस्या सोडविण्याच्या आधारावर राजकारण करणार्या पक्षांना आणि राजकारण्यांना डीपफेकचा प्रचंड त्रास होऊ शकतो.
डीपफेकचे तंत्रज्ञान राजकारण आणि पोर्नोग्राफीपुरतेच सीमित राहाणार असेल तर लोकांना त्याविषयी विशेष काही वाटणार नाही. पण याच तंत्रज्ञानाच्या मदतीने सामान्य नागरिकांचे, विशेषतः महिलांचे फेक व्हिडिओ आणि फोटो बनविले जाऊ शकतात, ही शक्यता लक्षात घेतल्यास मात्र अनेकांना परिस्थितीचे गांभीर्य समजू शकेल.
‘व्हाईस’ या अमेरिकी संकेतस्थळाने डीपन्यूड नावाच्या सॉफ्टवेअरसंदर्भात काही काळापूर्वी जाहीर केलेली माहिती खळबळजनक आहे. डीपन्यूड हे सॉफ्टवेअर कुठल्याही स्त्रीचा कुठलाही फोटो घेऊन त्या फोटोपासून त्या स्त्रीचा नग्न फोटो तयार करू शकतो. व्हाईसने या सॉफ्टवेअरबद्दल बातमी दिल्यानंतर त्याच्या निर्मात्याने ते सॉफ्टवेअर इंटरनेटवरून अधिकृतरित्या काढून घेतले आहे. पण इंटरनेटवर काही रिलीज झाल्यानंतर ते असेच सहजासहजी गायब होऊ शकत नाही, डीपन्यूडचे अधिकृत व्हर्जन इंटरनेटवर उपलब्ध नसले तरी त्याच्या असंख्य कॉपी निरनिराळ्या हॅकर आणि डार्क संकेतस्थळांवर उपलब्ध असल्याचे ‘व्हाईस’तर्पेâ सांगण्यात आले आहे. हॅकर्सनी या सॉफ्टवेअरच्या मूळ व्हर्जनमध्ये पुढचे अधिक बदल केले असून ते पूर्वीपेक्षा जास्त सक्षम झाले असल्याचे हे सॉफ्टवेअर इंटरनेटच्या काळ्या बाजारात विकणार्यांचे म्हणणे आहे.
गेल्या काही वर्षांत सत्त्यासत्याच्या रेषा धूसर होत असताना आणि सभोवतालची परिस्थिती सत्त्योत्तर म्हणजेच पोस्टट्रुथ असल्याची व्याख्या होत असताना डीपफेकचा प्रसार वाढल्यास माध्यमांतले उरलेसुरले सत्यही नष्ट होऊन मागे उरणारी परिस्थिती महाभयंकर असेल, असे काही समाजशास्त्रज्ञांचे म्हणणे आहे. तर याच तंत्रज्ञानामुळे सद्यस्थितीत असलेल्या खोट्या बातम्यांच्या मार्केटवरही परिणाम होण्याची शक्यता आहे. गेले काही वर्षे टीव्हीवर तद्दन खोट्या आणि रद्दी बातम्या देणारे असंख्य राघुमैना विविध चॅनेलांवर आत्मविश्वासाने पोपटपंची करीत आहेत. या बोलक्या राघुमैनांचे भरपूर व्हिडिओ त्यांच्या चॅनेलमालकांकडे जमा झाले आहेत. मशीन लर्निंगला हे व्हिडीओ पुरवून त्यातून अशा राघुमैनांची प्रतिकृती बनवून त्यांच्या तोंडातून रोज हवे ते वदवून घेण्याची कला चॅनेल मालक साधू शकतात. एरव्ही पत्रकारिता आणि बातमीमूल्याशी कुठलीही बांधलिकी न ठेवणार्या न्यूज चॅनेलच्या हडेलहप्पी मालकांना हे तंत्र स्वस्त होत असेल तर हवेहवेसे वाटू शकते. एआय तंत्राने बातम्या देणारा कृत्रिम वृत्तनिवेदक बनविल्यानंतर या तंत्रज्ञानात चीनने प्रचंड प्रगती केली असून तिथले टीव्ही चॅनेल लवकरच अशा कृत्रिम वृत्तनिवदेकांचा जास्तीत जास्त वापर करण्याच्या प्रयत्नात आहेत. असे झाल्यास टीव्ही न्यूजचे भविष्य पूर्णपणे बदलून जाईल. रशिया, उत्तर कोरिया प्रजासत्ताकातल्या टीव्ही चॅनेल्सची अवस्था पाहता हे तंत्रज्ञान तिथे अधिक फायद्याचे ठरू शकेल असे वाटते.
(‘द डिक्टेटर’ या २०१२च्या सिनेमातील काल्पनिक) वाडीया प्रजासत्ताकात स्थानिक भाषांत बातम्या देणार्या वीसहून अधिक वृत्तवाहिन्या आहेत. या सर्व वाहिन्यांवर येणार्या बातम्या या दिवसाचे चोवीस तास वाडीयाचे सर्वेसर्वा जनरल अॅरडमिरल अलादीन यांच्या आरत्या गाण्यात मग्न असतात, ज्याचा त्यांना आर्थिक मोबदलाही मिळतो. हा मोबदला कधी भरपूर असतो, तर कधी कमी आणि त्याचा मोबदलाही कैकदा वेळेवर होत नाही. सर्वात महत्त्वाचे म्हणजे या सर्व प्रकारांत वाडीयाच्या सरकारी तिजोरीवर बराच भार पडतो. यामुळे सर्व चॅनेल्सच्या राघुमैनांचे डीपफेक्स बनवून त्यांच्या तोंडून म्हणायचे संवाद एकाच ठिकाणी व्यवस्थित पुरवून नंतर ते चॅनेलवर प्रसारित केल्यास अतिशय मोठ्या प्रमाणावर वेळ, श्रम आणि पैसा वापरला जाऊ शकतो. यातून त्या टीव्ही चॅनेलवर काम करणार्यांचे रोजगार जाऊ शकतात. परंतु या वृत्तनिवेदकांची इन्स्टाग्रामवरची लोकप्रियता पाहता उद्या त्यांचा जॉब गेला तरी ते मॉडेलिंग क्षेत्रात पुन्हा प्रवेश करून आपले भवितव्य सावरू शकतात.
डीपफेकचा धोका तिथेही आहेच, पण असेही फेक आयुष्य जगणार्यांना डीपफेकची काळजी करण्याची विशेष गरज नाही.