• Contact
  • Privacy Policy
    • TERMS OF SERVICE
  • उचला कुंचला
  • जुने अंक
    • १४ जुलै २०१३
    • १८ ऑगस्ट २०१३
  • बाळासाहेबांच्या कुंचल्यातून
  • मार्मिक परिवार
  • मार्मिक विषयी
  • मार्मिकची वाटचाल
  • मुख्य पृष्ठ
  • वर्गणीदार व्हा
मार्मिक
No Result
View All Result
No Result
View All Result
मार्मिक
No Result
View All Result

डीपफेक : सत्य-असत्याच्या रेषा धूसर

- राहुल बनसोडे (पुस्तकांच्या पानांतून)

Nitin Phanse by Nitin Phanse
June 2, 2023
in भाष्य
0

विविध विषयांवर अधिकारवाणीने लेखन करणारे तरूण लेखक, पर्यावरणवादी कार्यकर्ते आणि आयटी व्यावसायिक राहुल बनसोडे यांच्या आकस्मिक निधनानंतर ब्लॅक इंक मीडिया या संस्थेने तयार केलेले त्यांच्या संकलित लेखनाचे पुस्तक ‘राहुल बनसोडे, निवडक लेखसंग्रह’ या शीर्षकाने आज नाशिकमध्ये प्रकाशित होत आहे. या पुस्तकातील हा एक लेख…
– – –

‘प्रतिमा संश्लेषण’ हा शब्द वाचायला सोपा जाऊ शकतो, पण समजायला तो तितकाच कठीण आहे. शासनाच्या मराठी भाषा विभागाचा शब्दकोश सोडल्यास या शब्दाचा कधीही कुठे वापर झालेला दिसून येत नाही. मराठी माध्यमातून शिक्षण घेतलेल्यांना ‘प्रकाश संश्लेषण’ हा मराठी शब्द माहिती असेल. झाडे आपल्या पानांमध्ये असलेल्या हरितद्रव्याच्या साहाय्याने हवेतला कार्बन डाय ऑक्साईड आणि पाण्याच्या संयोगातून आपले अन्न तयार करतात आणि या प्रक्रियेला प्रकाश संश्लेषण म्हणतात. प्रतिमा संश्लेषणच्या प्रक्रियेत एखाद्या व्यक्तीचे खूप सारे फोटो आणि व्हिडीओ एकत्र करून त्याचा मशीनच्या मदतीने अभ्यास करून त्या व्यक्तीच्या शरीराचे आकारमान आणि चेहर्‍याचा वापर करीत अस्तित्वातच नसलेली पूर्णत: नवी प्रतिमा तयार करतात. याला प्रतिमा संश्लेषण म्हणतात.
आपल्यापैकी गुगल फोटो वापरणार्‍यांना काहींना गुगलने त्यांचे स्पेशल इफेक्ट असलेले फोटो वा अ‍ॅनिमेशन दाखविले असतील, ज्यात वापरकर्त्याच्या एकसारख्या दिसणार्‍या प्रतिमा एकत्र करून गुगल आर्टिफिशियल इंटेलिजन्सच्या मदतीने एक व्हिडिओ ‘जीआयएफ’ बनवते आणि लोक ती पाहून उगाचच चकित होतात. अर्थात ही या तंत्रज्ञानाची अतिशय प्राथमिक पायरी आहे. एखाद्या व्यक्तीचे असंख्य फोटो आणि व्हिडिओ उपलब्ध असल्यास अ‍ॅनिमेशनच काय, पूर्ण लांबीचा एखादा व्हिडिओ देखील बनवला जाऊ शकतो. किंवा मग दुसर्‍या एखाद्या व्हिडिओमधल्या व्यक्तीच्या चेहर्‍याच्या जागी या व्यक्तीचा चेहरा चिकटवून त्या व्यक्तीने अगोदर व्हिडिओसमोर कधीही न केलेली कृत्ये आणि न म्हटलेले शब्द एकत्र करून एक नवाच व्हिडिओ बनविला जाऊ शकतो. या तंत्रज्ञानाचा वापर सिनेमामध्ये थोडा वेगळ्या प्रकारे होतो आहे, पण या तंत्रज्ञानाचे फायदे कमी आणि तोटे जास्त असल्याचे समोर येते आहे.
प्रतिमा संश्लेषण आणि मशीन लर्निंगच्या वापरातून ‘फेक व्हिडिओ’ बनविले जातात. या व्हिडिओची पिक्चर क्वालिटी आणि हावभाव इतके अस्सल असतात की वरवर पाहता ते खोटे असल्याचेच कळून येत नाही. आर्टिफिशियल इंटेलिजन्स आणि डीपमशीन लर्निंग वापरून बनविलेल्या या व्हिडिओला ‘डीपफेक’ असे म्हटले जाते.
व्हिडिओ एडिटिंग सॉफ्टवेअर वापरून सिनेमातल्या सेलिब्रिटीजचे खोटे व्हिडिओ बनवण्याचे काम गेली कित्येक वर्षे चालू आहे, पण आर्टिफिशियल इंटेलिजन्सने गेल्या काही वर्षांत केलेल्या प्रगतीचा आलेख पाहिल्यास हे तंत्र दिवसेंदिवस अधिक प्रगत होते आहे, ते वापरण्यासाठी विशेष मेहनतीची आवश्यकता राहिलेली नाही आणि सर्वात महत्त्वाचे त्याचा काम करण्याचा वेग प्रचंड जास्त आहे.
या तंत्रज्ञानाचा वापर खोटे सेलिब्रिटी पोर्नोग्राफिक व्हिडिओ बनविण्यात होत असून अनेक प्रसिद्ध भारतीय अभिनेत्रींचे डीपफेक व्हिडिओ इंटरनेटवर उपलब्ध आहेत. पोर्नोग्राफिक व्हिडिओचे सर्वात लोकप्रिय संकेतस्थळ असलेल्या ‘पॉर्नहब’ने अशा व्हिडिओवर कार्यवाही करून ते आपल्या साइटवरून हटविले जातील अशी घोषणा गेल्या वर्षी केली होती. दर्शकांना डीपफेक व्हिडिओ दिसल्यास ते तो व्हिडिओ फ्लॅग करतील आणि त्यानंतर ‘पोर्नहब’ त्याची दखल घेऊन असे व्हिडिओ साईटवरून काढून टाकेल असे साईटतर्पेâ सांगण्यात आले होते. या सगळ्या प्रक्रियेत सर्वात मोठा दोष असा की डीपफेक शोधण्यासाठी पॉर्नहबला त्यांच्या वापरकर्त्यांची मदत घ्यावी लागणार आहे आणि वापरकर्ते असा व्हिडिओ फ्लॅग करण्याऐवजी तो लोकप्रिय व्हावा म्हणून अधिक प्रयत्नशील असल्याचे दिसून आले आहे. इंटरनेटवर वाईट आणि खोट्या गोष्टींची लोकप्रियता अधिक वेगाने वाढण्याच्या दिवसात असे डीपफेक व्हिडिओ अधिक जास्त प्रसिद्ध न झाले तरच नवल. शिवाय या व्हिडिओंचा दर्जा अपेक्षेपेक्षा जास्त चांगला असल्याने वापरकर्ते त्यातले असत्य शोधण्यापेक्षा क्षणभरासाठी त्यालाच सत्य मानून कल्पनांच्या दुसर्‍या मनोराज्यात जाणे पसंत करीत आहेत.
डीपफेकचा भयंकर प्रभावी वापर करण्याचे दुसरे क्षेत्र आहे ते म्हणजे राजकारण. एखाद्या लोकप्रिय राजकारण्याच्या भाषणांचे मोठ्या प्रमाणात जमा केलेले व्हिडिओ मशीन लर्निंगला पुरवून त्यातून बनविलेल्या नव्या व्हिडिओतून राजकीय नेत्याच्या तोंडी कुठलेही शब्द आणि वाक्ये घातली जाऊ शकतात. असे व्हिडिओ तुम्ही अगोदरच पाहिलेले असण्याचीही शक्यता आहे. परंतु त्याच्याशेवटी येणारे हसर्‍या इमोजी, वॉटरमार्कमुळे हे व्हिडिओ फक्त गंमतीकरता आहेत हे लगेचच कळून येते.
पण तंत्रज्ञानाच्या सध्याच्या टप्प्यात वॉटरमार्क आणि इमोजी नसल्यास अशा व्हिडिओचा नागरिकांच्या मतांवरती विपरीत परिणाम होऊ शकतो. आपल्या लाडक्या नेत्याच्या तोंडातून निघालेले शब्द मोत्यांसारखे झेलणार्‍या ‘झॉम्बी अपोकोलिप्टिक’ काळात डीपफेक्सचा वापर झॉम्बी कार्यकर्त्यांना भडकविण्यासाठी केला जाऊ शकतो. सुदैवाने लोकप्रियतेच्या वाटेवर स्वार असलेल्या अनेक नेत्यांचे अस्सल व्हिडिओच बरेचसे भडकावू असल्याने या तंत्रज्ञानाचा म्हणावा तितका धोका अद्याप निर्माण झालेला नाही.
गंमतीची गोष्ट अशी की हेच लोकप्रिय नेते आपल्या विरोधकांचे फेक व्हिडिओ पसरविण्यात मात्र पुढाकार घेत आहेत. सत्याची रीतसर तोडफोड आणि अपलाप करून सत्तेवर आलेल्यांचा सत्याशी तसाही फार संबंध नसतो; पण समस्या सोडविण्याच्या आधारावर राजकारण करणार्‍या पक्षांना आणि राजकारण्यांना डीपफेकचा प्रचंड त्रास होऊ शकतो.
डीपफेकचे तंत्रज्ञान राजकारण आणि पोर्नोग्राफीपुरतेच सीमित राहाणार असेल तर लोकांना त्याविषयी विशेष काही वाटणार नाही. पण याच तंत्रज्ञानाच्या मदतीने सामान्य नागरिकांचे, विशेषतः महिलांचे फेक व्हिडिओ आणि फोटो बनविले जाऊ शकतात, ही शक्यता लक्षात घेतल्यास मात्र अनेकांना परिस्थितीचे गांभीर्य समजू शकेल.
‘व्हाईस’ या अमेरिकी संकेतस्थळाने डीपन्यूड नावाच्या सॉफ्टवेअरसंदर्भात काही काळापूर्वी जाहीर केलेली माहिती खळबळजनक आहे. डीपन्यूड हे सॉफ्टवेअर कुठल्याही स्त्रीचा कुठलाही फोटो घेऊन त्या फोटोपासून त्या स्त्रीचा नग्न फोटो तयार करू शकतो. व्हाईसने या सॉफ्टवेअरबद्दल बातमी दिल्यानंतर त्याच्या निर्मात्याने ते सॉफ्टवेअर इंटरनेटवरून अधिकृतरित्या काढून घेतले आहे. पण इंटरनेटवर काही रिलीज झाल्यानंतर ते असेच सहजासहजी गायब होऊ शकत नाही, डीपन्यूडचे अधिकृत व्हर्जन इंटरनेटवर उपलब्ध नसले तरी त्याच्या असंख्य कॉपी निरनिराळ्या हॅकर आणि डार्क संकेतस्थळांवर उपलब्ध असल्याचे ‘व्हाईस’तर्पेâ सांगण्यात आले आहे. हॅकर्सनी या सॉफ्टवेअरच्या मूळ व्हर्जनमध्ये पुढचे अधिक बदल केले असून ते पूर्वीपेक्षा जास्त सक्षम झाले असल्याचे हे सॉफ्टवेअर इंटरनेटच्या काळ्या बाजारात विकणार्‍यांचे म्हणणे आहे.
गेल्या काही वर्षांत सत्त्यासत्याच्या रेषा धूसर होत असताना आणि सभोवतालची परिस्थिती सत्त्योत्तर म्हणजेच पोस्टट्रुथ असल्याची व्याख्या होत असताना डीपफेकचा प्रसार वाढल्यास माध्यमांतले उरलेसुरले सत्यही नष्ट होऊन मागे उरणारी परिस्थिती महाभयंकर असेल, असे काही समाजशास्त्रज्ञांचे म्हणणे आहे. तर याच तंत्रज्ञानामुळे सद्यस्थितीत असलेल्या खोट्या बातम्यांच्या मार्केटवरही परिणाम होण्याची शक्यता आहे. गेले काही वर्षे टीव्हीवर तद्दन खोट्या आणि रद्दी बातम्या देणारे असंख्य राघुमैना विविध चॅनेलांवर आत्मविश्वासाने पोपटपंची करीत आहेत. या बोलक्या राघुमैनांचे भरपूर व्हिडिओ त्यांच्या चॅनेलमालकांकडे जमा झाले आहेत. मशीन लर्निंगला हे व्हिडीओ पुरवून त्यातून अशा राघुमैनांची प्रतिकृती बनवून त्यांच्या तोंडातून रोज हवे ते वदवून घेण्याची कला चॅनेल मालक साधू शकतात. एरव्ही पत्रकारिता आणि बातमीमूल्याशी कुठलीही बांधलिकी न ठेवणार्‍या न्यूज चॅनेलच्या हडेलहप्पी मालकांना हे तंत्र स्वस्त होत असेल तर हवेहवेसे वाटू शकते. एआय तंत्राने बातम्या देणारा कृत्रिम वृत्तनिवेदक बनविल्यानंतर या तंत्रज्ञानात चीनने प्रचंड प्रगती केली असून तिथले टीव्ही चॅनेल लवकरच अशा कृत्रिम वृत्तनिवदेकांचा जास्तीत जास्त वापर करण्याच्या प्रयत्नात आहेत. असे झाल्यास टीव्ही न्यूजचे भविष्य पूर्णपणे बदलून जाईल. रशिया, उत्तर कोरिया प्रजासत्ताकातल्या टीव्ही चॅनेल्सची अवस्था पाहता हे तंत्रज्ञान तिथे अधिक फायद्याचे ठरू शकेल असे वाटते.
(‘द डिक्टेटर’ या २०१२च्या सिनेमातील काल्पनिक) वाडीया प्रजासत्ताकात स्थानिक भाषांत बातम्या देणार्‍या वीसहून अधिक वृत्तवाहिन्या आहेत. या सर्व वाहिन्यांवर येणार्‍या बातम्या या दिवसाचे चोवीस तास वाडीयाचे सर्वेसर्वा जनरल अ‍ॅरडमिरल अलादीन यांच्या आरत्या गाण्यात मग्न असतात, ज्याचा त्यांना आर्थिक मोबदलाही मिळतो. हा मोबदला कधी भरपूर असतो, तर कधी कमी आणि त्याचा मोबदलाही कैकदा वेळेवर होत नाही. सर्वात महत्त्वाचे म्हणजे या सर्व प्रकारांत वाडीयाच्या सरकारी तिजोरीवर बराच भार पडतो. यामुळे सर्व चॅनेल्सच्या राघुमैनांचे डीपफेक्स बनवून त्यांच्या तोंडून म्हणायचे संवाद एकाच ठिकाणी व्यवस्थित पुरवून नंतर ते चॅनेलवर प्रसारित केल्यास अतिशय मोठ्या प्रमाणावर वेळ, श्रम आणि पैसा वापरला जाऊ शकतो. यातून त्या टीव्ही चॅनेलवर काम करणार्‍यांचे रोजगार जाऊ शकतात. परंतु या वृत्तनिवेदकांची इन्स्टाग्रामवरची लोकप्रियता पाहता उद्या त्यांचा जॉब गेला तरी ते मॉडेलिंग क्षेत्रात पुन्हा प्रवेश करून आपले भवितव्य सावरू शकतात.
डीपफेकचा धोका तिथेही आहेच, पण असेही फेक आयुष्य जगणार्‍यांना डीपफेकची काळजी करण्याची विशेष गरज नाही.

Previous Post

इतिहास व कल्पना यांचा रंजक मेळ

Next Post

मिस्टर कणेकर, तुम्हाला पण पर्याय नाही!

Next Post

मिस्टर कणेकर, तुम्हाला पण पर्याय नाही!

  • Contact
  • Privacy Policy
  • उचला कुंचला
  • जुने अंक
  • बाळासाहेबांच्या कुंचल्यातून
  • मार्मिक परिवार
  • मार्मिक विषयी
  • मार्मिकची वाटचाल
  • मुख्य पृष्ठ
  • वर्गणीदार व्हा

© 2025 JNews - Premium WordPress news & magazine theme by Jegtheme.

No Result
View All Result
  • Contact
  • Privacy Policy
    • TERMS OF SERVICE
  • उचला कुंचला
  • जुने अंक
    • १४ जुलै २०१३
    • १८ ऑगस्ट २०१३
  • बाळासाहेबांच्या कुंचल्यातून
  • मार्मिक परिवार
  • मार्मिक विषयी
  • मार्मिकची वाटचाल
  • मुख्य पृष्ठ
  • वर्गणीदार व्हा

© 2025 JNews - Premium WordPress news & magazine theme by Jegtheme.