इटली की प्रधानमंत्री जॉर्जिया मेलोनी ने डीपफेक वीडियो के मामले में मुआवजा मांगा है. मुआवजे की ये राशि 1 लाख यूरो यानि 90 लाख रुपए होगी. सार्डिनिया (Sardinia) की ससारी कोर्ट में ये मामला अंडर ट्रायल है. 2 जुलाई 2024 को प्रधानमंत्री मेलोनी की गवाही होनी है. आइए, समझते हैं पूरा मामला क्या है?
क्या है पूरा मामला?
साल 2022 में जार्जिया मेलोनी का वीडियो अमेरिकी एडल्ट कॉन्टेंट वेबसाइट पर पोस्ट किया गया था. तब जार्जिया मेलोनी इटली की प्रधानमंत्री नहीं थी. आरोपियों ने एडल्ट फिल्म स्टार के चेहरे पर जॉर्जिया का चेहरा लगाया गया था. यानि फेस मॉर्फिंग तकनीकि के जरिए मेलोनी का डीपफेक वीडियो तैयार किया गया था. BBC की रिपोर्ट के मुताबिक, एडल्ट वीडियो अपलोड करने के लिए जिस मोबाइल का इस्तेमाल किया था. पुलिस ने उस मोबाइल को ट्रेस कर 40 साल के आरोपी को पकड़ा. हैरानी की बात ये थी कि इस काम में उसका 73 साल का पिता भी शामिल था. दोनों ने मिलकर आर्टिफिशियल इंटेलीजेंस की मदद से फेक वीडियो बनाया था.
क्या हो सकती है सज़ा?
मेलोनी की टीम की तरफ से जारी बयान के मुताबिक, 2022 में अपलोड हुए इस वीडियो को लाखों लोगों ने देखा है. इटली के कानून के मुताबिक ये एक ऐसा अपराध जिसके लिए 6 महीने से 3 साल तक की जेल हो सकती है. बहरहाल, आरोपी पकड़े गए तो, ट्रायल शुरू हुआ. जार्जिया मेलोनी की तरफ से दोनों आरोपियों पर मानहानि का केस दर्ज कराया गया. अब हर्जाने के तौर पर 1 लाख यूरो, यानी करीब 90 लाख रुपए का मुआवजे की मांग की गई है.
मुआवजे की मांग क्यों?
मेलोनी की वकील मारिया गिउलिया मारोंगिउ ने कहा- प्रधानमंत्री जो मुआवजा मांग रही हैं वो प्रतीकात्मक है. इस मुआवजे का उद्देश्य, इस तरह के अपराध का शिकार हुई महिलाओं को यह संदेश देना है कि वे आवाज उठाने से न डरें. अगर, मुआवजा दिया जाता है, तो वो इस राशि को हिंसा का शिकार हुई महिलाओं की मदद के लिए दान कर देंगी.
क्या होता है ‘डीपफेक’ वीडियो?
आज के डिजिटल दौर में इंटरनेट के जरिए कई लोग ऐसे भी हैं जो, गलत खबरें और भ्रामक जानकारियां फैला रहे हैं. ऐसे ही फेक वीडियो भी लोगों तक पहुंचाए जाते हैं. इन वीडियो को डीपफेक कहते हैं. इसमें असली और नकली की पहचान करना बेहद मुश्किल होता है. क्योंकि इन वीडियो को बनाने में आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल किया जाता है. इसे मॉर्फिंग का एडवांस रूप माना जा सकता है. आसान भाषा में कहें तो, AI तकनीकि के जरिए फोटोग्राफ, ऑडियो या वीडियो की फेक कॉपी तैयार की जाती है, जो एकदम रियल लगती है. बस इसमें सब्जेक्ट बदल जाता है. यानि किसी शख्स के चेहरे पर दूसरा चेहरा इतनी सफाई से लगाया जाता है कि देखने वाले धोखा खा जाएं. इन वीडियो को बनाने का मकसद लोगों की छवि को खराब करना, उन्हें बदनाम करना और पैसा ऐंठना हो सकता है.
ये सेलिब्रिटीज भी बने टारगेट
आपने खबरों में सुना होगा, ऐसा ही एक वीडियो बॉलीवुड एक्ट्रेस रश्मिका मंदाना का भी सामने आया था. सोशल मीडिया पर ये वीडियो खूब शेयर किया गया था. दरअसल, वो वीडियो भी डीपफेक था. उसमें जारा पटेल नाम की एक लड़की के चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था. इस डीपफेक वीडियो पर अमिताभ बच्चन से लेकर खुद रश्मिका मंदाना तक ने हैरानी जताई थी. रश्मिका के अलावा, अक्षय कुमार, आलिया भट्ट और काजोल का डीपफेक वीडियो भी इंटरनेट पर वायरल हुए. जिसके पीछे मकसद इन सेलिब्रिटीज की प्रतिष्ठा को नुकसान पहुंचाना था.