28.1 C
Ranchi
Wednesday, February 12, 2025 | 04:04 pm
28.1 C
Ranchi

BREAKING NEWS

दिल्ली में 5 फरवरी को मतदान, 8 फरवरी को आएगा रिजल्ट, चुनाव आयोग ने कहा- प्रचार में भाषा का ख्याल रखें

Delhi Assembly Election 2025 Date : दिल्ली में मतदान की तारीखों का ऐलान चुनाव आयोग ने कर दिया है. यहां एक ही चरण में मतदान होंगे.

आसाराम बापू आएंगे जेल से बाहर, नहीं मिल पाएंगे भक्तों से, जानें सुप्रीम कोर्ट ने किस ग्राउंड पर दी जमानत

Asaram Bapu Gets Bail : स्वयंभू संत आसाराम बापू जेल से बाहर आएंगे. सुप्रीम कोर्ट ने उन्हें जमानत दी है.

Oscars 2025: बॉक्स ऑफिस पर फ्लॉप, लेकिन ऑस्कर में हिट हुई कंगुवा, इन 2 फिल्मों को भी नॉमिनेशन में मिली जगह

Oscar 2025: ऑस्कर में जाना हर फिल्म का सपना होता है. ऐसे में कंगुवा, आदुजीविथम और गर्ल्स विल बी गर्ल्स ने बड़ी उपलब्धि हासिल करते हुए ऑस्कर 2025 के नॉमिनेशन में अपनी जगह बना ली है.
Advertisement

VIDEO: रश्मिका मंदाना का वायरल वीडियो AI DeepFake से बना है, जानें क्या बला है यह

Advertisement

Rashmika Mandanna Viral Video - सोशल मीडिया पर एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो तेजी से वायरल हो रहा है. इस वीडियो को डीपफेक की मदद से बनाया गया है. जी हां, आर्टिफिशियल इंटेलीजेंस यानी एआई आधारित इस टेक्नोलॉजी की मदद से वीडियो में किसी और के चेहरे पर एक्ट्रेस का चेहरा लगा दिया गया है.

Audio Book

ऑडियो सुनें

DeepFake Video of Rashmika Mandanna Viral : आज के समय में तकनीक इतनी एडवांस्ड और ऐक्सेसिबल हो चुकी है कि लोग इसका हर तरह से इस्तेमाल करने लगे हैं. आर्टिफिशियल इंटेलिजेंस के बाजार में आने के बाद लोग इसका गलत इस्तेमाल भी कर रहे हैं. हमारी सुविधा के लिए बनाये गए टूल्स का लोग गलत उपयोग कर रहे हैं. इस बीच सोशल मीडिया पर एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो तेजी से वायरल (Rashmika Mandanna Viral Video) हो रहा है, जिसे अब तक 2 मिलियन से भी ज्यादा लोग एक्स पर देख चुके हैं. इस वीडियो को डीपफेक की मदद से बनाया गया है. जी हां, आर्टिफिशियल इंटेलीजेंस यानी एआई आधारित इस टेक्नोलॉजी की मदद से वीडियो में किसी और के चेहरे पर एक्ट्रेस का चेहरा लगा दिया गया है.

Deepfake क्या होता है?

आसान भाषा में समझें, तो डीपफेक एक प्रकार का सिंथेटिक मीडिया है. इसमें एआई का इस्तेमाल करके किसी फोटो या वीडियो में एक व्यक्ति को किसी और की फोटो से बदल दिया जाता है. आर्टिफिशियल इंटेलीजेंस की क्षमता की वजह से फेक वीडियो को पहचान पाना आम लोगों के लिए मुश्किल हो जाता है और वह आसानी से किसी किसी के जाल में फंस सकता है.

Also Read: Karmita Kaur MMS Video: कुल्हड़ पिज्जा कपल के बाद लीक हुआ एक और एमएमएस; कैसे लीक हो जाते हैं प्राइवेट वीडियो?

अमिताभ बच्चन ने किया अलर्ट

सोशल मीडिया में वायरल हो रहे इस वीडियो में एक्ट्रेस रश्मिका मंदाना लिफ्ट के अंदर आती हुई दिखाई दे रही हैं. इसमें उन्हें बोल्ड अंदाज में दिखाया गया है. ‘पुष्पा’ और ‘एनिमल’ फिल्म फेम एक्ट्रेस का यह वीडियो तेजी से वायरल हो रहा है. इस वीडियो की सच्चाई यह है कि इस वीडियो को इंस्टाग्राम पर 8 अक्टूबर को जारा पटेल नाम की एक महिला ने अपलोड किया था. जारा पटेल की बॉडी का इस्तेमाल कर डीपफेक की मदद से रश्मिका मंदाना का चेहरा इस वीडियो में लगा दिया गया है.

ध्यान से देखें वीडियो, पता चलेगी हकीकत

वायरल वीडियो को जब आप ध्यान से देखेंगे, तो जैसे ही जारा पटेल वीडियो में लिफ्ट के अंदर घुस रही हैं, तभी उनका चेहरा एक्ट्रेस रश्मिका मंदाना के रूप में बदल जा रहा है. यह बताता है कि वीडियो फेक है और इसे AI टूल की मदद से बनाया गया है. इस वीडियो पर बॉलीवुड अभिनेता अमिताभ बच्चन ने रिएक्ट किया है और कहा कि यह एक स्ट्रॉन्ग लीगल केस है और ऐसी गलत हरकत लोगों के खिलाफ कार्रवाई होनी चाहिए.

क्या है इससे बचने का तरीका ?

आर्टिफिशियल इंटेलीजेंस के आने के बाद से लोग इसका गलत इस्तेमाल बढ़ गया है. आपके साथ ऐसा कुछ न हो, इसके लिए अपनी निजी तस्वीरें और वीडियो सोशल मीडिया पर अपलोड करने से बचना सही रहेगा, क्योंकि इन्हें गलत तरीके से एडिट कर रखा जा रहा है. यदि संभव हो तो अपनी प्रोफाइल प्राइवेट रखें और अपनी कम से कम जानकारी ही सोशल मीडिया पर पोस्ट करने की बात गांठ बांध लें.

ट्रेंडिंग टॉपिक्स

संबंधित ख़बरें

Trending News

Advertisement
Advertisement
Advertisement

Word Of The Day

Sample word
Sample pronunciation
Sample definition
ऐप पर पढें