27.1 C
Ranchi
Friday, February 7, 2025 | 03:16 pm
27.1 C
Ranchi

BREAKING NEWS

दिल्ली में 5 फरवरी को मतदान, 8 फरवरी को आएगा रिजल्ट, चुनाव आयोग ने कहा- प्रचार में भाषा का ख्याल रखें

Delhi Assembly Election 2025 Date : दिल्ली में मतदान की तारीखों का ऐलान चुनाव आयोग ने कर दिया है. यहां एक ही चरण में मतदान होंगे.

आसाराम बापू आएंगे जेल से बाहर, नहीं मिल पाएंगे भक्तों से, जानें सुप्रीम कोर्ट ने किस ग्राउंड पर दी जमानत

Asaram Bapu Gets Bail : स्वयंभू संत आसाराम बापू जेल से बाहर आएंगे. सुप्रीम कोर्ट ने उन्हें जमानत दी है.

Oscars 2025: बॉक्स ऑफिस पर फ्लॉप, लेकिन ऑस्कर में हिट हुई कंगुवा, इन 2 फिल्मों को भी नॉमिनेशन में मिली जगह

Oscar 2025: ऑस्कर में जाना हर फिल्म का सपना होता है. ऐसे में कंगुवा, आदुजीविथम और गर्ल्स विल बी गर्ल्स ने बड़ी उपलब्धि हासिल करते हुए ऑस्कर 2025 के नॉमिनेशन में अपनी जगह बना ली है.
Advertisement

Deepfake: एनएसई प्रमुख का वीडियो बना शेयर खरीदने किया जा रहा प्रेरित, एक्सचेंज ने निवेशकों से कही ये बात

Advertisement

Deepfake: नेशनल स्टॉक एक्सचेंज (NSE) के प्रबंध निदेशक एवं मुख्य कार्यपालक अधिकारी (CEO) आशीष कुमार चौहान का डीपफेक वीडियो सामने आया है. इस वीडियो में कथित रुप से कुछ स्टॉक की सिफारिश करते नजर आ रहे हैं. इस फेक वीडियो को लेकर एक्सचेंज के द्वारा निवेशकों को सावधान किया गया है.

Audio Book

ऑडियो सुनें

Deepfake: हाल के दिनों में डीपफेक वीडियो के कई गंभीर मामले सामने आये है. इससे लेकर रिजर्व बैंक के द्वारा भी आगाह किया गया है. अब, नेशनल स्टॉक एक्सचेंज (NSE) के प्रबंध निदेशक एवं मुख्य कार्यपालक अधिकारी (CEO) आशीष कुमार चौहान का डीपफेक वीडियो सामने आया है. इस वीडियो में कथित रुप से कुछ स्टॉक की सिफारिश करते नजर आ रहे हैं. इस फेक वीडियो को लेकर एक्सचेंज के द्वारा निवेशकों को सावधान किया गया है. नेशनल सटॉक एक्सचेंज ने बयान जारी करके कहा है कि प्रौद्योगिकी का दुरुपयोग कर बनाए गए कुछ निवेश एवं सलाह संबंधी ऑडियो-वीडियो क्लिप में चौहान के चेहरे एवं आवाज और एनएसई के प्रतीक चिह्न का इस्तेमाल किया गया है. ऐसा लगता है कि ऐसे वीडियो आशीष कुमार चौहान की आवाज और चेहरे के भावों की नकल करने के लिए परिष्कृत प्रौद्योगिकी की मदद से बनाए गए हैं.

- Advertisement -

एनएसई ने जारी किया स्टेटमेंट

डीपफेक का आशय आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कर किसी व्यक्ति को गलत ढंग से पेश करना है. इसमें हेराफेरी के जरिये किसी व्यक्ति को ऐसी हरकत करते हुए या ऐसी बात कहते हुए दिखाया जाता है जो उसने कभी कहा और किया ही नहीं है. इस तरह गलत सूचना फैलने और प्रतिष्ठा को नुकसान पहुंचने का खतरा होता है. एनएसई ने निवेशकों को आगाह किया कि वे ऐसे ऑडियो और वीडियो पर विश्वास न करें और ऐसे फर्जी वीडियो या अन्य माध्यमों से आने वाले किसी भी निवेश या अन्य सलाह का पालन न करें.

Also Read: नरेंद्र मोदी से मुलाकात करने पहली बार भारत आएंगे एलन मस्क, अरबों डॉलर का हो सकता है निवेश

सोशल मीडिया हटाया जा रहा वीडियो

एक्सचेंज ने कहा है कि एनएसई के कर्मचारी किसी भी स्टॉक की सिफारिश करने या उन शेयरों में सौदे करने के लिए अधिकृत नहीं हैं. एनएसई ने कहा कि वह इस तरह के वीडियो को मीडिया मंचों से हटाने का अनुरोध करने में जुटा है. एक्सचेंज ने निवेशकों से एनएसई की ओर से भेजे गए संचार और सामग्री के स्रोत के सत्यापन और आधिकारिक सोशल मीडिया हैंडल की जांच करने के लिए भी कहा है.

Disclaimer: शेयर बाजार से संबंधित किसी भी खरीद-बिक्री के लिए प्रभात खबर कोई सुझाव नहीं देता. हम बाजार से जुड़े विश्लेषण मार्केट एक्सपर्ट्स और ब्रोकिंग कंपनियों के हवाले से प्रकाशित करते हैं. लेकिन प्रमाणित विशेषज्ञों से परामर्श के बाद ही बाजार से जुड़े निर्णय करें.

ट्रेंडिंग टॉपिक्स

Advertisement
Advertisement
Advertisement

Word Of The Day

Sample word
Sample pronunciation
Sample definition
ऐप पर पढें