
केंद्र सरकार जल्द ही deepfake तकनीक पर नियंत्रण के लिए व्यापक नियमों की घोषणा करेगी। केंद्रीय आईटी मंत्री अश्विनी वैष्णव ने NDTV वर्ल्ड समिट में यह जानकारी दी। यह कदम AI धोखाधड़ी से समाज को बचाने और नवाचार को बढ़ावा देने के उद्देश्य से उठाया जा रहा है।
Thank you for reading this post. Don't forget to subscribe!
AI धोखाधड़ी नियंत्रण के लिए भारत की रणनीति
मंत्री ने कहा कि केवल कानून बनाकर AI को नियंत्रित नहीं किया जा सकता।
उन्होंने स्पष्ट किया, “AI की दुनिया को केवल कानून से नियंत्रित नहीं किया जा सकता। तकनीकी समाधान जरूरी है।”
भारत की रणनीति को उन्होंने techno-legal approach बताया। इसमें तकनीकी समाधान और कानूनी उपायों का समावेश होगा।
IIT जोधपुर की फर्जी वीडियो पहचान तकनीक
IIT जोधपुर ने एक ऐसा समाधान विकसित किया है जो 90% से अधिक सटीकता से deepfake पहचान सकता है।
यह तकनीक कानूनी ढांचे के साथ मिलकर अधिक प्रभावी नियंत्रण सुनिश्चित करेगी।
Deepfake अपराधों में वृद्धि और हालिया मामला
हाल ही में मुंबई साइबर पुलिस ने एक चीनी-संबंधित deepfake घोटाले में चार लोगों को गिरफ्तार किया।
इस घोटाले में AI-generated वीडियो का उपयोग कर ₹3 करोड़ की धोखाधड़ी की गई।
- वीडियो में प्रसिद्ध शेयर बाजार विशेषज्ञों की नकली छवि दिखाई गई।
- यह भारत में deepfake आधारित निवेश धोखाधड़ी का पहला मामला माना जा रहा है।
AI इंफ्रास्ट्रक्चर को मजबूत करने की दिशा में भारत
सरकार ने AI विकास के लिए दो सेमीकंडक्टर यूनिट्स—CG Semi और Kaynes—की शुरुआत की है।
इसके साथ ही 38,000 GPUs उपलब्ध कराए गए हैं।
Google ने $15 बिलियन का निवेश कर विशाखापत्तनम में AI हब स्थापित करने की घोषणा की है।
स्वदेशी AI मॉडल और वैश्विक निवेश
- भारत छह स्वदेशी AI मॉडल विकसित कर रहा है।
- इनमें से दो में 120 बिलियन पैरामीटर होंगे।
- ये मॉडल पश्चिमी पूर्वाग्रहों से मुक्त होंगे।
- Meta भी भारत में निवेश पर विचार कर रहा है।
Deepfake से जुड़े सामाजिक और कानूनी खतरे
Deepfake तकनीक केवल वित्तीय धोखाधड़ी तक सीमित नहीं है। यह राजनीतिक प्रचार, चरित्र हनन और गैर-सहमति वाली निजी छवियों के प्रसार में भी उपयोग हो रही है।
विशेषज्ञों के अनुसार, इससे जनता का विश्वास कमजोर हो सकता है और लोकतांत्रिक संस्थाओं पर असर पड़ सकता है।
इसी कारण भारत सरकार ने इसे “उभरता हुआ साइबर खतरा” माना है और इसके लिए बहुस्तरीय नीति तैयार की जा रही है।
फर्जी कंटेंट पहचान के लिए तकनीकी उपाय
सरकार watermarking के अलावा AI-based detection tools को भी अनिवार्य करने पर विचार कर रही है।
- सभी सोशल मीडिया प्लेटफॉर्म को पहचान प्रणाली अपनानी होगी।
- फर्जी वीडियो की पहचान के लिए metadata analysis और facial distortion tracking जैसी तकनीकें लागू की जाएंगी।
इसके साथ ही, IITs और अन्य संस्थानों को AI ethics research में सहयोग देने के लिए प्रोत्साहित किया जा रहा है।
जन जागरूकता और डिजिटल साक्षरता
सरकार deepfake से निपटने के लिए जन जागरूकता अभियान भी शुरू करेगी।
- स्कूलों और कॉलेजों में AI साक्षरता पाठ्यक्रम शामिल किए जाएंगे।
- सामान्य नागरिकों को पहचानने की ट्रेनिंग दी जाएगी।
यह पहल डिजिटल इंडिया मिशन के तहत सुरक्षित और जिम्मेदार इंटरनेट उपयोग को बढ़ावा देगी।
वर्तमान नियम और वैश्विक तुलना
मार्च 2024 में इलेक्ट्रॉनिक्स और आईटी मंत्रालय ने deepfake पर एक सलाह जारी की थी।
इसके तहत मध्यस्थों को शिकायत मिलने पर 24–36 घंटे में सामग्री हटानी होती है।
साथ ही AI-generated कंटेंट पर वॉटरमार्किंग अनिवार्य है।
EU और US की नीतियां
- EU AI Act 2025 में लागू हुआ।
- यह पारदर्शिता की मांग करता है और €35 मिलियन तक जुर्माना लगा सकता है।
- US का TAKE IT DOWN Act मई 2025 में लागू हुआ।
- यह गैर-सहमति वाली निजी छवियों को 48 घंटे में हटाने की मांग करता है।
निष्कर्ष
भारत की deepfake नीति तकनीकी और कानूनी उपायों का संतुलन बनाकर नवाचार को बढ़ावा देने का प्रयास है।
यह नीति न केवल अपराधों को रोकने में मदद करेगी, बल्कि AI विकास को भी गति देगी।







