Kuwait में एक्सपर्ट्स की बड़ी चेतावनी, AI और Deepfakes बने युद्ध का नया हथियार
कुवैत और खाड़ी देशों में बढ़ते तनाव के बीच एक्सपर्ट्स ने एक बड़ी चेतावनी जारी की है। कुवैत अरब टाइम्स की 10 मार्च 2026 की रिपोर्ट के अनुसार, अब युद्ध सिर्फ मैदानों में नहीं लड़े जा रहे हैं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक (Deepfakes) इसका नया हथियार बन गए हैं। इसे डिजिटल वारफेयर कहा जा रहा है, जिसका सीधा असर आम लोगों और खाड़ी में रहने वाले प्रवासियों पर भी पड़ सकता है।
क्या है AI से जुड़ा नया ख़तरा और नुकसान
कुवैत एसोसिएशन फॉर इंफॉर्मेशन सिक्योरिटी (KAIS) की अध्यक्ष डॉ. सफा ज़मान ने बताया कि AI एक दोधारी तलवार है। इसका इस्तेमाल अब ड्रोन और बिना इंसान वाले सिस्टम में हो रहा है, जो खुद से फैसले ले सकते हैं। इसके अलावा, आम लोगों को डिजिटल माध्यम से निशाना बनाकर अफवाहें फैलाई जा रही हैं। Deloitte की रिपोर्ट के मुताबिक, 2027 तक दुनिया भर में AI से होने वाले वित्तीय फ्रॉड का नुकसान 40 बिलियन डॉलर तक पहुंच सकता है। ITU के बिलाल जमौसी ने भी साफ किया है कि डिजिटल दुनिया में अब जो दिखता है उस पर आंख बंद करके भरोसा नहीं किया जा सकता।
कुवैत में AI और डीपफेक को लेकर क्या हैं नियम
कुवैत सरकार ने इस तरह के साइबर अपराधों और फ्रॉड से निपटने के लिए सख्त कानूनी ढांचा तैयार किया है। जो लोग गलत जानकारी या डीपफेक वीडियो बनाते और फैलाते हैं, उन पर साइबरक्राइम कानून (Law No. 63 of 2015) के तहत कड़ी कार्रवाई की जाती है। इसके अलावा, सिविल कोड के आर्टिकल 243 के तहत अगर किसी कंपनी का AI सिस्टम कोई गलती करता है या नुकसान पहुंचाता है, तो उसकी पूरी जिम्मेदारी सीधे कंपनी की ही होती है। सरकार ने स्पष्ट किया है कि अफवाह फैलाने से बचने के लिए लोगों को मल्टी-सोर्स वेरिफिकेशन का पालन करना चाहिए।
आम लोग खुद को फ्रॉड से कैसे सुरक्षित रखें
डिजिटल दुनिया और सोशल मीडिया पर खुद को सुरक्षित रखने के लिए एक्सपर्ट्स ने कुछ आसान तरीके बताए हैं। प्रवासियों और आम नागरिकों को इन बातों का ध्यान रखना चाहिए:
- Reverse Image Search: किसी भी संदिग्ध फोटो की असलियत और पुरानी तारीख जानने के लिए रिवर्स इमेज सर्च का इस्तेमाल करें।
- Fact-checking: वायरल हो रहे वीडियो और मैसेज की जांच के लिए फैक्ट-चेकिंग प्लेटफॉर्म्स की मदद लें।
- Audio Quality: अगर फोन पर किसी की आवाज में कुछ अजीब लगे, तो वह AI से बनाई गई नकली आवाज हो सकती है।
- Official Source: किसी भी नियम या खबर की पुष्टि के लिए हमेशा सरकारी वेबसाइट्स और भरोसेमंद न्यूज़ एजेंसियों पर ही निर्भर रहें।




