अमेरिका में उस समय विवाद खड़ा हो गया जब ChatGPT बनाने वाली कंपनी OpenAI ने अमेरिकी रक्षा विभाग के साथ समझौते की पुष्टि की। रिपोर्ट्स के मुताबिक, इस खबर के सामने आते ही ChatGPT ऐप के अनइंस्टॉल में एक दिन में लगभग 295% तक उछाल दर्ज किया गया।
यह विवाद सीधे तौर पर United States Department of Defense (पेंटागन) के साथ संभावित सहयोग को लेकर है।
🔍 क्या है पूरा मामला?
OpenAI और पेंटागन के बीच हुई डील को लेकर सोशल मीडिया पर यह बहस शुरू हो गई कि क्या AI तकनीक का इस्तेमाल सैन्य उद्देश्यों या निगरानी (Surveillance) के लिए किया जाएगा।

आलोचकों का कहना है:
- AI को युद्ध और सैन्य अभियानों में इस्तेमाल करना खतरनाक हो सकता है
- इससे नागरिकों की प्राइवेसी पर असर पड़ सकता है
- टेक कंपनियों को सेना से दूरी रखनी चाहिए

🗣️ सीईओ Sam Altman की सफाई
विवाद बढ़ने के बाद OpenAI के CEO Sam Altman को सार्वजनिक बयान जारी करना पड़ा। उन्होंने साफ किया कि:
- AI सिस्टम का उपयोग अमेरिकी नागरिकों की घरेलू निगरानी (Domestic Surveillance) के लिए नहीं किया जाएगा
- कंपनी अमेरिकी कानूनों जैसे Fourth Amendment और FISA के दायरे में रहकर काम करेगी
- डील में स्पष्ट शर्तें जोड़ी गई हैं ताकि AI का दुरुपयोग न हो
Altman ने यह भी माना कि इस डील को लेकर कंपनी की कम्युनिकेशन बेहतर हो सकती थी और पारदर्शिता की कमी से भ्रम फैला।
उन्होंने यह भी स्पष्ट किया कि यदि कोई एजेंसी, जैसे NSA, OpenAI की सेवाएं लेना चाहे तो उसके लिए अलग से अनुबंध संशोधन (Contract Modification) जरूरी होगा।
📱 ChatGPT अनइंस्टॉल क्यों बढ़ा?
टेक रिपोर्ट्स के अनुसार:
- डील की खबर फैलते ही यूजर्स ने ऐप हटाना शुरू कर दिया
- एक दिन में लगभग 295% अनइंस्टॉल की बढ़ोतरी दर्ज हुई
- सोशल मीडिया पर “AI for war?” जैसे सवाल ट्रेंड करने लगे
कुछ यूजर्स का तर्क है कि AI को हथियार प्रणाली या सैन्य निगरानी का हिस्सा नहीं बनना चाहिए।
वहीं दूसरी ओर कुछ लोग कहते हैं कि अगर सरकार AI का उपयोग करे तो उसे कड़े सेफगार्ड्स के साथ करना चाहिए।
🆚 Anthropic का जिक्र क्यों?
इस विवाद के बीच एक अन्य AI कंपनी Anthropic का नाम भी सामने आया।
रिपोर्ट्स के अनुसार:
- Anthropic ने रक्षा विभाग के साथ संभावित सहयोग में कुछ शर्तों पर आपत्ति जताई थी
- उसने मास सर्विलांस या ऑटोनोमस हथियारों में अपनी तकनीक के उपयोग को लेकर सख्त रुख दिखाया
इससे बहस और तेज हो गई कि AI कंपनियों की नैतिक जिम्मेदारी क्या होनी चाहिए।
🌍 यह मुद्दा इतना अहम क्यों?
दुनिया इस समय भू-राजनीतिक तनाव, साइबर युद्ध और ड्रोन टेक्नोलॉजी के दौर से गुजर रही है।
AI का उपयोग:
- डेटा एनालिसिस
- इंटेलिजेंस प्रोसेसिंग
- साइबर सुरक्षा
- रक्षा रणनीति
में तेजी से बढ़ रहा है।
सरकारों का तर्क है कि AI से राष्ट्रीय सुरक्षा मजबूत होगी।
वहीं नागरिक अधिकार समूह चेतावनी दे रहे हैं कि अगर निगरानी का दायरा बढ़ा तो व्यक्तिगत स्वतंत्रता खतरे में पड़ सकती है।
⚖️ असली सवाल क्या है?
- क्या AI कंपनियों को रक्षा विभाग के साथ काम करना चाहिए?
- क्या पारदर्शिता और सेफगार्ड पर्याप्त हैं?
- क्या तकनीक का सैन्य उपयोग अनिवार्य रूप से गलत है, या यह जिम्मेदारी पर निर्भर करता है?
यह बहस सिर्फ एक कंपनी या एक ऐप की नहीं है, बल्कि भविष्य की टेक्नोलॉजी, लोकतंत्र और नागरिक अधिकारों की दिशा तय करने वाली बहस बन चुकी है।
