‘देश की किस्मत का फैसला हम करेंगे, कोई AI कंपनी नहीं’: ट्रंप का Anthropic पर बैन, OpenAI को पेंटागन की क्लासिफाइड डील
Content summary:
ट्रंप प्रशासन ने संघीय एजेंसियों को Anthropic टेक के इस्तेमाल से रोकने का आदेश दिया; मौजूदा उपयोगकर्ताओं को 6 महीने का फेज-आउट समय।
रक्षा मंत्रालय (जिसे रिपोर्टिंग में “Department of War” कहा गया) ने Anthropic को “supply-chain risk” बताने की प्रक्रिया शुरू की; कंपनी इसे अदालत में चुनौती देने की बात कह रही है।
विवाद के केंद्र में दो “रेड लाइन” हैं: बड़े पैमाने की घरेलू निगरानी और पूरी तरह स्वायत्त हथियार।
इसी बीच OpenAI ने क्लासिफाइड नेटवर्क पर मॉडल तैनात करने के लिए समझौता घोषित किया—दो शर्तें: घरेलू मास सर्विलांस पर रोक और बल-प्रयोग में मानव जवाबदेही।
कानूनी बहस में 10 U.S.C. § 3252 (सप्लाई-चेन रिस्क/प्रोक्योरमेंट एक्शन) की व्याख्या अहम बन रही है।
अमेरिका में आर्टिफिशियल इंटेलिजेंस के सैन्य उपयोग को लेकर बड़ा राजनीतिक और कानूनी टकराव सामने आया है। राष्ट्रपति डोनाल्ड ट्रंप ने संघीय एजेंसियों को निर्देश दिया है कि वे AI कंपनी Anthropic की तकनीक का इस्तेमाल बंद करें। जिन विभागों में यह तकनीक पहले से चल रही है, उन्हें हटाने के लिए 6 महीने का समय दिया गया है।
इसी घटनाक्रम के बीच OpenAI ने घोषणा की कि उसने अमेरिकी रक्षा मंत्रालय के क्लासिफाइड नेटवर्क पर अपने AI मॉडल तैनात करने का समझौता कर लिया है—कुछ “सेफगार्ड” शर्तों के साथ।
Anthropic का कहना है कि सरकार की मांगों में दो ऐसे उपयोग शामिल थे जिन पर कंपनी समझौता नहीं करेगी: (1) अमेरिकियों की बड़े पैमाने पर घरेलू निगरानी, और (2) पूरी तरह स्वायत्त हथियार, जहां मानव निर्णय प्रक्रिया से बाहर हो जाए। कंपनी ने “सप्लाई-चेन रिस्क” टैग को कानूनी रूप से असंगत बताते हुए कोर्ट जाने की बात कही है।
एक नज़र में: क्या हुआ, क्यों हुआ
ट्रंप का आदेश: संघीय एजेंसियां Anthropic टेक का उपयोग बंद करें; मौजूदा उपयोग 6 महीनों में फेज-आउट।
पेंटागन का कदम: Anthropic को “supply-chain risk” बताने/घोषित करने की प्रक्रिया और सख्त बयानबाज़ी।
Anthropic का जवाब: दो “रेड लाइन” पर अडिग; “supply-chain risk” को अदालत में चुनौती देने का ऐलान।
OpenAI की डील: क्लासिफाइड नेटवर्क पर तैनाती; घरेलू मास-सर्विलांस पर रोक और बल-प्रयोग में मानव जवाबदेही की शर्तें।
विवाद की जड़: “किस हद तक” सैन्य उपयोग?
Anthropic के सार्वजनिक बयान के मुताबिक, कंपनी राष्ट्रीय सुरक्षा से जुड़े “वैधानिक” उपयोगों का समर्थन करती है, लेकिन दो सीमित अपवादों पर टिक गई—घरेलू स्तर पर बड़े पैमाने की निगरानी और “fully autonomous weapons।” कंपनी का तर्क है कि आज के फ्रंटियर AI मॉडल इतने विश्वसनीय नहीं कि उन्हें बिना मानव निगरानी के हथियार-निर्णय में लगाया जाए, और घरेलू निगरानी मौलिक अधिकारों का उल्लंघन कर सकती है।
सरकार/रक्षा नेतृत्व का रुख—रिपोर्टिंग के अनुसार—यह रहा कि सेना को “किसी भी वैधानिक उद्देश्य” के लिए AI तक अप्रतिबंधित पहुंच चाहिए और निजी कंपनियां शर्तें थोपकर युद्ध-संचालन को प्रभावित नहीं कर सकतीं।
ट्रंप का बैन: 6 महीने का “फेज-आउट” और कड़ी चेतावनी
ट्रंप ने सोशल मीडिया पोस्ट में कहा कि सरकार को Anthropic की जरूरत नहीं है और अब दोबारा उसके साथ कारोबार नहीं होगा—साथ ही संक्रमण/फेज-आउट में “सहयोग” न करने पर गंभीर कानूनी कार्रवाई की चेतावनी भी दी गई।
रिपोर्टिंग में यह भी कहा गया कि यह कदम अमेरिकी टेक सेक्टर में दुर्लभ है—जब एक घरेलू AI कंपनी को राष्ट्रीय सुरक्षा के नाम पर ब्लैकलिस्टिंग जैसी स्थिति का सामना करना पड़ रहा है।
“Supply-chain risk” क्या है—और 10 U.S.C. § 3252 कहां फिट होता है?
सरल शब्दों में, “supply-chain risk” लेबल सरकारी खरीद (procurement) और ठेके (contracts) से जुड़े जोखिमों के लिए इस्तेमाल होता है—जैसे किसी तकनीक/वेंडर से राष्ट्रीय सुरक्षा को खतरा होने का आकलन।
कानूनी टेक्स्ट के मुताबिक, 10 U.S.C. § 3252 “covered procurement action” के संदर्भ में सप्लाई-चेन रिस्क घटाने के लिए एजेंसी प्रमुख को कुछ अधिकार देता है और कुछ स्थितियों में जानकारी के खुलासे को सीमित करने की व्यवस्था भी बताता है।
Anthropic का दावा है कि इसी प्रावधान के तहत ऐसा कोई कदम मुख्यतः रक्षा अनुबंधों/डिफेंस कॉन्ट्रैक्ट उपयोग तक सीमित होना चाहिए—और इसे निजी सेक्टर में व्यापक व्यापार-प्रतिबंध की तरह लागू करना वैधानिक रूप से टिकाऊ नहीं है।
Anthropic की “रेड लाइन”: घरेलू निगरानी और पूरी तरह स्वायत्त हथियार
कंपनी का कहना है कि वह अमेरिकी नागरिकों के वेब ब्राउज़िंग/गतिविधि डेटा जैसी सूचनाओं के बड़े पैमाने पर संग्रह का समर्थन नहीं करेगी, क्योंकि शक्तिशाली AI बिखरे डेटा को जोड़कर किसी व्यक्ति के जीवन का “व्यापक चित्र” बना सकता है।
दूसरा मुद्दा—पूरी तरह स्वायत्त हथियार—जहां AI बिना मानव oversight के लक्ष्य तय करे और बल-प्रयोग से जुड़े निर्णय ले। कंपनी का तर्क है कि मौजूदा प्रणालियां इस स्तर के भरोसे के योग्य नहीं हैं।
OpenAI की क्लासिफाइड डील: वही “रेड लाइन”, लेकिन अनुबंध के भीतर
OpenAI के सीईओ सैम ऑल्टमैन के मुताबिक, रक्षा मंत्रालय के क्लासिफाइड नेटवर्क पर तैनाती के लिए समझौते में दो सिद्धांत शामिल किए गए—(1) घरेलू मास-सर्विलांस पर प्रतिबंध और (2) use of force में मानव जिम्मेदारी।
OpenAI ने “फॉरवर्ड-डिप्लॉयड इंजीनियर्स” जैसी व्यवस्था का भी जिक्र किया, ताकि सुरक्षा और प्रदर्शन की निगरानी कड़ी रहे।
यहां फर्क साफ है: Anthropic कहता है कि वह इन सीमाओं के बिना आगे नहीं बढ़ सकता; जबकि OpenAI कहता है कि इन्हीं सीमाओं के साथ “क्लासिफाइड” वातावरण में तैनाती पर सहमति बनी।
राजनीतिक प्रतिक्रिया और इंडस्ट्री का दबाव
यह विवाद सिर्फ सरकार बनाम कंपनी नहीं रहा। रिपोर्टिंग के मुताबिक, टेक इंडस्ट्री के कर्मचारियों ने खुले पत्र में कंपनियों से आग्रह किया कि वे आपसी प्रतिस्पर्धा अलग रखकर कुछ “बेसलाइन” सुरक्षा सीमाओं पर एकजुट रहें।
वहीं कांग्रेस के एक शीर्ष डेमोक्रेट नेता के बयान में “मास सर्विलांस” को अस्वीकार्य बताया गया और नागरिक स्वतंत्रताओं की रक्षा पर जोर दिया गया।
आगे क्या: कोर्ट, प्रोक्योरमेंट और “नया बेसलाइन” टेस्ट
अब सबसे बड़ा सवाल कानूनी मोर्चे पर है:
क्या “supply-chain risk” का दायरा केवल रक्षा अनुबंधों तक सीमित रहेगा या ठेकेदारों के निजी/अन्य कामों तक भी फैलाया जा सकता है?
क्या Anthropic अदालत से राहत पाकर सरकारी उपयोग में लौट पाएगी, या यह फैसला लंबे समय के लिए सरकारी AI खरीद नीतियों का टेम्पलेट बन जाएगा?
विशेषज्ञों के लिए यह एक “टेस्ट केस” है—जहां राष्ट्रीय सुरक्षा, नागरिक स्वतंत्रताएं, AI सुरक्षा, और सरकारी खरीद—चारों एक ही फ्रेम में टकरा रहे हैं।
प्र. ट्रंप ने Anthropic पर बैन क्यों लगाया?
उ. रिपोर्टिंग के अनुसार, सैन्य उपयोग में “बिना शर्त वैधानिक उपयोग” पर असहमति और निगरानी/स्वायत्त हथियार जैसी सीमाओं पर विवाद के बाद।
प्र. 6 महीने का फेज-आउट क्या है?
उ. जिन एजेंसियों में Anthropic तकनीक पहले से चल रही है, उन्हें वैकल्पिक सिस्टम पर शिफ्ट करने का समय।
प्र. Anthropic किन 2 बातों पर अड़ी है?
उ. घरेलू मास-सर्विलांस नहीं; पूरी तरह स्वायत्त हथियार नहीं।
प्र. OpenAI की डील में क्या सुरक्षा शर्तें हैं?
उ. घरेलू मास-सर्विलांस पर प्रतिबंध और बल-प्रयोग/हथियार संदर्भ में मानव जवाबदेही।
प्र. “Supply-chain risk” टैग का कानूनी आधार क्या बताया जा रहा है?
उ. बहस 10 U.S.C. § 3252 जैसे प्रोक्योरमेंट प्रावधानों की व्याख्या पर टिक रही है।
Powered by Froala Editor
