Live
Logo
Select Language
search
Navigation
Anthropic AI युद्ध अलर्ट पेंटागन के दावे पूरी तरह खारिज
AI Mar 21, 2026 1 min read

Anthropic AI युद्ध अलर्ट पेंटागन के दावे पूरी तरह खारिज

Editorial Staff

National Hindi News

728 x 90 Header Slot

संक्षेप

आर्टिफिशियल इंटेलिजेंस (AI) बनाने वाली प्रमुख कंपनी एंथ्रोपिक (Anthropic) ने अमेरिकी रक्षा विभाग यानी पेंटागन के उन दावों को सिरे से खारिज कर दिया है, जिसमें कहा गया था कि कंपनी युद्ध के दौरान अपने AI टूल्स के साथ छेड़छाड़ कर सकती है। रक्षा विभाग ने चिंता जताई थी कि अगर सेना इन टूल्स का इस्तेमाल करती है, तो कंपनी बीच युद्ध में इन्हें बंद कर सकती है या इनके काम करने के तरीके को बदल सकती है। एंथ्रोपिक के अधिकारियों का कहना है कि तकनीकी रूप से ऐसा करना उनके लिए नामुमकिन है और वे सुरक्षा मानकों का पूरी तरह पालन करते हैं।

मुख्य प्रभाव

इस विवाद का सबसे बड़ा असर सरकार और निजी टेक कंपनियों के बीच भरोसे पर पड़ सकता है। अगर दुनिया की सबसे शक्तिशाली सेना को यह डर है कि निजी कंपनियां उनके हथियारों या रणनीतिक टूल्स को नियंत्रित कर सकती हैं, तो भविष्य में AI के सैन्य इस्तेमाल पर कड़े नियम बन सकते हैं। यह बहस इस बात को भी हवा देती है कि क्या राष्ट्रीय सुरक्षा के लिए इस्तेमाल होने वाला AI पूरी तरह से सरकारी नियंत्रण में होना चाहिए या निजी कंपनियों पर भरोसा किया जा सकता है।

मुख्य विवरण

क्या हुआ

हाल ही में अमेरिकी रक्षा विभाग (DoD) के कुछ अधिकारियों ने यह आशंका जताई थी कि एंथ्रोपिक जैसी कंपनियां अपने मॉडल्स में 'बैकडोर' या 'किल स्विच' रख सकती हैं। इसका मतलब यह है कि अगर कंपनी को लगता है कि उनके टूल का इस्तेमाल किसी ऐसी जगह हो रहा है जिसे वे पसंद नहीं करते, तो वे उसे दूर बैठे ही बंद कर सकते हैं। एंथ्रोपिक ने इस पर सफाई देते हुए कहा कि उनके मॉडल्स को इस तरह से डिजाइन नहीं किया गया है कि उन्हें युद्ध के मैदान में अचानक बदला या रोका जा सके।

महत्वपूर्ण आंकड़े और तथ्य

एंथ्रोपिक ने स्पष्ट किया है कि एक बार जब कोई AI मॉडल किसी सुरक्षित सर्वर पर तैनात (Deploy) कर दिया जाता है, तो कंपनी का उस पर सीधा नियंत्रण खत्म हो जाता है। रक्षा सौदों में आमतौर पर यह शर्त होती है कि सॉफ्टवेयर बिना किसी बाहरी हस्तक्षेप के चलेगा। आंकड़ों के लिहाज से देखें तो अमेरिकी सरकार AI तकनीक पर अरबों डॉलर खर्च कर रही है, और एंथ्रोपिक इस दौड़ में एक बड़ा नाम है। कंपनी का कहना है कि उनका लक्ष्य AI सुरक्षा सुनिश्चित करना है, न कि किसी देश की रक्षा प्रणाली में बाधा डालना।

पृष्ठभूमि और संदर्भ

यह पूरा मामला तब शुरू हुआ जब पेंटागन ने अपनी कार्यप्रणाली में आधुनिक तकनीक और AI को शामिल करना तेज कर दिया। एंथ्रोपिक, जिसे गूगल और अमेजन जैसी बड़ी कंपनियों का समर्थन प्राप्त है, अपने 'क्लाउड' (Claude) नाम के AI मॉडल के लिए जानी जाती है। सेना इसका उपयोग डेटा विश्लेषण, रसद (Logistics) और रणनीतिक योजना बनाने के लिए करना चाहती है। हालांकि, अतीत में गूगल जैसी कंपनियों के कर्मचारियों ने सैन्य प्रोजेक्ट्स पर काम करने का विरोध किया था, जिससे सरकार के मन में यह डर बैठ गया है कि टेक कंपनियां कभी भी अपना समर्थन वापस ले सकती हैं।

जनता या उद्योग की प्रतिक्रिया

तकनीकी विशेषज्ञों का मानना है कि एंथ्रोपिक की सफाई तकनीकी रूप से सही हो सकती है, लेकिन सुरक्षा के नजरिए से सरकार का डर भी जायज है। उद्योग जगत के जानकारों का कहना है कि अगर कोई सॉफ्टवेयर 'क्लाउड' यानी इंटरनेट के जरिए चल रहा है, तो उसे बंद करना संभव है। लेकिन अगर इसे सेना के अपने निजी सर्वर पर इंस्टॉल किया गया है, तो कंपनी उसे नहीं रोक सकती। आम जनता के बीच भी इस बात को लेकर चर्चा है कि क्या निजी कंपनियों के पास इतनी ताकत होनी चाहिए कि वे किसी देश की सुरक्षा को प्रभावित कर सकें।

आगे क्या असर होगा

इस विवाद के बाद भविष्य में होने वाले रक्षा समझौतों में बदलाव देखने को मिल सकते हैं। सरकार अब कंपनियों से 'सोर्स कोड' की मांग कर सकती है ताकि वे खुद सुनिश्चित कर सकें कि उसमें कोई छिपा हुआ स्विच नहीं है। इसके अलावा, एंथ्रोपिक जैसी कंपनियों को अपनी पारदर्शिता और बढ़ानी होगी ताकि वे सरकारी ठेके हासिल कर सकें। आने वाले समय में हम देख सकते हैं कि सेना केवल उन्हीं AI टूल्स को अपनाएगी जो पूरी तरह से ऑफलाइन काम करने में सक्षम हों और जिन पर बाहरी कंपनी का कोई नियंत्रण न हो।

अंतिम विचार

तकनीक और राष्ट्रीय सुरक्षा का मेल हमेशा से ही जटिल रहा है। एंथ्रोपिक ने अपनी स्थिति साफ कर दी है, लेकिन पेंटागन की चिंताएं पूरी तरह खत्म नहीं हुई हैं। यह मामला दिखाता है कि जैसे-जैसे AI हमारे जीवन और सुरक्षा तंत्र का हिस्सा बनेगा, वैसे-वैसे जिम्मेदारी और नियंत्रण के सवाल और भी गहरे होते जाएंगे। अंततः, जीत उसी की होगी जो सुरक्षा और भरोसे के बीच सही संतुलन बना पाएगा।

अक्सर पूछे जाने वाले सवाल

सवाल 1: एंथ्रोपिक कंपनी क्या करती है?

एंथ्रोपिक एक अमेरिकी कंपनी है जो सुरक्षित आर्टिफिशियल इंटेलिजेंस (AI) बनाने का काम करती है। इनका 'क्लाउड' (Claude) नाम का AI मॉडल काफी मशहूर है।

सवाल 2: रक्षा विभाग को किस बात का डर है?

रक्षा विभाग को डर है कि युद्ध जैसी स्थिति में AI बनाने वाली कंपनी अपने सॉफ्टवेयर को दूर से ही बंद कर सकती है या उसे खराब कर सकती है, जिससे सेना को नुकसान हो सकता है।

सवाल 3: क्या AI को सच में दूर से बंद किया जा सकता है?

अगर AI इंटरनेट या कंपनी के सर्वर से जुड़ा है, तो उसे बंद किया जा सकता है। लेकिन अगर वह सेना के अपने निजी कंप्यूटर सिस्टम पर चल रहा है, तो कंपनी के लिए ऐसा करना बहुत मुश्किल होता है।

Share This Story

Spread the word