في خطوة أثارت استغراباً واسعاً وانتقادات لاذعة من قبل خبراء القانون وصناع السياسات في مجال الذكاء الاصطناعي، أقدمت وزارة الدفاع الأمريكية (البنتاغون) على توجيه إنذار نهائي لشركة Anthropic، وهي شركة رائدة في مجال الذكاء الاصطناعي، للمطالبة بالتخلي عن خطوطها الحمراء الأخلاقية المتعلقة باستخدام نماذجها المتقدمة. هذا التصعيد، الذي وصفه البعض بالتناقض الصارخ، يهدد بتقويض الشراكات بين الحكومة الأمريكية وشركات التكنولوجيا في وادي السيليكون، ويطرح تساؤلات جدية حول مستقبل التعاون في هذا القطاع الحيوي.
تتمحور القضية حول محاولة وزارة الدفاع إجبار Anthropic على منحها وصولاً غير مقيد إلى نموذجها المتطور Claude، مقابل التهديد بتصنيف الشركة كـ "خطر" على سلسلة التوريد، وهو تصنيف غالباً ما يُخصص للشركات ذات الصلة بخصوم الولايات المتحدة، مما قد يؤدي إلى حظر شركات أخرى من التعامل معها. ومع ذلك، يواجه هذا التهديد تعقيدات إضافية مع تلويح البنتاغون بإمكانية استخدام قانون حقبة الحرب الباردة، قانون الإنتاج الدفاعي، لإجبار Anthropic على العمل معها وإزالة القيود الأخلاقية التي تفرضها الشركة، والتي تشمل منع استخدام نموذج Claude لمراقبة المواطنين الأمريكيين أو لتطوير أسلحة ذاتية التشغيل.
تضارب في السياسات وتداعيات مستقبلية
تناقضات في موقف البنتاغون
يجد الخبراء القانونيون وصناع السياسات صعوبة بالغة في فهم التوجه الذي تتبعه وزارة الدفاع الأمريكية. فمن جهة، تهدد الوزارة بفرض عقوبات على Anthropic وتصنيفها كخطر أمني، ومن جهة أخرى، تسعى جاهدة لإجبارها على التعاون وتقديم خدماتها. هذا الموقف المتناقض، بحسب المحللين، يضع الشركة في موقف لا تحسد عليه، حيث تواجه ضغوطاً متضاربة تتطلب منها إما الالتزام بمتطلبات الحكومة أو مواجهة عواقب وخيمة.
يشير ديان بول، مستشار سابق في مجال الذكاء الاصطناعي في إدارة ترامب، إلى أن هذه السياسة "غير متماسكة"، معتبراً أنه من غير المنطقي أن تطلب وزارة الدفاع من جميع المتعاقدين معها الامتناع عن استخدام نماذج Anthropic، بينما في الوقت نفسه تصر على استخدامها بنفسها. ويضيف بول أن هذا النهج "مستوى مختلف من الجنون"، مؤكداً أن المسألة تثير قلقاً بالغاً بشأن كيفية تفاعل الحكومة مع الشركات التكنولوجية المبتكرة.
الأسس التاريخية والضغوط المتصاعدة
تعود جذور هذا التوتر إلى عملية يناير التي استهدفت القبض على الرئيس الفنزويلي السابق نيكولاس مادورو. فقد ورد أن الجيش الأمريكي استخدم نموذج Claude التابع لـ Anthropic في هذه العملية، مما دفع Anthropic إلى الاستفسار عن استخدام منتجها من خلال شريكها المؤسسي Palantir. وقد أثار هذا الاستفسار حفيظة وزير الدفاع بيت هيغسيث ومسؤولين آخرين في البنتاغون، مما أدى إلى استدعاء الرئيس التنفيذي لـ Anthropic، داريو أمودي، لتوجيه الإنذار.
يذكر أن Anthropic، بالإضافة إلى منافسيها مثل OpenAI و Google و xAI، كانت قد وقعت عقداً بقيمة 200 مليون دولار مع البنتاغون الصيف الماضي. هذا العقد يضع هذه الشركات في موقع حساس، خاصة في ظل تصريحات هيغسيث التي أكد فيها أن الذكاء الاصطناعي في وزارة الدفاع "لن يكون مستيقظاً" وسيعمل "دون قيود أيديولوجية تحد من التطبيقات العسكرية المشروعة".
مخاوف بشأن انتهاك الخصوصية والأسلحة المستقلة
أكدت Anthropic مجدداً لوزارة الدفاع تمسكها بخطوطها الحمراء المتعلقة بمراقبة المواطنين الأمريكيين ونشر الأسلحة ذاتية التشغيل. هذا الموقف يضع الشركة في مواجهة مباشرة مع ما يبدو أنه رغبة لدى بعض الجهات في البنتاغون في تجاوز هذه القيود. وعلى الرغم من نفي مسؤول في وزارة الدفاع أن يكون هذا الصراع مرتبطاً بمراقبة جماعية أو أسلحة مستقلة، فإن الشكوك تظل قائمة.
وتؤكد المتحدثة باسم وزارة الدفاع، شون بارنيل، أن العلاقة مع Anthropic "قيد المراجعة"، مشيرة إلى أن "الأمة تتطلب أن يكون شركاؤنا على استعداد لمساعدة محاربينا على الانتصار في أي معركة". وبينما تؤكد الوزارة أن الأمر يتعلق "بجنودنا وسلامة الشعب الأمريكي"، فإن خبراء مثل المحامية المتخصصة في التكنولوجيا كيتي سوين، تحذر من أن نهج البنتاغون "العدواني للغاية" قد يؤدي إلى تجميد الشراكات بين البنتاغون ووادي السيليكون، واصفةً إياه بأنه "أثقل طريقة ممكنة لتنظيم الأعمال التجارية" ويمثل "لحظة تاريخية في كيفية تفاعل وزارة الدفاع مع أحدث التقنيات التي تم تطويرها على الأراضي الأمريكية".
ردود فعل متباينة وتساؤلات حول المستقبل
أثارت تهديدات البنتاغون باستخدام قانون الإنتاج الدفاعي قلقاً واسعاً عبر الطيف السياسي. فقد انتقدت عضوا مجلس الشيوخ، إليزابيث وارن وآندي كيم، استخدام القانون في هذا السياق، محذرتين من أنه "سيحطم الإجماع ثنائي الحزب" الداعم لهذا التشريع. وعلى الجانب الآخر، حذر نيل تشيلسون، رئيس سياسات الذكاء الاصططناعي في معهد الوفرة، من استخدام القانون الذي يعود إلى حقبة الحرب الكورية لتوسيع السلطة التنفيذية.
في غضون ذلك، يبدو أن شركات أخرى مثل xAI قد وافقت على السماح باستخدام نماذجها في بيئات سرية، بينما تقترب OpenAI و Google من اتفاق مماثل. ومع ذلك، يبقى غير واضح ما إذا كانت هذه الشركات قد وافقت على استخدام نماذجها لمراقبة المواطنين الأمريكيين أو نشر أسلحة ذاتية التشغيل. تبقى Anthropic، حتى الآن، الشركة الوحيدة التي تواجه ضغوطاً مباشرة للتخلي عن خطوطها الحمراء الأخلاقية، مما يضعها في قلب معركة حول مستقبل الذكاء الاصطناعي والتوازن بين الابتكار والأمن القومي.