في خطوة تعكس تسارع توظيف الذكاء الاصطناعي في المجالات الدفاعية، وقّعت شركة «غوغل» اتفاقًا مع وزارة الدفاع الأميركية يتيح استخدام نماذجها في أعمال مصنّفة سرية، وفق ما نقلته تقارير إعلامية عن مصدر مطّلع.
توسيع استخدام الذكاء الاصطناعي في المهام الحساسة
بموجب الاتفاق، يمكن لـ«البنتاغون» استخدام تقنيات «غوغل» في أي غرض حكومي قانوني، بما يشمل التعامل مع شبكات مصنّفة تُستخدم في مهام حساسة مثل التخطيط العملياتي وتحديد الأهداف العسكرية. تنضم «غوغل» بذلك إلى قائمة متنامية من شركات التكنولوجيا التي دخلت هذا المجال، من بينها «أوبن إيه آي» وشركة «أكس إيه آي»، في إطار توجه أوسع لدمج الذكاء الاصطناعي في البنية الدفاعية الأميركية.
عقود بمئات الملايين
كان «البنتاغون» قد أبرم خلال عام 2025 اتفاقيات تصل قيمة كل منها إلى 200 مليون دولار مع عدد من أبرز مختبرات الذكاء الاصطناعي، من بينها «أنثروبيك» و«أوبن إيه آي» و«غوغل»، في مسعى لتسريع إدخال هذه التقنيات إلى البيئات المصنّفة. كما تشير تقارير إلى أن وزارة الدفاع ضغطت على الشركات لتوفير نماذجها داخل هذه الشبكات من دون القيود التقليدية المفروضة على الاستخدام المدني.
توازن دقيق بين الأمن والضوابط
يتضمن الاتفاق مع «غوغل» بنودًا تتعلق بتعديل إعدادات السلامة والمرشّحات الخاصة بالذكاء الاصطناعي بناءً على طلب الحكومة، ما يثير تساؤلات حول حدود التحكم في استخدام هذه التقنيات. رغم ذلك، ينص العقد على أن الأنظمة «غير مخصصة للاستخدام في المراقبة الجماعية داخل البلاد أو في الأسلحة الذاتية التشغيل من دون إشراف بشري مناسب»، في محاولة لطمأنة المخاوف المرتبطة بالأخلاقيات. لكن في المقابل، لا يمنح الاتفاق «غوغل» حق الاعتراض على القرارات التشغيلية الحكومية، طالما كانت ضمن الأطر القانونية، ما يضع حدودًا لدور الشركة في الرقابة على الاستخدام الفعلي.
جدل متجدد داخل قطاع الذكاء الاصطناعي
يأتي هذا التطور في وقت يشهد فيه القطاع انقسامًا حول التعاون مع الجهات العسكرية، إذ واجهت شركة «أنثروبيك» ضغوطًا سابقة بعد رفضها تخفيف القيود المفروضة على استخدام تقنياتها في مجالات مثل الأسلحة الذاتية أو المراقبة. كما صنّف «البنتاغون» الشركة لاحقًا كمخاطر محتملة ضمن سلاسل التوريد، في إشارة إلى حساسية هذا الملف داخل دوائر الأمن القومي.
الذكاء الاصطناعي في قلب الأمن القومي
من جهتها، أكدت «غوغل» أنها تدعم الجهات الحكومية في مشاريع مصنّفة وغير مصنّفة، مشددة على التزامها بعدم استخدام الذكاء الاصطناعي في المراقبة الجماعية أو تطوير أسلحة من دون إشراف بشري. في المقابل، يؤكد «البنتاغون» أنه لا يسعى إلى مراقبة المواطنين أو تطوير أنظمة قتالية مستقلة، لكنه يتمسك بحق استخدام الذكاء الاصطناعي في «أي استخدام قانوني»، ما يعكس توجهًا نحو توسيع نطاق الاعتماد على هذه التكنولوجيا في الأمن القومي.
مستقبل مفتوح على الجدل
يعكس هذا الاتفاق مرحلة جديدة من العلاقة بين شركات التكنولوجيا الكبرى والمؤسسات العسكرية، إذ تتداخل الاعتبارات التقنية مع الأخلاقية والسياسية. بينما تسعى الحكومات إلى الاستفادة من قدرات الذكاء الاصطناعي المتقدمة، يبقى السؤال مفتوحًا حول حدود هذا الاستخدام، ودور الشركات في ضبطه أو التأثير عليه.