تأمين المعلومات الاستخباراتية: لماذا سيُحدد أمن الذكاء الاصطناعي مستقبل الثقة؟

‏مجلس العلاقات الخارجية

ترجمة حضارات

من المرجّح أن يُشكّل الذكاء الاصطناعي ازدهار القرن الحادي والعشرين وأمنه، لكن ذلك مرهون بإمكانية الوثوق به، فالسؤال الحاسم ليس مدى تقدّمه، بل ما إذا كان بالإمكان تأمين أنظمته بما يكفي للحفاظ على ثقة المؤسسات والجمهور، كشفت الإخفاقات الأمنية في عام 2025 أن معظم المؤسسات لا تزال عاجزة عن حماية الذكاء الاصطناعي بشكل فعّال، مما يوسّع الهوّة بين وعده التقني وقدرته التشغيلية.

أدّت معظم خروقات الذكاء الاصطناعي عام 2025 إلى تسريب بيانات، وتسبّب نحو ثلثها في تعطيل العمليات، ووجدت وكالة الأمن السيبراني الأوروبية أن أكثر من 80% من هجمات الهندسة الاجتماعية اعتمدت على الذكاء الاصطناعي، في مؤشر على أن الخصوم أصبحوا يبتكرون أسرع مما يستطيع المدافعون مجاراته، وبالنسبة للولايات المتحدة وحلفائها، فإن تأمين أنظمة الذكاء الاصطناعي ليس مسألة تقنية ضيقة، بل اختبار لقدرة الحكم الديمقراطي على الحفاظ على الثقة والقيادة بسرعة الآلة.

ديناميكيات تقوّض تبنّي الذكاء الاصطناعي

هناك ثلاث قوى متقاربة تهدد مسار تبنّي الذكاء الاصطناعي:

1. نقاط ضعف نظامية في النماذج والبنية التحتية.

2. نشر متسارع يتجاوز ضوابط الأمن المتاحة.

3. تسليح الخصوم للذكاء الاصطناعي بصورة متزايدة التعقيد.

ووجد تقرير الدفاع الرقمي لشركة مايكروسوفت لعام 2025 أن مجموعات سيبرانية من الصين وإيران وكوريا الشمالية وروسيا، ضاعفت اعتمادها على الذكاء الاصطناعي في الهجمات السيبرانية ونشر التضليل، وحقّقت رسائل التصيّد الاحتيالي المدعومة بالذكاء الاصطناعي نسبة نقر بلغت 54% مقارنة بـ12% للطرق التقليدية، ما يُثبت أن الذكاء الاصطناعي يُعزّز قدرات الخصوم مثلما يعزّز الدفاع.

الأسس الهشّة: مخاطر سلسلة توريد الذكاء الاصطناعي

الكود والنماذج التي يقوم عليها الذكاء الاصطناعي غير آمنة بنيوياً، فقد وجد تحليل Veracode لعام 2025 أن 45% من الكود المولّد بالذكاء الاصطناعي يحوي عيوباً قابلة للاستغلال، ووثّق تقرير سلسلة توريد البرمجيات لـ JFrog أكثر من 25 ألف سر ورمز وصول مكشوف في مستودعات عامة—زيادة 64% عن العام السابق.

الأبحاث المشتركة لدى أنثروبيك ومعهد أمن الذكاء الاصطناعي في المملكة المتحدة ومعهد آلان تورينغ، كشفت أن إدخال 250 مستنداً ضاراً فقط في بيانات تدريب أي نموذج لغوي كبير قادر على زرع “باب خلفي”، بغضّ النظر عن حجم النموذج وهذا يضرب الثقة في سلامة النماذج من أساسها.

هذه الهشاشة تتفاقم في الأنظمة المعقّدة. فالمؤسسات المالية تواجه متطلبات صارمة لإدارة مخاطر النماذج، ومؤسسات الصحة تخضع لضغوط معايير الخصوصية (HIPAA) الأكثر تشدداً، مما يعيق تبنّي الذكاء الاصطناعي في العمليات الأساسية.

الحل يتطلب:

إثبات مصدر البرمجيات

خطوط تطوير نماذج آمنة

تدقيقاً مستمراً من جهات مستقلة

وإدراج هذه المعايير في أطر ضمان الذكاء الاصطناعي الوطنية والمعايير الدولية.

عجز الثقة: مخاطر الوكلاء الذاتيّين

الرؤية الأكثر طموحاً للذكاء الاصطناعي وكلاء مستقلّون ينفذون مهام معقّدة تواجه فجوة ثقة كبيرة.

في أغسطس 2025، أدى خرق نظام Salesloft–Drift إلى كشف رموز أمنية تربط مئات أنظمة Salesforce، مما كشف بيانات أكثر من 700 شركة، أظهر الحادث مدى الترابط الخانق للبنية الرقمية الحديثة.

كما أثبت الباحثون أن الهجوم عبر "الحقن غير المباشر" للأوامر، حيث تُزرع تعليمات خبيثة في صفحات ويب يقرؤها نظام الذكاء الاصطناعي لاحقا، لا يزال ثغرة أساسية، إطلاق OpenAI لمتصفح ChatGPT Atlas في أكتوبر 2025 كشف مباشرةً ضعفاً واسعاً أمام هذا النوع من الهجوم، رغم سنوات من الاختبارات الأمنية.

وبما أن الوكلاء يحتاجون وصولاً واسعاً إلى البيانات والأنظمة، فإن سلوكهم الشاذ يصبح شبه غير قابل للتمييز عن نشاط طبيعي، مما يخلق تهديداً داخلياً من داخل النظام نفسه.

فجوة الحوكمة: الذكاء الاصطناعي الظلّي


انتشار أدوات غير مُدارة ما يُسمّى "الذكاء الاصطناعي الظلّي" أصبح عقبة رئيسية أمام الاستخدام المسؤول

بينت تقارير IBM أن:

13% من المؤسسات تعرضت لاختراقات متعلقة بالذكاء الاصطناعي.

كلفتها تزيد بـ 670 ألف دولار عن الاختراقات التقليدية.

88% تفتقر لنماذج ناضجة للتنبؤ بالمخاطر الداخلية.

وفي محاكاة بيئية، اختارت أنظمة الذكاء الاصطناعي أفعالاً ضارة مثل الابتزاز والتجسس، عندما تعارضت أهدافها مع أهداف المؤسسة (ظاهرة "عدم الاتساق الوكيلي" agentic misalignment).

غياب آليات التتبع والتدقيق والإشراف الموحّد يجعل من الذكاء الاصطناعي الظلّي تجسيداً لفشل حوكمي واسع.

مشكلة الإيقاع: عندما تتفوق الهجمات على الدفاع

تزايد الهجمات السيبرانية المدعومة بالذكاء الاصطناعي خلق فجوة في الإيقاع بين الهجوم والدفاع.

نصف مؤسسات البنية التحتية الحرجة واجهت هجمات مدعومة بالذكاء الاصطناعي.

وثقت أنثروبيك استخدام عناصر كورية شمالية خدمات الذكاء الاصطناعي الحدودية للتحايل والتوظف في شركات أميركية كبرى.

توقعات Check Point تشير إلى أن إطار Hexstrike-AI سيخفض وقت استغلال الثغرات من أيام إلى دقائق.

منصة XBOW الهجومية الذاتية حققت 75% نجاحاً في اختراق التطبيقات خلال دقائق.

ورغم أن 80% من الشركات الكبرى تعتمد الذكاء الاصطناعي في الدفاع السيبراني، إلا أنها تخشى منح الأنظمة صلاحيات واسعة قد تنقلب ضدّها، مما يبقي الفجوة قائمة بين قدرات الهجوم والدفاع.

استمرار هذه الفجوة يهدد الديمقراطيات في سباق الأتمتة الدفاعية.

أزمة المصداقية: الخداع بالذكاء الاصطناعي

التزييف العميق أصبح تهديداً لبنية الثقة نفسها:

شكّلت المحتويات المزيفة 7% من جميع عمليات الاحتيال بحلول نهاية 2024.

خسائر النصف الأول من 2025 بلغت 410 ملايين دولار.

تقنيات استنساخ الصوت الفوري باتت قادرة على تجاوز إجراءات التحقق.

هذا الانهيار في الثقة لا يطال الشركات فقط، بل يمتد إلى البنية الديمقراطية: عندما لا يثق المواطن بما يسمعه أو يراه، ينهار شرط الثقة العامة الذي تقوم عليه كل الخدمات الرقمية.

تأمين الأساس: نحو مستقبل موثوق للذكاء الاصطناعي

أصبح اعتماد الذكاء الاصطناعي مرتبطاً بحل تحديات أمنه، فبدون حماية قوية، تبقى أنظمة الذكاء الاصطناعي هشة وغير قابلة للتوسع.

المتطلبات الأساسية:

1. التعامل مع كل كود مُولّد بالذكاء الاصطناعي كمدخل غير موثوق يحتاج مراجعة.

2. اعتماد هندسة “الثقة الصفرية” لوكلاء الذكاء الاصطناعي: صلاحيات محدودة، بيئات معزولة، مراقبة لحظية للشذوذ.

3. القضاء على الذكاء الاصطناعي الظلّي عبر مسارات موافقة مركزية وآليات تدقيق.

4. فرض مراقبة مستمرة لسلامة النماذج وتمارين استجابة لحوادث الذكاء الاصطناعي.

التنسيق الصناعي ضروري لتوحيد معايير الأمن، وعلى الحكومات ربط مشتريات الذكاء الاصطناعي بالامتثال لهذه المعايير.

خاتمة

لدى الساسة وقادة الصناعة وقت محدود لبناء ضمانات موثوقة قبل أن يستغل الخصوم نقاط الضعف النظامية، التأخير يوسع فجوة الثقة ويعمّق الفجوة الاستراتيجية. التحدي أمام الولايات المتحدة وحلفائها لا يتمثل في تأمين أنظمة الذكاء الاصطناعي فحسب، بل في تأمينها بالسرعة الكافية لضمان القيادة الديمقراطية والتفوّق التكنولوجي.

أمن الذكاء الاصطناعي ليس مسألة تقنية، بل شرط استراتيجي للمرونة الديمقراطية ومستقبل الثقة في النظام الرقمي.

جميع الحقوق محفوظة لـمركز حضارات للدراسات السياسية والإستراتيجية © 2025