CyberSecurty انضم الى قناتنا على التلجرام هنا

AI Agents and the Non‑Human Identity Crisis


وكلاء الذكاء الاصطناعي وأزمة الهوية غير البشرية: كيف ننشر الذكاء الاصطناعي بأمان وعلى نطاق واسع؟

 التاريخ: 27 مايو 2025 

يشهد العالم تحوّلًا كبيرًا في إنتاجية المؤسسات بفضل الذكاء الاصطناعي، من أدوات مثل GitHub Copilot إلى روبوتات الدردشة التي تستخرج الإجابات من قواعد المعرفة الداخلية. ولكن كل وكيل ذكاء اصطناعي جديد يحتاج إلى المصادقة، مما يزيد بشكل كبير من عدد الهويات غير البشرية (NHI) داخل السُحب المؤسسية.

الواقع الصادم: الهويات غير البشرية تتجاوز البشر

تشير الإحصاءات إلى أن بعض الشركات تتعامل مع 45 هوية غير بشرية مقابل كل مستخدم بشري واحد. هذه الهويات تشمل الحسابات الخدمية، البوتات، الحاويات، ووكلاء الذكاء الاصطناعي. جميعها تحتاج إلى "أسرار" مثل مفاتيح API أو رموز دخول أو شهادات رقمية.

وفقًا لتقرير GitGuardian - حالة تسريب الأسرار 2025، تم اكتشاف أكثر من 23.7 مليون سر على GitHub في عام 2024 وحده. والأسوأ من ذلك، أن المستودعات التي تم تفعيل Copilot فيها سربت الأسرار بنسبة أعلى بـ 40٪.

المشكلة مع الهويات غير البشرية

بخلاف المستخدمين البشر، لا تخضع الهويات غير البشرية لسياسات تخص تدوير كلمات المرور أو تقييد الصلاحيات أو حذف الحسابات غير المستخدمة. وهذا يخلق شبكة غير مرئية من الاتصالات عالية الخطورة التي يمكن أن يستغلها المهاجمون بسهولة.

5 ممارسات فعالة لتقليل مخاطر NHIs المتعلقة بالذكاء الاصطناعي

  •  تدقيق وتنظيف مصادر البيانات
  •  توحيد إدارة الهويات غير البشرية
  •  منع تسرب الأسرار في عمليات نشر LLM
  •  تحسين أمان تسجيلات التشغيل
  •  تقييد وصول الذكاء الاصطناعي إلى البيانات الحساسة

1. تدقيق وتنظيف مصادر البيانات

أدوات مثل Jira، Slack، Confluence لم تُصمم للتعامل مع أسرار أو مع AI. إدراج مفتاح API بصيغة نصية عادية في أي منها يمكن أن يحوله إلى مصدر لتسريب الأسرار بواسطة روبوت دردشة.

2. توحيد إدارة NHIs

لا يمكنك حماية ما لا يمكنك قياسه. استخدم أدوات مثل HashiCorp Vault أو AWS Secrets Manager لإدارة الأسرار بشكل مركزي والانتقال نحو تدوير تلقائي للمفاتيح.

3. منع تسرب الأسرار في LLM

استخدام MCP – Model Context Protocol يبسط اتصال وكلاء الذكاء الاصطناعي بالخدمات، ولكنه أيضًا قد يحتوي على أسرار صلبة. اكتشف GitGuardian أن 5.2٪ من MCP تحتوي على أسرار صريحة، ما يجعل الاكتشاف المبكر أمرًا حاسمًا.

4. تحسين أمان التسجيلات

تسجيل المخرجات بدون تنقيح يمكن أن يؤدي إلى تسرب الأسرار في أكثر من نسخة، خاصة إن كانت محفوظة على خدمات خارجية. إضافة خطوة تنقية قبل حفظ السجلات خطوة ضرورية لتقليل المخاطر.

5. تقييد وصول الذكاء الاصطناعي

لا يجب إعطاء روبوتات الذكاء الاصطناعي وصولًا كاملًا لقواعد بياناتك الحساسة. يجب تطبيق مبدأ أقل قدر ممكن من الوصول للحد من خطر التسريبات.

 التوعية أولا

لا فائدة من كل هذه النصائح إذا لم تصل إلى المطورين والفرق التقنية. التواصل، التدريب، وتحديد السياسات هي أدواتك الفعلية لبناء ذكاء اصطناعي آمن.

 الخلاصة: حماية الهوية الآلية = أمان مستدام للذكاء الاصطناعي

مستقبل الذكاء الاصطناعي سيخص الشركات التي تتعامل مع الهويات غير البشرية بنفس جدية المستخدمين البشر. الحوكمة، المراقبة المستمرة، وإدارة الأسرار ليست مجرد تحسينات، بل ضرورات حتمية في العصر الجديد.