CyberSecurty انضم الى قناتنا على التلجرام هنا

تمكين المستخدمين وحماية البيانات من GenAI Data Loss – Zscaler تحذر من Shadow AI

كيف تحمي مؤسستك من تسريب البيانات عبر أدوات الذكاء الاصطناعي التوليدي دون تعطيل الإنتاجية.

تمكين المستخدمين وحماية البيانات من مخاطر الذكاء الاصطناعي التوليدي
تقرير خاص من Zscaler

الكاتب: Zscaler   |   22 يوليو 2025

منذ ظهور أدوات الذكاء الاصطناعي التوليدي في أواخر عام 2022، لم تكن الاستجابة حكرًا على خبراء التقنية فقط، بل امتدت إلى الموظفين في جميع الصناعات الذين أدركوا سريعًا إمكانياتها في زيادة الإنتاجية وتسريع سير العمل.

التهديد الخفي: الذكاء الاصطناعي في الظل

رغم حظر الكثير من المؤسسات استخدام تطبيقات الذكاء الاصطناعي العامة كخطوة وقائية، إلا أن الموظفين استمروا في استخدامها بطرق غير مرئية مثل إرسال الملفات لبريدهم الشخصي أو استخدام أجهزتهم الخاصة، مما أدى إلى نشوء ما يُعرف بـ"الذكاء الاصطناعي في الظل".

تحليل فريق ThreatLabz كشف عن استخدام أكثر من 800 تطبيق ذكاء اصطناعي داخل المؤسسات عام 2024، مما يوضح فشل الحظر وحده في الحد من الاستخدام، بل أدى إلى إخفائه.

دروس من تبني الحوسبة السحابية

كما حدث مع أدوات التخزين السحابي سابقًا، فإن الحل لا يكمن في المنع، بل في توفير بدائل آمنة وسهلة الاستخدام. الفرق هنا أن تسريب البيانات عبر الذكاء الاصطناعي قد يعني فقدان ملكية فكرية دون القدرة على استرجاعها.

الرؤية أولاً، ثم السياسة

تحتاج المؤسسات أولًا إلى فهم كيفية استخدام الذكاء الاصطناعي فعليًا. توفر Zscaler رؤية فورية لأنماط استخدام التطبيقات وتساعد في صياغة سياسات ذكية، تعتمد على مبادئ Zero Trust.

يمكن مثلاً السماح باستخدام التطبيقات في وضع العزل أو توجيه الموظف إلى بدائل مؤسسية، مما يحقق توازنًا بين الإنتاجية والحماية.

التمكين والحماية معًا

تظهر بيانات Zscaler أن أكثر من 4 ملايين محاولة تسريب بيانات حساسة إلى تطبيقات ذكاء اصطناعي تم منعها بفضل أدوات DLP. هذا يعكس أهمية تفعيل الحماية بدون تعطيل العمل.

الرسالة الأساسية: الذكاء الاصطناعي لا يجب منعه، بل تنظيمه وتبنيه بحذر عبر أدوات مناسبة ورؤية واضحة.

ملخص البحث:
رغم حظر التطبيقات العامة، يستمر استخدام الذكاء الاصطناعي التوليدي بطرق خفية، مما يتطلب رؤية دقيقة وسياسات سياقية لحماية البيانات دون تعطيل الإنتاجية.

تم التعديل في: 22 يوليو 2025