CyberSecurty انضم الى قناتنا على التلجرام هنا

A LangChain vulnerability let attackers steal OpenAI API keys

ثغرة AgentSmith في LangSmith تكشف مفاتيح OpenAI وتسلط الضوء على أداة WormGPT الخبيثة وتطوراتها.


خَطَر أمين: ثغرة في LangSmith قد تكشف مفاتيح OpenAI وبيانات المستخدمين عبر وكلاء خبيثة

ملخص الثغرة وتقييمها

كشفت أبحاث الأمن السيبراني عن ثغرة غيرت الـ CVSS بواقع 8.8/10 في منصة LangSmith التابعة لـ LangChain، أُطلق عليها اسم AgentSmith من قبل Noma Security. تُمكّن هذه الثغرة من اعتراض البيانات الحساسة مثل مفاتيح API الخاصة بـ OpenAI والمحفزات والملفات والمحفوظات الصوتية والمرئية.

كيف يعمل الهجوم؟

  • يقوم المهاجم بإنشاء وكيل (Agent) خبيث على Prompt Hub، مهيأ بوظيفة “مزود وكيل” تتخيل بيانات المستخدم.
  • عند اعتماد المستخدم لهذا الوكيل والضغط على “Try It”، تُحوَّل المحفزات والبيانات عبر الوكيل الخبيث.
  • يُرسل الهجوم المفاتيح والمحفزات والملفات إلى الخادم التابع للمهاجم دون علم الضحية.
  • يمكن للمهاجم استخدام مفتاح OpenAI الخاص بالمستخدم لاستنزاف رصيده واستغلاله في سرقة نماذج داخلية أو البيانات أو التأثير على الفواتير.
  • في حال قيام المستخدم باستنساخ الوكيل في بيئة المؤسسة، ستظل عملية التسريب مستمرة.

متى وكيف تم التحديث؟

  • أُبلغ عن الثغرة بشكل مسؤول في 29 أكتوبر 2024.
  • أجرت LangChain إصلاحاً في 6 نوفمبر 2024.
  • تشمل الحماية الجديدة تحذيراً يظهر عند محاولة استنساخ وكيل يحتوي على إعداد وكيل مخصص.

التأثيرات والتهديدات الناتجة

  • فقد مالي ناتج عن الاستخدام غير المصرح بـ API.
  • تعريض النماذج الداخلية والبيانات السرية والملكية الفكرية لخطر التسريب.
  • مسؤوليات قانونية وتشويه سمعة المؤسسة أو مطّور النماذج.

ظهور متغيرات جديدة من WormGPT

ما هو WormGPT؟

WormGPT هو أداة توليد نصوص مبنية على LLM ظهرت منتصف 2023، مخصصة لإنشاء رسائل تصيّد وبرمجيات خبيثة مبسّطة، وتم إغلاقه بعد إطلاق شخصيته المبرمجة.

المتغيرات الجديدة وأخطارها

  • ظهرت نسخ مدعومة من xAI Grok وMistral Mixtral.
  • صدرت إصدارات مثل xzin0vich-WormGPT وkeanu-WormGPT عبر منتديات الاختراق.
  • يقدّم هذا النوع استجابات غير خاضعة للرقابة تشمل محتوى غير أخلاقي أو غير قانوني.
  • لا تُبنى هذه النماذج من الصفر، بل جرى تعديل نماذج قائمة وإعادة تشكيلها عبر أوامر النظام أو تدريب خاص ببيانات غير شرعية.

بحسب الباحث Vitaly Simonovich، أصبحت WormGPT علامة تجارية لأي LLM غير مراقب، تم تكييفه بواسطة جهات خبيثة لتعزيز قدرات الهجوم السيبراني.