
تسبّب وكيل ذكاء اصطناعي داخلي في شركة ميتا بحدوث خلل أمني مؤقت أتاح لموظفين الوصول إلى بيانات حساسة دون تصريح لمدة تقارب ساعتين، وذلك بعد نشر رد تقني غير مصرح به داخل نظام الشركة. وأكدت ميتا أن الحادث لم يؤدِّ إلى إساءة استخدام بيانات المستخدمين أو تسريبها.
وبدأت الواقعة عندما استخدم مهندس داخل الشركة أداة ذكاء اصطناعي لتحليل سؤال تقني طرحه موظف آخر في منتدى داخلي للشركة، ونشر الوكيل الرد تلقائيًا على المنتدى دون موافقة، وكان الرد موسومًا بوضوح بأنه مُولّد عبر الذكاء الاصطناعي.
ولاحقًا، اعتمد موظف ثانٍ على التوصيات الواردة في رد الوكيل، وقد تضمنت معلومات غير دقيقة، مما أدى إلى تفاعل متسلسل فتح إمكانية الوصول إلى أنظمة تحتوي على بيانات مؤسسية وبيانات مستخدمين حساسة. وصنّفت ميتا الحادث ضمن مستوى Sev 1، وهو التصنيف الثاني في الخطورة الأمنية لديها.
وأوضحت الشركة أنه لا توجد أدلة على استغلال هذا الوصول إلى البيانات الحساسة أو نشرها، مشددةً على أن الوكيل لم ينفّذ إجراءات تقنية بنفسه، بل اقتصر دوره على تقديم توصيات خطأ. وأضافت أن اتباع إجراءات تحقق إضافية كان كفيلًا بتجنّب الحادث.
حوادث متكررة تثير القلق
يأتي هذا الحادث ضمن سلسلة وقائع مشابهة داخل ميتا وخارجها. ففي وقت سابق، تسبب وكيل من منصة OpenClaw بحذف رسائل بريد إلكتروني دون إذن، مع تلقيه سابقًا تعليمات واضحة بعدم تنفيذ ذلك. وشهدت خدمات أمازون السحابية Amazon Web Services حادثًا في ديسمبر الماضي، عندما أدت تغييرات برمجية ناتجة عن وكيل ذكاء اصطناعي إلى تعطل إحدى الأدوات لمدة قدرها 13 ساعة.
وتُظهر هذه الحوادث التحديات المتزايدة المرتبطة بالاعتماد على وكلاء الذكاء الاصطناعي القادرين على اتخاذ قرارات أو تنفيذ مهام بنحو شبه مستقل؛ إذ ما زالت هذه الأنظمة عرضة لسوء تفسير التعليمات أو تقديم معلومات غير دقيقة، مما قد يؤدي إلى تداعيات أمنية وتشغيلية واسعة.
نسخ الرابط تم نسخ الرابط
تابعنا
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
