كتب مايكل فارس السبت، 21 مارس 2026 12:00 م أعلنت شركة إنفيديا عن إطلاق أداة أمنية جديدة تهدف إلى تأمين وكلاء الذكاء الاصطناعي مفتوحة المصدر، وتحديدًا نماذج "أوبن كلو" (OpenClaw) التي تتمتع بقدرات فائقة في تنفيذ المهام المعقدة. يسعى هذا النظام الأمني الجديد، الذي أُطلق عليه اسم "نيمو كلو" (NemoClaw)، إلى وضع وكلاء الذكاء الاصطناعي داخل بيئة افتراضية آمنة ومراقبة بدقة، لمنعها من اتخاذ إجراءات غير مصرح بها أو التسبب في اختراقات أمنية داخل شبكات المؤسسات، ويأتي هذا الإطلاق بالتزامن مع تأسيس تحالف يضم مختبرات متعددة لتعزيز تطوير النماذج مفتوحة المصدر. وفقًا لتقرير بموقع "زد دي نت" (ZDNet)، فإن إنفيديا تراهن بقوة على جعل نماذج الذكاء الاصطناعي المتقدمة متاحةً للجميع مع ضمان أعلى مستويات الأمان. ونقل الموقع تأكيد الخبراء على أن وكلاء الذكاء الاصطناعي، على الرغم من كفاءتها العالية، قد تتحول إلى تهديد داخلي خطير إذا تُركت لتعمل بحرية تامة دون قيود، ولذلك، تعمل الأداة الجديدة كحارس رقمي يراقب كل حركة وينظم صلاحيات الوصول الفوري للبيانات. يعكس هذا الإعلان تحولًا استراتيجيًّا مهمًّا في مسار الذكاء الاصطناعي المؤسسي، حيث ينتقل التركيز من مجرد زيادة قدرات النماذج إلى ضمان سلامتها وموثوقيتها. مع انتشار وكلاء الذكاء الاصطناعي المستقلة القادرة على اتخاذ القرارات وإدارة الأنظمة نيابةً عن البشر، تزداد المخاوف من فقدان السيطرة عليها. وتعتبر خطوة إنفيديا لتوفير طبقة حماية مدمجة ومفتوحة المصدر خطوةً ضروريةً لتسريع تبني هذه التقنيات الثورية في قطاعات الأعمال الحساسة دون المجازفة بالأمن السيبراني للمنظومة. تقييد الصلاحيات الذكي تعمل التقنية على تحديد نطاق عمل وكلاء الذكاء الاصطناعي ومنعها من الوصول إلى البيانات أو الأنظمة غير المصرح بها أمنيًّا، ويهدف التحالف الجديد إلى توحيد جهود المطورين عالميًّا لإنشاء أدوات ذكاء اصطناعي آمنة وموثوقة يمكن تكييفها مع مختلف الاحتياجات بمرونة.