أطلق معهد بريطاني مختص بأمان الذكاء الاصطناعي مجموعة من الأدوات المصممة لدعم أمن الذكاء الاصطناعي من خلال تيسير عملية إنشاء تقييمات للذكاء الاصطناعي التي تخدم القطاعات الصناعية والهيئات البحثية بالإضافة إلى الدوائر العلمية.
تسعى مجموعة الأدوات المعروفة باسم Inspect لتحليل إمكانيات نماذج الذكاء الاصطناعي المحددة، وتتضمن هذه الأدوات تقييم معرفة النماذج الأولية وقدراتها على الاستدلال، وكذلك توليد تقدير يعتمد على الأداء المتحصل عليه.
تحت تصرفكم مكتبة الأدوات هذه والتي تأتي ضمن ترخيص مصدر مفتوح، وبالأخص ترخيص من نمط MIT.
في تقرير صادر عنه، زعم المعهد البريطاني المتخصص في أمان الذكاء الاصطناعي أن حزمة الأدوات المُسمّاة Inspect تمثل المنصة الرائدة في اختبار أمان الذكاء الاصطناعي، والتي يدعمها هيكل حكومي وتستخدم على نطاق واسع.
أعلن إيان هوغارث، رئيس المعهد البريطاني لأمان الذكاء الاصطناعي، قائلاً: “يتطلب التعاون المثمر في مراجعات أمان الذكاء الاصطناعي اعتماد منهجية موحدة ومتاحة في التقييمات”.
قال: “نتطلع لأن نرى كيف يستعمل مجتمع الذكاء الاصطناعي العالمي مجموعة الأدوات Inspect للقيام بتجارب الأمان المعتادة وللمساهمة في التطوير والعمل المتواصل داخل النظام المفتوح المصدر، كي نتمكن من إنشاء تقييمات ذات جودة عالية في شتى الميادين.”
تشتمل Inspect على ثلاثة عناصر رئيسية هي: مجموعات البيانات، والمحللين، والمصححين.
تقدم مجموعات البيانات نماذج لإجراء الاختبارات التقييمية. يقوم الذين يؤدون الاختبار بحلها، بينما يقوم المقيمون بتقييم الإجابات وتخصيص العلامات، ثم يجمعون تلك العلامات من الاختبارات ويحولونها إلى تدابير تقييمية.
يُمكِن تحسين مكونات “Inspect” المدمجة من خلال استخدام حزم خارجية مُعدّة بلغة البرمجة بايثون.
وفي منشور في حديثها عبر منصة إكس، أعربت ديبورا راج، التي تعمل كباحثة في مؤسسة موزيلا وتمتلك خبرة في مجال الأخلاق المرتبطة بالذكاء الاصطناعي، عن رأيها في برنامج Inspect معتبرة إياه دليلًا واضحًا على النتائج الإيجابية التي يمكن أن يحققها الاستثمار الحكومي في تطوير الأدوات ذات المصدر المفتوح والهادفة إلى المحاسبة في مجال الذكاء الاصطناعي.
اقترح كليمنت ديلانجو، المدير التنفيذي لشركة الذكاء الاصطناعي الوليدة المعروفة باسم Hugging Face، فكرة دمج أداة Inspect مع مكتبة النماذج التابعة لـ Hugging Face أو تطوير لوحة معلومات شاملة تعرض نتائج تقييمات الأدوات المختلفة.
قام معهد بريطانيا لضمان سلامة تكنولوجيا الذكاء الاصطناعي باصدار مجموعة أدوات تُعرف باسم Inspect، وهذا جاء إثر إطلاق الهيئة الوطنية الأمريكية للمعايير والتكنولوجيا، المعروفة ب NIST، لبرنامج GenAI الذي يهدف لتقييم مجموعة واسعة من تطبيقات الذكاء الاصطناعي المولّدة، بما في ذلك تلك التي تختص بإنشاء النصوص والصور الاصطناعية.
ويخطط المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة لإصدار معايير والمساعدة في إنشاء أنظمة للكشف عن صحة المحتوى وتشجيع تطوير البرامج لاكتشاف المعلومات المزيفة أو المضللة المولدة بالذكاء الاصطناعي.