بناء نظام إدارة أمن المعلومات للذكاء الاصطناعي بمواءمة مع الإصدار الثاني من توجيهات المركز الوطني للسلامة المعلوماتية

صار على فرق الامتثال في الوزارات والجهات الرقابية والمؤسّسات السيادية في عُمان أن تجيب عن سؤال لم يكن قائماً قبل عامين: كيف يستوعب نظام إدارة أمن المعلومات لدينا أعباء عمل الذكاء الاصطناعي. الإجابة الصادقة أنّ نظاماً تقليديّاً قائماً على ISO 27001 وحده يُغفل عدّة أسطح خاصّة بالذكاء الاصطناعي، وأنّ الإصدار الثاني من توجيهات المركز الوطني للسلامة المعلوماتية شدّد المتطلّبات. تستعرض هذه المقالة المواءمة العمليّة بين ISO 42001 وISO 27001:2022 وضوابط الإصدار الثاني للمركز الوطني، ثمّ تقدّم نموذج أدلّة تدقيقية وخطّة تسعين يوماً تستطيع جهة سياديّة تنفيذها. وتأتي هذه المقالة مكمّلةً لمقالنا المرجعي عن الذكاء الاصطناعي على البنية الداخليّة للمؤسّسات السياديّة في عُمان والخليج، الذي يقع طبقةً معماريّةً واحدةً تحت عمل نظام إدارة أمن المعلومات.

المعايير الثلاثة في مخطّط واحد: ISO 42001 وISO 27001 والإصدار الثاني للمركز الوطني

تتقاطع ثلاثة أُطر بانتظام حين تُقرأ بالترتيب الصحيح. ISO/IEC 42001:2023 هو معيار نظام إدارة الذكاء الاصطناعي، مصمَّمٌ بوصفه امتداداً قائماً على دورة الحياة يُضاف فوق نظام أمنيّ قائم. وISO/IEC 27001:2022 هو نظام إدارة أمن المعلومات الأساس، بضوابط الملحق A مصنّفةً ضمن محاور تنظيمية وبشريّة وماديّة وتقنيّة. أمّا توجيهات المركز الوطني في إصدارها الثاني فهي الطبقة الوطنيّة العُمانيّة: تستورد بنية 27001، وتضيف سياسة التصنيف الوطنيّة بوصفها طبقةً للحراسة، وتُحيل إلى ISO 42001 وإلى إطار NIST لإدارة مخاطر الذكاء الاصطناعي بوصفهما إطارَيْن مرجعيَّيْن معترَفاً بهما. النموذج الذهنيّ بسيط: 27001 هو الهيكل، و42001 هو محرّك الذكاء الاصطناعي، وتوجيهات المركز الوطني هي اللوحة الوطنيّة. ولا يستغني أيّ من الثلاثة عن الآخرَين.

عائلات الضوابط الاثنتا عشرة التي تتطابق بسلاسة

تنجز اثنتا عشرة عائلة من الضوابط معظم عمل المواءمة. مأخوذةً من ضوابط الملحق A في ISO 27001 وضوابط ISO 42001، ومُسقطةً على ركائز الإصدار الثاني للمركز الوطني، تُغطّي قرابة ثمانين في المئة ممّا سيتحقّق منه المدقّق السياديّ.

  1. سياسات أمن المعلومات وسياسة الذكاء الاصطناعي. سياسات عُليا تشمل الاستخدام المقبول للذكاء الاصطناعي واعتماد النماذج والإشراف البشريّ (27001 A.5.1، 42001 5.2).
  2. الأدوار والمسؤوليّات والمساءلة في الذكاء الاصطناعي. مالك مخاطر معيَّن، ومالك للنموذج، ومسؤول عن البيانات (27001 A.5.3، 42001 5.3).
  3. تقييم المخاطر وتقييم أثر الذكاء الاصطناعي. تقييم أثر مخصّص لكلّ حالة استخدام إلى جانب سجلّ المخاطر العامّ (42001 6.1، طبقة قطاعيّة من المركز الوطني).
  4. جرد الأصول والنماذج. كلّ نموذج وكلّ مجموعة بيانات وكلّ مخزن متجهات يُعامَل أصلاً مسجّلاً (27001 A.5.9، 42001 7.4).
  5. طبقة تصنيف البيانات. تطبيق درجات التصنيف الوطنيّة على بيانات التدريب والمُحفّزات والمُخرجات.
  6. التحكّم في الوصول والتفويض على مستوى المُحفّز. وصول مرتبط بالهويّة إلى النموذج وإلى مؤشّرات الاسترجاع (27001 A.5.15، A.8.3).
  7. التشفير وحراسة المفاتيح. تشفير الأوزان عند الراحة، وحراسة المفاتيح على عتاد الجهة (27001 A.8.24).
  8. أمن العمليّات وتدوين سجلّ الاستدلال. سجلّات مقاومة للعبث لكلّ مُحفّز واستجابة عبر قنوات مضبوطة (27001 A.8.15).
  9. سلسلة الإمداد ومصدر النموذج. مصدر موثّق للأوزان دون اتّصال حيّ، وسلسلة بيانات التدريب (27001 A.5.19، 42001 8.3).
  10. التطوير الآمن للذكاء الاصطناعي. أنابيب نماذج مُصدَّرة، وإصدارات موقّعة، وبوّابات اختبار (27001 A.8.25، 42001 8.4).
  11. الاستجابة للحوادث والتنسيق مع OCERT. أدلّة استجابة خاصّة بالذكاء الاصطناعي، وجهة اتّصال محدّدة، والتزامات بمواعيد الاستجابة (27001 A.5.24).
  12. الاستمراريّة ومراجعة الانجراف والتحيّز. مراجعة فصليّة للانجراف والتحيّز ونشاط الفريق الأحمر مع متابعة موثّقة (42001 9.1، طبقة قطاعيّة من المركز الوطني).

امتدادات خاصّة بالذكاء الاصطناعي: نسب النموذج، حقن المُحفّزات، صمود الالتفاف، مصدر بيانات التدريب

تقع أربعة امتدادات خارج ما يعرفه نظام 27001 التقليديّ، وفيها تكمن معظم الفجوات المؤسّسيّة اليوم.

  • نسب النموذج. بيان موقّع يَتتبَّع كلّ نموذج مُنشَر إلى أوزانه الأصلية ومجموعات بيانات التهيئة (مع تصنيفها) وحوسبة التدريب والمهندس الذي اعتمد الإصدار. يُعامَل البيان أداةً تدقيقيّة تُحفظ المدّة ذاتها التي تستلزمها درجة تصنيف البيانات.
  • صمود حقن المُحفّزات. حالات اختبار موثّقة تشمل الحقن المباشر وغير المباشر وعبر استدعاء الأدوات. ومصنَّف مرجعيّ معتمَد: قائمة OWASP العشر لتطبيقات النماذج اللغويّة الكبيرة. وتقرير الفريق الأحمر الفصليّ يُلحق بالمراجعة الإداريّة.
  • صمود الالتفاف على القيود. تصنيف موحَّد للرفض، ومنظومة تقييم تختبر أنماط الالتفاف المعروفة وخطوطاً حمراء خاصّة بالجهة (إحالات إلى وثائق مصنّفة، فئات محميّة، مُحفّزات معادية للدولة). معدّل الفشل مؤشّر أداء يُتابَع.
  • مصدر بيانات التدريب. لكلّ متن استخدام للتهيئة أو للاسترجاع المعزَّز، قائمة مصادر موثّقة بحقوق النشر والتصنيف وأساس الموافقة وفق قانون حماية البيانات الشخصيّة عند الاقتضاء. التدريب على بيانات عامّة فقط هو المسار الأوضح، أمّا المصادر المختلطة فتستلزم رأياً قانونيّاً موثّقاً.

نماذج الأدلّة التدقيقيّة

ستّة صكوك تُغطّي السطح الذي سيطلبه المدقّق السياديّ. صياغتها مرّةً ثمّ تعهّدها وثائق حيّة يُخرج التدقيق من المسار الحرج.

  1. سجلّ أصول الذكاء الاصطناعي. جدول يحوي اسم النموذج والأوزان الأصليّة وتصنيف بيانات التدريب وبيئة النشر والمالك وتاريخ آخر مراجعة.
  2. قائمة موادّ النموذج. ملفّ موقّع JSON أو YAML بِبَصمات الأوزان وإصدارات الإطار وبصمات الحاويات وإصدارات تعريفات وحدات المعالجة الرسوميّة وقناة التحديث.
  3. تقييم أثر الذكاء الاصطناعي. نموذج لكلّ حالة استخدام يحوي تصنيف المخاطر والتخفيف والمخاطر المتبقّية وتوقيع مالك المخاطر ومسؤول أمن المعلومات.
  4. عيّنة سجلّ الاستدلال. سطر سجلّ تدقيقيّ نموذجيّ لكلّ طلب، وسياسة احتفاظ مرتبطة بدرجة تصنيف البيانات.
  5. تقرير الفريق الأحمر. نتائج فصليّة عن حقن المُحفّزات والالتفاف والتحيّز، مع متابعة الإصلاحات.
  6. دليل الحوادث. سيناريوهات حوادث خاصّة بالذكاء الاصطناعي (تسرّب مُخرجات، انكشاف سجلّ مُحفّزات، عبث بأوزان) مع جهة اتّصال محدّدة في OCERT وتوقيتات الاستجابة.

خطّة عمل لأوّل تسعين يوماً

تسلسل عمليّ لجهة تنطلق من قاعدة معتمَدة وفق ISO 27001 ولم تُمدّد نطاقها رسميّاً ليشمل الذكاء الاصطناعي.

  1. الأيام 1 إلى 14، النطاق والفجوة. توسيع بيان نطاق نظام إدارة أمن المعلومات ليشمل نظام الذكاء الاصطناعي، وإجراء تحليل فجوة وفق ISO 42001 اعتماداً على عائلات الضوابط الاثنتي عشرة. المخرَج: قائمة فجوات مرتّبة بالأولويّة.
  2. الأيام 15 إلى 45، صياغة الأدلّة. صياغة الصكوك التدقيقيّة الستّة، وتعبئة سجلّ أصول الذكاء الاصطناعي وقائمة موادّ النموذج لكلّ نموذج في الإنتاج، وتشغيل تقييم الأثر الأوّل على حالة الاستخدام الأعلى تصنيفاً.
  3. الأيام 46 إلى 75، تشديد الضوابط. ضبط تدوين الاستدلال وحراسة المفاتيح وقنوات التحديث المُتحقَّق منها دون اتّصال حيّ، وجدولة الجولة الأولى للفريق الأحمر، وتوثيق مصنّف الرفض، وإحاطة جهة الاتّصال في OCERT.
  4. الأيام 76 إلى 90، المراجعة الإداريّة. أوّل مراجعة إداريّة رسميّة لنظام إدارة أمن المعلومات للذكاء الاصطناعي بحضور مسؤول أمن المعلومات ومالك المخاطر ومسؤول حماية البيانات، واعتماد سجلّ إجراءات التصحيح، ورفع نطاق النظام المُحدَّث إلى التدقيق الداخليّ. تصبح الجهة جاهزةً عندئذٍ لتدقيق خارجيّ مُواءَم مع المركز الوطني في الدورة التالية.

يقع معين، المنصّة الوطنيّة العُمانيّة المشتركة للذكاء الاصطناعي، ضمن النطاق ذاته من الضوابط حين تستهلكه الجهة لأعباء عامّة أو لدرجات تصنيف منخفضة. وتُحدّد طبقة التصنيف أيّ منصّة تخدم أيّ درجة، ويمتدّ نظام إدارة أمن المعلومات للذكاء الاصطناعي على الاثنتَين معاً.

صُمِّم حصن لتقرأ فيه حزمة الأدلّة كأنّها جرد تسليمات قياسيّة. راسلونا على [email protected] لإحاطة مدّتها ساعة نستعرض فيها عائلات الضوابط الاثنتي عشرة في سياقكم المؤسّسيّ تحديداً، ونترك لديكم مسوّدة بيان نطاق لنظام إدارة أمن المعلومات للذكاء الاصطناعي وخطّة تسعين يوماً مُعبّأة جاهزة لتسليمها إلى مسؤول أمن المعلومات لديكم.

أسئلة شائعة

هل نحتاج إلى ISO 42001 إذا كنّا نحمل شهادة ISO 27001 أصلاً؟

تغطّي ISO 27001 أمن المعلومات بصورة عامّة، لكنّها لا تتناول مخاطر الذكاء الاصطناعي تحديداً مثل انجراف النموذج وحقن المُحفّزات وسلسلة بيانات التدريب. ISO 42001 هي معيار نظام الإدارة المخصّص لتلك المخاوف، وهي مصمَّمة لتُضاف فوق نظام إدارة أمن المعلومات القائم لا لتحلّ محلّه. الموقف العمليّ للجهات السياديّة في عُمان هو توسيع نطاق ISO 27001 ليشمل نظام الذكاء الاصطناعي، ثمّ إضافة ضوابط ISO 42001 المختصّة بالذكاء الاصطناعي بوصفها فارقاً تكميليّاً.

ما الجديد في الإصدار الثاني من توجيهات المركز الوطني للسلامة المعلوماتية مقارنةً بالإصدار الأوّل؟

يُحكم الإصدار الثاني توقّعات الإفصاح عن سلسلة الإمداد، ويُرسّخ طبقة تصنيف البيانات على أنظمة المعالجة (التي صارت تشمل الاستدلال ومخازن المتجهات في الذكاء الاصطناعي)، ويُقصّر مهل الإبلاغ عن الحوادث بالتنسيق مع OCERT، ويُحيل إلى معايير حوكمة الذكاء الاصطناعي الدولية بما فيها ISO 42001 وإطار NIST لإدارة مخاطر الذكاء الاصطناعي. ولم يتغيّر عدد عائلات الضوابط، لكنّ عدّة عائلات أُضيفت إليها بنود فرعيّة للأنظمة التي تتعلّم أو تُولّد.

كيف يندرج إطار NIST لإدارة مخاطر الذكاء الاصطناعي في هذا البناء؟

إطار NIST AI RMF توجيه أمريكيّ طوعيّ لا قانون عُمانيّ، غير أنّه أنضج إطار مفتوح لتصنيف مخاطر الذكاء الاصطناعي. ربط ضوابط ISO 42001 بوظائف NIST الأربع (الحوكمة والتخطيط والقياس والإدارة) يجعل نظام إدارة أمن المعلومات للذكاء الاصطناعي مفهوماً للمدقّقين الدوليّين والشركاء متعدّدي الجنسيّات. ويُحيل الإصدار الثاني إليه باعتباره إطاراً مرجعيّاً معترَفاً به، فالاستشهاد بهذا الربط في عرض المناقصة يُقوّي الموقف الامتثاليّ دون تحميل الجهة التزامات إضافيّة.

ما الأدلّة التدقيقية التي يحتاج نظام إدارة أمن المعلومات للذكاء الاصطناعي إلى الاحتفاظ بها فعلاً؟

كحدّ أدنى: قائمة موادّ موقّعة لكلّ نموذج مُنشَر، وبيان مصدر بيانات التدريب للنماذج المُهيّأة، وسجلّ تدقيقيّ للاستدلال يُحفظ وفق درجة تصنيف البيانات، وتقرير اختبار الفريق الأحمر يغطّي حقن المُحفّزات وصمود النموذج أمام الالتفاف، ومراجعة فصليّة للانجراف والتحيّز، ودليل استجابة للحوادث مع جهة اتّصال محدّدة في OCERT. وكلّ صكّ منها ينبغي أن يُحيل إلى ضابط Annex A المعنيّ في ISO 27001 وبند ISO 42001 المقابل، فيتحوّل عمل الربط لدى المدقّق إلى مراجعة جاهزة.