تأسيس وحدة حوكمة الذكاء الاصطناعي داخل الوزارات العُمانية

وكيلٌ في وزارة عُمانية تتقدّم لديه ست مبادرات ذكاء اصطناعي في الوقت نفسه: تجربة مع مورّد لمحادثة المراجعين، نظام استرجاع داخلي للتعاميم، نموذج كشف احتيال على المدفوعات، أداتا تحليلات أتت عبر الشراء، وطبقة ترجمة من الإنجليزية إلى العربية للمراسلات. لا يوجد لأيٍّ منها مالك مُعيَّن بالاسم داخل الوزارة، ولا مُحفِّز إيقافٍ موثَّق. هذه المقالة تصف أصغر وحدة قادرة على ضبط ذلك، وكيفية تشغيلها خلال تسعين يومًا.

١. لماذا تحتاج الوزارة الصغيرة وحدةً من ثلاثة أشخاص لا لجنة

أكثر الوزارات العُمانية ترُدّ على مخاطر الذكاء الاصطناعي بتشكيل لجنة. تجتمع شهريًّا، تُقيّم المخاطر على سلّم من ١ إلى ٥، ثم تُرفع الجلسة. وحين يبدأ نموذج الترجمة بالانحراف عن المصطلح القانوني، تكون اللجنة لم تجتمع منذ سبعة أسابيع، ويكون الضرر قد بلغ خطابات المواطنين.

البديل وحدة تشغيلية: ثلاثة موظفين بأسمائهم، لكلٍّ منهم مهمّة واحدة، يتبعون الوكيل أو مدير التحوّل الرقمي. يملكون سجلًّا، وبوابة، ولوحة. باستطاعتهم إيقاف نظام قبل الغداء وتوثيق السبب بعده.

هذا الشكل مأخوذ مباشرة من وظيفة GOVERN في إطار إدارة مخاطر الذكاء الاصطناعي من المعهد الوطني الأمريكي للمعايير والتقنية (NIST AI RMF)، الذي يجعل الحوكمة نشاطًا مستمرًّا عبر الوظائف الأربع (Govern، Map، Measure، Manage) لا فعلَ مراجعةٍ ربعية. ويوافق منطقَ نظام إدارة الذكاء الاصطناعي في المواصفة الدولية أيزو/IEC 42001، أوّل معيار دولي لنظم إدارة الذكاء الاصطناعي، الذي يفترض أدوارًا محدّدة ودورة تخطيط/تنفيذ/فحص/تصحيح يملكها بشرٌ لا تقويم اجتماعات.

ثلاثة ليس رقمًا ماليًّا بل نطاق إشراف: الأربعة فأكثر تتمييع المسؤولية، والاثنان لا يغطّيان الإجازات. الثلاثة تثبت.

٢. الأدوار الثلاثة: راعي البيانات، مالك النموذج، مراجع الأخلاقيات

للوحدة مهمّة واحدة (أن يكون كلّ نظام ذكاء اصطناعي تستخدمه الوزارة مُسجَّلًا، مراقَبًا، وقابلًا للعكس) وثلاث عدسات على هذه المهمّة:

  • راعي البيانات. يملك نَسَب كلّ مجموعة بيانات تلامس النموذج: المصدر، التصنيف، مدّة الاحتفاظ، الإقامة الجغرافية. يوقّع على كلّ شراءٍ يمسّ بيانات المراجعين. يتبع مسؤول حماية البيانات لمواءمة قانون حماية البيانات الشخصية.
  • مالك النموذج. يملك جرد النماذج المستخدمة (خدمات سحابية مورّدة، ضبط داخلي، خطوط استرجاع). يتابع الأداء، الانحراف، والحوادث. يحوز مفتاح الإيقاف. يتبع الرئيس التنفيذي لتقنية المعلومات أو مدير التحوّل الرقمي.
  • مراجع الأخلاقيات. يملك تقييم الأثر للحالات الجديدة، ومسار تظلّم المتأثّرين، ومُخرَجات التفسير العلني (بطاقات النماذج، إشعارات القرارات). يتبع تبعيةً مزدوجة وحدةَ التدقيق الداخلي حفاظًا على الاستقلالية.

لا أحد منهم متفرّغ في اليوم الأوّل. هم كوادر قائمة (مهندس بيانات أوّل، رئيس خدمات رقمية، مسؤول قانوني أو تدقيق) مع تكليف مكتوب وميثاق من صفحة واحدة وأربع ساعات أسبوعيًّا محجوزة. يأتي العمق التخصّصي من مستشارين خارجيين ومن مُورّد الذكاء الاصطناعي المحلّي. للاطّلاع على كيفية انسياب مسؤوليات المُورّد إلى هذه الخريطة راجع الذكاء الاصطناعي محلّي النشر للمؤسسات السيادية في عُمان والخليج.

٣. ضوابط دورة الحياة: الشراء، النشر، المراقبة، الإيقاف

تطبّق الوحدة أربع بوّابات، مرتبطة بمبادئ منظّمة OECD للذكاء الاصطناعي وببنود أيزو 42001:

  1. بوّابة الشراء. لا تدخل الوزارة قدرة ذكاء اصطناعي دون استمارة استلام من صفحة واحدة: مالك العمل، فئات البيانات الملموسة، الإقامة، شرط الخروج، نَسَب النموذج. يُرفض أيّ مُورِّد بلا شرط خروج موثّق. هنا تُمسك الوحدة أكبر قدر من الضرر مبكرًا.
  2. بوّابة النشر. قبل الإطلاق يوقّع مراجع الأخلاقيات تقييم أثر (الغرض، الفئات المتأثّرة، أنماط الخطأ، مسار التظلّم). يُسجّل مالك النموذج النظامَ في الجرد بمؤشّر أساسي وعتبة انحراف. يعتمد راعي البيانات تدفّقات بيانات التدريب والاستدلال.
  3. بوّابة المراقبة. مراجعة ربعية لكلّ نظام: الانحراف، سجلّ الحوادث، الشكاوى، التكاليف مقابل التقدير. أيّ تجاوز للعتبة يُصعَّد خلال ٤٨ ساعة لا في الاجتماع الفصلي القادم.
  4. بوّابة الإيقاف. لكلّ نظام مُحفِّز نهاية حياة مكتوب من اليوم الأوّل (دقّة دون X، تغيّر ملكية المُورِّد، قرار تنظيمي، فقدان مالك العمل). عند تحقّق المُحفِّز، تُؤرشَف النماذج، تُمحى البيانات أو تُعاد، ويُبلَّغ المراجعون حيث لامسهم النظام.

هذا الموقف من دورة الحياة هو ذاته ما يُقنِّنه الاتحاد الأوروبي اليوم لقطاعه العامّ عالي المخاطر بموجب المادة 26 من قانون الذكاء الاصطناعي الأوروبي (التزامات الجهة الناشرة: إشراف بشري، تسجيل، رقابة بعد النشر)، وموعد التزامات المخاطر العالية في أغسطس 2026 ضغطٌ خارجي مفيد حتى للوزارات غير الأوروبية التي تتعامل مع نظراء أوروبيين.

٤. التسعون يومًا الأولى عمليًّا

اليوم ١ إلى ٣٠، الميثاق. أصدِر تكليفًا من صفحة واحدة موقّعًا من الوكيل. سَمِّ الأشخاص الثلاثة. احجز أربع ساعات أسبوعيًّا لكلٍّ منهم. انشر مذكّرة داخلية تصف الوحدة، البوّابات، وكيف يقدّم الموظف حالة استخدام جديدة.

اليوم ٣١ إلى ٦٠، الجرد. يطوف مالك النموذج كلّ مديرية ويُدرج كلّ نظام ذكاء اصطناعي قائم (بما فيه عادات استخدام أدوات عامّة لم تُعتمد، والميزات المدمجة لدى المورّدين). كلّ عنصر يُسجَّل بمالك، فئات بيانات، استضافة، عقد، ادّعاء دقّة، حالة (معتمد، مُحتمَل، مُرشّح للإيقاف). ستظهر للوحدة أنظمة لم تكن معروفة، وهذا متوقّع.

اليوم ٦١ إلى ٩٠، تشغيل البوّابات. تبدأ بوّابات الشراء والنشر والمراقبة والإيقاف بالعمل على الجرد. تُكتمل أوّل ثلاثة تقييمات أثر (أعلى الأنظمة خطورة). يُوقَف نظام واحد لتثبيت سابقة. يُضاف برنامج «معين»، منصّة الذكاء الاصطناعي المشتركة الوطنية في عُمان، إلى السجلّ بصفته اعتمادًا خارجيًّا مُجازًا حيث تستخدمه الوزارة.

في اليوم التسعين تكون لدى الوزارة: سجلّ، بوّابة، لوحة مراقبة، أربعة تقييمات أثر موثّقة، إيقاف واحد، وإيقاع ربعي ثابت. وحدة صغيرة، غير لامعة، لكنّها الفرق بين ذكاء اصطناعي يخدم الجمهور وذكاء اصطناعي يُفاجئ الوزير في مؤتمر صحفي.

لقاء تعريفي. إن كنت تُحدّد نطاق التسعين يومًا الأولى لوزارتك، راسلنا على [email protected] لجلسة تعريف من ساعة. نأتي بالميثاق الجاهز، قالب الجرد، ومجموعة استمارات تقييم الأثر بالعربية والإنجليزية. بحسب الطلب.

أسئلة شائعة

لماذا ثلاثة أشخاص لا لجنة توجيهية؟

اللجان التوجيهية تُقيّم المقترحات فصليًّا ولا تملك القرار. الوحدة المكوّنة من ثلاثة (راعي البيانات، مالك النموذج، مراجع الأخلاقيات) تملك السجلّ، البوّابة، ولوحة المراقبة. اللجان تنصح، أمّا إيقاف نموذج صباح يوم الثلاثاء بسبب انحراف الأداء فلا يقدر عليه إلا أصحاب صلاحيةٍ مُعيَّنون بالاسم.

هل نحتاج شهادة أيزو 42001 من اليوم الأوّل؟

لا. استخدم أيزو 42001 خريطةً هيكلية (سياسة، سجلّ مخاطر، ضوابط دورة حياة، تدقيق داخلي) واستهدف أوّل تدقيق متابعة في الشهر الثامن عشر. التسعون يومًا الأولى ينبغي أن تُنتج أدلّةً قابلة للمعاينة لاحقًا، لا شهادةً مصقولة.

كيف تتكامل الوحدة مع المركز الوطني للسلامة المعلوماتية وقانون حماية البيانات؟

وحدة حوكمة الذكاء الاصطناعي تعمل تحت مظلّة مسؤول أمن المعلومات ومسؤول حماية البيانات لا بموازاتهما. تبقى ضوابط الأمن السيبراني وحقوق أصحاب البيانات إلزامية، وتُضيف الوحدة ضوابط خاصّة بالنماذج (نَسَب بيانات التدريب، رصد الانحراف، نمذجة تهديد حقن التعليمات). خطّ واحد للتقارير، ثلاث عدسات للمعالجة.

ماذا لو كانت الوزارة تشتري الذكاء الاصطناعي خدمةً ولا تُدرّب نماذج؟

يتحوّل دور مالك النموذج إلى التزامات الجهة الناشرة وفق منطق المادة 26 من قانون الذكاء الاصطناعي الأوروبي: إشراف بشري، تسجيل، تقييم أثر، حقّ الإيقاف. يصبح الشراء نقطة الضبط الأولى. تنكمش الوحدة باتجاه الحوكمة والتدقيق لكنّها لا تختفي، فالذكاء الاصطناعي المُورَّد يبقى ذكاءً وزاريًّا في نظر المراجع.