تحليل معمّق لنموذج جيمّا 4 بنافذة سياق ٢٥٦ ألف رمز للنشر السيادي داخل المؤسسة
للمشتري السيادي الذي يقيّم النماذج مفتوحة الأوزان في عام ٢٠٢٦، يأتي Gemma 4 بوصفه النموذج الذي جمع أخيرًا بين ثلاث خصائص كانت تتطلّب مفاضلات: نافذة سياق ٢٥٦ ألف رمز كافية لاستيعاب ملف مشتريات كامل أو مستودع كود ضمن موجّه واحد، ورخصة Apache 2.0 تُزيل احتكاك الترخيص أمام نشر مؤسسات الدولة والبنوك، وأداءٌ يضعه ثالثًا بين النماذج المفتوحة على لوحة LMArena النصّية. هو ليس الأقوى في كل فئة، لكنّه الخيار الافتراضي الأمتن لمؤسسة تريد تشغيل نموذج مفتوح واحد بإتقان، داخل أسوارها، على عتاد تملكه.
جيمّا 4 في فقرة واحدة
جيمّا 4 هو الجيل الرابع من عائلة النماذج مفتوحة الأوزان لـ Google DeepMind، صدر في ٢ أبريل ٢٠٢٦. تتوزّع العائلة على أربعة متغيّرات: نموذج فعّال بـ 2B يُسمّى E2B، ونموذج فعّال بـ 4B يُسمّى E4B، ونموذج 26B بخبراء مختلطين يُفعّل ٤ مليارات معامل لكل رمز ويُسمّى 26B-A4B، ونموذج كثيف رئيسي بـ 31B. تحمل المتغيّرات الأصغر نافذة سياق 128K، فيما يحمل 26B-A4B و31B نافذة 256K. الأربعة جميعًا متعدّدة الوسائط أصلًا عبر النص والصور والفيديو، مع دعم الإدخال الصوتي على E2B وE4B. تُشحن العائلة كاملة تحت رخصة Apache 2.0، وهي المرّة الأولى التي يستخدم فيها خط جيمّا رخصة مفتوحة المصدر تامّة الإباحة. أبرز الأرقام المُعلنة في المعايير: 85.2% على MMLU Pro، و89.2% على AIME 2026، و84.3% على GPQA Diamond، و80.0% على LiveCodeBench v6 للمتغيّر الكثيف 31B. ويحتلّ 31B المرتبة الثالثة فيما يحتلّ 26B المرتبة السادسة على لوحة LMArena النصّية.
نافذة السياق ٢٥٦ ألف رمز: ما الذي تتيحه فعليًا
عبارة "السياق الطويل" من العبارات التي تتكرّر في إطلاقات النماذج دون كثير من التحديد. تترجم نافذة 256K في جيمّا 4 إلى ثلاثة أحمال عمل سيادية ملموسة لا تستطيع معظم المؤسسات تشغيلها بأي طريقة أُخرى.
الاستدلال على مستوى مستودع الكود كاملًا. تطبيق داخلي متوسط الحجم، من النوع الذي يملكه فريق تقنية المعلومات في وزارة أو بنك، يتراوح حجمه عادةً بين ٢٠٠ ألف و٣٥٠ ألف رمز شاملًا الاعتماديات الأساسية. مع 256K رمز سياق، يستطيع المحلّل لصق شريحة مستودع كاملة في الموجّه ويسأل: "أين الأرجح أن يختبئ تراجع في الخصوصية؟" أو "ما رسم استدعاء هذا المتحكّم وصولًا إلى قاعدة البيانات؟". تأتي الإجابة مستندة إلى الكود الفعلي لا إلى ملخّصه، ولا يخرج أي جزء منه عبر المحيط إلى خدمة مستضافة.
ملفات المشتريات الكاملة. تتراوح حِزمة طلب عرض عُمانية، الكرّاس الأصلي، ردود مقدّمي العروض، شبكات التقييم الفنّي، والمواصفات الملحقة، بين ٢٠٠ و٦٠٠ صفحة في المتوسّط. تحميلها في نافذة 256K بصيغة PDF مُستخرجة يتيح للنموذج الإجابة عن أسئلة مثل: "اذكر كل بند يختلف فيه مقدّم العرض (أ) عن مقدّم العرض (ب) في شروط الضمان"، أو "لخّص التسعير لدى جميع مقدّمي العروض في بنود التخزين"، في استدلال واحد. ولا يغادر ملف المشتريات المؤسسة في أيّ مرحلة.
تجميع وثائق متعدّدة. النمط الأكثر شيوعًا في عمل البنوك المركزية والوزارات وجهات الاستخبارات هو إخراج تجميع من مصادر كثيرة: مذكّرات سياسات وقرارات سابقة ونصوص تنظيمية ومحاضر اجتماعات. مع 256K رمز يُنجز التجميع في تمريرة واحدة فوق المجموعة الوثائقية كلّها، بدلًا من تسلسل التمريرات على شظايا ضيقة، مع ما يصاحب ذلك من فقد للاستدلال العابر للوثائق.
لا شيء من هذا نظري. هذه هي الواقع اليومي للعمل السيادي. ونافذة 256K ببساطة تجعل النموذج كبيرًا بما يكفي ليرى المسألة بأكملها دفعة واحدة.
البنية ومقايضات الانتباه طويل السياق
السياق الطويل ليس مجّانيًا. يتضاعف الانتباه الكامل الساذج تربيعيًا مع طول التسلسل في الحوسبة والذاكرة معًا، ولهذا لم يكن بمقدور نماذج الـ 8K أو 32K الأقدم أن يُطلب منها ببساطة معالجة 256K. اتّخذ جيمّا 4 قراراته البنيوية صراحةً ليجعل نافذة 256K عملية على عتاد يمكن للمؤسسة شراؤه فعليًا.
الانتباه الهجين. يبادل جيمّا 4 بين طبقات انتباه نافذة منزلقة محلية وطبقات انتباه شامل كامل السياق. الطبقات المحلية لا تنتبه إلّا إلى جوار محدود من الرموز الأخيرة (1024 رمزًا للمتغيّرات الأكبر، و512 للأصغر). الطبقات الشاملة ترى كل شيء. والنمط مُتشابك بحيث تكون الطبقة الأخيرة شاملة دائمًا، فيُحفظ الاستدلال بعيد المدى مع إبقاء التكلفة المتوسّطة لكل طبقة أقرب إلى المحلية منها إلى الشاملة. هذا امتداد لنمط Gemma 3 الهجين، مُنقّحًا وموسّعًا.
تكوين RoPE مزدوج. يُرمّز التضمين الموقعي الدوّار RoPE الموقعَ بتدوير متجهات الاستعلام والمفتاح بدلالة الموقع. والتحدّي عند 256K أنّ ترددات RoPE الأصلية صُمّمت لسياقات أقصر بكثير. يستخدم جيمّا 4 تكوينَين مختلفَين لـ RoPE: تكوين قياسي على طبقات النافذة المنزلقة، وتكوين مُقلّم على الطبقات الشاملة، اختير الأخير ليبقى مستقرًّا عند 256K. منهج التقليم قريب مفهوميًا من عائلتَي NTK-aware وYaRN اللتين طوّرهما المجتمع المفتوح في 2024 و2025، لكنّه مُدمج في النموذج الأساسي لا مُضاف لاحقًا.
ذاكرة مفاتيح وقيم مشتركة. ذاكرة المفاتيح والقيم هي ما يهيمن على الذاكرة عند السياق الطويل. كل رمز يُسهم بمتجه مفتاح ومتجه قيمة في كل طبقة، وخدمة 256K رمز بدقّة كاملة قد تتجاوز ذاكرة معجّل واحد. يجعل جيمّا 4 الطبقات الأخيرة تُعيد استخدام موترات K/V من آخر طبقة غير مشتركة من النوع نفسه. الأثر النوعي طفيف وفق التقارير، والوفر في الذاكرة وزمن الاستجابة كبير، وهذه التقنية هي ما يجعل 256K قابلًا للتنفيذ على معجّل H100 واحد أو M3 Ultra واحد.
الأثر العملي: زمن الرمز الأوّل عند السياق الطويل بالثواني لا بالأجزاء، والإنتاجية تتراجع مع نموّ الموجّه، ويصبح تكميم الأوزان وذاكرة KV معًا (مثل MLX TurboQuant الذي يضغط الذاكرة نحو أربعة أضعاف) عاملًا حاسمًا في الطرف الأعلى من النافذة. لا يمنع هذا الاستخدام الإنتاجي، لكنّه يعني أنّ تحجيم العتاد المؤسسي يجب أن يأخذ توزيع الموجّهات الواقعي في الحسبان، لا الحدّ الأقصى وحده.
التغطية متعدّدة اللغات والأداء العربي
دُرّب جيمّا 4 على بيانات تغطّي أكثر من 140 لغة، مع دعم تعليمي جاهز لما يتجاوز 35 لغة. هذا يضعه أمام عائلة Llama بكاملها من حيث الاتّساع، وفي مصاف Qwen 3.6 الذي يقود مطلق العدد اللغوي بحوالي 200 لغة، ومتقدّم بكثير على المعيار المفتوح قبل ثلاث سنوات.
بالنسبة للعربية تحديدًا، الصورة مشجّعة دون أن تكون مهيمنة. أشارت تقييمات مستقلّة من المجتمع بعد الإطلاق إلى أنّ جيمّا 4 يتفوّق على Qwen 3.5 في مهام الترجمة والتوليد العربي، ووصف باحث مجتمعي جودة الترجمة بأنّها "في طبقة لوحدها" مقارنة بأجيال جيمّا السابقة. وعلى مجموعات التقييم العربية القياسية (لوحة Open Arabic LLM Leaderboard، AraSTS، ArSTS، ArEntail، Tydi-QA العربية)، يبقى جيمّا 4 منافسًا دون أن يتصدّر اللوحة. الصدارة الحالية في العمل العربي المتخصّص لا تزال لـ Falcon Arabic 34B من معهد الابتكار التقني الذي يحتلّ قمّة Open Arabic LLM Leaderboard، ولعائلة Qwen 3.6 من حيث الاتّساع وتغطية اللهجات.
نقاط الضعف الصادقة في جيمّا 4 على العربية هي فهم العربية الفصحى الكلاسيكية والقرآنية (حيث نسبة البيانات صغيرة قياسًا بالعربية الفصحى المعاصرة)، وبعض السجلّات اللهجوية الخليجية الدارجة، ومسائل الرياضيات اللفظية بالعربية حيث تتفاعل التقطيع الواعي بالنص بصورة سيّئة مع الأرقام. للأحمال السيادية التي تهيمن عليها الفصحى المعاصرة الرسمية يكون جيمّا 4 ملائمًا، أمّا الأحمال ذات الكثافة اللهجوية أو الكلاسيكية فالأفضل اقترانه بنموذج متخصّص.
شروط الترخيص ومعناها للاستخدام السيادي
كانت إصدارات جيمّا السابقة تصدر برخصة Google خاصّة فيها قيود إضافية: سياسة استخدام مقبول، وشروط إعادة توزيع مرتبطة بتلك السياسة، والتزام بنقل الرخصة إلى أيّ مشتقّات دون تعديل. هذه اعتُبرت لدى بعض الفرق القانونية السيادية عقبة مشتريات حتى مع كون النموذج مباحًا تقنيًا.
يُشحن جيمّا 4 تحت رخصة Apache 2.0. شروطها مفهومة لكلّ إدارة قانونية حكومية تعاملت مع البرمجيات مفتوحة المصدر خلال العشرين سنة الماضية. الاستخدام التجاري مُجاز. التعديل مُجاز. إعادة التوزيع مُجازة بصورتها الأصلية أو المُعدّلة، ضمن أعمال أكبر مُغلقة المصدر أيضًا. الالتزامات الدائمة محدودة: إدراج إشعار حقوق المؤلّف الأصلي وملف LICENSE الخاص بـ Apache، وتوثيق أي تعديلات تُعاد توزيعها، وقبول أنّ النموذج يُقدَّم دون ضمان. لا توجد قيود copyleft. لا التزام بنشر المحوّلات المُخصّصة سواء أكانت سرّية أم لا. لا بند يمنح Google أو طرفًا ثالثًا حقّ تفتيش النسخة المنشورة.
للمؤسسة العُمانية السيادية أو المالية، هذا هو بالضبط ما تطلبه من رخصة نموذج. تستطيع المؤسسة البناء والنشر والتخصيص والتكامل دون مراجعة خارجية، مع البقاء ضمن شروط المُوزّع الأصلي.
تحجيم العتاد لاستدلال جيمّا 4
تعتمد فئة العتاد المناسبة على المتغيّر المُشغَّل وعدد المستخدمين المتزامنين الذين يخدمهم. الأرقام أدناه تفترض المتغيّرات المُهيّأة بالتعليمات من جيمّا 4، وموجّهات مؤسسية واقعية (طول موجّه متوسّط بين 4K و32K، مع 256K هامشًا)، وزمن استجابة تفاعلي يستهدف ثانيتَين إلى خمس ثوانٍ للرمز الأوّل، وخمسة عشر رمزًا أو أكثر في الثانية مستدامًا.
الفئة المكتبية، مستخدم واحد إلى فريق صغير. جهاز Apple M3 Ultra Mac Studio بذاكرة موحّدة 256 جيجابايت، يشغّل المتغيّر 26B-A4B تحت MLX بأوزان 4-bit وتكميم TurboQuant لذاكرة KV، يستوعب بسهولة من مستخدم إلى أربعة عند السياق الطويل. ويعمل المتغيّر الكثيف 31B على الجهاز نفسه بـ 4-bit مع تزامن أقل. هذه الفئة الملائمة لرئيس مكتب وزير، أو خلية استخباراتية صغيرة، أو تجربة داخل قسم واحد. تُسمّيها حصن فئة Kernel.
الفئة الإدارية، ٢٠ إلى ٥٠ مستخدمًا متزامنًا. معجّل NVIDIA H100 80GB واحد (أو RTX 6000 Blackwell الأحدث بذاكرة 96 جيجابايت)، يشغّل 31B بدقّة FP16، يصل إلى نطاق سياق 64K إلى 128K بزمن استجابة تفاعلي عند ذلك التزامن. ولاستدامة حمل 256K الإنتاجي، يكون H100 ثانٍ أو الترقية إلى H200 الخيار الصحيح. تُسمّيها حصن فئة Tower.
الفئة المؤسسية، مئات المستخدمين مع طاقة تخصيص. خزانة 4U أو 8U تضمّ معجّلَين إلى ثمانية من H100 أو H200، وتخزينًا من نوع NVMe بعشرات التيرابايتات، وطاقة احتياطية، تدعم متغيّرات نموذج متعدّدة بالتوازي وتحجز سعة لجولات التخصيص. تُسمّيها حصن فئة Rack.
للفئات الثلاث جميعًا، النصيحة العملية أن يُحجَّم العتاد على توزيع الموجّهات الواقعي، وأن تُحفَظ نافذة 256K هامشًا للأعمال التي تحتاجها لا نقطة تشغيل اعتيادية.
وصفات التخصيص العملية
تستفيد عمليات النشر السيادية في الغالب من تخصيص النموذج على لغة المؤسسة ومصطلحاتها وبنية وثائقها. لجيمّا 4 دعم منذ اليوم الأوّل في منظومة Hugging Face، ما يعني أنّ الوصفات القياسية تعمل دون سباكة مخصّصة.
LoRA على 26B-A4B و31B. يُجمّد LoRA أوزان النموذج الأساسي ويتعلّم محوّلات صغيرة برتبة عادةً 16 إلى 64، فوقها. يهيمن النموذج الأساسي على بصمة الذاكرة، فيستطيع H100 واحد تدريب محوّل LoRA بطول سياق 8K على بضعة آلاف من الأمثلة المؤسسية في ساعات لا أيام. هذه الوصفة لاعتماد نبرة المؤسسة ومفرداتها وأسلوب الاستشهاد دون المساس بالسلوك الأساسي.
QLoRA على 31B. LoRA المُكمَّم يُكمّم النموذج الأساسي المُجمَّد إلى 4-bit، فتنخفض ذاكرة التدريب بما يُتيح تخصيص 31B على معجّلات استهلاكية أو مكتبية الفئة. خسارة الجودة طفيفة لمعظم مهام التكييف. هذه الوصفة للمؤسسات التي تريد التكرار بسرعة على إصدارات المحوّل داخل المحيط دون شراء معجّل من فئة Tower للتدريب فقط.
التخصيص الإشرافي الكامل على E2B وE4B. تقبل المتغيّرات الكثيفة الأصغر تخصيصًا إشرافيًا كاملًا على معجّل واحد عالي الجودة. هذا المسار الصحيح حين تريد المؤسسة مساعدًا متخصّصًا تخصّصًا عميقًا، مساعدًا برمجيًا داخليًا مثلًا أو مولّد تقارير بصيغة ثابتة، وتقبل الالتزام بصيانة نقطة فحص مخصّصة كاملًا.
الأدوات. Hugging Face PEFT وTRL، وbitsandbytes للتكميم 4-bit، وUnsloth Studio لسير عمل بواجهة رسومية، تدعم جيمّا 4 منذ الإطلاق. تُشحن أجهزة حصن بهذه الأدوات مثبّتة سلفًا وملائمة للعزل الكامل، فيستطيع فريق البيانات التكرار دون وصول شبكي خارجي.
متى لا يكون جيمّا 4 الخيار المناسب
جيمّا 4 خيار افتراضي ممتاز، لكنّه ليس الإجابة الصحيحة لكل حمل عمل.
حين يهمّ عمق الاستدلال متعدّد الخطوات أكثر من طول السياق. الاستدلال البنيوي الثقيل، من النوع الذي يظهر في التحليلات المالية المطوّلة، أو بناء الحجج القانونية، أو تخطيط السياسات المعقّد، تظلّ أفضل خدماته عبر نموذج استدلالي مكرّس. DeepSeek R1 (671B بخبراء مختلطين تحت رخصة MIT، مع متغيّرات مُقطَّرة 32B و70B لفئة Tower) ومتغيّرات الاستدلال الأحدث من Qwen 3.6 يتفوّقان كلاهما على جيمّا 4 في معايير الاستدلال متعدّد الخطوات الصعبة، ولو تشابهت درجاتهم الاسمية على MMLU. إن كان عمق الاستدلال هو المتطلّب الرئيسي، شغّل أحد هذَين بدلًا منه.
حين تتقدّم الأولوية العربية على القدرة العامّة. للمراسلات الوزارية بالعربية، والمراجعة الشرعية، وفهم العربية الكلاسيكية، أو أيّ عمل تكون فيه صحّة العربية هي المتطلّب الحاكم، يكون Falcon Arabic 34B من معهد الابتكار التقني نقطة الانطلاق الأفضل. ويكون Qwen 3.6 الخيار الأفضل حين تهمّ تغطية اللهجات الواسعة أكثر من جودة لوحة الصدارة العربية. لجيمّا 4 موضع في الدوران، لكن ليس في الواجهة، لهذه الأحمال.
حين يكون الاستخدام الأداتي عبر أدوات كثيرة هو حمل العمل. يقود Qwen 3.6 Plus حاليًا النماذج المفتوحة في معايير الوكلاء واستخدام الأدوات (SWE-Bench Verified، Terminal-Bench، MCPMark) بفارق واسع. يدعم جيمّا 4 استدعاء الدوال أصلًا ويتعامل مع الأدوات جيدًا، لكن لحمل عمل يكون فيه النموذج منسّقًا لعشرات الأدوات يبقى Qwen 3.6 الخيار الأكثر أمانًا.
الإجابة السيادية الناضجة ليست "اختر نموذجًا واحدًا"، بل تشغيل نموذجَين أو ثلاثة من العائلات مفتوحة الأوزان بالتوازي داخل الجهاز ذاته، والتوجيه بحسب المهمّة. تُشحن أجهزة حصن بـ Gemma 4 وQwen 3.6 افتراضيًا، وتُضاف Falcon Arabic أو متغيّرات DeepSeek R1 المُقطَّرة عند الطلب. عندئذٍ تصبح نافذة 256K في جيمّا 4 أداةً واحدة في صندوق أدوات نظيف، تُستخدم حيث تستحقّ، وتُستبدَل حيث يستحقّ نموذج آخر أكثر منها.
إذا كانت مؤسستكم تقيّم جيمّا 4 أو تقارن العائلات مفتوحة الأوزان لنشر سيادي، وتودّون لقاءً تعريفيًا لساعة واحدة مُكيَّفًا على تزامنكم ومتطلّبكم العربي وخطّة التكامل لديكم، الخطوة التالية بسيطة. راسلونا على [email protected] أو على واتساب +968 9889 9100. سنأتي إليكم في مسقط أو في أيّ بلد خليجي، ونستعرض البنية والنموذج وخطة قابلة للتنفيذ ضمن جدولكم الزمني. التسعير بحسب الطلب، مُحجَّم لمتطلّبكم تحديدًا.
أسئلة شائعة
هل نافذة السياق 256K واقعية من حيث زمن الاستجابة على عتاد داخل المؤسسة؟
نعم، مع هندسة سليمة. يعتمد جيمّا 4 نمط انتباه هجين يبادل بين طبقات نافذة منزلقة محلية وطبقات انتباه شامل، إضافة إلى مشاركة ذاكرة المفاتيح والقيم في الطبقات الأخيرة، ما يقلّص الذاكرة والحوسبة عند السياق الطويل. على معجّل NVIDIA H100 واحد بسعة 80 جيجابايت، يخدم النموذج الكثيف 31B بدقّة FP16 بين 64K و128K رمز بزمن استجابة تفاعلي. أمّا استدامة النافذة الكاملة 256K فيستفيد من التكميم (INT8 أو 4-bit GGUF) أو من معجّل ثانٍ. على عتاد Apple Silicon بذاكرة موحّدة 256 جيجابايت، يضغط تكميم MLX TurboQuant ذاكرة المفاتيح والقيم نحو أربعة أضعاف ويجعل 256K في المتناول لمستخدم واحد بزمن استجابة معقول. أغلب أحمال العمل المؤسسية لا تحتاج النافذة الكاملة في الإنتاج اليومي، بل تحتاج هامشًا لاستيعاب ملفات المشتريات ومستودعات الكود وتجميع الوثائق.
هل جيمّا 4 أفضل من لاما 4 في اللغة العربية؟
جيمّا 4 منافس قوي في اللغة العربية وأفضل من الأجيال السابقة من جيمّا، غير أنّ الصدارة في الأعمال العربية المتخصّصة لا تزال لعائلات أُخرى. دُرّب جيمّا 4 على بيانات تشمل أكثر من 140 لغة، مع دعم تعليمي جاهز لما يتجاوز 35 لغة. وقد أشارت تقييمات المجتمع بعد الإطلاق إلى تفوّقه على Qwen 3.5 في الترجمة والتوليد العربي للمهام العامة. لكن في الأعمال التي تكون فيها صحّة العربية هي المتطلّب الحاكم، كالمراسلات الوزارية والمراجعة الشرعية وفهم العربية الفصحى الكلاسيكية، يبقى Falcon Arabic من معهد الابتكار التقني في صدارة لوحة Open Arabic LLM، فيما يحظى Qwen 3.6 Plus بتغطية لهجوية أوسع. الأنسب للمؤسسات العُمانية تشغيل جيمّا 4 جنبًا إلى جنب مع عائلة عربية متخصّصة، والتوجيه بحسب المهمّة.
ما العتاد الذي أحتاجه لتشغيل جيمّا 4 داخل المؤسسة؟
ثلاث فئات تغطّي معظم عمليات النشر المؤسسية. لمستخدم إلى أربعة على المتغيّرَين E4B أو 26B-A4B، يكفي جهاز Apple M3 Ultra Mac Studio بذاكرة موحّدة 256 جيجابايت مع تكميم MLX 4-bit، وهو هادئ بما يكفي لمكتب تنفيذي. ولـ 20 إلى 50 مستخدمًا متزامنًا على المتغيّر الكثيف 31B، فإنّ NVIDIA RTX 6000 Blackwell بذاكرة 96 جيجابايت أو H100 80GB واحد بدقّة FP16 هما الفئة الصحيحة. وللإدارات والوزارات التي تشغّل عدّة نماذج بالتوازي مع طاقة تخصيص، فإنّ خزانة 4U أو 8U تضمّ معجّلَين إلى ثمانية من H100 أو H200 توفّر الهامش الكافي. تشحن حصن هذه الإعدادات تحت أسماء Kernel وTower وRack مع جيمّا 4 مُحمّلًا مسبقًا.
هل رخصة Apache 2.0 ملائمة للاستخدام الحكومي؟
نعم. تُعدّ Apache 2.0 من أكثر الرخص المفتوحة شمولًا وقبولًا في الإدارات القانونية الحكومية. تُجيز الاستخدام التجاري والتعديل والتوزيع وإعادة التراخيص، بما يشمل الجهات السيادية والحكومية. الالتزامات الدائمة محدودة: الإبقاء على نص الرخصة وملف NOTICE إن وُجد، وتوثيق التعديلات المُعاد توزيعها، وإخلاء المسؤولية عن الضمان. لا توجد قيود copyleft ولا التزام بنشر الأوزان المُخصّصة أو محوّلات LoRA، ولا أي بند يمنح Google أو غيرها حق تفتيش النسخ المنشورة. كانت الأجيال السابقة من جيمّا تصدر برخصة Google خاصّة فيها قيود إضافية، أمّا جيمّا 4 فهو أوّل جيل يتبنّى Apache 2.0 ويزيل احتكاك الترخيص أمام المشتريات السيادية.
كيف يقارن جيمّا 4 بنماذج GPT المتاحة عبر واجهات API؟
في المعايير المنشورة، يحقّق المتغيّر الكثيف 31B من جيمّا 4 نحو 85% على MMLU Pro، و89% على AIME 2026، و84% على GPQA Diamond، و80% على LiveCodeBench v6، ويحلّ ثالثًا بين النماذج المفتوحة على لوحة LMArena النصّية بنحو 1452 Elo. هذا أداء منافس لنماذج العام الماضي المغلقة في معظم المهام المؤسسية. لا تزال الجبهة المغلقة الراهنة، أعلى متغيّرات GPT وClaude، تتقدّم في الاستدلال متعدّد الخطوات الأكثر تعقيدًا وفي أحدث معايير البرمجة. المفاضلة للمشتري السيادي واضحة: نموذج API يتقدّم بنقاط قليلة في مهام بعينها، لكن كل موجّه ووثيقة تخرج من المحيط. لأحمال العمل الحسّاسة، هذه ليست مفاضلة بل خط أحمر.
هل يمكنني تخصيص جيمّا 4 على بيانات سرّية داخل المحيط؟
نعم. يعمل التخصيص الكفؤ بالمعاملات (LoRA وQLoRA) على المتغيّرَين 26B-A4B و31B على العتاد ذاته الذي يخدم الاستدلال داخل المؤسسة، دون أن تخرج أيّ قياسات إلى الخارج. الدعم متوفّر منذ اليوم الأوّل في Hugging Face PEFT وTRL وbitsandbytes وUnsloth Studio. أمّا المتغيّرات الأصغر (E2B وE4B) فتقبل التخصيص الإشرافي الكامل على معجّل واحد عالي الجودة. تبقى بيانات التدريب والمشتقات الوسيطة وأوزان المحوّلات الناتجة داخل المؤسسة، وتصبح أصلًا سياديًا قابلًا للأرشفة والتدقيق والاسترجاع كأي وثيقة سرّية أُخرى. تشحن أجهزة حصن ببيئة تخصيص مُهيّأة سلفًا حتى يتمكّن فريق البيانات من العمل دون تبعيات خارجية.