ذكاء اصطناعي مفتوح المصدر - تصور شبكة عصبية بطبقات متعددة
ذكاء اصطناعي

ذكاء اصطناعي مفتوح المصدر 2026: الدليل الشامل للنماذج والتشغيل

13 دقائق قراءة

Photo: Google DeepMind

النقاط المغطاة في المقال

خلال 18 شهرًا فقط، قلبت مختبرات صينية وأوروبية مفتوحة المصدر الموازين: DeepSeek V3.2 ينافس o4-mini بسعر 0.28 دولار لكل مليون رمز إدخال، و Llama 4 Scout يعمل على كرت GPU واحد H100 بسياق 10 ملايين رمز، وgpt-oss-20b من OpenAI صار يعمل على لابتوب به 16 جيجا رام. ذكاء اصطناعي مفتوح المصدر لم يعد خيارًا للفضوليين، بل صار الأساس الجادّ الذي تبني عليه الشركات والمطوّرون في 2026.

المشكلة أن المحتوى العربي عن هذا المجال إما قديم بسنتين (يتحدّث عن Llama 2 و ChatRWKV)، أو يغرق في تفاصيل أكاديمية عن TensorFlow. هنا نقدم دليلًا عمليًا لكل فئة: مستخدم يبحث عن بديل ChatGPT مجاني، مطوّر يريد API رخيص، وصانع محتوى عربي يحتاج دعمًا حقيقيًا للعربية. نغطي النماذج الكبرى بأرقامها الفعلية، ونرشّح لك النموذج الأنسب لحالتك، ونشرح كيف تشغّله على جهازك باستخدام Ollama أو LM Studio أو Jan.

ونتناول أيضًا النماذج "بدون قيود" (Uncensored) بصراحة: ما هي، ما حدودها القانونية، ولماذا لا ننصح بها للمستخدم العادي رغم انتشار البحث عنها.

لماذا انتصر ذكاء اصطناعي مفتوح المصدر في 2026؟

قبل سنتين كان السؤال: هل يمكن لنموذج مفتوح المصدر أن يقترب من GPT-4؟ اليوم السؤال انقلب: كم نموذجًا مفتوحًا يتفوق على النماذج المغلقة؟ Qwen3-235B في وضع التفكير يتفوق على DeepSeek-R1 في 17 من أصل 23 اختبارًا، وKimi K2.5 يسجل 85% على LiveCodeBench v6 و76.8% على SWE-Bench Verified، وgpt-oss-120b يعادل o4-mini في الاستدلال وهو مجاني بالكامل تحت رخصة Apache 2.0.

السبب ليس سحريًا. ثلاثة تحولات حدثت معًا: دخول المختبرات الصينية بقوة (DeepSeek، Alibaba Qwen، Moonshot، Zhipu)، وانتقال الصناعة إلى معمارية MoE (Mixture of Experts) التي تنشّط جزءًا صغيرًا من المعاملات لكل استعلام، وضغط الأسعار من DeepSeek الذي أجبر المنافسين على الرد. DeepSeek V3.2 الآن بـ 0.28 دولار لكل مليون رمز إدخال و0.42 دولار للإخراج، مقابل 2.50 دولار لـ GPT-4o في الإدخال و10 دولارات للإخراج. هذا فرق يغيّر قرارات الشركات بالكامل.

بالنسبة للمستخدم العربي، المكسب مضاعف. يمكنك الآن تشغيل نموذج ذكاء اصطناعي مفتوح المصدر محليًا بدون مشاركة بياناتك مع شركة أمريكية أو صينية، وبدون دفع اشتراك شهري، وبدون قيود جغرافية. كل ما تحتاجه لابتوب فيه 16 جيجا رام وبرنامج مجاني مثل Ollama. مقارنة بالنماذج المغلقة مثل Gemini 3 و ChatGPT، الفرق الأكبر أنك تملك النموذج فعليًا ولا يمكن لأحد إيقافه عنك أو تغيير سلوكه فجأة.

الحقيقة الأهم: الأداء لم يعد عذرًا للبقاء على المغلق. الفجوة التي كانت تمتدّ سنةً أصبحت أسابيع، وفي بعض المهام (البرمجة، الرياضيات، اللغة العربية) النماذج المفتوحة تتقدم فعلًا.

جدول مقارنة أفضل نماذج ذكاء اصطناعي مفتوح المصدر 2026

لوحة مقارنة بيانية لنماذج ذكاء اصطناعي مفتوح المصدر على شاشة لابتوب

الجدول التالي يلخص أبرز نماذج الذكاء الاصطناعي مفتوح المصدر في 2026 بأرقامها الفعلية: المعاملات الكلية، المعاملات النشطة لكل استعلام (مهم لحساب التكلفة والذاكرة)، نافذة السياق، الرخصة، والاستخدام الأنسب. كل الأرقام من الأوراق البحثية الرسمية وبطاقات النماذج على Hugging Face، وليست تقديرات.

النموذجالمطورالمعاملات (كلي/نشط)السياقالرخصةالأفضل لـ
DeepSeek V3.2DeepSeek (الصين)671B / 37B163,840MITأرخص API قوي
Llama 4 ScoutMeta109B / 17B10MLlama 4 Communityسياق طويل جدًا
Llama 4 MaverickMeta400B / 17B1MLlama 4 Communityاستخدام عام متوازن
Qwen3-235BAlibaba (الصين)235B / 22B128kApache 2.0برمجة وتفكير متعدد اللغات
gpt-oss-120bOpenAI117B / 5.1B128kApache 2.0استدلال على GPU 80GB
gpt-oss-20bOpenAI21B / 3.6B128kApache 2.0تشغيل على لابتوب 16GB
Mistral Large 3Mistral (فرنسا)675B / 41B256kApache 2.0مؤسسات ومهام طويلة
Mistral Small 3.1Mistral24B128kApache 2.0يعمل على RTX 4090
Gemma 3 27BGoogle27B128kGemma Termsمتعدد الوسائط بحجم صغير
Kimi K2.5Moonshot (الصين)1T / 32B256kModified MITبرمجة وكيلة (Agentic)
Falcon-H1 ArabicTII (الإمارات)3B / 7B / 34B32kFalconالعربية الفصحى واللهجات
Jais 13BG42 Inception (الإمارات)13B2kApache 2.0NLP عربي عام

ملاحظة مهمة: نماذج MoE مثل DeepSeek وLlama 4 وMistral Large 3 تنشّط جزءًا صغيرًا من معاملاتها لكل رمز، فـ DeepSeek V3.2 يستخدم 37 مليار معامل فقط من 671 وقت الاستدلال. هذا يعني سرعة وتكلفة حساب أقل بكثير من الحجم الاسمي، مع الحفاظ على قدرات نموذج ضخم. الرخصة أيضًا تفرق: Apache 2.0 وMIT تسمحان بالاستخدام التجاري بدون قيود، بينما رخصة Llama 4 تشترط إذنًا خاصًا إذا تجاوز منتجك 700 مليون مستخدم شهريًا، وهذا غير مهم لمعظم المطورين والشركات الصغيرة.

DeepSeek V3.2 و Llama 4: عملاقا النماذج مفتوحة المصدر

غرفة سيرفرات تشغّل نماذج الذكاء الاصطناعي مفتوح المصدر الضخمة

إذا كان عليك متابعة نموذجين فقط في فئة ذكاء اصطناعي مفتوح المصدر، فهما DeepSeek V3.2 وLlama 4. كل منهما يمثّل فلسفة مختلفة لكن الأثر واحد: تحطيم احتكار OpenAI وAnthropic للقدرات المتقدمة.

DeepSeek V3.2: الملك الاقتصادي

أصدرته DeepSeek في ديسمبر 2025 بمعماريّة Mixture-of-Experts وMulti-head Latent Attention. النتيجة: نموذج بـ 671 مليار معامل يستخدم 37 مليار فقط لكل رمز. حققت نسخة V3.2-Speciale نتائج بمستوى ميدالية ذهبية على مسائل IMO 2025 وIOI 2025 والأولمبياد الصيني للرياضيات ونهائيات ICPC العالمية، ويدعم سياقًا بطول 163,840 رمزًا. الأهم: التسعير الرسمي عبر API بـ 0.28 دولار لكل مليون رمز إدخال (Cache miss) و0.42 دولار للإخراج، وهذا أرخص بنحو 9 أضعاف في الإدخال و24 ضعفًا في الإخراج مقارنة بـ GPT-4o. المستودع كامل على HuggingFace تحت رخصة MIT، والأوزان قابلة للتحميل والاستخدام التجاري بلا شروط. للاستخدامات العملية: كتابة كود طويل (يتفوق في SWE-bench)، تحليل وثائق طويلة بفضل السياق الكبير، وتلخيص أبحاث علمية بالإنجليزية والصينية. بالعربية أداؤه جيد لكن أدنى من Qwen3 وFalcon Arabic.

Llama 4: رهان ميتا على السياق الطويل

أصدرت Meta عائلة Llama 4 يوم 5 أبريل 2025 بنموذجين: Scout وMaverick. Scout هو الصغير الذكي بـ 109 مليار معامل كلي (17 مليار نشط) و16 خبيرًا، ويتميّز بسياق ضخم يصل إلى 10 ملايين رمز. بعد التكميم الرباعي (Int4) يعمل على كرت H100 واحد، وهذا تحوّل ضخم لأنه يسمح لشركات متوسطة بتشغيل استدلال محلي قوي دون مركز بيانات.

Maverick أكبر بـ 400 مليار معامل كلي (17 مليار نشط) و128 خبيرًا، بسياق مليون رمز. يتفوّق على GPT-4o و Gemini 2.0 Flash في مهام الاستدلال والبرمجة، ويعطي نتائج مقاربة لـ DeepSeek V3 حسب قياسات Meta الرسمية. تدرّب Scout على نحو 40 تريليون رمز وتدرّب Maverick على نحو 22 تريليون رمز، وكلاهما يغطي 200 لغة من ضمنها العربية، مع قدرة أصلية متعددة الوسائط (Early Fusion) تعالج النصوص والصور في الاستدلال نفسه.

الاختيار بينهما بسيط: تريد API بأقل تكلفة ممكنة؟ اختر DeepSeek. تريد معالجة ملف PDF ضخم أو تحليل قاعدة كود كاملة في استعلام واحد؟ اذهب لـ Llama 4 Scout بسياقه البالغ عشرة ملايين رمز.

Qwen 3 و gpt-oss و Mistral 3: خيارات قوية لكل حالة استخدام

خارج الثقيلين، ثلاث عائلات تستحق المتابعة الجادة لأنها تحل مشاكل حقيقية مختلفة: Qwen 3 لمن يريد أقوى أداء برمجي مفتوح، gpt-oss لمن يريد تشغيل قوي على جهاز شخصي، وMistral 3 لمن يريد نموذجًا أوروبيًا متوازنًا.

Qwen 3: ملك البرمجة والتفكير

أطلقتها Alibaba في 28 أبريل 2025، وتشمل نماذج كثيفة من 0.6 إلى 32 مليار، ونماذج MoE بحجم 30B-A3B و235B-A22B. نسخة Qwen3-235B-A22B في وضع Thinking تفوّقت على DeepSeek-R1 في 17 من أصل 23 اختبارًا، وسجّلت 2056 على CodeForces Elo، وهو أعلى رقم لنموذج مفتوح. دُرِّبت على 36 تريليون رمز وتدعم 119 لغة ولهجة، بما فيها العربية الفصحى واللهجات الخليجية والشامية بأداء لافت حسب قياسات OALL. متوفرة على HuggingFace وOllama (26.9 مليون تحميل حتى اليوم).

gpt-oss-20b و120b: هدية OpenAI للمطورين

في خطوة مفاجئة، أصدرت OpenAI يوم 5 أغسطس 2025 نموذجين مفتوحي الأوزان: gpt-oss-120b و gpt-oss-20b تحت رخصة Apache 2.0. النموذج الكبير 117 مليار معامل (5.1 نشط) يعادل o4-mini على اختبارات البرمجة والاستدلال، ويعمل على GPU واحد بذاكرة 80 جيجا بفضل التكميم MXFP4 الأصلي. النموذج الصغير 21 مليار (3.6 نشط) يعادل o3-mini ويعمل على لابتوب بذاكرة 16 جيجا رام فقط. كلاهما بسياق 128k. للمطور الذي يبني تطبيقًا محليًا بدون إرسال بيانات حساسة لأي سحابة، gpt-oss-20b هو أفضل خيار عمليًا اليوم.

Mistral 3: الخيار الأوروبي المتوازن

أطلقت Mistral الفرنسية في ديسمبر 2025 عائلة مكوّنة من أربعة نماذج تحت Apache 2.0 بالكامل: Mistral Large 3 وثلاثة أحجام من Ministral 3 (3B و8B و14B). يتصدّر العائلة Mistral Large 3 بحجم 675 مليار معامل (41 نشط) وسياق 256 ألف رمز، ويقارن نفسه بـ DeepSeek V3 في مهام المؤسسات. أمّا Ministral 3-14B فموجّه للتشغيل المحلي على كرت RTX 4090 أو Mac M-series، ويتوفّر بنسختين Base وInstruct مع قدرات استدلال متعددة الوسائط. أصغر نموذج Ministral 3-3B يعمل على لابتوب عادي بذاكرة 16 جيجا رام. Mistral متميّزة في دعم اللغات الأوروبية ولها مكتبة Codestral المخصصة للبرمجة، وهي خيار ممتاز للمطورين الذين يريدون تجنّب التبعية لمختبرات أمريكية أو صينية.

ذكاء اصطناعي مفتوح المصدر للعربية: Falcon Arabic و Jais

متحف المستقبل في دبي كرمز للابتكار العربي في الذكاء الاصطناعي مفتوح المصدر

المشكلة التي يواجهها المطوّر العربي مع النماذج العامة واضحة: DeepSeek وLlama وMistral مدرّبة بأغلبية إنجليزية، والنتيجة أخطاء نحوية في الكتابة الفصحى وعجز كامل في اللهجات. الحل هو نماذج متخصصة في العربية، ولحسن الحظ، أصبحت لدينا في 2026 خيارات جادّة.

Falcon Arabic من TII الإماراتية

أطلقت TII في الإمارات نسخة Falcon-Arabic 7B في 21 مايو 2025، مبنية على Falcon 3-7B ومدرّبة على كوربس يضم بيانات عربية أصلية 100% غير مترجمة آليًا ضمن حزمة متعددة اللغات، تغطي الفصحى واللهجات الخليجية ودول شمال أفريقيا. استخدم الفريق مُقسّمًا لغويًا بـ 32 ألف رمز متخصص في العربية. نافذة السياق 32 ألف رمز، وحسب قياسات Open Arabic LLM Leaderboard (OALL v2) يتفوّق على كل النماذج العربية المتاحة في فئته، ويضاهي نماذج أكبر منه 10 أضعاف. في يناير 2026 أطلقت TII إصدارًا أحدث Falcon-H1 Arabic بثلاثة أحجام: 3B و7B و34B، مع معمارية هجينة محسّنة للعربية بدقة أعلى للكتابة الفصحى والتوليد الطويل. الترخيص يسمح بالاستخدام الأكاديمي والتجاري ضمن الشروط الرسمية، ويمكن تحميله مباشرة من HuggingFace.

Jais من G42 Inception

Jais نموذج بحجم 13 مليار معامل طوّرته Inception (تابعة لـ G42 الإماراتية) بالتعاون مع MBZUAI وCerebras، ودُرّب على 395 مليار رمز (116 مليار عربي و279 مليار إنجليزي) على سوبر كمبيوتر Condor Galaxy 1. صدر مفتوحًا تحت Apache 2.0، وهو مناسب لمهام NLP الكلاسيكية: تصنيف، استخراج معلومات، ترجمة، تلخيص. نافذة السياق 2048 رمزًا فقط وهذا حدّ ضيّق بمعايير 2026، لكن للمهام القصيرة أداؤه قوي. الأنسب لفرق البحث والأكاديميين الذين يحتاجون إلى نموذج عربي قابل للضبط الدقيق.

Qwen 3 و Gemma 3 كبدائل للعربية

من النماذج العامة، Qwen3 تتفوّق في العربية على Llama 4 وDeepSeek بفضل تدريبها على 119 لغة بتوازن أفضل. Gemma 3 27B من Google تدعم 140 لغة بسياق 128k ومتعددة الوسائط. اختبرناهما عمليًا: Qwen3 أدق في الفصحى الرسمية والوثائق القانونية، وGemma 3 أسرع في الترجمة الفورية والمحادثة اليومية. Falcon-H1 Arabic يبقى الأفضل للمحتوى الخليجي الأصيل واللهجات، خاصة إذا احتاج النص نكهة محلية. التوصية: استخدم Qwen3 إذا كانت لغتك الأساسية مختلطة (عربي/إنجليزي/كود)، وFalcon Arabic إذا كانت العربية هي الهدف الرئيسي.

كيف تشغّل نموذج ذكاء اصطناعي مفتوح المصدر على جهازك

لابتوب يعرض كود برمجي لتشغيل ذكاء اصطناعي محلي عبر Ollama وLM Studio

أكبر ميزة تفصل ذكاء اصطناعي مفتوح المصدر عن ChatGPT أنك تستطيع تشغيل النموذج على جهازك دون اتصال بالإنترنت أو إرسال بياناتك لأي شركة أو دفع اشتراكات. ثلاث أدوات مجانية تغطي كل سيناريوهات الاستخدام في 2026: Ollama لسطر الأوامر، LM Studio للمستخدم العادي، و Jan كبديل مفتوح بالكامل.

Ollama: الأسهل للمطوّرين

أداة مفتوحة المصدر تعمل على Windows و macOS و Linux. الحد الأدنى 16 جيجا رام، والمثالي 8-12 جيجا VRAM على كرت GPU. قاعدة عملية: كل مليار معامل يحتاج إلى 0.6 جيجا من الذاكرة عند تكميم q4_K_M. نموذج 7B يحتاج 4 إلى 6 جيجا. نموذج 13B يحتاج 8 إلى 10 جيجا. نموذج 70B يحتاج 38 إلى 48 جيجا حسب طول السياق.

عدد التحميلات على Ollama مؤشّر ثقة (الأرقام تقريبية وتتغير يوميًا): Llama 3.1 تجاوز 108 ملايين تحميل، DeepSeek-R1 تجاوز 75 مليونًا، Gemma 3 تجاوز 28 مليونًا. التثبيت أمر واحد، والتشغيل أمر واحد: ollama run deepseek-r1 وتبدأ المحادثة في الترمينال مباشرة.

LM Studio: الواجهة الرسومية الأقوى

برنامج مجاني للمستخدم غير المبرمج. الحد الأدنى 16 جيجا رام و4 جيجا VRAM، ومع 8-12 جيجا VRAM يشغّل نماذج 7 إلى 14 مليار معامل مثل Llama 3 8B وQwen 3 8B بتكميم 4 أو 5 بت. الميزة الأهم: محرّك بحث داخلي للنماذج من HuggingFace، وواجهة محادثة أنيقة، وخادم API محلي يحاكي OpenAI API، ويمكنك ربط تطبيقاتك القديمة به دون تعديل أي سطر كود. الأنسب لصانعي المحتوى والكتّاب الذين يريدون نموذجًا قويًا محليًا لتجربة نصوص حساسة دون القلق على الخصوصية. اللابتوبات الحديثة بمعالج Apple M3 Pro أو M4 Pro تشغّل نماذج 30 مليار بسلاسة بفضل الذاكرة الموحّدة.

Jan: البديل المفتوح الكامل

Jan تطبيق مفتوح المصدر بالكامل يتجاوز 41 ألف نجمة على GitHub. يعمل على macOS وLinux وWindows، ومجاني تمامًا بدون اشتراكات. يدعم أي نموذج محلي (Llama, Mistral, Qwen, DeepSeek, Gemma) وأيضًا API الخارجية (ChatGPT, Claude, Gemini) في نفس الواجهة. يوفّر خادم API محليًا للخصوصية الكاملة، وروابط مع Gmail وNotion وGoogle Drive وSlack. الأفضل لمن يحتاج نظامًا واحدًا يدمج النماذج المحلية والسحابية. للتعمّق في أدوات الذكاء الاصطناعي في البرمجة تحديدًا، راجع دليلنا لـ أدوات الذكاء الاصطناعي للبرمجة 2026.

النماذج "بدون قيود" (Uncensored): الحقيقة القانونية والأخلاقية

البحث على "ذكاء اصطناعي مفتوح المصدر بدون قيود" من أكثر الاقتراحات ظهورًا في Google autocomplete في السعودية والإمارات ومصر. الطلب حقيقي، لكن الواقع أعقد مما يتوقّع معظم المستخدمين. نوضح هنا الصورة كاملة: ما هي هذه النماذج، ما حدودها، ولماذا ننصح معظم القراء بعدم استخدامها.

ما هي النماذج "Abliterated" و"Dolphin"؟

نماذج "Abliterated" هي نسخ من Llama أو Mistral أو Qwen عُطّلت فيها طبقة الأمان الداخلية عبر تقنية رياضية تعدّل أوزان الشبكة وتُحيِّد اتجاه "الرفض". سلسلة Dolphin من Cognitive Computations هي الأشهر، وعليها تحذير رسمي صريح: "أنت المؤلف الوحيد لأي محتوى تولّده بهذا النموذج، تمامًا كما أنت مسؤول عن استخدامك للسكين أو السيارة أو الإنترنت". أي أن المطوّر ينقل المسؤولية القانونية كاملة إلى المستخدم.

المخاطر القانونية والأخلاقية

غياب طبقة الأمان يعني أن النموذج قد يولّد محتوى ضارًا أو متحيّزًا أو غير قانوني بدون أي مقاومة. في السعودية والإمارات ومصر، تحمّل قوانين الجرائم الإلكترونية المستخدم مسؤولية أي محتوى ينشره أو يستخدمه حتى لو ولّده ذكاء اصطناعي. توليد صور أو نصوص مسيئة، أو معلومات طبية خاطئة، أو تشهير بأشخاص حقيقيين، كلها جرائم قائمة بذاتها بصرف النظر عن الأداة. ذكاء اصطناعي مفتوح المصدر بدون قيود ليس ممرًا قانونيًا آمنًا.

متى يكون الاستخدام مشروعًا؟

هناك حالات أكاديمية وبحثية محدودة: دراسة الانحياز في النماذج، اختبارات اختراق لأنظمة الأمان، كتابة قصص خيالية تتطلب مرونة في الموضوعات الحساسة دون تجاوز قانوني. في كل هذه الحالات، الباحث يعمل ضمن إطار مؤسسي بإشراف أخلاقي ومسؤولية واضحة.

للمستخدم العادي الذي يريد تجنّب رفض ChatGPT للأسئلة الطبية البسيطة أو الترجمة لكلمات حساسة، النماذج العادية مثل Qwen3 و DeepSeek و Llama 4 أقل تقييدًا من GPT-4 وClaude، وتغطي معظم الاحتياجات اليومية المشروعة. نوصي بالبقاء معها وعدم الذهاب للنسخ "Abliterated" إلا بمبرر بحثي واضح. خيارات الذكاء الاصطناعي المتاحة اليوم أكثر من أي وقت مضى، وتابع أيضًا محركات البحث بالذكاء الاصطناعي 2026 لمقارنة الأدوات السحابية.

توصيات ذكاء اصطناعي مفتوح المصدر حسب المستخدم

كثرة الخيارات تربك، فهذه توصيات مباشرة حسب الحالة. لا توصيات غامضة مثل "حسب حاجتك"، بل اسم نموذج واحد لكل فئة مع سبب واضح.

للمستخدم العادي الباحث عن بديل مجاني لـ ChatGPT

الأفضل: DeepSeek V3.2 عبر موقعه الرسمي (مجاني للمحادثة) أو Qwen Chat من Alibaba. كلاهما بدون تسجيل معقّد، ويدعمان العربية بدرجة مقبولة، وبدون حد رسائل قاسٍ. وإن أردت خصوصية كاملة بدون إنترنت: gpt-oss-20b عبر Ollama على لابتوبك بذاكرة 16 جيجا.

للمطوّر الذي يبني تطبيقًا بسعر منخفض

الأفضل: DeepSeek V3.2 API بسعر 0.28 دولار لكل مليون رمز إدخال و0.42 دولار للإخراج، وهذا أرخص بنحو 9 أضعاف في الإدخال و24 ضعفًا في الإخراج مقارنة بـ GPT-4o. للمهام التي تتطلب سياقًا ضخمًا (تحليل وثائق طويلة): Llama 4 Scout بسياقه 10 ملايين رمز. للبرمجة المتقدمة: Qwen3-235B في وضع Thinking مع CodeForces Elo يصل إلى 2056.

لصانع المحتوى العربي

الأفضل: Falcon-H1 Arabic 7B للنصوص الخليجية والفصحى الأصيلة، وQwen3 للمحتوى المختلط بالإنجليزية والكود. Jais مناسب للمهام الأكاديمية والبحثية بالعربية. جميعها قابلة للتشغيل محليًا على لابتوب قوي أو عبر API.

للشركات والمؤسسات

الأفضل: Mistral Large 3 تحت Apache 2.0 للاستخدام التجاري بدون قيود، مع سياق 256k وتوفّر على Microsoft Azure Foundry. البديل: Llama 4 Maverick إذا كان المنتج لا يتجاوز 700 مليون مستخدم شهريًا. لمهام الاستدلال الخلفية: gpt-oss-120b على خادم بـ GPU 80GB.

لو عندك 10 دقائق فقط، افعل هذا

حمّل Ollama، افتح الترمينال، وجرّب ثلاثة أوامر فقط: ollama run gpt-oss:20b للمحادثة العامة، ollama run qwen3:8b للعربية، وollama run deepseek-r1:14b للاستدلال والرياضيات. خلال ساعة ستعرف أي نموذج يناسب طريقة تفكيرك وسرعة جهازك، وأي واحد يستحق أن يبقى مثبّتًا دائمًا.

المصادر

أسئلة شائعة

ما الفرق بين الذكاء الاصطناعي مفتوح المصدر ومفتوح الأوزان؟
"مفتوح المصدر" بالمعنى الكامل يعني نشر كل شيء: الأوزان، بيانات التدريب، كود التدريب، والترخيص يسمح بالاستخدام التجاري. "مفتوح الأوزان" يعني نشر الأوزان فقط بدون بيانات التدريب. DeepSeek V3.2 (MIT) وMistral Large 3 (Apache 2.0) مفتوحان فعلًا، بينما Llama 4 مفتوح الأوزان بترخيص مجتمعي مشروط.
هل يمكن تشغيل نموذج ذكاء اصطناعي قوي على لابتوب عادي؟
نعم. لابتوب فيه 16 جيجا رام يشغّل gpt-oss-20b بأداء قريب من o3-mini. ولو عندك ماك M3 Pro أو M4 Pro بـ 32-64 جيجا ذاكرة موحّدة، تشغّل نماذج بحجم 30 مليار معامل بسلاسة. الحد الأدنى الواقعي للتجربة: 16 جيجا رام وكرت شاشة 6-8 جيجا VRAM.
ما أفضل نموذج مفتوح المصدر للّغة العربية في 2026؟
للّغة العربية الفصحى واللهجات الخليجية: Falcon-H1 Arabic 7B من TII الإماراتية. للعربية المختلطة بالإنجليزية والكود: Qwen3 من Alibaba. للمهام البحثية والأكاديمية بالعربية: Jais 13B من G42 Inception. الخيارات العامة مثل DeepSeek وLlama 4 تدعم العربية لكن بمستوى أدنى من الخيارات المخصصة.
هل استخدام نموذج صيني مثل DeepSeek آمن من ناحية الخصوصية؟
إذا استخدمت API الرسمي، بياناتك تمر عبر خوادم DeepSeek في الصين وتخضع لقوانينها. الحل للخصوصية الكاملة: حمّل أوزان النموذج مجانًا من HuggingFace وشغّله محليًا عبر Ollama. الأوزان مفتوحة تحت MIT ولا ترسل أي شيء. نفس القاعدة تنطبق على Qwen من Alibaba وأي نموذج آخر.
ما معنى MoE (Mixture of Experts) ولماذا يهمّ؟
معمارية تجزّئ النموذج إلى "خبراء" متخصصين، ولكل استعلام تُنشَّط مجموعة محدودة منهم فقط. DeepSeek V3.2 فيه 671 مليار معامل كلي لكن يستخدم 37 مليار فقط لكل رمز. النتيجة: تكلفة حساب وسرعة مقاربة لنموذج 37B، مع قدرات نموذج 671B. هذا هو السبب التقني الأساسي لانخفاض أسعار API في 2026.
هل يمكن استخدام النماذج مفتوحة المصدر تجاريًا بدون دفع؟
يعتمد على الرخصة. Apache 2.0 وMIT (DeepSeek، Qwen، Mistral، gpt-oss) تسمحان بالاستخدام التجاري الكامل بدون رسوم. Llama 4 Community License تسمح بالاستخدام التجاري لكن تشترط إذنًا خاصًا من Meta إذا تجاوز منتجك 700 مليون مستخدم شهريًا. Gemma 3 تحت Gemma Terms فيها قيود استخدام محدودة. اقرأ الرخصة قبل النشر التجاري.
ما رأيك في المقال؟