# ما هو الـ Fine-tuning ولماذا يختلف عن الـ Prompting.


*ذكاء اصطناعي · نماذج · أبريل ٢٠٢٦ · ٩ دقائق قراءة*


في نصف الاجتماعات يُقال «سنُحسّن النموذج» بينما المقصود «سنعيد صياغة الجملة». الطرفان مكملان، لكنّ أحدهما يغيّر النص الذي يدخل، والآخر قد يغيّر أوزان النموذج نفسه. هذا الفصل يوضّح القرار ويحميك من دفع تكلفة التدريب دون حاجة.

أول ما يُعلَن في مشروع ذكاء اصطناعي، غالباً ما يكون أسلوبين مختلفين مختلطين: «نكتب تعليمات أوضح»، و«نضبط النموذج على بياناتنا». الأوّل سريع ورخيص نسبياً. الثاني يستغرق وقتاً وبيانات وتكلفة حسابية. الخلط بينهما لا يفسد التقنيين فقط؛ يفسد الميزانية.

هذا المقال يعرّف الـPrompting والـFine-tuning كمسارين منفصلين، ثم يقارن بينهما بما يكفي لقرارٍ واعٍ. إن أردت الصورة الأوسع عن النماذج، ابدأ من مقال «ما هو نموذج اللغة الكبير — دليل كامل لعام ٢٠٢٦» في المجلّة، ثم عدْ هنا لتحديد «أين تستثمر الآن».


## ما الـPrompting باختصار.
الـPrompting يعني أنك تبقي أوزان النموذج كما هي، وتغيّر المدخل: التعليمات، الأمثلة داخل السياق، النبرة، القيود «لا تذكر أسعاراً»، وشكل المخرجات المطلوب. كل ذلك نص يُرسل مع الطلب في وقت التشغيل.

مزاياه واضحة في المنتج: دورة سريعة، سهولة التجربة، ولا حاجة لإعادة نشر نموذج من تلقاء نفسه. حدوده أيضاً حقيقية: ما لم تُضخّم المهمة بأمثلة طويلة أو استرجاعاً للمعرفة، قد يبقى النموذج عرضة لنفس أنواع الخطأ السلوكي، لأن «عادته الإحصائيّة» لم تتغيّر.


## ما الـFine-tuning باختصار.
الـFine-tuning يعني أنك تشغّل تدريباً إضافياً على نموذج مُدرَّب مسبقاً باستخدام بيانات مركّزة: أسئلة وأجوبة، أمثلة أسلوب، أو مهام مصنّفة. النتيجة تُحدَّث أوزاناً في الشبكة (أو محولات ملحقة في بعض الأساليب) بحيث يصبح التنبؤ التالي أقرب ما تريده مؤسستك [٢].

هذا ليس «نسخةً سحرية» من الصفر. هو تخصيص يغيّر السلوك على نطاق مهمّتك، لكنّه لا يلغي الحاجة لقياس أو حوكمة. عندنا في نُقطة، نرى الفاينتوننغ مفيداً حين تتكرر نفس الصيغة والسياسات، وحين يكون لديك بيانات نظيفة وموافقة استخدام واضحة [٥].


> الـPrompting يعيد صياغة الطلب إلى النموذج نفسه. الـFine-tuning — عندما يُنجَز حقاً — يعيد ضبط ما يُفضّله النموذج عندما يزن الرمز التالي.


## لقطة فروق: ستة محاور.
- ماذا يتغيّر: في الـPrompting يتغيّر المدخل؛ في الفاينتوننغ تتغيّر أوزان (أو محولات) النموذج بعد تدريب [١][٢].
- سرعة التكرار: التجربة بالبرومبت ساعات؛ دورة الفاينتوننغ أيام إلى أسابيع بحسب البيانات والحجم.
- البيانات: البرومبت قد يكتفي بعينات قليلة للاختبار؛ الفاينتوننغ يفترض عادة مئات إلى آلاف الأمثلة الجيدة على الأقل لمهمة ضيّقة [٤].
- التكلفة المتكررة: البرومبت يدفع بطول السياق والاستدعاءات؛ الفاينتوننغ يدفع مقدّماً بتدريب، ثم قد يخفّض كلفة الاستدعاء إذا لم تعد تحتاج إرسال آلاف الرموز من التعليمات في كل مرة.
- المخاطر: البرومبت قد يفضّي إلى تسرّب تعليمات داخلية إن أُدخل وثائق حساسة في السياق؛ الفاينتوننغ قد «يقلّد» بيانات خاطئة إن كانت التسميات سيئة، أو يثبّت تحيّزاً إن كان مصدراً متحيّزاً.
- متى يكفي البرومبت: مهمة جديدة، إثبات فكرة، أو تنويع سريع. متى ندرس الفاينتوننغ: تكرار عالٍ، صيغة ثابتة، أو ضرورة تقليل التعليمات الطويلة دون فقدان الجودة.


## أين يدخل الاسترجاع RAG والأساليب الأخرى.
الاسترجاع RAG يضيف مستندات إلى السياق دون تغيير أوزان النموذج: مناسب حين تتغيّر الحقائق باستمرار وسياساتكم تمنع حفظ معرفة قديمة داخل الأوزان. الفاينتوننغ يناسب أكثر «أسلوب الإجابة» و«القالب التنظيمي» الثابت [١].

لا تضع الفاينتوننغ مكان تكامل: إن كان المطلوب قراءة نظام شحن أو حساب فاتورة، فالمشكلة غالباً API وقواعد بيانات، لا «نموذج أسمى».


## مخطّط المسارين.
*[رسم: FIG. 1 — PROMPTING VS FINE-TUNING (WEIGHTS CHANGE OR NOT)]*


## قرار عملي: ابدأ من أين.
قاعدة بسيطة نستخدمها: إن كانت المخرجات «تقريباً صحيحة» لكن تطلب تعليمات طويلة في كل مرة، فالفاينتوننغ أو الضبط الخفيف قد يستحق التجربة بعد أن تُثبت عينات قياس [٥]. إن كنت لا تزال تبحث عن الشكل المناسب للمهمة، فالبرومبت والاسترجاع أرخص للتعلّم.

الشركات الحسّاسة تنظر أيضاً إلى أين تذهب بيانات التدريب: الفاينتوننغ عبر مزود سحابي ليس كاستضافة داخلية؛ راجع سياساتك قبل أن ترفع قوائم عملاء أو عقوداً ضمن مجموعات تدريب.


## أسئلة شائعة.
- هل الـFine-tuning يستبدل الـPrompting؟ لا. غالباً تحتاج تعليماً قصيراً حتى بعد الضبط، والاسترجاع للوثائق يبقى حيّاً.
- هل Prompt engineering هو نفس الـFine-tuning؟ لا. الأول صياغة مدخلات؛ الثاني تدريب إضافي على أمثلة [٤].
- ماذا عن LoRA والضبط المنخفض؟ مسار وسيط يحدّث جزءاً صغيراً من الأوزان بكلفة أقلّ من «تدريب كامل»؛ المنطق نفسه: تخصيص أعمق من البرومبت وحده [٢].
- كم مثالاً أحتاج للفاينتوننغ؟ لا رقماً سحرياً عاماً؛ يعتمد على الصعوبة والضوضاء. ابدأ بمجموعة صغيرة نظيفة ثم ارفعها حسب مقاييسك.
- هل الفاينتوننغ يحل الهلوسة؟ يقلّل أحياناً أسلوب الأخطاء المتكررة، لكنه لا يضمن الحقائق؛ التحقق والمصادر ما زالا مطلوبين.


## الخلاصة والدعوة.
الـFine-tuning والـPrompting ليسا رتبة «أفضل»: هما أداتان. الأوّل يحرّك وزن النموذج عند الحاجة والبيانات. الثاني يحرّك السياق عندما يكفي النموذج العام.

هذا الأسبوع، صف مهمتك في سطرين، ثم سجّل: هل المشكلة «لا يفهم التعليمات» أم «يفهم لكن يخالف السياسة مراراً»؟ إن كانت الثانية وتتكرر آلاف المرّات، فأنت لا تبحث عن برومبت أذكى فقط — وأنت تعرف من أين يبدأ النقاش.


## المصادر.
[١] OpenAI — Fine-tuning guide (platform documentation). https://platform.openai.com/docs/guides/fine-tuning

[٢] Hugging Face — Transformers: Fine-tuning a pretrained model. https://huggingface.co/docs/transformers/training

[٣] Anthropic — Prompt library / engineering documentation (inference-time steering). https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview

[٤] Liu et al. — Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in NLP — ACM Computing Surveys، ٢٠٢٣. https://arxiv.org/abs/2107.13586

[٥] نقطة — سياسات تجريبية لمسارات الضبط والقياس مع عملاء، أبريل ٢٠٢٦ (Nuqta internal playbooks, April 2026).
