# الفرق بين L40S وA100 وH100 — أي بطاقة لأي مهمة.


*ذكاء اصطناعي · بنية · أبريل ٢٠٢٦ · ٨ دقائق قراءة*


ليست المسألة «أقوى شريحة». المسألة مطابقة الـworkload: تدريبٌ ثقيلٌ أم استدلالٌ عالٍ أم تسريعٌ بصريٌ؟ جدولٌ واحدٌ يختصر أين تضع L40S وأين A100 وأين [H100](/journal/nvidia-h100-gpu-ai-standard-2026) — بلا تخمينٍ في العقد [١].

عروض السحابة تُبرز أسماءً أشبه العملات: L40S، A100، H100. المخاطرة أن تختار «الأحدث» رغم أن أغلب أحمال الاستدلال تحتاج تكثيفاً للذاكرة لا «تدريباً من الصفر» يوميّاً [١].

هذا المقال لا يستبدلُ [دليل الـH100](/journal/nvidia-h100-gpu-ai-standard-2026) — يكمّله: يضعُ L40S وA100 في نفسِ المقارنةِ التشغيليّةِ [٢].


## ثلاث فئات بسرعة.
H100 — عائلة Hopper: مرجعٌ للتدريبٍ الكثيفٍ والاستدلالٍ عند نماذجٍ كبيرةٍ وسياقٍ طويلٍ؛ تكثيفٌ tensorٌ وذاكرةٌ HBM واسعةٌ [٢].

A100 — عائلة Ampere: جيلٌ ما زالَ شائعاً في الحسابٍ العامٍ والتدريبٍ؛ توازنٌ تاريخيٌ بين السعرٍ والبرمجياتٍ [٢].

L40S — Ada Lovelace: غالباً لأحمالٍ أخفّ و«تسريعٍ» ومراكز بياناتٍ تريد كفاءةً لكلّ واطٍ في الاستدلالٍ؛ ليست دائماً البديلَ لـH100 في كلّ تدريبٍ [١].


> السؤال الصحيح ليس «أي شريحة». السؤال: «أيّ شريحة تربح نفس الـSLO عند نفس حجم السياق والدفق؟»


## مخطط اختيارٍ مُبسّط.
*[رسم: FIG. 1 — GPU FAMILY ↔ PRIMARY WORKLOAD (SCHEMATIC)]*


## قرارٌ عمليٌ في نُقطة.
نرى في [نقطة](/journal/) أن الـpilot يبدأ أحياناً على وحدات أصغر ثم ينتقل — شرط أن تُقاس نفس الـtokens والـlatency [٥].

ربط [الاستدلال والتدريب](/journal/inference-vs-training-llm-economics-2026) يحدّد هل تدفع بساعات الضبط أم برموز المنتج [٤].


## أسئلة شائعة.
- هل L40S «كافٍ» للعربية الثقيلة؟ يعتمد على حجم النموذج والسياق — لا على اسمٍ لغوي [٣].
- هل أستبدل A100 بـH100 دائماً؟ لا — إن كان الاختناق ذاكرةً في [الـServing](/journal/what-is-pagedattention-llm-serving-2026) قد يحلّهُ محرّكٌ قبل العتاد [٢].
- كيف أثبت العرض؟ حمّل نفس الـprecision والسائق والمحرّك [٣].
- ماذا عن [vLLM](/journal/what-is-vllm-production-serving-2026)؟ يزيد الـthroughput — لا يغيّر فيزياء الشريحة [٢].
- هل ينطبق هذا في عُمان؟ التوريد والعقد يغيّران الـSKU المتاح — راجع [السيادة الرقمية](/journal/digital-sovereignty-oman) [٥].


## الخلاصة.
الأرقام في كتالوج NVIDIA تدعم الاتجاه — لا القرار وحده [١][٢].

اطلب من المورّد سطراً واحداً: نفس الحمل، نفس الـbatch، نفس السياق — ثم قارن التكلفة لكل مليون token [٤].


## المصادر.
[١] NVIDIA — L40S GPU (product page). https://www.nvidia.com/en-us/data-center/l40s/

[٢] NVIDIA — H100 / A100 product overviews (data center). https://www.nvidia.com/en-us/data-center/

[٣] MLCommons — MLPerf Inference (methodology). https://mlcommons.org/

[٤] نقطة — ملاحظاتٌ داخليّةٌ من طلباتٍ عروضٍ GPU، أبريلٌ ٢٠٢٦ (Nuqta internal procurement notes, April 2026).

[٥] نقطة — سياساتٌ تشغيليّةٌ لمراحلٍ pilot→prod، أبريلٌ ٢٠٢٦ (Nuqta internal rollout notes, April 2026).
