تخيّل أنك تشغّل نموذج ذكاء اصطناعي بحجم 70 مليار معامل على حاسوب محمول عادي. هذا لم يعد خيالاً علمياً. إنتل أطلقت تحديثاً لبرامج تشغيل معالجاتها الرسومية المدمجة Arc iGPU يسمح بتخصيص 93% من ذاكرة النظام الوصول العشوائي (RAM) لهذه المعالجات. والنتيجة؟ قدرة غير مسبوقة على تشغيل نماذج اللغة الكبيرة (LLMs) محلياً دون الحاجة إلى بطاقات جرافيك منفصلة باهظة الثمن أو خواديم سحابية. هذا التحديث يغير قواعد اللعبة للمطورين والهواة والشركات الناشئة على حد سواء.
قفزة في تخصيص الذاكرة: من 50% إلى 93%
قبل هذا التحديث، كانت معالجات Arc iGPU قادرة على استخدام جزء محدود من ذاكرة النظام، عادةً ما بين 50% و60% كحد أقصى. هذا القيد كان يجعل تشغيل أي نموذج LLM يتجاوز 7 مليارات معامل شبه مستحيل، لأن النموذج يحتاج إلى مساحة ذاكرة ضخمة لتحميل الأوزان (Weights) والبيانات الوسيطة.
الآن، مع السماح بتخصيص 93% من RAM، تستطيع معالجات Arc iGPU سحب ما يصل إلى 32 غيغابايت من الذاكرة في حاسوب مزود بـ 32 غيغابايت RAM. هذا يعني أن نماذج مثل Llama 3.1 70B (بحجم 40 غيغابايت تقريباً عند التكميم) أصبحت قابلة للتشغيل على أجهزة متوسطة المواصفات، وإن كانت بسرعة أقل من بطاقات الجرافيك المخصصة.
كيف يعمل هذا من الناحية التقنية؟
تعتمد إنتل على تقنية تسمى ‘Shared Memory Allocation’ حيث يتم تخصيص جزء من ذاكرة النظام كذاكرة فيديو افتراضية (Virtual VRAM). التحديث الجديد يرفع سقف هذا التخصيص إلى 93%، مما يسمح لوحدة معالجة الرسوميات بالوصول إلى مساحة عنوانية أكبر للذاكرة. هذا لا يعني أن الأداء سيكون مضاعفاً، لكنه يزيل الحاجز الأكبر أمام تشغيل النماذج الكبيرة: نقص الذاكرة.
لماذا هذا التحديث مهم لعشاق الذكاء الاصطناعي؟
تشغيل نماذج LLM محلياً يعني خصوصية كاملة للبيانات، حيث لا تغادر ملفاتك أو استفساراتك جهازك أبداً. هذا أمر حاسم للشركات التي تتعامل مع بيانات حساسة، أو للمطورين الذين يختبرون نماذج دون الحاجة لدفع فواتير سحابية.
قبل هذا التحديث، كان الخيار الوحيد لتشغيل نموذج كبير هو شراء بطاقة جرافيك مثل NVIDIA RTX 4090 بسعر يتجاوز 1500 دولار، أو استئجار خادم سحابي بمئات الدولارات شهرياً. الآن، يمكن لحاسوب محمول مزود بمعالج إنتل من الجيل الثالث عشر أو الرابع عشر وذاكرة 32 غيغابايت أن يؤدي المهمة. هذا يخفض حاجز الدخول إلى عالم الذكاء الاصطناعي بشكل كبير.
مقارنة مع المنافسين: NVIDIA وAMD
NVIDIA تبقى الأسرع بفارق كبير بفضل بنيتها CUDA وذاكرة VRAM المخصصة. لكنها أغلى بكثير. AMD تقدم بطاقات منافسة بسعر أقل، لكن دعم برامجها للتخصيص الديناميكي للذاكرة ليس متقدماً مثل هذا التحديث من إنتل. ما يميز إنتل هنا هو استهداف شريحة المستخدمين الذين لا يملكون ميزانية لبطاقة جرافيك منفصلة، ويريدون تشغيل نماذج LLM على أجهزتهم الحالية.
قيود يجب معرفتها: الأداء ليس معجزة
على الرغم من الإثارة، يجب أن نكون واقعيين. تخصيص 93% من الذاكرة لا يعني أن Arc iGPU ستصبح منافساً لـ RTX 4090. الفرق في الأداء بين ذاكرة النظام (DDR5) وذاكرة الفيديو المخصصة (GDDR6) كبير. سرعة نقل البيانات في GDDR6 قد تكون أسرع بثلاث إلى أربع مرات من DDR5. لذلك، توقع تشغيل النموذج بسرعة أقل، خاصة في مرحلة التوليد (Inference).
التحدي الثاني هو التبريد. معالجات iGPU تشارك حزمة التبريد مع المعالج المركزي (CPU). تشغيل نموذج LLM يضغط على كليهما، مما قد يؤدي إلى ارتفاع الحرارة واختناق الأداء (Thermal Throttling) في الأجهزة المحمولة الرقيقة. هذا التحديث مثالي للتجربة والاختبار، لكنه ليس بديلاً عن بطاقة جرافيك مخصصة للإنتاج الثقيل.
ماذا يعني هذا للسوق العربي والخليجي؟
في منطقة ينتشر فيها استخدام الحواسيب المحمولة والمكتبية متوسطة المواصفات، هذا التحديث يفتح الباب أمام موجة جديدة من المطورين والهواة. تخيل طالباً في جامعة الملك سعود أو خليفة يريد تشغيل نموذج لغوي عربي محلياً دون اتصال بالإنترنت. أو شركة ناشئة في دبي أو الرياض تختبر نموذج دردشة للخدمة العملاء على أجهزة موجودة لديها بالفعل. هذا يقلل الاعتماد على الخدمات السحابية الأجنبية، ويحسن الخصوصية، ويخفض التكاليف.
التحدي الوحيد هو توفر الأجهزة. أسعار الحواسيب المزودة بذاكرة 32 غيغابايت أو أكثر لا تزال مرتفعة نسبياً في السوق العربي. لكن مع انتشار معالجات إنتل من الجيل الجديد، سنشهد انخفاضاً تدريجياً في الأسعار. هذا التحديث قد يكون حافزاً للشركات التقنية المحلية لبناء تطبيقات ذكاء اصطناعي تعتمد على النماذج المحلية بدلاً من السحابة.
خلاصة: خطوة جريئة نحو ذكاء اصطناعي ديمقراطي
تحديث إنتل ليس مجرد تحسين رقمي، بل هو فلسفة جديدة: جعل الذكاء الاصطناعي في متناول الجميع. بدلاً من انتظار الحلول السحابية أو الاستثمار في أجهزة باهظة، يمكن الآن لأي شخص لديه حاسوب حديث أن يجرب نماذج LLM على مكتبه. السؤال الذي يبقى مفتوحاً للنقاش: هل ستتبنى الشركات العربية هذا النهج، أم ستبقى رهينة للحلول السحابية الأجنبية؟ التجربة بين أيدينا، وبوابة إنتل مفتوحة.

