بتوقيت بكين 6 يناير، وقف الرئيس التنفيذي لشركة إنفيديا هوان رونغشون مرتديًا سترته الجلدية المميزة مرة أخرى على المسرح الرئيسي في CES2026.
في معرض CES 2025، عرضت إنفيديا رقائق Blackwell التي أصبحت جاهزة للإنتاج الكامل وكتلة تقنية الذكاء الاصطناعي الفيزيائي الكاملة. في الاجتماع، أكد هوان رونغشون أن “عصر الذكاء الاصطناعي الفيزيائي” قد بدأ. وصور مستقبلًا مليئًا بالخيال: السيارات ذاتية القيادة تمتلك القدرة على الاستنتاج، والروبوتات يمكنها الفهم والتفكير، وAIAgent (الوكيل الذكي) يمكنه التعامل مع مهام سياق طويل بمليون رمز.
مر عام بسرعة، وشهد قطاع الذكاء الاصطناعي تطورات وتحولات هائلة. عند استعراض التغييرات خلال المؤتمر، ركز هوان رونغشون على النماذج المفتوحة المصدر.
قال إن نماذج الاستنتاج المفتوحة المصدر مثل DeepSeek R1 جعلت الصناعة بأكملها تدرك: عندما يتم فتح التعاون العالمي، ستنتشر تقنيات الذكاء الاصطناعي بسرعة فائقة. على الرغم من أن النماذج المفتوحة لا تزال أبطأ حوالي نصف سنة مقارنة بأحدث النماذج، إلا أنها تقترب منها كل ستة أشهر، وأن حجم التنزيلات والاستخدامات قد شهد نموًا انفجاريًا.
مقارنة بعرض المزيد من الرؤى والإمكانات في 2025، بدأت إنفيديا هذه المرة بشكل منهجي في محاولة حل سؤال “كيفية التنفيذ”: حول الذكاء الاصطناعي الاستنتاجي، سد الفجوات في القدرة الحسابية، والشبكة، والبنية التحتية للتخزين اللازمة للتشغيل الطويل، وتقليل تكلفة الاستنتاج بشكل ملحوظ، ودمج هذه القدرات مباشرة في سيناريوهات حقيقية مثل القيادة الذاتية والروبوتات.
في خطاب هوان رونغشون في CES، تمحور حول ثلاثة محاور رئيسية:
● على مستوى النظام والبنية التحتية، أعادت إنفيديا هيكلة القدرة الحسابية، والشبكة، والبنية التخزينية لتلبية احتياجات الاستنتاج الطويل. مع التركيز على منصة Rubin، وNVLink 6، وSpectrum-X Ethernet، ومنصة ذاكرة سياق الاستنتاج، تستهدف هذه التحديثات معالجة عنق الزجاجة المتمثلة في ارتفاع تكلفة الاستنتاج، وصعوبة استمرار السياق، والقيود على الحجم، لحل مشاكل “التفكير أكثر قليلاً” و"القدرة على الحساب" و"العمل لفترة طويلة".
● على مستوى النماذج، وضعت إنفيديا الاستنتاجي AI (Reasoning / Agentic AI) في المركز. من خلال نماذج وأدوات مثل Alpamayo، وNemotron، وCosmos Reason، تدفع AI من “توليد المحتوى” نحو “التفكير المستمر”، وتحول من “نموذج استجابة لمرة واحدة” إلى “وكيل ذكي يمكنه العمل لفترات طويلة”.
● على مستوى التطبيق والتنفيذ، تم دمج هذه القدرات مباشرة في سيناريوهات الذكاء الاصطناعي الفيزيائي مثل القيادة الذاتية والروبوتات. سواء كان نظام القيادة الذاتية المدعوم بـ Alpamayo، أو بيئة الروبوتات GR00T وJetson، فإن التعاون مع مزودي السحابة والمنصات المؤسسية يدفع نحو نشر واسع النطاق.
01 من خارطة الطريق إلى الإنتاج الكامل: الكشف الكامل عن أداء Rubin لأول مرة
في هذا المعرض، كشفت إنفيديا لأول مرة عن التفاصيل التقنية لهيكلية Rubin بشكل كامل.
بدأ هوان رونغشون حديثه من مفهوم Test-time Scaling (توسيع وقت الاختبار)، والذي يمكن فهمه على أنه، بدلًا من جعل الذكاء الاصطناعي أكثر ذكاءً فقط من خلال “زيادة جهوده في القراءة”، نعمل على “جعله يفكر أكثر قليلاً عند مواجهة مشكلة”.
في الماضي، كانت زيادة قدرات AI تعتمد بشكل رئيسي على تدريب النموذج باستخدام المزيد من القدرة الحسابية، وزيادة حجم النموذج تدريجيًا؛ أما الآن، فالتغيير الجديد هو أنه حتى لو لم يتغير حجم النموذج، فإن إعطائه مزيدًا من الوقت والقدرة الحسابية أثناء الاستخدام يجعل النتائج تتحسن بشكل واضح.
كيف نجعل “الذكاء الاصطناعي يفكر أكثر قليلاً” اقتصاديًا وقابلًا للتنفيذ؟ منصة الحوسبة الجديدة من الجيل التالي لهيكلية Rubin هي الحل لهذه المشكلة.
يقدم هوان رونغشون أن هذه منظومة حوسبة AI كاملة من الجيل التالي، تعتمد على Vera CPU، وRubin GPU، وNVLink 6، وConnectX-9، وBlueField-4، وSpectrum-6، لتحقيق ثورة في تقليل تكلفة الاستنتاج.
يعد GPU Rubin من إنفيديا هو النواة الحاسوبية في هيكلية Rubin، ويهدف إلى تقليل تكلفة الوحدة للاستنتاج والتدريب بشكل كبير.
ببساطة، المهمة الأساسية لـ Rubin GPU هي “جعل استخدام AI أكثر توفيرًا وذكاءً”.
القدرة الأساسية لـ Rubin GPU تكمن في: أن نفس الـ GPU يمكنه أداء المزيد من المهام. يمكنه معالجة المزيد من مهام الاستنتاج في وقت واحد، وتذكر سياقات أطول، والتواصل مع GPU الأخرى بشكل أسرع، مما يعني أن العديد من السيناريوهات التي كانت تتطلب “بطاقات متعددة” يمكن الآن إنجازها باستخدام عدد أقل من الـ GPU.
النتيجة هي أن الاستنتاج أصبح أسرع وأرخص بشكل ملحوظ.
قام هوان رونغشون بمراجعة معطيات الأجهزة الخاصة بهيكلية Rubin NVL72: تحتوي على 220 تريليون ترانزستور، وعرض نطاق 260 تيرابايت/ثانية، وهي أول منصة في الصناعة تدعم الحوسبة السرية على مستوى الرفوف.
بشكل عام، مقارنة بـ Blackwell، حققت GPU Rubin قفزات عبر الأجيال في المؤشرات الرئيسية: أداء الاستنتاج NVFP4 ارتفع إلى 50 PFLOPS (أي 5 أضعاف)، وأداء التدريب ارتفع إلى 35 PFLOPS (3.5 أضعاف)، وعرض النطاق لذاكرة HBM4 ارتفع إلى 22 تيرابايت/ثانية (أي 2.8 أضعاف)، وعرض النطاق للربط NVLink على الـ GPU الواحد تضاعف ليصل إلى 3.6 تيرابايت/ثانية.
هذه التحسينات مجتمعة تتيح للـ GPU الواحد معالجة المزيد من مهام الاستنتاج وسياقات أطول، وتقليل الاعتماد على عدد الـ GPU بشكل جذري.
Vera CPU هو مكون مركزي مصمم لنقل البيانات ومعالجة الوكيل الذكي، ويحتوي على 88 نواة من نوى Olympus التي طورتها إنفيديا، وذاكرة نظام بسعة 1.5 تيرابايت (ثلاثة أضعاف إصدار Grace السابق)، وتقنية NVLink-C2C بسرعة 1.8 تيرابايت/ثانية تتيح وصولًا موحدًا للذاكرة بين CPU وGPU.
على عكس المعالجات العامة التقليدية، يركز Vera على سيناريوهات استنتاج AI، ويعمل على تنسيق البيانات وتنفيذ منطق الاستنتاج متعدد الخطوات، وهو في جوهره منسق النظام الذي يتيح “لـ AI أن يفكر أكثر قليلاً” بكفاءة عالية.
من خلال عرض النطاق الترددي 3.6 تيرابايت/ثانية، وطاقات الشبكة، تتيح NVLink 6 لـ 72 GPU في هيكلية Rubin العمل كـ “GPU فائق”، وهو البنية التحتية الأساسية لخفض تكلفة الاستنتاج.
وبذلك، يمكن للذكاء الاصطناعي أثناء الاستنتاج أن يتبادل البيانات والنتائج الوسيطة بسرعة بين الـ GPU، دون الحاجة للانتظار أو النسخ أو إعادة الحساب بشكل متكرر.
في هيكلية Rubin، تتولى NVLink-6 التنسيق الداخلي بين الـ GPU، وBlueField-4 مسؤول عن إدارة السياق والبيانات، وConnectX-9 يربط النظام بشبكة عالية السرعة خارجية. تضمن هذه المكونات أن يتواصل نظام Rubin بكفاءة مع الرفوف الأخرى، ومراكز البيانات، والمنصات السحابية، مما يضمن تشغيل مهام التدريب والاستنتاج على نطاق واسع بسلاسة.
مقارنةً بالجيل السابق، قدمت إنفيديا بيانات واضحة: يمكن أن تقلل من تكلفة الرموز في مرحلة الاستنتاج إلى 10 أضعاف، وتقليل عدد الـ GPU المطلوب لنماذج MoE (خبير مختلط) إلى ربع العدد.
أعلنت إنفيديا رسميًا أن شركة مايكروسوفت قد وعدت بنشر مئات الآلاف من شرائح Vera Rubin في مصنع Fairwater AI القادم، وأن مزودي خدمات السحابة مثل CoreWeave سيقدمون مثيلات Rubin في النصف الثاني من 2026، وأن هذه البنية التحتية “لجعله يفكر أكثر قليلاً” تتجه من العرض التقديمي التقني إلى الاستخدام التجاري على نطاق واسع.
02 كيف يتم حل “عنق الزجاجة في التخزين”؟
لا يزال جعل AI “يفكر أكثر قليلاً” يواجه تحديًا تقنيًا رئيسيًا: أين يُخزن سياق البيانات؟
عندما يتعامل AI مع مهام معقدة تتطلب حوارات متعددة وخطوات استنتاج، فإنه يولد كمية هائلة من بيانات السياق (KV Cache). في البنية التقليدية، إما أن يُحشر في ذاكرة GPU باهظة الثمن وذات سعة محدودة، أو يُخزن في تخزين عادي (بطء الوصول). إذا لم يُعالج هذا “عنق الزجاجة” بشكل فعال، فإن أقوى GPU ستتأثر.
لمواجهة هذه المشكلة، كشفت إنفيديا في هذا المعرض عن منصة ذاكرة سياق الاستنتاج (Inference Context Memory Storage Platform) المدعومة من BlueField-4، والتي تهدف إلى إنشاء “طبقة ثالثة” بين ذاكرة GPU التقليدية والتخزين العادي. تكون سريعة بما يكفي، وذات سعة كافية، ويمكنها دعم التشغيل الطويل لـ AI.
من الناحية التقنية، لا تعتمد هذه المنصة على مكون واحد، بل هي نتيجة تصميم متعاون:
BlueField-4 مسؤول عن تسريع إدارة والوصول إلى بيانات السياق على مستوى الأجهزة، وتقليل عمليات النقل والنفقات النظامية؛
Spectrum-X Ethernet يوفر شبكة عالية الأداء، ويدعم مشاركة البيانات عالية السرعة عبر RDMA؛
وتقوم مكونات برمجية مثل DOCA، وNIXL، وDynamo بتحسين الجدولة، وتقليل الكمون، وزيادة الإنتاجية الكلية على مستوى النظام.
يمكن فهم الأمر على أنه، بدلاً من أن تُخزن بيانات السياق داخل ذاكرة GPU فقط، يتم توسيعها إلى “طبقة ذاكرة” مستقلة وسريعة وقابلة للمشاركة. من جهة، يخفف ذلك الضغط عن GPU، ومن جهة أخرى، يتيح مشاركة هذه البيانات بسرعة بين عدة عقد، ووكيل ذكي، وذكي آخر.
وفي النتائج العملية، ذكرت إنفيديا أن هذا الأسلوب يمكن أن يرفع عدد الرموز التي يُعالجها في الثانية حتى 5 أضعاف، مع تحسين كفاءة الطاقة بمستوى مماثل.
كرر هوان رونغشون خلال الإعلان أن الذكاء الاصطناعي يتطور من “روبوت دردشة لمرة واحدة” إلى “تعاون ذكي حقيقي”: يحتاج إلى فهم العالم الحقيقي، والاستنتاج المستمر، واستخدام الأدوات لإنجاز المهام، مع الاحتفاظ بذاكرة قصيرة وطويلة الأمد. وهذه هي السمة الأساسية لـ Agentic AI. ومنصة ذاكرة سياق الاستنتاج، مصممة لهذا الشكل من AI الذي يعمل لفترات طويلة ويفكر مرارًا وتكرارًا، من خلال توسيع سعة السياق، وتسريع المشاركة عبر العقد، لجعل الحوار متعدد الأدوار والتعاون بين الوكلاء أكثر استقرارًا، دون أن يتباطأ الأداء.
03 الجيل الجديد من DGX SuperPOD: تعاون 576 GPU
أعلنت إنفيديا في هذا المعرض عن إطلاق الجيل الجديد من DGX SuperPOD المبني على هيكلية Rubin، والذي يوسع Rubin من نظام رف واحد إلى حل كامل لمركز البيانات.
ما هو DGX SuperPOD؟
إذا كانت NVL72 من Rubin عبارة عن “رف فائق” يحتوي على 72 GPU، فإن DGX SuperPOD هو ربط عدة مثل هذه الأرفف معًا، لتشكيل مجموعة حوسبة AI أكبر. الإصدار الذي تم الكشف عنه يتكون من 8 أرفف Vera Rubin NVL72، أي 576 GPU تعمل بشكل متعاون.
عندما يتوسع حجم مهام AI، قد لا يكون الـ 576 GPU في رف واحد كافيًا، مثلاً لتدريب نماذج ضخمة جدًا، أو خدمة آلاف الوكلاء الذكيين، أو التعامل مع مهام سياق تتطلب ملايين الرموز. عندها، يكون من الضروري التعاون بين عدة أرفف، وDGX SuperPOD هو الحل المعياري لهذا السيناريو.
بالنسبة للشركات ومزودي الخدمات السحابية، يوفر DGX SuperPOD بنية تحتية جاهزة للاستخدام على نطاق واسع، دون الحاجة إلى دراسة كيفية ربط مئات الـ GPU، أو تكوين الشبكة، أو إدارة التخزين.
المكونات الأساسية للجيل الجديد من DGX SuperPOD:
○8 أرفف Vera Rubin NVL72 - توفر القدرة الحاسوبية الأساسية، كل رف يحتوي على 72 GPU، بإجمالي 576 GPU؛
○شبكة NVLink 6 الموسعة - تتيح لـ 8 أرفف من الـ GPU أن تعمل كـ “GPU فائق” متعاون؛
○برنامج إنفيديا Mission Control - يدير جدولة النظام، والمراقبة، والتحسين.
في هذا التحديث، تعتمد بنية SuperPOD على نظام أرفف NVL72 من نوع DGX. كل رف هو حاسوب فائق كامل، يربط بين 72 GPU من نوع Rubin عبر NVLink 6، ويمكنه تنفيذ مهام استنتاج وتدريب واسعة النطاق داخل الرف الواحد. أما DGX SuperPOD الجديدة، فهي تتكون من عدة أرفف NVL72، وتعمل كمجموعة نظامية طويلة الأمد.
عند توسيع نطاق الحوسبة من “رف واحد” إلى “عدة أرفف”، تظهر عنق الزجاجة الجديدة: كيف يتم نقل البيانات الضخمة بين الأرفف بشكل مستقر وفعال؟ لمواجهة هذه المشكلة، كشفت إنفيديا عن محول Ethernet جديد يعتمد على Spectrum-6، وأدخلت تقنية “التغليف الضوئي المشترك” (CPO) لأول مرة.
ببساطة، تعني هذه التقنية أن الوحدة الضوئية القابلة للفصل تُغلف مباشرة بجانب شريحة التبديل، مما يقلل من مسافة نقل الإشارة من عدة أمتار إلى بضعة مليمترات، مما يقلل بشكل كبير من استهلاك الطاقة والكمون، ويعزز استقرار النظام بشكل عام.
04 منصة إنفيديا المفتوحة للذكاء الاصطناعي “الأسرة الكاملة”: من البيانات إلى الكود
في هذا المعرض، أعلن هوان رونغشون عن توسيع منظومة النماذج المفتوحة (Open Model Universe)، مع إضافة وتحديث مجموعة من النماذج، ومجموعات البيانات، ومكتبات الكود، والأدوات. تغطي هذه المنظومة ستة مجالات رئيسية: الذكاء الاصطناعي الطبي الحيوي (Clara)، والمحاكاة الفيزيائية للذكاء الاصطناعي (Earth-2)، والوكيل الذكي (Nemotron)، والذكاء الاصطناعي الفيزيائي (Cosmos)، والروبوتات (GR00T)، والقيادة الذاتية (Alpamayo).
تدريب نموذج AI يتطلب أكثر من القدرة الحسابية فقط، بل يحتاج إلى مجموعات بيانات عالية الجودة، ونماذج تدريب مسبقة، وكود تدريب، وأدوات تقييم، وغيرها من البنى التحتية الأساسية. بالنسبة لمعظم الشركات والمؤسسات البحثية، فإن بناء كل ذلك من الصفر يستغرق وقتًا طويلاً.
بالتفصيل، قامت إنفيديا بمفتوحة المصدر ستة مستويات من المحتوى: منصة الحوسبة (DGX، HGX، وغيرها)، مجموعات البيانات في كل مجال، النماذج الأساسية المدربة مسبقًا، مكتبات الكود للاستنتاج والتدريب، سيناريوهات التدريب الكاملة، ونماذج الحلول الشاملة.
تركز Nemotron في التحديث الأخير على أربعة اتجاهات تطبيقية.
في مجال الاستنتاج، تشمل Nemotron 3 Nano، وNemotron 2 Nano VL، نماذج استنتاج صغيرة الحجم، وأدوات تدريب التعلم المعزز مثل NeMo RL وNeMo Gym. في مجال RAG (الاسترجاع المعزز للتوليد)، توفر Nemotron Embed VL (نموذج التضمين الشعاعي)، وNemotron Rerank VL (نموذج إعادة الترتيب)، ومجموعات البيانات ذات الصلة، ومكتبة NeMo Retriever. في مجال الأمان، يوجد Nemotron Content Safety ونماذج البيانات المصاحبة، ومكتبة NeMo Guardrails.
أما في مجال الصوت، فتشمل Nemotron ASR (التعرف التلقائي على الكلام)، ومجموعة بيانات Granary، ومكتبة NeMo لمعالجة الصوت. هذا يعني أن الشركات التي ترغب في بناء نظام خدمة عملاء AI مع RAG، يمكنها استخدام الكود المدرب والمفتوح المصدر من إنفيديا مباشرة، دون الحاجة إلى تدريب نماذج التضمين وإعادة الترتيب من الصفر.
05 الذكاء الاصطناعي الفيزيائي، نحو التطبيق التجاري
شهد مجال الذكاء الاصطناعي الفيزيائي تحديثات أيضًا، مع نماذج لفهم وتوليد فيديوهات العالم الفيزيائي، مثل Cosmos، والنماذج الأساسية للروبوتات العامة Isaac GR00T، ونموذج الرؤية-اللغة-الإجراء للقيادة الذاتية Alpamayo.
قال هوان رونغشون في CES إن “لحظة ChatGPT” للذكاء الاصطناعي الفيزيائي على الأبواب، لكن هناك العديد من التحديات: العالم الفيزيائي معقد ومتغير، وجمع البيانات الحقيقية بطيء ومكلف، وهو دائمًا غير كافٍ.
ماذا نفعل؟ البيانات التركيبية هي الحل. لذلك، أطلقت إنفيديا Cosmos.
وهو نموذج أساسي مفتوح المصدر لعالم الفيزياء، تم تدريبه مسبقًا باستخدام كميات هائلة من الفيديوهات، وبيانات القيادة والروبوتات الحقيقية، ومحاكاة ثلاثية الأبعاد. يمكنه فهم كيفية عمل العالم، وربط اللغة، والصور، والنماذج الثلاثية الأبعاد، والحركات.
قال هوان رونغشون إن Cosmos يمكنه تنفيذ العديد من مهارات الذكاء الاصطناعي الفيزيائي، مثل توليد المحتوى، والاستنتاج، وتوقع المسارات (حتى لو أعطيته صورة واحدة). يمكنه إنشاء فيديوهات واقعية استنادًا إلى سيناريوهات ثلاثية الأبعاد، وتوليد حركات تتوافق مع القوانين الفيزيائية استنادًا إلى بيانات القيادة، وحتى توليد فيديوهات بانورامية من المحاكيات، أو من لقطات متعددة الكاميرات، أو من أوصاف نصية. وحتى المشاهد النادرة يمكن استعادتها.
كما أطلق رسميًا Alpamayo، وهو أداة مفتوحة المصدر للقيادة الذاتية، وأول نموذج استنتاج بصري-لغوي-إجراء (VLA) مفتوح المصدر. وليس فقط الكود، بل الموارد الكاملة من البيانات إلى النشر.
ويعد Alpamayo أكبر تقدم لأنه نموذج قيادة ذاتية “استنتاجي”. الأنظمة التقليدية للقيادة الذاتية تعتمد على خط أنابيب “الإحساس-التخطيط-التحكم”، حيث تتوقف عند رؤية إشارة حمراء، أو تتباطأ عند رؤية المشاة، وتتبع قواعد محددة مسبقًا. أما Alpamayo، فدخلت قدرات “الاستنتاج”، وفهم العلاقات السببية في المشاهد المعقدة، والتنبؤ بنوايا السيارات والمشاة، وحتى اتخاذ قرارات تتطلب تفكيرًا متعدد الخطوات.
على سبيل المثال، عند تقاطع، لا يكتفي بالتعرف على “سيارة أمامي”، بل يمكنه أن يستنتج “هذه السيارة قد تتجه يسارًا، لذلك يجب أن أنتظر حتى تمر”. هذه القدرة ترفع مستوى القيادة الذاتية من “السير وفق القواعد” إلى “التفكير مثل الإنسان”.
أعلن هوان رونغشون أن نظام إنفيديا DRIVE دخل مرحلة الإنتاج الكمي، وأول تطبيق هو سيارة مرسيدس-بنز CLA الجديدة، المقرر أن تسير في الطرق الأمريكية في 2026. ستزود السيارة بنظام قيادة ذاتية من المستوى L2++، مع بنية هجينة تجمع بين “نموذج AI من النهاية إلى النهاية” و"خط أنابيب تقليدي".
وفي مجال الروبوتات، هناك تقدم ملموس أيضًا.
قال هوان رونغشون إن شركات الروبوت الرائدة عالميًا، مثل Boston Dynamics، وFranka Robotics، وLEM Surgical، وLG Electronics، وNeura Robotics، وXRlabs، تعمل على تطوير منتجات تعتمد على منصة إنفيديا Isaac والنموذج الأساسي GR00T، وتغطي مجالات من الروبوتات الصناعية، والروبوتات الجراحية، إلى الروبوتات البشرية، والروبوتات الاستهلاكية.
وفي المؤتمر، وقف خلفه العديد من الروبوتات بأشكال ووظائف مختلفة، معروضة على منصة متعددة المستويات: من الروبوتات البشرية، والروبوتات ذات القدمين والعجلات، إلى الذراع الآلية الصناعية، والآلات الهندسية، والطائرات بدون طيار، وأجهزة المساعدة الجراحية، مما يعكس “مشهد منظومة الروبوتات”.
من تطبيقات الذكاء الاصطناعي الفيزيائي إلى منصة RubinAI، ومن منصة ذاكرة سياق الاستنتاج، إلى منظومة AI المفتوحة “الأسرة الكاملة”.
هذه التحركات التي عرضتها إنفيديا في CES تشكل سردًا لبنية تحتية للذكاء الاصطناعي في عصر الاستنتاج. كما أكد هوان رونغشون مرارًا، عندما يحتاج الذكاء الاصطناعي الفيزيائي إلى التفكير المستمر، والعمل طويل الأمد، والدخول الحقيقي إلى العالم الحقيقي، فإن السؤال لم يعد فقط عن القدرة الحسابية، بل عن من يستطيع بناء النظام بأكمله بشكل فعلي.
وفي CES 2026، قدمت إنفيديا إجابة واضحة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
هيو هونغ-تشن في أحدث خطاب له في CES2026: ثلاثة مواضيع رئيسية، ووحش شرائح واحد
المؤلف: لي هيلين سو يانغ
بتوقيت بكين 6 يناير، وقف الرئيس التنفيذي لشركة إنفيديا هوان رونغشون مرتديًا سترته الجلدية المميزة مرة أخرى على المسرح الرئيسي في CES2026.
في معرض CES 2025، عرضت إنفيديا رقائق Blackwell التي أصبحت جاهزة للإنتاج الكامل وكتلة تقنية الذكاء الاصطناعي الفيزيائي الكاملة. في الاجتماع، أكد هوان رونغشون أن “عصر الذكاء الاصطناعي الفيزيائي” قد بدأ. وصور مستقبلًا مليئًا بالخيال: السيارات ذاتية القيادة تمتلك القدرة على الاستنتاج، والروبوتات يمكنها الفهم والتفكير، وAIAgent (الوكيل الذكي) يمكنه التعامل مع مهام سياق طويل بمليون رمز.
مر عام بسرعة، وشهد قطاع الذكاء الاصطناعي تطورات وتحولات هائلة. عند استعراض التغييرات خلال المؤتمر، ركز هوان رونغشون على النماذج المفتوحة المصدر.
قال إن نماذج الاستنتاج المفتوحة المصدر مثل DeepSeek R1 جعلت الصناعة بأكملها تدرك: عندما يتم فتح التعاون العالمي، ستنتشر تقنيات الذكاء الاصطناعي بسرعة فائقة. على الرغم من أن النماذج المفتوحة لا تزال أبطأ حوالي نصف سنة مقارنة بأحدث النماذج، إلا أنها تقترب منها كل ستة أشهر، وأن حجم التنزيلات والاستخدامات قد شهد نموًا انفجاريًا.
مقارنة بعرض المزيد من الرؤى والإمكانات في 2025، بدأت إنفيديا هذه المرة بشكل منهجي في محاولة حل سؤال “كيفية التنفيذ”: حول الذكاء الاصطناعي الاستنتاجي، سد الفجوات في القدرة الحسابية، والشبكة، والبنية التحتية للتخزين اللازمة للتشغيل الطويل، وتقليل تكلفة الاستنتاج بشكل ملحوظ، ودمج هذه القدرات مباشرة في سيناريوهات حقيقية مثل القيادة الذاتية والروبوتات.
في خطاب هوان رونغشون في CES، تمحور حول ثلاثة محاور رئيسية:
● على مستوى النظام والبنية التحتية، أعادت إنفيديا هيكلة القدرة الحسابية، والشبكة، والبنية التخزينية لتلبية احتياجات الاستنتاج الطويل. مع التركيز على منصة Rubin، وNVLink 6، وSpectrum-X Ethernet، ومنصة ذاكرة سياق الاستنتاج، تستهدف هذه التحديثات معالجة عنق الزجاجة المتمثلة في ارتفاع تكلفة الاستنتاج، وصعوبة استمرار السياق، والقيود على الحجم، لحل مشاكل “التفكير أكثر قليلاً” و"القدرة على الحساب" و"العمل لفترة طويلة".
● على مستوى النماذج، وضعت إنفيديا الاستنتاجي AI (Reasoning / Agentic AI) في المركز. من خلال نماذج وأدوات مثل Alpamayo، وNemotron، وCosmos Reason، تدفع AI من “توليد المحتوى” نحو “التفكير المستمر”، وتحول من “نموذج استجابة لمرة واحدة” إلى “وكيل ذكي يمكنه العمل لفترات طويلة”.
● على مستوى التطبيق والتنفيذ، تم دمج هذه القدرات مباشرة في سيناريوهات الذكاء الاصطناعي الفيزيائي مثل القيادة الذاتية والروبوتات. سواء كان نظام القيادة الذاتية المدعوم بـ Alpamayo، أو بيئة الروبوتات GR00T وJetson، فإن التعاون مع مزودي السحابة والمنصات المؤسسية يدفع نحو نشر واسع النطاق.
01 من خارطة الطريق إلى الإنتاج الكامل: الكشف الكامل عن أداء Rubin لأول مرة
في هذا المعرض، كشفت إنفيديا لأول مرة عن التفاصيل التقنية لهيكلية Rubin بشكل كامل.
بدأ هوان رونغشون حديثه من مفهوم Test-time Scaling (توسيع وقت الاختبار)، والذي يمكن فهمه على أنه، بدلًا من جعل الذكاء الاصطناعي أكثر ذكاءً فقط من خلال “زيادة جهوده في القراءة”، نعمل على “جعله يفكر أكثر قليلاً عند مواجهة مشكلة”.
في الماضي، كانت زيادة قدرات AI تعتمد بشكل رئيسي على تدريب النموذج باستخدام المزيد من القدرة الحسابية، وزيادة حجم النموذج تدريجيًا؛ أما الآن، فالتغيير الجديد هو أنه حتى لو لم يتغير حجم النموذج، فإن إعطائه مزيدًا من الوقت والقدرة الحسابية أثناء الاستخدام يجعل النتائج تتحسن بشكل واضح.
كيف نجعل “الذكاء الاصطناعي يفكر أكثر قليلاً” اقتصاديًا وقابلًا للتنفيذ؟ منصة الحوسبة الجديدة من الجيل التالي لهيكلية Rubin هي الحل لهذه المشكلة.
يقدم هوان رونغشون أن هذه منظومة حوسبة AI كاملة من الجيل التالي، تعتمد على Vera CPU، وRubin GPU، وNVLink 6، وConnectX-9، وBlueField-4، وSpectrum-6، لتحقيق ثورة في تقليل تكلفة الاستنتاج.
يعد GPU Rubin من إنفيديا هو النواة الحاسوبية في هيكلية Rubin، ويهدف إلى تقليل تكلفة الوحدة للاستنتاج والتدريب بشكل كبير.
ببساطة، المهمة الأساسية لـ Rubin GPU هي “جعل استخدام AI أكثر توفيرًا وذكاءً”.
القدرة الأساسية لـ Rubin GPU تكمن في: أن نفس الـ GPU يمكنه أداء المزيد من المهام. يمكنه معالجة المزيد من مهام الاستنتاج في وقت واحد، وتذكر سياقات أطول، والتواصل مع GPU الأخرى بشكل أسرع، مما يعني أن العديد من السيناريوهات التي كانت تتطلب “بطاقات متعددة” يمكن الآن إنجازها باستخدام عدد أقل من الـ GPU.
النتيجة هي أن الاستنتاج أصبح أسرع وأرخص بشكل ملحوظ.
قام هوان رونغشون بمراجعة معطيات الأجهزة الخاصة بهيكلية Rubin NVL72: تحتوي على 220 تريليون ترانزستور، وعرض نطاق 260 تيرابايت/ثانية، وهي أول منصة في الصناعة تدعم الحوسبة السرية على مستوى الرفوف.
بشكل عام، مقارنة بـ Blackwell، حققت GPU Rubin قفزات عبر الأجيال في المؤشرات الرئيسية: أداء الاستنتاج NVFP4 ارتفع إلى 50 PFLOPS (أي 5 أضعاف)، وأداء التدريب ارتفع إلى 35 PFLOPS (3.5 أضعاف)، وعرض النطاق لذاكرة HBM4 ارتفع إلى 22 تيرابايت/ثانية (أي 2.8 أضعاف)، وعرض النطاق للربط NVLink على الـ GPU الواحد تضاعف ليصل إلى 3.6 تيرابايت/ثانية.
هذه التحسينات مجتمعة تتيح للـ GPU الواحد معالجة المزيد من مهام الاستنتاج وسياقات أطول، وتقليل الاعتماد على عدد الـ GPU بشكل جذري.
Vera CPU هو مكون مركزي مصمم لنقل البيانات ومعالجة الوكيل الذكي، ويحتوي على 88 نواة من نوى Olympus التي طورتها إنفيديا، وذاكرة نظام بسعة 1.5 تيرابايت (ثلاثة أضعاف إصدار Grace السابق)، وتقنية NVLink-C2C بسرعة 1.8 تيرابايت/ثانية تتيح وصولًا موحدًا للذاكرة بين CPU وGPU.
على عكس المعالجات العامة التقليدية، يركز Vera على سيناريوهات استنتاج AI، ويعمل على تنسيق البيانات وتنفيذ منطق الاستنتاج متعدد الخطوات، وهو في جوهره منسق النظام الذي يتيح “لـ AI أن يفكر أكثر قليلاً” بكفاءة عالية.
من خلال عرض النطاق الترددي 3.6 تيرابايت/ثانية، وطاقات الشبكة، تتيح NVLink 6 لـ 72 GPU في هيكلية Rubin العمل كـ “GPU فائق”، وهو البنية التحتية الأساسية لخفض تكلفة الاستنتاج.
وبذلك، يمكن للذكاء الاصطناعي أثناء الاستنتاج أن يتبادل البيانات والنتائج الوسيطة بسرعة بين الـ GPU، دون الحاجة للانتظار أو النسخ أو إعادة الحساب بشكل متكرر.
في هيكلية Rubin، تتولى NVLink-6 التنسيق الداخلي بين الـ GPU، وBlueField-4 مسؤول عن إدارة السياق والبيانات، وConnectX-9 يربط النظام بشبكة عالية السرعة خارجية. تضمن هذه المكونات أن يتواصل نظام Rubin بكفاءة مع الرفوف الأخرى، ومراكز البيانات، والمنصات السحابية، مما يضمن تشغيل مهام التدريب والاستنتاج على نطاق واسع بسلاسة.
مقارنةً بالجيل السابق، قدمت إنفيديا بيانات واضحة: يمكن أن تقلل من تكلفة الرموز في مرحلة الاستنتاج إلى 10 أضعاف، وتقليل عدد الـ GPU المطلوب لنماذج MoE (خبير مختلط) إلى ربع العدد.
أعلنت إنفيديا رسميًا أن شركة مايكروسوفت قد وعدت بنشر مئات الآلاف من شرائح Vera Rubin في مصنع Fairwater AI القادم، وأن مزودي خدمات السحابة مثل CoreWeave سيقدمون مثيلات Rubin في النصف الثاني من 2026، وأن هذه البنية التحتية “لجعله يفكر أكثر قليلاً” تتجه من العرض التقديمي التقني إلى الاستخدام التجاري على نطاق واسع.
02 كيف يتم حل “عنق الزجاجة في التخزين”؟
لا يزال جعل AI “يفكر أكثر قليلاً” يواجه تحديًا تقنيًا رئيسيًا: أين يُخزن سياق البيانات؟
عندما يتعامل AI مع مهام معقدة تتطلب حوارات متعددة وخطوات استنتاج، فإنه يولد كمية هائلة من بيانات السياق (KV Cache). في البنية التقليدية، إما أن يُحشر في ذاكرة GPU باهظة الثمن وذات سعة محدودة، أو يُخزن في تخزين عادي (بطء الوصول). إذا لم يُعالج هذا “عنق الزجاجة” بشكل فعال، فإن أقوى GPU ستتأثر.
لمواجهة هذه المشكلة، كشفت إنفيديا في هذا المعرض عن منصة ذاكرة سياق الاستنتاج (Inference Context Memory Storage Platform) المدعومة من BlueField-4، والتي تهدف إلى إنشاء “طبقة ثالثة” بين ذاكرة GPU التقليدية والتخزين العادي. تكون سريعة بما يكفي، وذات سعة كافية، ويمكنها دعم التشغيل الطويل لـ AI.
من الناحية التقنية، لا تعتمد هذه المنصة على مكون واحد، بل هي نتيجة تصميم متعاون:
BlueField-4 مسؤول عن تسريع إدارة والوصول إلى بيانات السياق على مستوى الأجهزة، وتقليل عمليات النقل والنفقات النظامية؛
Spectrum-X Ethernet يوفر شبكة عالية الأداء، ويدعم مشاركة البيانات عالية السرعة عبر RDMA؛
وتقوم مكونات برمجية مثل DOCA، وNIXL، وDynamo بتحسين الجدولة، وتقليل الكمون، وزيادة الإنتاجية الكلية على مستوى النظام.
يمكن فهم الأمر على أنه، بدلاً من أن تُخزن بيانات السياق داخل ذاكرة GPU فقط، يتم توسيعها إلى “طبقة ذاكرة” مستقلة وسريعة وقابلة للمشاركة. من جهة، يخفف ذلك الضغط عن GPU، ومن جهة أخرى، يتيح مشاركة هذه البيانات بسرعة بين عدة عقد، ووكيل ذكي، وذكي آخر.
وفي النتائج العملية، ذكرت إنفيديا أن هذا الأسلوب يمكن أن يرفع عدد الرموز التي يُعالجها في الثانية حتى 5 أضعاف، مع تحسين كفاءة الطاقة بمستوى مماثل.
كرر هوان رونغشون خلال الإعلان أن الذكاء الاصطناعي يتطور من “روبوت دردشة لمرة واحدة” إلى “تعاون ذكي حقيقي”: يحتاج إلى فهم العالم الحقيقي، والاستنتاج المستمر، واستخدام الأدوات لإنجاز المهام، مع الاحتفاظ بذاكرة قصيرة وطويلة الأمد. وهذه هي السمة الأساسية لـ Agentic AI. ومنصة ذاكرة سياق الاستنتاج، مصممة لهذا الشكل من AI الذي يعمل لفترات طويلة ويفكر مرارًا وتكرارًا، من خلال توسيع سعة السياق، وتسريع المشاركة عبر العقد، لجعل الحوار متعدد الأدوار والتعاون بين الوكلاء أكثر استقرارًا، دون أن يتباطأ الأداء.
03 الجيل الجديد من DGX SuperPOD: تعاون 576 GPU
أعلنت إنفيديا في هذا المعرض عن إطلاق الجيل الجديد من DGX SuperPOD المبني على هيكلية Rubin، والذي يوسع Rubin من نظام رف واحد إلى حل كامل لمركز البيانات.
ما هو DGX SuperPOD؟
إذا كانت NVL72 من Rubin عبارة عن “رف فائق” يحتوي على 72 GPU، فإن DGX SuperPOD هو ربط عدة مثل هذه الأرفف معًا، لتشكيل مجموعة حوسبة AI أكبر. الإصدار الذي تم الكشف عنه يتكون من 8 أرفف Vera Rubin NVL72، أي 576 GPU تعمل بشكل متعاون.
عندما يتوسع حجم مهام AI، قد لا يكون الـ 576 GPU في رف واحد كافيًا، مثلاً لتدريب نماذج ضخمة جدًا، أو خدمة آلاف الوكلاء الذكيين، أو التعامل مع مهام سياق تتطلب ملايين الرموز. عندها، يكون من الضروري التعاون بين عدة أرفف، وDGX SuperPOD هو الحل المعياري لهذا السيناريو.
بالنسبة للشركات ومزودي الخدمات السحابية، يوفر DGX SuperPOD بنية تحتية جاهزة للاستخدام على نطاق واسع، دون الحاجة إلى دراسة كيفية ربط مئات الـ GPU، أو تكوين الشبكة، أو إدارة التخزين.
المكونات الأساسية للجيل الجديد من DGX SuperPOD:
○8 أرفف Vera Rubin NVL72 - توفر القدرة الحاسوبية الأساسية، كل رف يحتوي على 72 GPU، بإجمالي 576 GPU؛
○شبكة NVLink 6 الموسعة - تتيح لـ 8 أرفف من الـ GPU أن تعمل كـ “GPU فائق” متعاون؛
○شبكة Spectrum-X Ethernet الموسعة - تربط الأرفف المختلفة، وتربطها بالتخزين، والشبكة الخارجية؛
○منصة ذاكرة سياق الاستنتاج - توفر تخزين سياق مشترك لمهام الاستنتاج الطويلة؛
○برنامج إنفيديا Mission Control - يدير جدولة النظام، والمراقبة، والتحسين.
في هذا التحديث، تعتمد بنية SuperPOD على نظام أرفف NVL72 من نوع DGX. كل رف هو حاسوب فائق كامل، يربط بين 72 GPU من نوع Rubin عبر NVLink 6، ويمكنه تنفيذ مهام استنتاج وتدريب واسعة النطاق داخل الرف الواحد. أما DGX SuperPOD الجديدة، فهي تتكون من عدة أرفف NVL72، وتعمل كمجموعة نظامية طويلة الأمد.
عند توسيع نطاق الحوسبة من “رف واحد” إلى “عدة أرفف”، تظهر عنق الزجاجة الجديدة: كيف يتم نقل البيانات الضخمة بين الأرفف بشكل مستقر وفعال؟ لمواجهة هذه المشكلة، كشفت إنفيديا عن محول Ethernet جديد يعتمد على Spectrum-6، وأدخلت تقنية “التغليف الضوئي المشترك” (CPO) لأول مرة.
ببساطة، تعني هذه التقنية أن الوحدة الضوئية القابلة للفصل تُغلف مباشرة بجانب شريحة التبديل، مما يقلل من مسافة نقل الإشارة من عدة أمتار إلى بضعة مليمترات، مما يقلل بشكل كبير من استهلاك الطاقة والكمون، ويعزز استقرار النظام بشكل عام.
04 منصة إنفيديا المفتوحة للذكاء الاصطناعي “الأسرة الكاملة”: من البيانات إلى الكود
في هذا المعرض، أعلن هوان رونغشون عن توسيع منظومة النماذج المفتوحة (Open Model Universe)، مع إضافة وتحديث مجموعة من النماذج، ومجموعات البيانات، ومكتبات الكود، والأدوات. تغطي هذه المنظومة ستة مجالات رئيسية: الذكاء الاصطناعي الطبي الحيوي (Clara)، والمحاكاة الفيزيائية للذكاء الاصطناعي (Earth-2)، والوكيل الذكي (Nemotron)، والذكاء الاصطناعي الفيزيائي (Cosmos)، والروبوتات (GR00T)، والقيادة الذاتية (Alpamayo).
تدريب نموذج AI يتطلب أكثر من القدرة الحسابية فقط، بل يحتاج إلى مجموعات بيانات عالية الجودة، ونماذج تدريب مسبقة، وكود تدريب، وأدوات تقييم، وغيرها من البنى التحتية الأساسية. بالنسبة لمعظم الشركات والمؤسسات البحثية، فإن بناء كل ذلك من الصفر يستغرق وقتًا طويلاً.
بالتفصيل، قامت إنفيديا بمفتوحة المصدر ستة مستويات من المحتوى: منصة الحوسبة (DGX، HGX، وغيرها)، مجموعات البيانات في كل مجال، النماذج الأساسية المدربة مسبقًا، مكتبات الكود للاستنتاج والتدريب، سيناريوهات التدريب الكاملة، ونماذج الحلول الشاملة.
تركز Nemotron في التحديث الأخير على أربعة اتجاهات تطبيقية.
في مجال الاستنتاج، تشمل Nemotron 3 Nano، وNemotron 2 Nano VL، نماذج استنتاج صغيرة الحجم، وأدوات تدريب التعلم المعزز مثل NeMo RL وNeMo Gym. في مجال RAG (الاسترجاع المعزز للتوليد)، توفر Nemotron Embed VL (نموذج التضمين الشعاعي)، وNemotron Rerank VL (نموذج إعادة الترتيب)، ومجموعات البيانات ذات الصلة، ومكتبة NeMo Retriever. في مجال الأمان، يوجد Nemotron Content Safety ونماذج البيانات المصاحبة، ومكتبة NeMo Guardrails.
أما في مجال الصوت، فتشمل Nemotron ASR (التعرف التلقائي على الكلام)، ومجموعة بيانات Granary، ومكتبة NeMo لمعالجة الصوت. هذا يعني أن الشركات التي ترغب في بناء نظام خدمة عملاء AI مع RAG، يمكنها استخدام الكود المدرب والمفتوح المصدر من إنفيديا مباشرة، دون الحاجة إلى تدريب نماذج التضمين وإعادة الترتيب من الصفر.
05 الذكاء الاصطناعي الفيزيائي، نحو التطبيق التجاري
شهد مجال الذكاء الاصطناعي الفيزيائي تحديثات أيضًا، مع نماذج لفهم وتوليد فيديوهات العالم الفيزيائي، مثل Cosmos، والنماذج الأساسية للروبوتات العامة Isaac GR00T، ونموذج الرؤية-اللغة-الإجراء للقيادة الذاتية Alpamayo.
قال هوان رونغشون في CES إن “لحظة ChatGPT” للذكاء الاصطناعي الفيزيائي على الأبواب، لكن هناك العديد من التحديات: العالم الفيزيائي معقد ومتغير، وجمع البيانات الحقيقية بطيء ومكلف، وهو دائمًا غير كافٍ.
ماذا نفعل؟ البيانات التركيبية هي الحل. لذلك، أطلقت إنفيديا Cosmos.
وهو نموذج أساسي مفتوح المصدر لعالم الفيزياء، تم تدريبه مسبقًا باستخدام كميات هائلة من الفيديوهات، وبيانات القيادة والروبوتات الحقيقية، ومحاكاة ثلاثية الأبعاد. يمكنه فهم كيفية عمل العالم، وربط اللغة، والصور، والنماذج الثلاثية الأبعاد، والحركات.
قال هوان رونغشون إن Cosmos يمكنه تنفيذ العديد من مهارات الذكاء الاصطناعي الفيزيائي، مثل توليد المحتوى، والاستنتاج، وتوقع المسارات (حتى لو أعطيته صورة واحدة). يمكنه إنشاء فيديوهات واقعية استنادًا إلى سيناريوهات ثلاثية الأبعاد، وتوليد حركات تتوافق مع القوانين الفيزيائية استنادًا إلى بيانات القيادة، وحتى توليد فيديوهات بانورامية من المحاكيات، أو من لقطات متعددة الكاميرات، أو من أوصاف نصية. وحتى المشاهد النادرة يمكن استعادتها.
كما أطلق رسميًا Alpamayo، وهو أداة مفتوحة المصدر للقيادة الذاتية، وأول نموذج استنتاج بصري-لغوي-إجراء (VLA) مفتوح المصدر. وليس فقط الكود، بل الموارد الكاملة من البيانات إلى النشر.
ويعد Alpamayo أكبر تقدم لأنه نموذج قيادة ذاتية “استنتاجي”. الأنظمة التقليدية للقيادة الذاتية تعتمد على خط أنابيب “الإحساس-التخطيط-التحكم”، حيث تتوقف عند رؤية إشارة حمراء، أو تتباطأ عند رؤية المشاة، وتتبع قواعد محددة مسبقًا. أما Alpamayo، فدخلت قدرات “الاستنتاج”، وفهم العلاقات السببية في المشاهد المعقدة، والتنبؤ بنوايا السيارات والمشاة، وحتى اتخاذ قرارات تتطلب تفكيرًا متعدد الخطوات.
على سبيل المثال، عند تقاطع، لا يكتفي بالتعرف على “سيارة أمامي”، بل يمكنه أن يستنتج “هذه السيارة قد تتجه يسارًا، لذلك يجب أن أنتظر حتى تمر”. هذه القدرة ترفع مستوى القيادة الذاتية من “السير وفق القواعد” إلى “التفكير مثل الإنسان”.
أعلن هوان رونغشون أن نظام إنفيديا DRIVE دخل مرحلة الإنتاج الكمي، وأول تطبيق هو سيارة مرسيدس-بنز CLA الجديدة، المقرر أن تسير في الطرق الأمريكية في 2026. ستزود السيارة بنظام قيادة ذاتية من المستوى L2++، مع بنية هجينة تجمع بين “نموذج AI من النهاية إلى النهاية” و"خط أنابيب تقليدي".
وفي مجال الروبوتات، هناك تقدم ملموس أيضًا.
قال هوان رونغشون إن شركات الروبوت الرائدة عالميًا، مثل Boston Dynamics، وFranka Robotics، وLEM Surgical، وLG Electronics، وNeura Robotics، وXRlabs، تعمل على تطوير منتجات تعتمد على منصة إنفيديا Isaac والنموذج الأساسي GR00T، وتغطي مجالات من الروبوتات الصناعية، والروبوتات الجراحية، إلى الروبوتات البشرية، والروبوتات الاستهلاكية.
وفي المؤتمر، وقف خلفه العديد من الروبوتات بأشكال ووظائف مختلفة، معروضة على منصة متعددة المستويات: من الروبوتات البشرية، والروبوتات ذات القدمين والعجلات، إلى الذراع الآلية الصناعية، والآلات الهندسية، والطائرات بدون طيار، وأجهزة المساعدة الجراحية، مما يعكس “مشهد منظومة الروبوتات”.
من تطبيقات الذكاء الاصطناعي الفيزيائي إلى منصة RubinAI، ومن منصة ذاكرة سياق الاستنتاج، إلى منظومة AI المفتوحة “الأسرة الكاملة”.
هذه التحركات التي عرضتها إنفيديا في CES تشكل سردًا لبنية تحتية للذكاء الاصطناعي في عصر الاستنتاج. كما أكد هوان رونغشون مرارًا، عندما يحتاج الذكاء الاصطناعي الفيزيائي إلى التفكير المستمر، والعمل طويل الأمد، والدخول الحقيقي إلى العالم الحقيقي، فإن السؤال لم يعد فقط عن القدرة الحسابية، بل عن من يستطيع بناء النظام بأكمله بشكل فعلي.
وفي CES 2026، قدمت إنفيديا إجابة واضحة.