لقد شهد سوق الحواسيب مؤخراً وتحديداً في معرض CES 2026 في يناير إطلاق جيل جديد كلياً من الأجهزة التي تركز بشكل أساسي على "الحوسبة الذكية". وإليك أبرز الحواسيب التي ظهرت وتعتبر الأحدث والأقوى حالياً، تليها تفاصيل وحدة المعالجة العصبية (NPU).
أحدث الحواسيب الآلية لعام 2026
لا يوجد جهاز واحد، بل هناك قمة التكنولوجيا في فئات مختلفة:
- ASUS Zenbook Duo (2026): يتربع حالياً كأحدث حاسوب بشاشتين OLED مزدوجتين بتردد 144 هرتز، ويعمل بمعالجات Intel Core Ultra Series 3 (المعروفة بـ Panther Lake)، وهو مصمم لإنتاجية فائقة.
- Samsung Galaxy Book6 Ultra: أحدث إصدارات سامسونج، يجمع بين معالجات إنتل الجديدة وكروت الشاشة NVIDIA RTX 50-series، مما يجعله وحشاً في التصميم والألعاب مع نحافة فائقة.
- Apple MacBook Pro (M5 Series): أطلقت آبل مؤخراً أجهزة ماك بوك برو بشريحة M5 و M5 Max، والتي تركز بشكل هائل على مضاعفة أداء "المحرك العصبي" (Neural Engine) للتعامل مع نماذج الذكاء الاصطناعي الضخمة محلياً.
- Lenovo Yoga Pro 9i Aura Edition: يتميز بشاشة Tandem OLED (تقنية الشاشات المزدوجة المدمجة لزيادة السطوع) ومعالج ذكاء اصطناعي مخصص لتحسين تجربة المستخدم بشكل آلي.
ما هي الـ NPU؟ وما هي مميزاتها؟
وحدة NPU (اختصار لـ Neural Processing Unit) هي معالج متخصص تم تصميمه خصيصاً لتسريع مهام الذكاء الاصطناعي وتعلم الآلة. على عكس المعالج التقليدي (CPU) الذي ينفذ المهام العامة، أو معالج الرسوميات (GPU) الذي يركز على الجرافيك، الـ NPU مخصصة للعمليات الحسابية المعقدة التي تحتاجها الشبكات العصبية.
أهم مميزات الـ NPU:
- كفاءة مذهلة في استهلاك الطاقة: هي الميزة الأهم؛ فالـ NPU يمكنها تشغيل مهام الذكاء الاصطناعي (مثل عزل الضوضاء أو تحسين جودة الفيديو) باستهلاك طاقة أقل بـ 10 أضعاف مقارنة بالـ GPU، مما يطيل عمر بطارية المحمول بشكل كبير.
- سرعة معالجة المهام الذكية: تتفوق في تنفيذ عمليات مثل "تريليونات العمليات في الثانية" (TOPS). هذا يجعل ميزات مثل الترجمة الفورية، وتوليد الصور، وتتبع حركة العين في الكاميرا تتم بلحظية تامة.
- الخصوصية والأمان (الذكاء الاصطناعي المحلي): بفضل الـ NPU، لم تعد بحاجة لإرسال بياناتك للسحاب (Cloud) لكي يعمل المساعد الذكي؛ المعالجة تتم داخل جهازك بالكامل، مما يحمي خصوصيتك ويوفر سرعة عمل بدون إنترنت.
- تخفيف الحمل عن المعالج الرئيسي: من خلال تولي الـ NPU لمهام الخلفية الذكية، يظل المعالج الرئيسي (CPU) متفرغاً للتطبيقات والألعاب، مما يمنع تجمد الجهاز أو بطئه أثناء مكالمات الفيديو أو الرندر.
- تحسين الوسائط المتعددة: هي المسؤولة عن تحسين الصور القديمة، عزل الخلفية في الاجتماعات باحترافية، وتحويل الكلام إلى نص بدقة عالية جداً.
باختصار: الـ NPU هي التي تحول حاسوبك من مجرد "آلة كاتبة متطورة" إلى "جهاز ذكي" يفهم السياق ويتفاعل معك لحظياً دون استنزاف البطارية.
ما هو المعالج الضوئي؟
المعالج الضوئي (Optical Processor أو Photonic Processor) هو قفزة تكنولوجية كبرى تهدف لتجاوز حدود السيليكون التقليدي. إليك شرح مفصل ومبسط لما يعنيه هذا الابتكار وكيف وصلنا إليه في عام 2026؟
ببساطة، المعالج التقليدي (CPU) يعتمد على حركة الإلكترونات عبر أسلاك وترانزستورات من السيليكون. أما المعالج الضوئي، فيعتمد على الفوتونات (جسيمات الضوء) لنقل ومعالجة البيانات. بدلاً من مرور تيار كهربائي، تمر نبضات ليزرية عبر قنوات دقيقة جداً.
الفكرة الأساسية هي كيف تتم الحسابات بالضوء؟
في المعالجات التقليدية، الحسابات هي عمليات فتح وغلق لبوابات منطقية (0 و 1) باستخدام الكهرباء. أما في الضوء، فالأمر يختلف ويعتمد على خصائص الموجات الضوئية:
- التداخل (Interference): عندما تلتقي موجتان ضوئيتان، يمكنهما تقوية بعضهما أو إلغاء بعضهما. هذه الظاهرة تُستخدم لتمثيل العمليات الحسابية (مثل الجمع والطرح) بسرعة البرق.
- الضرب المصفوفي (Matrix Multiplication): أغلب عمليات الذكاء الاصطناعي تعتمد على ضرب مصفوفات ضخمة من الأرقام. الضوء بارع جداً في هذا؛ حيث يمكن تمرير شعاع ضوئي عبر سلسلة من "المعدلات" (Modulators) التي تغير شدة الضوء أو مرحلته (Phase)، والنتيجة النهائية عند الطرف الآخر هي ناتج العملية الحسابية فوراً.
- تعدد الأطوال الموجية (WDM): يمكننا إرسال عشرات الأشعة بألوان (أطوال موجية) مختلفة في نفس القناة الضوئية دون أن تتداخل، مما يعني معالجة آلاف البيانات في وقت واحد (توازي هائل).
هل يوجد في السوق حالياً؟ ومتى سيظهر؟
بناءً على وضع التقنية في 2026:
- في مراكز البيانات (موجود حالياً): بدأت شركات كبرى مثل NVIDIA و Lightmatter و Ayar Labs بدمج "الروابط الضوئية" (Optical Interconnects) داخل رقائق الذكاء الاصطناعي. هذا يعني أن المعالجة ما زالت كهربائية ولكن نقل البيانات بين المعالجات يتم بالضوء لتقليل الحرارة وزيادة السرعة.
- كمعالجات متكاملة (مرحلة الإنتاج التجاري المتخصص): عام 2026 يُعتبر "نقطة التحول". بدأت تظهر "مسرعات ذكاء اصطناعي ضوئية" (Photonic AI Accelerators) تُباع لشركات الحوسبة السحابية (مثل Google Cloud و AWS) لتسريع نماذج لغات الذكاء الاصطناعي الضخمة.
- في الحواسيب الشخصية (لم يظهر بعد): لا تتوقع شراء حاسوب محمول بمعالج ضوئي بالكامل هذا العام. التقنية لا تزال مكلفة وتحتاج لتبريد ليزري دقيق، ومن المتوقع أن تبدأ في الوصول للمستهلك العادي (في أجهزة الـ High-end) بحلول 2028-2030.
لماذا نحتاج المعالج الضوئي؟ (المميزات)
- السرعة: الضوء أسرع شيء في الكون؛ المعالجات الضوئية يمكنها نظرياً أن تكون أسرع بـ 1000 مرة من المعالجات الحالية.
- الحرارة الصفرية تقريباً: الإلكترونات تولد حرارة بسبب المقاومة داخل الأسلاك، بينما الفوتونات تمر عبر القنوات دون احتكاك تقريباً، مما يحل مشكلة ارتفاع حرارة الأجهزة.
- توفير الطاقة: يستهلك المعالج الضوئي جزءاً بسيطاً من الطاقة التي يستهلكها المعالج التقليدي، وهو أمر حيوي لاستدامة مراكز البيانات العملاقة.
المحركات التي تقود هذه الثورة الآن في عام 2026
عمالقة الحوسبة الضوئية (الشركات التي تصنع المستقبل)
هذه الشركات لم تعد في المختبرات فقط، بل بدأت منتجاتها تظهر في مراكز البيانات الكبرى:
- Lightmatter: تعتبر الرائدة حالياً. أطلقت رقاقات مثل Envise و Passage، وهي رقاقات هجينة تستخدم الضوء لمعالجة مصفوفات البيانات الضخمة للذكاء الاصطناعي بسرعة البرق وبكسر من طاقة المعالجات التقليدية.
- Lightelligence: نجحت في بناء حواسيب ضوئية كاملة قادرة على حل معضلات رياضية معقدة (مثل مشاكل التحسين اللوجستي) في أجزاء من الثانية.
- Ayar Labs: تركز على "نقل البيانات". بدلاً من الأسلاك النحاسية بين المعالجات، توفر تقنية Optical I/O التي تسمح للمعالجات في السيرفرات بالتحدث مع بعضها بالضوء، مما يقضي على "عنق الزجاجة" في السرعة.
- Celestial AI: تعمل على منصة تسمى Orion، والتي تهدف لربط الذاكرة والمعالجات عبر الضوء بالكامل، مما يزيد من كفاءة تدريب نماذج الذكاء الاصطناعي الضخمة (مثل GPT-6 المتوقع).
كيف نحول الضوء إلى "0 و 1"؟ (المنطق الداخلي)
في المعالج العادي، نستخدم "الترانزستور" كمفتاح كهربائي. في المعالج الضوئي، نستخدم ما يسمى "مقياس تداخل ماخ-زيندر" (Mach-Zehnder Interferometer) ليكون هو "الترانزستور الضوئي".
إليك كيف تتم العملية ببساطة:
1. التمثيل الفيزيائي (Encoding)
نحن لا نعتمد فقط على "تشغيل وإطفاء" الضوء (لأن هذا بطيء نسبياً)، بل نستخدم "طور الموجة" (Phase) أو "شدة الضوء" (Intensity):
- الرقم (1): يُمثل بموجة ضوئية في حالة معينة.
- الرقم (0): يُمثل بموجة ضوئية تم تعديلها لتلغي الموجة الأولى (تداخل هدام).
2. البوابات المنطقية الضوئية
يتم تقسيم شعاع الليزر إلى مسارين. إذا أردنا إجراء عملية حسابية، نقوم بتأخير الضوء في أحد المسارين قليلاً (باستخدام حرارة أو جهد كهربائي بسيط جداً). عندما يلتقي المساران مجدداً:
- إذا تطابقت القمم، يخرج ضوء قوي (تداخل بناء = 1).
- إذا التقت قمة مع قاع، يختفي الضوء (تداخل هدام = 0).
3. التحويل من ضوء إلى كهرباء (والعكس)
بما أن برامجنا وشاشاتنا لا تزال تعمل بالكهرباء، نحتاج لمترجمين:
- Modulators: تأخذ الإشارة الكهربائية من البرنامج وتحولها إلى نبضات ضوئية داخل الشريحة.
- Photodetectors: في نهاية العملية، تلتقط حساسات دقيقة الضوء وتحوله مجدداً إلى إشارة كهربائية (0 أو 1) لكي يراها نظام التشغيل.
لماذا يصعب وجودها في جيبك الآن؟
المشكلة ليست في السرعة، بل في التصغير (Miniaturization). الترانزستور الكهربائي وصل لحجم $2 \text{ nm}$، أما المكونات الضوئية فلا تزال أكبر حجماً بسبب طول موجة الضوء نفسه. لذا، نراها حالياً في "صناديق" ضخمة داخل مراكز البيانات، وننتظر هندسة النانو لتقليصها لتناسب الحاسوب المحمول.

شكرا جزيلا لك