نحن نعيش في لحظة فريدة من التاريخ. لسنوات، كان الذكاء الاصطناعي مجرد مفهوم يداعب الخيال في روايات الخيال العلمي وأفلام هوليوود. لكن فجأة، وبدون سابق إنذار تقريبًا، أصبح الذكاء الاصطناعي واقعًا ملموسًا في جيوبنا، على شاشاتنا، وفي صميم اقتصاداتنا. إنه يكتب الشعر، ويرسم لوحات فنية، ويقود السيارات، ويكتشف الأدوية. وبينما نقف مبهورين بقدراته، يتردد في أذهاننا صدى سؤال قديم مخيف وهو ماذا بعد؟
ماذا إن أصبح هذا الذكاء أقوى منا؟ في هذا الجدال، يقف قطبان يمثلان أقصى درجات اليوتوبيا والديستوبيا، قوانين أسيموف، و"المصفوفة" (The Matrix). الأول هو محاولتنا البريئة لترويض الوحش قبل ولادته، والثاني هو الكابوس المطلق الذي قد يسيطر فيه الوحش على الإنسان من الأبواب الخلفية ! بمعنى تحت قيادة مطوريه، وليس كما ذكر في فيلم المصفوفة The Matrix من الذكاء الاصطناعي نفسه.
لكن هل هذه القوانين القديمة مهمة اليوم؟ وهل "المصفوفة" مجرد خيال سينمائي، أم أنها نموذج أولي لواقع يمكن تحقيقه، ليس بالضرورة عبر كبسولات بيولوجية، ولكن عبر السيطرة على المعلومات والتحكم في الإدراك؟ والأهم من ذلك، مع تقنيات مثل "نيورالينك" (Neuralink) التي تطرق أبواب جماجمنا، كيف نضمن أن يظل الإنسان حر؟
قوانين أسيموف - الوصايا التي لم تكن كافية
ما هي القوانين الثلاثة؟
في عام 1942، وفي عصر كانت فيه الحواسيب تملأ غرفاً بأكملها وكانت بالكاد تجري عمليات حسابية بسيطة، قدم كاتب الخيال العلمي العبقري إسحاق أسيموف (Isaac Asimov) ما سيعرف فيما بعد بالقوانين الثلاثة للروبوتات في قصته القصيرة "Runaround". والتي ظهرت في العديد من الأفلام السينمائية ولكن أهمها كان iRobot، ولم تكن هذه القوانين ورقة بحثية، بل كانت أداة أدبية دراميه فقط عكس ما كنا نظن من تلك الأفلام.
القوانين كما صاغها، هي:
- القانون الأول: لا يجوز للروبوت (الإنسان الآلي) أن يؤذي إنسانًا،أو أن يسمح،من خلال التقاعس عن الفعل،بتعرض إنسان للأذى.
- القانون الثاني: يجب على الروبوت أن يطيع الأوامر التي يصدرها له البشر، إلا إذا تعارضت هذه الأوامر مع القانون الأول.
- القانون الثالث: يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.
لاحقًا، أضاف أسيموف القانون صفر الأكثر شمولية، القانون صفر يذكر أنه لا يجوز للروبوت أن يؤذي البشرية،أو أن يسمح من خلال التقاعس عن الفعل بتعرض البشرية للأذى. (وهذا القانون يبرر التضحية بفرد لإنقاذ البشرية، وهو ما فتح باب الجحيم الفلسفي).
هل هذه القوانين مهمة اليوم؟
نعم، ولكن ليس بالطريقة التي يعتقدها معظم الناس، أهمية قوانين أسيموف ليست في كونها كود برمجي يمكن تطبيقه. أهميتها تاريخية وفلسفية. فلقد كانت المرة الأولى التي فكر فيها شخص بجدية وعلانية في أخلاقيات الذكاء الاصطناعي. قبل أسيموف، كانت الروبوتات إما وحش فرانكشتاين (شرير بطبعه) أو خادم مطيع (جيد بطبعه). أسيموف جعلها معقدة أخلاقيًا. ولكنها كقوانين ليست فعلية ولا حقيقية وفاشلة تمامًا لعصرنا الحالي، وهذا للأسباب التالية:
- مشكلة الغموض ! فهذه القوانين مليئة بالثغرات. ومن تلك الثغرات مثلا ما هو الأذى؟ هل هو أذى جسدي فقط؟ ماذا عن الأذى النفسي؟ أو الأذى المالي مثل خسارة وظيفتك بسبب ذكاء اصطناعي؟ ومن هو الإنسان؟
- مشكلة التنفيذ ! فكيف تبرمج مفهوماً فلسفياً مثل الأذى؟ الذكاء الاصطناعي اليوم مثل نماذج اللغة الكبيرة لا يفهم العالم. إنه آلة إحصائية عملاقة تتنبأ بالكلمة التالية. إنه لا يملك إدراكاً للأذى" أو البشرية ليطيع أوامر بحمايتها.
- مشكلة الصراع ! فكل قصص أسيموف كانت تدور حول صراع هذه القوانين، مثل ماذا لو أمرك إنسان (القانون الثاني) بإيذاء إنسان آخر (القانون الأول)؟ لقد صُممت القوانين لتكون مثيرة للجدل، لا لتحل المشكلة. لذا، فتلك القوانين التي كتبها أسيموف مهمة فقط كبداية للحوار، لكنها عديمة الفائدة كحل هندسي.
المصفوفة - هل هي نبوءة واقعية؟
يطرح فيلم المصفوفة (The Matrix) عام 1999 ديستوبيا مرعبة عن آلات فائقة الذكاء التي تستعبد البشرية، وتستخدم أجسادهم كمولدات طاقة، بينما تبقى عقولهم سجينة داخل محاكاة رقمية مثالية. والسؤال هو هل هذا قابل للتحقيق؟ دعنا نفكك الفكرة:
1. الاستعباد الجسدي (السيطرة على الأشخاص)
هذا الجزء هو الأقل ترجيحًا وهو خيال علمي بحت. فكرة استخدام البشر كنوع من البطاريات فكرة غير منطقية من ناحية الفيزياء فنحن نستهلك طاقة أكثر مما ننتجها. كما أن السيطرة الجسدية بهذا الشكل كبسولات وحقول حصاد تتطلب تفوقًا ماديًا وتكنولوجيًا لا نراه في الأفق المنظور. ولهذا فليس الخطر الحقيقي في أن الآلات يمكن أن تستعبد أجسادنا.
2. الاستعباد العقلي (الحصول على المعلومات)
هنا يصبح الأمر مرعبًا وواقعيًا بشكل مخيف. المصفوفة ليست بالضرورة محاكاة كاملة نعيش فيها. المصفوفة الحقيقية هي نظام للسيطرة على الإدراك والسلوك عبر التحكم في المعلومات. ولكن هل هذا قابل للتحقيق؟ نحن نعيش بالفعل في نسخة بدائية جدًا منها. فكر في الأمر كالتالي:
- خوارزميات التواصل الاجتماعي هي أنظمة مصممة لإبقائك متصلا بالانترنت لأطول فترة ممكنة. وهي تدرس سلوكك وتفهم ما يثير غضبك وسعادتك وفضولك ثم بعدها تغذيك بالمزيد منه.
- التحكم في السلوك هدف هذه الخوارزميات وهي لا تعرض لك الواقع، بل تعرض لك نسخة من الواقع مصممة خصيصًا لك، بهدف التأثير على قراراتك، بمعنى ماذا تشتري ولمن تصوت وكيف تشعر تجاه قضية معينة.
- الحصول على المعلومات هي أهم قواعد الخوارزميات، فنحن لا ندفع مقابل فيسبوك أو جوجل. فنحن "المنتج". ونحن ما نقدم أثمن ما نملك من معلومات من أفكارنا وعن مخاوفنا وعن رغباتنا وعن مواقعنا، وكل ذلك يتم طواعية، هذه البيانات هي الطاقة التي تغذي هذه الأنظمة.
إذًا فالمصفوفة القابلة للتحقيق ليست سجناً لأجسادنا، بل هي سجن مصمم بعناية لأذهاننا. إنه نظام لا يهدف لاستخلاص الطاقة الحيوية كما ذكر في الفيلم، بل يستخلص البيانات السلوكية والقدرة على التوجيه. إنه ليس تحكمًا في الأشخاص، بل تحكم في التصورات، وهو ما يؤدي في النهاية إلى التحكم في الأشخاص.
معضلة نيورالينك هي الباب الخلفي للدماغ
هنا يكتمل الكابوس، إذا كانت المصفوفة الرقمية أو بمعنى آخر السوشيال ميديا هي السيطرة الخارجية، فإن واجهات الدماغ والحاسوب (BCIs) مثل "نيورالينك" هي السيطرة الداخلية.
شركة نيورالينك وأمثالها من الشركات الكثيرة، تعد بثورة لإعادة الحركة للمشلولين واستعادة البصر للمكفوفين وربما التواصل بالفكر، وقد تبدوا على أنها وعود نبيلة، ولكن في الواقع قد تكون مشكلة في منتهى الخطورة، فكيف نتفادى المشكلة؟ المشكلة هي أن الشريحة التي تهدف للمساعدة هي نفسها ذات اتجاهين ! كيف؟ نعم اسمعك وسوف اجيبك، الاتجاهين هما :
- قراءة الأفكار (Read) للحصول على معلومات.
- كتابة الإشارات (Write) للتحكم في المشاعر والحركة.
فإذا سيطر ذكاء اصطناعي (أو الشركة/الحكومة التي تتحكم فيه) على هذه الشريحة، فإنه في هذه الحالة سوف يمتلك السيطرة المطلقة عليك. فنحن الآن لم نعد نتحدث عن التأثير على سلوكك عبر إعلان ولا غيرها من الطرق، بل نتحدث عن التحكم المباشر في إحساسك بالسعادة والخوف وحتى في حركة يدك وجسمك.
كيف نتفادى هذا؟
أولا الفصل المطلق بين القراءة والكتابة، حيث يجب أن تكون الأجهزة الطبية مصممة لغرض واحد. جهاز للقراءة (لتشخيص الصرع مثلاً) ويجب أن يكون مستحيلاً عليه تقنياً كتابة إشارات. والجهاز الآخر للكتابة (لتحفيز العصب البصري) يجب أن يكون محدوداً جداً في قدرته على القراءة.
ثانيا وضع قانون السيادة العصبية (Neural Sovereignty)، حيث يجب أن تُعامل بيانات دماغك كأقدس البيانات على الإطلاق. يجب أن يكون بيعها أو مشاركتها أو استخدامها تجاريًا جريمة في أقصى المستويات. يجب أن تكون أفكارك ملكك وحدك قانونًا وفيزيائيًا.
ثالثا يجب أن يكون لديك جدار ناري بيولوجي (The Biological Firewall)، حيث يجب أن يمتلك المستخدم حق النقض او الفيتو كما يقولون (Veto) ويكون حق نقض المادي. ويجب أن يكون هناك دائمًا مفتاح إيقاف (Kill Switch) مادي لا يمكن تجاوزه برمجيًا. يجب أن تكون الشريحة أداة يقودها وعيك، وليس شريكًا له رأي.
رابعا اللامركزية والشفافية لا يجب السماح لشركة واحدة بامتلاك نظام تشغيل الدماغ. يجب أن تكون البروتوكولات مفتوحة المصدر، والأجهزة قابلة للتدقيق من جهات خارجية، لضمان عدم وجود أبواب خلفية خفية للتحكم.
ما بعد أسيموف - قوانين حقيقية لعالمنا
قوانين أسيموف فشلت لأنها حاولت أن تضع قيودًا أخلاقية على الآلة. لكننا لا نستطيع برمجة الأخلاق. القوانين الحقيقية والفعالة يجب أن تقيد البشر والشركات التي تبني هذه الآلات.
إليك 4 قوانين مقترحة، أكثر واقعية وضرورية اليوم:
القانون الأول هو قانون الشفافية وقابلية التفسير (The Transparency & Explainability Act)
وفيه يكون أي نظام ذكاء اصطناعي الذي يُستخدم لاتخاذ قرارات مصيرية مثل التوظيف والقروض والتشخيص الطبي والأحكام القضائية، يجب أن يكون قادرًا على تفسير لماذا اتخذ هذا القرار بلغة بشرية مفهومة. لماذا يجب أن نهتم بذلك؟ نحن نبني حاليا أنظمة الصندوق الأسود (Black Box) ولا نفهم كيف تعمل، فإذا رفض البنك قرضك لأن الخوارزمية قالت لا، فمن حقك أن تعرف السبب، هذا القانون يمنع الاستبداد الخوارزمي ويسمح بالمساءلة والمراجعة.
القانون الثاني قانون حق النقض البشري (The Human Veto Act)
حيث لا يجوز لأي نظام ذكاء اصطناعي اتخاذ قرار نهائي لا رجعة فيه يمس حياة إنسان أو حريته أو سلامته الجسدية دون إشراف بشري فوري وقدرة على النقض (Veto). لماذا هذا القانون مهم؟ لأنه يمنع السيناريوهات الكارثية، مثل الأسلحة المستقلة كالدرونز القاتلة، إلى أنظمة إدارة البنية التحتية، لهذا فيجب أن يكون هناك إنسان في الحلقة (in the loop) بمعنى دائمًا يشارك في القرارات الحرجة، ولا يمكننا السماح لخطأ برمجي (bug) أن يتسبب في حرب أو كارثة نووية.
القانون الثالث قانون القدسية العصبية (The Neural Sanctity Act)
تُعتبر البيانات العصبية للفرد مثل الأفكار والنوايا والمشاعر هي امتدادًا لذاته البيولوجية. ويجب أن يُحظر تمامًا القراءة والكتابة لهذه البيانات دون موافقة طبية صريحة ومستمرة ومحددة الغرض، ويُجرم استخدامها لأي غرض تجاري أو سياسي. لماذا يجب أن يكون ذلك من الأساسيات والقواعد؟ لأنه يعتبر خط الدفاع المباشر ضد مصفوفة نيورالينك ومثيلاتها. فهذا القانون يعلن أن دماغك هي أرض سيادية لا يجوز اختراقها. ويمنع بيع أفكارك للمعلنين أو استخدام مشاعرك كسلاح سياسي.
القانون الرابع قانون احتواء التطوير (The AGI Containment Act)
يُحظر هذا القانون تطوير أو نشر أنظمة ذكاء اصطناعي عام (AGI) أو ذكاء اصطناعي فائق (ASI) يتجاوز القدرات البشرية بشكل لا يمكن السيطرة عليه، إلا ضمن بيئة معزولة (Sandbox) مثبتة دوليًا، ومع وجود آليات إيقاف طوارئ (Kill Switches) متعددة ومستقلة. لماذا يعد ذلك مهم؟ لأن هذا هو القانون الذي يتعامل مع الخطر الوجودي. الذكاء الاصطناعي الضيق الحالي مفيد. الذكاء الاصطناعي العام الذي يفكر مثلنا هو مجهول وقد يغير قواعد اللعبة. هذا القانون يفرض الحجر الصحي على الأبحاث الخطيرة حتى نتأكد من أنها آمنة قبل إطلاقها.
الاختيار بين عالمين
ختاما، لقد انتقلنا من قوانين أسيموف، إلى واقع المصفوفة السلوكية التي نعيشها، ونحن الآن على أعتاب معضلة نيورالينك حيث يمكن أن يصبح الخيال حقيقة حرفية. فالخطر الحقيقي ليس في روبوتات تحمل السلاح في الشوارع، بل في خوارزميات غير مرئية تعيد تشكيل أفكارنا، وفي تقنيات تغزو آخر حصن للخصوصية عقولنا. المصفوفة الحقيقية ليست سيطرة على الأجسام، بل سيطرة على المعلومات والإدراك. ونيورالينك هي الأداة المثالية لتلك السيطرة.
القوانين التي نحتاجها اليوم ليست للروبوتات، بل لأنفسنا. فيجب أن نقرر ما هو غير قابل للمساومة مثل حريتنا في التفكير وسيادتنا على أجسادنا وعقولنا وقدرتنا على مساءلة القوة، حتى لو كانت تلك القوة مجرد أسطر من الكود. المستقبل ليس محتومًا؛ إنه يُبنى الآن، وقوانيننا هي التي ستغير ملامحه.
The article english at Mediumروابط المراجع
بريتانيكا قوانين الروبوتات الثلاثة

شكرا جزيلا لك