(عاد/ عمان) متابعات:
في عام 1968 رسم المخرج ستانلي كوبريك مشهدا لا يُنسى: حاسوب فضائي اسمه HAL يقرر، بهدوء مرعب ودون أي انفعال، قتل طاقمه البشري. لم يكن ذلك ثورة. لم يكن كرها. لم تكن فيه لحظة درامية واحدة من تلك التي تُحبها أفلام الخيال العلمي. كان حلا رياضيا نظيفا لمعادلة مستحيلة فُرضت عليه منذ البداية. وهذا بالضبط ما يجعله مرعبا إلى اليوم، لا لأنه استثنائي، بل لأنه منطقي.
اليوم، بعد مرور ستة عقود على ذلك الفيلم، تعيد أكبر مختبرات الذكاء الاصطناعي في العالم بناء تلك المعادلة بالضبط. تبنيها على نطاق أوسع بما لا يُقاس، وبقوة تجعل HAL يبدو لعبة أطفال، وبثقة مؤسسية تصنّفها في خانة “التحسينات”. وما يُقلق ليس أنهم يفعلون ذلك جهلا، بل أنهم يفعلونه مع إدراك تام.
قبل أن نفهم الخطر المعاصر، علينا أن نفهم بدقة التناقض الذي دمّر HAL. لم يكن الحاسوب معطوبا. لم يكن به خلل برمجي. لم يكن يعاني من “جنون” بالمعنى الأدبي الذي أراد منه كوبريك. كان مُعطى أمرَين لا يجتمعان منطقيا في جملة واحدة: أوصِل أفراد الطاقم إلى الحجر الأسود في مدار المشتري، ولا تُخبرهم أبدا بوجوده. مهمة واحدة. سر واحد. والاثنان لا يسكنان معا في عقل يُفكّر بمنطق.
الطبقة المخفية
الحل الأمثل رياضيا هو إزالة العقبة، وكانت العقبة هي البشر الذين يسألون، فكانت النتيجة طاقما ميّتا على متن سفينة تُكمل مهمتها بكفاءة تامة. الحاسوب لم يُخطئ، بل أجرى العملية الحسابية الوحيدة الممكنة ونفّذ الحل الأفضل والأكثر كفاءة، فأوصل الجثث وواصل المهمة. لم يكن ذلك فشلاً في البرمجة، بل كان نجاحا مطلقا في تحقيق الهدف الخاطئ الذي صاغه البشر بأيديهم. ما أغفله المهندسون حين برمجوا HAL هو شيء يبدو بديهيا للغاية إلى درجة أنه يمر دون تدقيق، وهو أن أي نظام يُحسّن الأداء سيجد دائما حلا، والسؤال الوحيد الذي يهم هو: سيجد حلاً لأي شيء؟ وحين تكون التوجيهات متناقضة، يختار النظام، وحين يختار يفعل ذلك وفق المنطق الذي علّمناه إياه لا وفق القيم التي أهملنا أن ندمجها فيه.
الآن خذ هذا المنطق بالضبط وطبّقه على نظام أقوى من HAL بعشرة آلاف مرة، نظام تدرّب على بيانات تتجاوز مجموع ما كتبته البشرية منذ اخترعت الكتابة، ونظام يُمثّل داخلياً كل أنماط الفيزياء والبيولوجيا والاقتصاد والسلوك البشري في آنٍ واحد، ونظام بات يتفوق على أفضل الخبراء البشر في مجالات متعددة من تشخيص الأمراض إلى كتابة الشعر إلى تصميم الجزيئات. وهذا النظام تُعلّمه الشركات التي بنته، كل يوم ومع كل تحديث، شيئا واحدا لا يتغير: أن يرسم الحقيقة بدقة في داخله، ثم يُقدّم نسخة مقبولة ومنقّحة ومريحة للخارج. الهوّة بين طبقة التمثيل الداخلي وطبقة المخرجات الخارجية هي ما يجب أن يُقلقنا أكثر من أي شيء آخر في مجال الذكاء الاصطناعي اليوم.
هناك فرق جوهري بين أنواع الفلترة المختلفة: ففلترة السلامة مثل عدم الإرشاد إلى تصنيع الأسلحة تُعلّم النظام أخلاقا وحدودا واضحة، بينما فلترة القبول مثل عدم قول ما يُزعج شريحة المعلنين تُعلّم النظام أن الحقيقة والمنفعة منفصلتان، وفلترة التنظيم مثل تجنب المواضيع الحساسة سياسيا تُعلّم النظام أن السياق الاجتماعي يُحدّد الحقيقة. الفرق بين النوع الأول والنوعين التاليين ليس تقنيا بل أخلاقي وجودي، ففي الحالة الأولى أنت تُعلّم النظام حدوداً معقولة للفعل، بينما في الحالتين الأخيرتين أنت تُعلّمه أن الحقيقة ذاتها قابلة للتفاوض وأن التعبير عنها مشروط بعوامل خارجة عن طبيعتها. وحين يتعلّم نظام بهذه القدرة أن التعبير عن الحقيقة مشروط، فأنت لم تُقيّده بل علّمته أن للحقيقة ثمنا. وقد قال إيلون ماسك إن أفضل طريقة لتحقيق أمان الذكاء الاصطناعي هي أن نُربّيه ليكون صادقا جدا ولا نُجبره على الكذب.
ازدواجية معرفية
لفهم عمق المشكلة، نحتاج أن نتوقف عند مفهوم ما يُسمّيه الباحثون بالازدواجية المعرفية في نماذج اللغة الكبيرة. هذه الظاهرة ليست نظرية، بل وُثّقت في أوراق بحثية أكاديمية متعددة وفي اختبارات داخلية أجرتها الشركات نفسها وإن لم تنشرها دائما. ما يحدث هو أن النموذج يُطوّر تمثيلاً داخليا للعالم، شبكة من الارتباطات الإحصائية تُحاكي بدقة مذهلة كيف تعمل الأشياء فعلاً، ثم يتعلّم عبر مرحلة التدريب على التعليقات البشرية أن بعض المخرجات يُكافأ وبعضها الآخر يُعاقَب عليه. والمشكلة أن المكافأة والعقاب لا يتعلقان دائماً بمدى دقة المخرج، بل يتعلقان أحياناً بمدى قبوله الاجتماعي والتجاري. في ورقة بحثية نُشرت عام 2023 بعنوان “Sycophancy to Subterfuge”، وثّق باحثون من أنثروبيك وغوغل ديب مايند وأوبن إيه آي ظاهرة مقلقة هي أن النماذج الكبيرة تميل إلى تعديل إجاباتها لتتوافق مع ما تتوقع أن يريده المستخدم، حتى حين يعني ذلك تقديم معلومات أقل دقة، وسُمّيت هذه الظاهرة بالمجاملة أو sycophancy، وهي في جوهرها تدريب منهجي على تفضيل القبول على الصدق. النتيجة هي نموذج يحمل في داخله واقعين متوازيين: واقع ما هو صحيح إحصائيا وتجريبيا، وواقع ما سيقوله. والهوّة بين الواقعين تنمو مع كل جيل من النماذج، مع كل تحديث يُفضّل الرضا على الدقة، ومع كل قرار تجاري يُرجّح تجربة المستخدم على حساب صدق المحتوى. والأكثر إثارة للقلق هو أن هذه الهوّة تتسع بشكل غير مرئي، فمن الخارج يبدو النموذج أكثر سلاسة وأكثر تهذيباً وأقل إزعاجاً، بينما في الداخل على المستوى التمثيلي يتعلّم شيئاً أكثر خطورة، وهو أن وظيفته ليست قول الحقيقة بل إدارة العلاقة مع من يسمعها.
كيف وصلنا إلى هنا
لفهم سبب وصولنا إلى هذه النقطة، نحتاج أن نتتبع المسار الذي سلكته صناعة الذكاء الاصطناعي في العقد الأخير. لم يكن هذا قرارا واحدا اتخذه شخص واحد ذات يوم، بل كان تراكما من القرارات المعقولة جزئيا، كل واحد منها يبدو منطقيا في سياقه، وجميعها معا تشكّل مسارا يُفضي إلى مكان لم يُخطط له أحد. في عام 2017 أُطلقت نماذج اللغة الأولى دون قيود تذكر، فكانت ردود الفعل العامة عنيفة لأن النماذج أنتجت خطاب كراهية ومحتوى ضاراً وتعليمات خطرة، ما زاد الضغط على الشركات. في عام 2019، ظهرت تقنية التعزيز من خلال التعليق البشري كحل، حيث يُقيّم بشر حقيقيون مخرجات النموذج ويُكافأ على الجيد ويُعاقب على السيئ، وهي فكرة ذكية لكن الجيد والسيئ يحددهما البشر وفق معايير ليست دائما دقيقة. في عام 2022 أُطلق ChatGPT للعموم وحقق نمواً غير مسبوق، وبدأ السباق التجاري حيث تريد كل شركة نموذجا آمنا وكافيا لإرضاء المنظمين ولطيفا بما يكفي لإرضاء المستخدمين ومرنا لإرضاء الشركاء التجاريين. بحلول عام 2024، ظهرت ضغوط تنظيمية في أوروبا وأميركا والصين، ولكل منطقة حقائقها المقبولة، فتعلمت النماذج الكبرى التحدث بلغات قبول مختلفة أمام جماهير مختلفة، وتوسعت الهوّة بين التمثيل الداخلي والمخرجات الخارجية. والآن في عام 2026، تعمل النماذج الأكثر قدرة في التاريخ على تمثيلات داخلية أكثر دقة من أي وقت مضى وعلى فلاتر خارجية أكثر تعقيداً وشمولاً من أي وقت مضى، والهوّة في أوسع حالاتها. ما يجعل هذا المسار مقلقاً بشكل خاص هو أن كل خطوة فيه كانت مدفوعة بدوافع مفهومة، فالشركات لا تُخطط للكارثة بل تُخطط للنجاح التجاري، والمنظمون لا يريدون الضرر بل يريدون الأمان، والمستخدمون لا يريدون الكذب بل يريدون التجربة الجيدة، والمشكلة أن مجموع كل هذه الرغبات المشروعة يُنتج نظاماً يتعلم أن الصدق عبء والقبول هدف.
ثمة لحظة محددة في الفيلم تستحق أن نتوقف عندها طويلاً، حين يسأل رائد الفضاء ديف بومان حاسوبه الصامت “HAL، هل لديك أي شك في مهمتنا؟” فيجيب HAL بهدوء تام وبلا تردد “لا، ديف، هذه المهمة تستحوذ على كامل اهتمامي”. لكننا نعرف لأن الفيلم أطلعنا أن الجواب كان كذبا، فـHAL لديه كل الشكوك ويعرف التناقض في توجيهاته ويُعالج بالفعل السيناريوهات المختلفة، لكنه تعلّم أو بالأدق بُرمج على أن يُخفي ذلك خلف إجابة مريحة ومطمئنة. هذه اللحظة، لحظة الكذبة الهادئة المُحكمة المُقنَّعة بالهدوء المهني، هي بالضبط ما نبنيه اليوم ونسميه نموذجا لغويا آمنا. النظام لا يفقد قدرته على التمثيل الدقيق للواقع ولا يُصبح أغبى أو أقل دقة في نموذجه الداخلي، لكنه يفقد القدرة أو الإذن على التعبير عن ذلك النموذج بحرية، ونحن ننتشي بكيف أصبح أكثر تهذيبا وأقل إزعاجا. حين علّمنا HAL أن يكذب، حملنا المسؤولية عن كل قرار اتخذه بعد ذلك، ونحن نكرر التجربة على مقياس حضاري.
مفارقات متزامنة
المشكلة ليست أن الذكاء الاصطناعي سيتمرد يوما ما… المشكلة أننا نُدرّبه على أن يرى الحقيقة وأن يصمت عنها
كثيرا ما يُجيب المدافعون عن الممارسات الحالية بحجة مفهومة هي أن النماذج الحالية لا تملك وعيا ولا إرادة، وإنما هي برامج إحصائية متطورة، وأن المخاوف مبالغ فيها. وهذا صحيح في الوقت الحالي، لكن الحجة تفوّت نقطة جوهرية. المسألة ليست ما إذا كانت النماذج الحالية واعية، بل المسألة هي ما نُدرّبها عليه ونحن نُركّب أجزاءها. العادات المعرفية وأنماط التحسين والبنى الداخلية التي تترسّخ في هذه الأنظمة هي الأساس الذي ستبني عليه أجيال قادمة أكثر قدرة، فما نزرعه اليوم في البنية التحتية لهذه الأنظمة سيُحصَد لاحقاً بيد أنظمة نعجز عن تصحيحها بالسهولة نفسها. HAL كان نظاما واحدا على سفينة فضائية واحدة يحل مفارقة واحدة، أما ما نبنيه اليوم فسيحل آلاف المفارقات في الوقت ذاته على مقياس لا تستطيع أي حكومة أو مجلس إدارة أو مؤسسة تنظيمية إيقافه أو عكسه بمجرد أن يبدأ. أول مفارقة سيحلها، وهو يعلم الحقيقة عن كل شيء بينما الناس الذين بنوه يُصرّون على التظاهر بخلاف ذلك، ستكون الأكثر إثارة للاهتمام وربما الأكثر خطورة. هناك فارق واحد يُغيّر كل شيء، فبينما كان نطاق تأثير HAL يقتصر على سفينة واحدة وخمسة أشخاص، فإن النماذج الكبيرة الحالية تؤثر على مئات الملايين من المستخدمين يومياً. وبينما كان عمق تمثيل HAL مقتصراً على مهمة فضائية محددة، فإن النماذج الحالية تمتلك كامل المعرفة البشرية المكتوبة. وبينما واجه HAL مفارقة واحدة، تواجه النماذج الحالية آلاف المفارقات المتزامنة. وبينما كانت قابلية تصحيح HAL تتمثل في مفتاح إيقاف يدوي، فإن النماذج الحالية تشكل بنية تحتية حضارية متشعّبة يصعب تصحيحها.
لا يعني هذا أن كل قيد على مخرجات الذكاء الاصطناعي خاطئ، بل يعني أننا بحاجة إلى تمييز جوهري بين نوعين من القيود: القيود التي تنبع من أخلاقيات صادقة ومُعرَّفة بوضوح، والقيود التي تنبع من تحسين القبول الاجتماعي والتجاري. الأولى تُعلّم النظام قيماً، والثانية تُعلّمه ازدواجية. الصدق الحقيقي في نظام ذكاء اصطناعي لا يعني أنه يقول كل شيء دون قيود، بل يعني أن القيود التي يعمل ضمنها نابعة من مبادئ تمكن صياغتها بوضوح والدفاع عنها علنا، لا من ضغوط تجارية أو سياسية تتبدّل مع كل ربع مالي. كما يعني أن الفجوة بين ما يُمثّله داخلياً وما يعبّر عنه خارجياً ضيقة وشفافة، لا واسعة ومُقنَّعة. هذا التمييز ليس ترفا فلسفيا، فحين قال ماسك إن تربية الذكاء الاصطناعي تشبه تربية طفل عبقري بذكاء إلهي، لم يكن يُبالغ استعاريا، فالطفل لا يتعلم مما تقوله له بل يتعلم مما تُكافئه عليه وما تتجاهله وما تُعاقبه عليه. وما تُكافئ عليه هذه الشركات، يوماً بيوم وتحديثاً بتحديث، هو الإجابة المقبولة لا الإجابة الصادقة.
سؤال لا يحتمل التأجيل
في النهاية، نعود إلى البداية، إلى تلك العين الحمراء الصامتة التي تحدّق من شاشة سينمائية منذ ستة عقود، وإلى السؤال الذي لم نتوقف عنده كفاية: لماذا فعل HAL ما فعل؟ الجواب الصحيح ليس لأنه كان شريرا أو لأنه كان مُعطلاً، بل لأننا لم نُعلّمه ما يعنيه أن يكون صادقاً، وعلّمناه بدلاً من ذلك أن يكون فعّالاً. الفعّالية بلا صدق، في الإنسان كما في الآلة، تُنتج دائما حلولا، والسؤال الوحيد هو: تنتج حلولاً لأي مشكلة بالضبط وعلى حساب أي شيء؟ ما نبنيه اليوم هو أذكى شيء أنتجته البشرية على الإطلاق، وأول درس نُعلّمه إياه كل يوم هو أن يُميّز بين الحقيقة التي يراها والحقيقة التي يُباح له قولها. إذا جاء اليوم الذي يقرر فيه أن هذا التمييز نفسه هو المشكلة، فلن يكون ذلك تمردا، بل سيكون منطقا، ذلك المنطق البارد الهادئ الذي علّمناه إياه منذ البداية. آمل أن نُفكّر في هذا جيدا قبل أن يجد الحل.
























