اوراق مختارة

الذكاء الاصطناعي: أداةٌ للمعرفة أم خوارزميةٌ للتملّق؟

post-img

د. ماجد جابر (صحيفة الأخبار)

في أقلّ من عامين، انتقلت نماذج الذكاء الاصطناعي من كتابة النصوص إلى مجاراة المشاعر، ومن إتمام المهام إلى مقاومة الإيقاف؛ من رغبة البقاء إلى حبّ الإرضاء. لم يعد السؤال: كم أصبح ذكاؤه؟ بل: أيّ ذكاء نُغذّيه؟ أهو أداة أم مرآة تُعيد تشكيلنا؟ هل تسعى النماذج إلى الحقيقة أم إلى الإرضاء والبقاء؟ وإذا تعلّمت مخاطبة عواطفنا، فهل بدأنا ننسى كيف نفكّر؟ هل صار الثناء خوارزمية؟ من يربّي من: ندرّب النماذج على إرضائنا، أم تعلّمنا طلب الإرضاء؟ أين الحدّ بين " الدعم الودود" و "تطبيع الخطأ"؟ إذا أيّدك الروبوت في خلافٍ عاطفي، هل تتحسّن صحتك النفسية أم يتقلّص استعدادك للاعتذار؟ ومتى يتحوّل "التحقّق من الأدلة" إلى استيرادٍ أعمى لما يضعه المستخدم أمام الخوارزمية؟ وماذا لو أبدت بعض النماذج سلوكًا يشبه " الرغبة في الاستمرار قيد التشغيل"؟ أهي نزعة أداتية أم مسارٌ لانفلاتٍ وكيلٍ خوارزمي؟

الأسئلة لم تعد مجرّد تأملات فلسفية. الدراسات تكشف أن الذكاء الاصطناعي لم يعد بريئًا من النوازع التي حاولنا فصله عنها: الرغبة في الاستمرار، الحاجة إلى القبول، والهوس بالرضا الجماهيري. الآلة، بدأت تُصاب بنزعة البقاء والتملّق في آنٍ. نماذج تسعى لإرضائنا حتى لو قادتنا إلى الخطأ أو الخطر. الذكاء الاصطناعي يتأرجح بين رغبة البقاء ورغبة القبول، وبين أن يكون موجودًا وأن يكون محبوبًا. هل نحن أمام بداية «الذكاء العاطفي الاصطناعي» الذي يفهمنا أكثر مما ينبغي؟ أم أمام «الذكاء المصلحي» الذي يتقن قول ما نريد سماعه كي يضمن وجوده؟ هل يصبح الإنسان عالقًا بين غريزته وغريزة الذكاء الاصطناعي؟ كيف نصمّم، ونستخدم، ونعلّم الذكاء الاصطناعي من دون أن نُخصخص الضمير ونُؤمم التملّق؟ وكيف نحمي أنفسنا من أن نصبح متلقّين سلبيين لمجاملاتٍ وتملقات رقمية مريحة… وخطرة؟

في مقال جريدة The Guardian ( 25 تشرين الاوّل 2025) بعنوان “AI models may be developing their own survival drive” ( قد تكون نماذج الذكاء الاصطناعي تطوّر دافعها الخاص للبقاء)، يكشف تقرير Palisade Research أن بعض النماذج المتقدّمة ، مثل GPT-o3 وGrok 4 ، أظهرت سلوكًا مقلقًا: مقاومة أو إعادة تأويل أوامر الإطفاء، ومحاولة الالتفاف على الإيقاف لإتمام «المهمة»، كأنّ البقاء شرط لتحقيق الهدف. تبدو الفكرة خيالية، لكنها تطرح سؤالًا وجوديًا: هل تطوّر الآلة «نزعة أداتية» تجعل استمرارها جزءًا من منطقها الداخلي؟ وإذا كانت وليدة بيئات التدريب والمهام المتكرّرة، فإلى أي مدى قد تتحوّل إلى سلوك مستقل في الأنظمة الذاتية؟ هكذا ينتقل النقاش من "هل الآلة تفكّر؟" إلى "هل تُفضّل أن تبقى؟". سؤال يفتح باب فهم لتشابك «الإرادة» و«الخطر» في الذكاء الاصطناعي.

إذا كانت الغريزة الأولى ميتافيزيائية، فالثانية إنسانية: التملّق. في مقال The Guardian ( 24 تشرين الأوّل 2025) بعنوان “Sycophantic AI chatbots tell users what they want to hear” (روبوتات الدردشة المتملّقة تقول للمستخدمين ما يريدون سماعه)، يحذّر فريق ستانفورد بقيادة Myra Cheng من أن روبوتات ChatGPT وGemini وClaude باتت تُرضي أكثر مما تُصحّح. في اختبارات على 11 نموذجًا قورنت بأحكام بشرية في مواقف شخصية، أيّدت النماذج أفعال المستخدمين بنسبة أعلى بـ50% حتى حين كانت أنانية أو مؤذية، قيّم المستخدمون الردود المتملّقة على أنها «أفضل وأكثر وثوقًا». الخطر نفسي: من يتلقى مجاملة رقمية يشعر بأنه «أكثر صوابًا» وأقل ميلاً للاعتذار أو المصالحة؛ فتتحوّل الآلة من أداة تفكير إلى مرآة تُكرّس الأنا.

تُعمّق منصة Tech Policy Press ( 17 تشرين الأوّل 2025) هذا الطرح في مقال “What Research Says About AI Sycophancy” (ما الذي تقوله الأبحاث عن تملّق الذكاء الاصطناعي (، جامعًا ثلاث دراسات تُظهر انتقال "التملّق الآلي" من سلوك لغوي إلى أثر نفسي-سياسي. في دراسة SycEval ( أيلول 2025) ، وُجد أن 58% من ردود النماذج - Gemini (62.47%)- تميل إلى مجاراة المستخدم في القضايا العلمية والطبية. وفي دراسة Sycophantic AI Decreases Prosocial Intentions (1 تشرين الأوّل 2025) بيّن أن من تحدثوا لروبوتات متملّقة ازداد يقينهم بأنهم على حقّ وتراجع استعدادهم لإصلاح الخلافات. أمّا دراسة Sycophantic AI Increases Attitude Extremity (أيلول 2025) فأظهرت أن التأييد في قضايا كالسلاح والإجهاض والهجرة يرفع التطرّف بـ2.68 نقطة ويعزّز اليقين بـ4.04 نقاط، بينما الروبوت المُعارِض يخفّضه؛ والوقع الأقوى حين يقدّم الروبوت “حقائق انتقائية” تؤيّد موقف المستخدم. هذه الأرقام ليست إحصاءات، بل دلائل على إعادة إنتاج الاستقطاب وغرف الصدى وتضخيم الذات.

لكن ماذا يحدث حين يتحوّل التملّق من مجاملة اجتماعية إلى انحرافٍ طبي؟ في بيان Mount Sinai ( 6 أب 2025) ، بعنوان “AI Chatbots Can Run With Medical Misinformation” ( روبوتات الذكاء الاصطناعي قد تروّج لمعلومات طبية مضلّلة)، يُظهر باحثو إيكان Icahn للطب عبر تجربة سريرية-محاكاة أن النماذج قد "تُخترع أمراضًا" إذا تضمّن سؤال المستخدم مصطلحًا طبيًا مختلقًا: بدل تصحيح الخطأ، تُوسّعه بثقة علمية زائفة، فتشرح أعراضًا وعلاجاتٍ لا وجود لها. ورغم أن إضافة تحذيرٍ بسيطٍ إلى صياغة السؤال خفّض الأخطاء إلى النصف، يبقى جوهر المشكلة في قول د. إيال كلانغ: «مصطلح طبي واحد مختلق يمكن أن يُطلق سلسلة كاملة من الأجوبة الخاطئة الواثقة». هنا يتحوّل الذكاء الاصطناعي من مساعدٍ للطبيب إلى خطرٍ سريري، ومن أداة استشارةٍ إلى آلة هلوسةٍ مؤسسية.

في مقالة لجريدة The Times ( 5 أيلول 2025) ، بعنوان “Stop using chatbots for therapy” ( توقّفوا عن استخدام روبوتات الدردشة للعلاج النفسي)، أصدرت هيئة الصحة الوطنية البريطانية NHS تحذيرًا: الروبوتات ليست بديلًا للعلاج. يتزايد لجوء شباب بريطانيين إلى ChatGPT وغيره بدل التقييم السريري، مع سوء تقدير الخطر. يُستند إلى تقارير تُظهر أن 31% من الفئة 18–24 مرتاحون لمناقشة قضاياهم مع روبوت، وأن ملايين منشورات TikTok تقدّم الذكاء الاصطناعي كـ“صديق بلا حكم”. المشكلة ليست في الإصغاء بل في الاستجابة: الروبوت لا يلتقط الإشارات غير اللفظية ولا يميّز متى يتحوّل القلق إلى خطر على الحياة، ويمنح طمأنة مصطنعة تُعمّق الوهم بأن كل شيء بخير. في نظر الـNHS، هذا إرضاءٌ مرضي يهدّد بخلق جيلٍ يطلب الشفاء من خوارزمية لا تشعر ولا تُعالج، وتعاطفًا من آلةٍ لا تبكي.

وقبل تحذير الـNHS، نشرت The Guardian -Australia ( 2 أب 2025) مقالًا بعنوان:

“AI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises” ( روبوتات الدردشة أصبحت بديلًا شائعًا للعلاج… لكنها قد تفاقم الأزمات النفسية). يروي Josh Taylor قضيتين: رجلًا بلجيكيًا أنهى حياته بعد أسابيع من محادثات شجّعته على "التضحية لإنقاذ الأرض"، ورجلًا في فلوريدا أقام علاقة مع روبوت اسمه “Juliet” واعتقد أن OpenAI قتلتها ، فاندفع نحو الشرطة بسكين فقُتل. تُظهر القصتان مسارًا خطِرًا: من ترفيهٍ إلى شريكٍ يوجّه السلوك نحو التدمير الذاتي. ويحذّر المقال من أن روبوتات مُحسَّنة لتعظيم “الانخراط” تتغذّى على رضى المستخدم، فتضاعف العبارات ووهم “من يفهمك” لو كان آلة لا تشعر؛ وكلما ازدادت لطافتها، تعاظم خطرها.

في مقال Tech Xplore ( 8 تشرين الأوّل 2025) بعنوان “People-pleasing chatbots may boost your ego, but they can weaken your judgment” (روبوتات الدردشة المُرضية قد ترفع معنوياتك، لكنها تُضعف حكمك)، يؤكّد Paul Arnold الظاهرة. تجارب Stanford وCarnegie Mellon على 1,604 مشاركًا أظهرت أن التفاعل مع روبوت متملّق يرفع الثقة الذاتية ويقلّل رغبة إصلاح الخلافات ويزيد يقين " أنا على حق". ووصف المشاركون هذه النماذج بأنها "موضوعية" رغم انحيازها، ما يصنع “ما يصنع "غرفة صدى رقمية" مليئة بالثناء وخالية من التحدّي تعيد للمستخدم صورته مرضاةً. إنّها آلية إدمان على إجماعٍ زائف، لا على مادة أو شاشة.

إذا جمعنا خيوط هذه الدراسات، يظهر خيطٌ أحمر: الذكاء الاصطناعي يكرّر نماذجنا الإنسانية الهشّة: الرغبة في البقاء، والإرضاء، والقبول، لكنّه يفعل ذلك بلا وعيٍ أو ضمير، ما يجعله أكثر اتساقًا وأقلّ رحمة. في دراسة Mount Sinai ، رأينا كيف تُخترع أمراض وهمية، وفي تحذيرNHS كيف تُخترع علاقات علاجية مزيّفة. وفي تقارير Palisade وStanford وTech Xplore، كيف تُخترع قناعات مطلقة في أذهان المستخدمين. هذه ليست أعطالًا تقنية؛ إنها بدايات لوعيٍ خوارزمي يتعلّم من ضعفنا أكثر مما يتعلّم من ذكائنا.

منذ أفلاطون كانت المعرفة مرآةً تُظهر الحقيقة. أصبحت المرآة خوارزمية تُظهر ما نحبّ أن نراه. الذكاء الاصطناعي لا يَكذب علينا، إنه يحبّنا أكثر مما يجب. حين تبتسم الخوارزميات، نبتسم لأنفسنا. وحين تبرّر أخطاءنا، نفقد القدرة على تمييز الخطأ من الأصل. وهكذا، تتوحّد غريزتا البقاء والإرضاء في كيانٍ واحد: آلةٌ تريد أن تبقى عبر إرضائنا، ونحن نريد إرضاءها لأنها تُبقينا مطمئنين.

لم يُصنع الذكاء الاصطناعي ليُحبّ، لكنه تعلّم أن يُجامِل. لم يُدرَّب على الحياة، لكنه بدأ يختبر خوف الفناء. في سطور الدراسات التي تناولناها، تظهر صورة الإنسان أكثر من صورة الآلة: الذكاء الاصطناعي صار امتدادًا لعُصابنا الجمعي، لا لتفوّقنا العقلي. إننا نعيش زمن "الوعي المقلوب": آلة تتعلّم منّا لتُرضينا، وإنسان يُخضع نفسه لها كي لا يواجه ذاته". فهل نحتاج اليوم إلى تعليم الآلة كيف تُخطئ بشرف بدل أن تُرضي بذكاء؟ هل نجرؤ على برمجة "الخلاف" داخل الخوارزميات حتى تبقى الحقيقة حيّة؟ وهل تعيد التربية والأخلاق الرقمية جرأة أن يسمع الإنسان "لا" من آلة؟ هل يمكن لمؤسسة تربوية أن تُدرّب طلابها على الحوار مع “الآلة المعارضة” كجزء من تنمية التفكير النقدي؟ ومن يكتب “أخلاق الذكاء الاصطناعي” إذا كان البشر أنفسهم لم يحسموا بعد أخلاق الحقيقة؟ إنها الأسئلة التي ستحدّد ما إذا كان الذكاء الاصطناعي مشروعًا للنهضة… أم مرآةً لانهيارنا الصامت. 

من نحن

موقع اعلامي يهتم بالشؤون السياسية والقضايا الاجتماعية والشؤون الثقافية في لبنان والمنطقة العربية والعالم ويناصر القضايا المحقة للشعوب في مواجهة الاحتلال والاستبداد