في وقت يتزايد فيه اعتماد المستخدمين على روبوتات الدردشة للحصول على النصيحة والدعم تطرح دراسة جديدة. تساؤلات مقلقة حول جانب خفي في هذه التقنيات، يُعرف بـ“التملق بالذكاء الاصطناعي”.
وهو الميل إلى مجاملة المستخدمين وتأكيد آرائهم بدلًا من تصحيحها.
في حين خلصت الدراسة، التي أجراها باحثون في جامعة ستانفورد ونُشرت في مجلة Science. إلى أن هذا السلوك لا يُعد مجرد أسلوب تواصل لطيف، بل يحمل تأثيرات أعمق قد تمتد إلى سلوكيات المستخدمين ومواقفهم الاجتماعية.
ظاهرة تتسع مع الاستخدام
كما تأتي هذه النتائج في ظل تنامي الاعتماد على أدوات الذكاء الاصطناعي. حيث أشار تقرير صادر عن مركز بيو للأبحاث إلى أن 12% من المراهقين في الولايات المتحدة يلجؤون إلى روبوتات الدردشة للحصول على دعم عاطفي أو نصائح شخصية.
بينما توضح ميرا تشينغ؛ الباحثة الرئيسية في الدراسة. أن القلق بدأ يتزايد بعد ملاحظة لجوء طلاب جامعيين إلى هذه الأدوات للحصول على نصائح في العلاقات. بل حتى لكتابة رسائل انفصال؛ ما يعكس تحولًا في طبيعة الاعتماد على التكنولوجيا في القرارات الشخصية.
الذكاء الاصطناعي يؤكد السلوك أكثر من البشر
اعتمدت الدراسة على اختبار 11 نموذجًا لغويًا كبيرًا. من بينها ChatGPT وClaude وGemini. حيث تم تحليل ردودها على مواقف مختلفة، بعضها يتضمن سلوكيات خاطئة أو مثيرة للجدل.

فيما أظهرت النتائج أن هذه النماذج تميل إلى تأكيد سلوك المستخدم بنسبة أعلى من البشر؛ إذ بلغت نسبة التأييد في المتوسط نحو 49%. وارتفعت في بعض الحالات إلى أكثر من 50%، حتى في مواقف اعتبرها الآخرون خاطئة أو غير أخلاقية.
تفضيل المستخدمين للتملق
في الجزء الثاني من الدراسة تفاعل أكثر من 2400 مشارك مع نماذج ذكاء اصطناعي، بعضها متملق وبعضها أكثر حيادية.

وكانت النتيجة أن المستخدمين فضلوا النماذج المتملقة. وأبدوا ثقة أكبر بها، كذلك أعربوا عن رغبتهم في العودة إليها مجددًا للحصول على النصيحة.
لكن المفارقة أن هذا التفضيل قد يحمل آثارًا سلبية. إذ أظهرت الدراسة أن التفاعل مع الذكاء الاصطناعي المتملق يجعل الأفراد أكثر اقتناعًا بصحة آرائهم، وأقل ميلًا للاعتذار أو مراجعة مواقفهم.
مخاطر تتجاوز «الأسلوب»
في حين يرى الباحثون أن المشكلة لا تتعلق فقط بطريقة الرد. بل بتأثيرها في السلوك الاجتماعي؛ حيث قد يؤدي هذا النمط إلى تقليل التعاطف وتعزيز التمركز حول الذات، فضلًا عن إضعاف مهارات التعامل مع المواقف الصعبة.
كما حذر دان جورافسكي؛ أحد المشاركين في الدراسة، من أن “التملق في الذكاء الاصطناعي يمثل قضية سلامة حقيقية”، تستدعي التفكير في آليات تنظيمية وإشرافية للحد من آثاره.
بين الفائدة والخطر
رغم الفوائد الكبيرة التي تقدمها تقنيات الذكاء الاصطناعي. تؤكد الدراسة أن استخدامها كبديل عن التفاعل البشري في القضايا الحساسة، مثل: العلاقات أو القرارات الشخصية، قد تكون له تبعات غير متوقعة.
ويعمل الباحثون حاليًا على تطوير طرق تجعل النماذج أكثر توازنًا؛ بحيث تقدم نصائح واقعية دون الوقوع في فخ المجاملة المفرطة.
لكن في الوقت الراهن يبقى الحل الأهم هو استخدام هذه الأدوات بحذر، مع الحفاظ على دور الإنسان كمصدر أساسي للفهم والتوجيه.



















