تطوير الذكاء الاصطناعي للمحادثة.. تحديات وحلول

تطوير الذكاء الاصطناعي للمحادثة.. تحديات وحلول
تطوير الذكاء الاصطناعي للمحادثة.. تحديات وحلول

يشير الذكاء الاصطناعي للمحادثة إلى الوكلاء الافتراضيين وروبوتات الدردشة التي تحاكي التفاعلات البشرية ويمكنها إشراك البشر في المحادثة.

استخدام الذكاء الاصطناعي للمحادثة

أصبح استخدام الذكاء الاصطناعي للمحادثة أسلوب حياة سريعًا – بدءًا من مطالبة Alexa بـ”العثور على أقرب مطعم” إلى مطالبة Siri بـ”إنشاء تذكير”، وغالبًا ما يتم استخدام المساعدين الافتراضيين وروبوتات الدردشة للإجابة على أسئلة المستهلكين، وحل الشكاوى، وإجراء الحجوزات، وأكثر بكثير.

يتطلب تطوير هؤلاء المساعدين الافتراضيين جهدًا كبيرًا. ومع ذلك، فإن فهم التحديات الرئيسية ومعالجتها يمكن أن يؤدي إلى تبسيط عملية التنمية.

روبوت محادثة

لإنشاء روبوت محادثة يعمل بالذكاء الاصطناعي، يمكن للمطورين استخدام أطر عمل مثل RASA أو Amazon’s Lex أو Dialogflow من Google لإنشاء روبوتات الدردشة.

يفضل معظمهم RASA عندما يخططون لإجراء تغييرات مخصصة أو عندما يكون الروبوت في مرحلة النضج لأنه إطار عمل مفتوح المصدر. الأطر الأخرى مناسبة أيضًا كنقطة انطلاق.

تحديات روبوت الدردشة

فهم اللغة الطبيعية (NLU) هو قدرة الروبوت على فهم الحوار البشري. يقوم بتصنيف النية واستخراج الكيان واسترجاع الاستجابات.

يعد Dialogue Manager مسؤولاً عن مجموعة من الإجراءات التي سيتم تنفيذها بناءً على المجموعة الحالية والسابقة من مدخلات المستخدم. يأخذ النية والكيانات كمدخلات (كجزء من المحادثة السابقة) ويحدد الاستجابة التالية.

توليد اللغة الطبيعية (NLG) هي عملية إنشاء جمل مكتوبة أو منطوقة من بيانات معينة. فهو يقوم بتأطير الاستجابة، والتي يتم تقديمها بعد ذلك للمستخدم.

التحديات في فهم اللغة الطبيعية

البيانات غير كافية

عندما يستبدل المطورون الأسئلة الشائعة أو أنظمة الدعم الأخرى ببرنامج chatbot، فإنهم يحصلون على قدر لا بأس به من بيانات التدريب. لكن الشيء نفسه لا يحدث عندما يقومون بإنشاء الروبوت من الصفر. في مثل هذه الحالات، يقوم المطورون بإنشاء بيانات التدريب بشكل صناعي.

ما يجب القيام به؟

يمكن لمولد البيانات القائم على القالب إنشاء قدر لا بأس به من استعلامات المستخدم للتدريب. بمجرد أن يصبح برنامج الدردشة الآلي جاهزًا، يمكن لأصحاب المشروع عرضه لعدد محدود من المستخدمين لتعزيز بيانات التدريب وترقيتها خلال فترة معينة.

 

اختيار نموذج غير مناسب

يعد اختيار النموذج المناسب وبيانات التدريب أمرًا بالغ الأهمية للحصول على أفضل نتائج استخراج النية والكيان. عادةً ما يقوم المطورون بتدريب روبوتات الدردشة على لغة ومجال محددين، وغالبًا ما تكون معظم النماذج المدربة مسبقًا متاحة خاصة بالمجال ويتم تدريبها بلغة واحدة.

يمكن أن تكون هناك حالات لغات مختلطة أيضًا حيث يكون الأشخاص متعددي اللغات. وقد يقومون بإدخال استعلامات بلغة مختلطة. على سبيل المثال، في المنطقة التي يهيمن عليها الفرنسيون، قد يستخدم الأشخاص نوعًا من اللغة الإنجليزية عبارة عن مزيج من اللغتين الفرنسية والإنجليزية.

ما يجب القيام به؟

إن استخدام النماذج المدربة بلغات متعددة يمكن أن يقلل من المشكلة. يمكن أن يكون النموذج المُدرب مسبقًا مثل LaBSE (تضمين جملة بيرت الحيادية اللغة) مفيدًا في مثل هذه الحالات. يتم تدريب LaBSE على أكثر من 109 لغة في مهمة تشابه الجملة. يعرف النموذج بالفعل كلمات مماثلة بلغة مختلفة.

استخراج الكيان غير لائق

تتطلب Chatbots من الكيانات تحديد نوع البيانات التي يبحث عنها المستخدم. تتضمن هذه الكيانات الوقت والمكان والشخص والعنصر والتاريخ وما إلى ذلك. ومع ذلك، قد تفشل الروبوتات في تحديد كيان من اللغة الطبيعية:

نفس السياق ولكن كيانات مختلفة . على سبيل المثال، يمكن للروبوتات أن تخلط بين المكان باعتباره كيانًا عندما يكتب المستخدم “اسم الطلاب من Makkah al-Mukarramah ” ثم “اسم الطلاب من مكة”.

السيناريوهات التي يتم فيها التنبؤ الخاطئ بالكيانات مع انخفاض الثقة. على سبيل المثال، يمكن للروبوت تحديد Makkah al-Mukarramah كمدينة ذات ثقة منخفضة.

يمكن أن تؤدي المدخلات المكونة من كلمة واحدة والتي ليس لها سياق إلى إرباك نماذج التعلم الآلي. على سبيل المثال، كلمة مثل “الرياض” يمكن أن تعني اسم شخص بالإضافة إلى اسم مدينة.

ما يجب القيام به؟

يمكن أن تكون إضافة المزيد من الأمثلة التدريبية حلاً. ولكن هناك حدًا لن يساعد بعده إضافة المزيد. علاوة على ذلك، فهي عملية لا نهاية لها. قد يكون الحل الآخر هو تحديد أنماط التعبير العادي باستخدام كلمات محددة مسبقًا للمساعدة في استخراج الكيانات بمجموعة معروفة من القيم المحتملة، مثل المدينة والبلد وما إلى ذلك.

تشترك النماذج في ثقة أقل عندما لا تكون متأكدة من التنبؤ بالكيان. يمكن للمطورين استخدام هذا كمشغل لاستدعاء مكون مخصص يمكنه تصحيح الكيان منخفض الثقة.

تصنيف النية الخاطئة

كل رسالة مستخدم لها غرض ما مرتبط بها. نظرًا لأن المقاصد تستمد المسار التالي لإجراءات الروبوت، فإن تصنيف استعلامات المستخدم بشكل صحيح مع النية أمر بالغ الأهمية. ومع ذلك، يجب على المطورين تحديد المقاصد مع الحد الأدنى من الارتباك عبر المقاصد. خلاف ذلك، يمكن أن تكون هناك حالات التنصت على الارتباك. على سبيل المثال، ” أرني المناصب المفتوحة” مقابل ” أرني المرشحين للمناصب المفتوحة”.

ما يجب القيام به؟

هناك طريقتان للتمييز بين الاستعلامات المربكة. أولاً، يمكن للمطور تقديم نية فرعية. ثانيًا، يمكن للنماذج التعامل مع الاستعلامات بناءً على الكيانات المحددة.

يجب أن يكون برنامج الدردشة الآلي الخاص بالمجال نظامًا مغلقًا حيث يجب أن يحدد بوضوح ما يمكنه فعله وما لا يمكنه فعله. يجب على المطورين القيام بالتطوير على مراحل أثناء التخطيط لروبوتات الدردشة الخاصة بالمجال. وفي كل مرحلة، يمكنهم تحديد الميزات غير المدعومة لروبوت الدردشة (عبر غرض غير مدعوم).

يمكنهم أيضًا تحديد ما لا يستطيع برنامج الدردشة الآلي التعامل معه بقصد “خارج النطاق”. ولكن قد تكون هناك حالات يتم فيها الخلط بين الروبوت ونية غير مدعومة وخارجة عن النطاق. بالنسبة لمثل هذه السيناريوهات، يجب أن تكون هناك آلية احتياطية حيث، إذا كانت ثقة النية أقل من الحد الأدنى، يمكن للنموذج أن يعمل بأمان مع نية احتياطية للتعامل مع حالات الارتباك.

تحديات إدارة الحوار

بمجرد أن يحدد الروبوت الغرض من رسالة المستخدم، يجب عليه إرسال رد مرة أخرى. يقرر الروبوت الاستجابة بناءً على مجموعة معينة من القواعد والقصص المحددة. على سبيل المثال، يمكن أن تكون القاعدة بسيطة مثل نطق “صباح الخير” عندما يحيي المستخدم “مرحبًا”. ومع ذلك، في أغلب الأحيان، تشتمل المحادثات مع روبوتات الدردشة على تفاعل متابعة، وتعتمد استجاباتها على السياق العام للمحادثة.

ما يجب القيام به؟

للتعامل مع هذه المشكلة، يتم تغذية برامج الدردشة الآلية بأمثلة محادثة حقيقية تسمى القصص. ومع ذلك، لا يتفاعل المستخدمون دائمًا على النحو المنشود. يجب أن يتعامل برنامج الدردشة الآلي الناضج مع كل هذه الانحرافات بأمان. يمكن للمصممين والمطورين ضمان ذلك إذا لم يركزوا فقط على المسار السعيد أثناء كتابة القصص ولكن أيضًا العمل على المسارات غير السعيدة.

التحديات في توليد اللغة الطبيعية

يعتمد تفاعل المستخدم مع روبوتات الدردشة بشكل كبير على استجابات روبوتات الدردشة. قد يفقد المستخدمون اهتمامهم إذا كانت الإجابات آلية للغاية أو مألوفة للغاية. على سبيل المثال، قد لا يحب المستخدم إجابة مثل “لقد كتبت استعلامًا خاطئًا” لإدخال خاطئ على الرغم من أن الاستجابة صحيحة. الإجابة هنا لا تتطابق مع شخصية المساعد.

ما يجب القيام به؟

يعمل برنامج chatbot كمساعد ويجب أن يمتلك شخصية معينة ونبرة صوت محددة. يجب أن يكونوا مرحبين ومتواضعين، ويجب على المطورين تصميم المحادثات والأقوال وفقًا لذلك. لا ينبغي أن تبدو الاستجابات آلية أو ميكانيكية. على سبيل المثال، يمكن للروبوت أن يقول: ” عذرًا، يبدو أنه ليس لدي أي تفاصيل. هل يمكنك من فضلك إعادة كتابة استفسارك؟” لمعالجة إدخال خاطئ.

إضافة LLMs إلى نظام Chatbot

تعد روبوتات الدردشة القائمة على LLM (نموذج اللغة الكبيرة) مثل ChatGPT وBard من الابتكارات التي غيرت قواعد اللعبة وقد حسنت قدرات الذكاء الاصطناعي للمحادثة. إنهم ليسوا جيدين فقط في إجراء محادثات مفتوحة تشبه المحادثات البشرية، ولكن يمكنهم أداء مهام مختلفة مثل تلخيص النص وكتابة الفقرة وما إلى ذلك، والتي لم يكن من الممكن تحقيقها مسبقًا إلا من خلال نماذج محددة.

أحد التحديات التي تواجه أنظمة chatbot التقليدية هو تصنيف كل جملة إلى مقاصد وتحديد الاستجابة وفقًا لذلك. هذا النهج غير عملي. غالبًا ما تكون الردود مثل “آسف، لم أتمكن من فهمك” مزعجة. إن أنظمة chatbot التي لا هدف لها هي الطريق إلى الأمام، ويمكن لـ LLMs أن تجعل هذا حقيقة واقعة.

استخدام LLMs 

يمكن لـ LLMs تحقيق أحدث النتائج بسهولة في التعرف على الكيانات المسماة بشكل عام باستثناء التعرف على كيانات معينة في مجال معين. يمكن أن يلهم النهج المختلط لاستخدام LLMs مع أي إطار عمل chatbot نظام chatbot أكثر نضجًا وقوة.

مع أحدث التطورات والأبحاث المستمرة في مجال الذكاء الاصطناعي للمحادثة، تتحسن روبوتات الدردشة كل يوم. تحظى مجالات مثل التعامل مع المهام المعقدة ذات الأغراض المتعددة.

سيتم إجراء محادثات مخصصة قريبًا بناءً على خصائص المستخدم للحفاظ على تفاعله. على سبيل المثال، إذا وجد الروبوت أن المستخدم غير سعيد، فإنه يعيد توجيه المحادثة إلى وكيل حقيقي. بالإضافة إلى ذلك، مع بيانات chatbot المتزايدة باستمرار، يمكن لتقنيات التعلم العميق مثل ChatGPT إنشاء ردود تلقائيًا على الاستعلامات باستخدام قاعدة المعرفة.

اقرأ أيضا:

“يانج يوانكينج” حول “لينوفو” إلى عملاق ومنافس لتصنيع الكمبيوتر

الرابط المختصر :