نوضح الاختلافات الرئيسية بين إمكانية الشرح وقابلية التفسير وسبب أهميتهما لتعلم الآلة والذكاء الاصطناعي، ومن ثم نلقى نظرة على العديد من الطرق والأساليب لتحسين قابلية التفسير لتعلم الآلة.
كتابة: Richard Gall, Packt ترجمة: نضال إمام مراجعة: فارس القنيعير
[المقال الأصلي باللغة الإنجليزية اضغط هنا]
لا يتطلب الأمر عالِم بيانات لمعرفة ما إذا كانت خوارزميات تعلم الآلة (ML) والتعلم العميق (DL) المدمجة في أنظمة الأتمتة والذكاء الاصطناعي تفتقر إلى الشفافية. لا يتطلب الأمر أيضًا قدرًا كبيرًا من التحري لمعرفة أن العديد من هذه الأنظمة تحتوي على بصمة من التحيزات اللاواعية (unconscious biases) للمهندسين الذين قاموا بتطويرها.
وفقاً لما وصفته مجلة The Economist بـ techlash، أصبح هذا الافتقار إلى الشفافية أكثر وضوحًا. على الرغم من أن العديد من الحوادث التي ساهمت في حدوث ال techlash هي مشكلات ناجمة عن مزيج من المصلحة الذاتية للشركات والغياب المزعج للحوكمة والمساءلة، فلا مفر من حقيقة أن ممارسة علم البيانات وهندسة تعلم الآلة يمكن أن تجدها من بين أكبر قصص الأعمال والسياسة لهذا العام.
أصبح مفهوم إمكانية الشرح ومفهوم قابلية التفسير من الأمور الملحة حالياً. من المحتمل أنهما سيصبحان أكثر أهمية في عام 2019 ، حيث تستمر المناقشات حول أخلاقيات الذكاء الاصطناعي. (ملاحظة المترجم: بالفعل أصبح من المجالات المهمة التي كثر النقاش حولها الفترة السابقة).
ولكن ما هي قابلية الشرح والتفسير؟ وما الذي تعنيه بالنسبة لأولئك الذين يقومون بالتنقيب عن البيانات والتحليل في عام 2019؟
الفرق بين إمكانية الشرح وقابلية التفسير لتعلم الآلة
في سياق تعلم الآلة والذكاء الاصطناعي، غالبًا ما يتم استخدام قابلية الشرح والتفسير بشكل متبادل. على الرغم من ارتباطها الوثيق، إلا أنه من المفيد تحديد الاختلافات، وذلك فقط لمعرفة مدى تعقيد الأمور بمجرد أن تبدأ في التعمق أكثر في أنظمة تعلم الآلة.
قابلية التفسير هي مدى إمكانية ملاحظة السبب والنتيجة داخل النظام. أو بعبارة أخرى، هو مدى قدرتك على التنبؤ بما سيحدث بمجرد النظر إلى التغييرات في المدخلات أو معاملات الخوارزمية. التفسير يمكّننا من رؤية ما يحدث من خلال إلقاء نظرة على الخوارزمية.
إمكانية الشرح هي المدى الذي يمكن به شرح الميكانيكا الداخلية لنظام تعلم الآلة أو التعلم العميق من منظور الإنسان. من السهل إغفال الاختلاف الدقيق مع قابلية التفسير، لكن اعتبرها على هذا النحو: قابلية التفسير تتعلق بالقدرة على تمييز الميكانيكا دون معرفة السبب بالضرورة. قابلية الشرح هي القدرة على شرح ما يحدث حرفيًا.
فكر في الأمر بهذه الطريقة: لنفترض أنك تجري تجربة علمية في المدرسة. قد تكون التجربة قابلة للتفسير بقدر يمكنك من أن ترى ما تفعله، لكن لا يمكن أن تكون التجربة قابلة للشرح إلا بعد التعمق في الكيمياء الكامنة وراء ما يمكنك رؤيته يحدث.
قد يكون هذا بسيطًا بعض الشيء، لكنه يمثل نقطة انطلاق جيدة للتفكير في كيفية ارتباط المفهومين ببعضهما البعض.
لماذا تعتبر إمكانية الشرح وقابلية التفسير مهمة في الذكاء الاصطناعي وتعلم الآلة؟
لقد علمتنا techlash في 2018 أنه على الرغم من أننا يمكننا استخدام التكنولوجيا بشكل مخلوط بالشك (dubious usage)، فإن هناك العديد من الطرق التي يمكن أن تنتج عنها نتائج سيئة من دون قصد.
تتطلع بعض المجالات مثل الرعاية الصحية إلى التوسع في إستخدام الذكاء الاصطناعي وأنظمة التعلم العميق، حيث تعد المسئولية (accountability) والشفافية (transparency) مهمة بشكل كبير. إذا لم نتمكن من تقديم تفسير وشرح بشكل صحيح للخوارزميات، فسنقوم بالحد من انتشار استخدام الذكاء الاصطناعي.
ولكن بغض النظر عن الاعتبارات القانونية والمهنية التي يجب إجراؤها، هناك أيضًا حجة مفادها أن تحسين قابلية التفسير وإمكانية الشرح مهم حتى في سيناريوهات الأعمال الأكثر شيوعًا. يمكن أن يساعد فهم كيفية عمل الخوارزمية في مواءمة أنشطة علماء البيانات والمحللين بشكل أفضل مع الأسئلة والاحتياجات الأساسية لمنظمتهم.
تقنيات وطرق تحسين قابلية تفسير تعلم الآلة
في حين أن أسئلة الشفافية (transparency) والأخلاق (ethics) قد تبدو بديهية لعالم البيانات، إلا أن هناك في الواقع عددًا من الأشياء العملية التي يمكن القيام بها لتحسين إمكانية تفسير الخوارزمية وقابليتها للشرح.
التعميم الخوارزمي (Algorithmic generalization)
الأول هو تحسين التعميم. هذا يبدو بسيطًا، لكنه ليس بهذه السهولة. إذا افترضنا أن معظم طرق هندسة تعلم الآلة تستخدم الخوارزميات بطريقة محددة للغاية للكشف عن نتيجة معينة مرغوبة، هذا قد يشعرنا أن النموذج عنصر ثانوي -أي أنه مجرد وسيلة لتحقيق غاية. ولكن إذا غيرنا هذا السلوك تجاه الصحة العامة للخوارزمية والبيانات التي يتم تشغيلها، يمكننا البدء في وضع أسس متينة لتحسين قابلية للتفسير.
الانتباه إلى أهمية الخصائص (Feature importance)
يجب أن يكون هذا واضحًا، لكن من السهل إغفاله. إن النظر عن كثب إلى الطريقة التي تم بها تعيين الخصائص المختلفة للخوارزمية هو الطريق العملية للتعامل فعليًا مع مجموعة متنوعة من الأسئلة، من مواءمة الأعمال (business alignment) إلى الأخلاق (ethics). قد تستغرق المناقشة حول كيفية تعيين كل خاصية وقتًا طويلاً، ولكن وجود هذا الوعي الضمني بأن الخصائص المختلفة قد تم تعيينها بطريقة معينة يعد خطوة مهمة إلى قابلية للتفسير وإمكانية الشرح.
نموذج محايد محلي قابل للتفسير والشرح (LIME: Local Interpretable Model-Agnostic Explanations)
بينما تقدم الطرق المذكورة أعلاه خطوات عملية يمكن لعلماء البيانات استخدامها، فإن LIME هي طريقة قام بتطويرها الباحثون لاكتساب قدر أكبر من الشفافية حول ما يحدث داخل الخوارزمية. يوضح الباحثون أن LIME يمكن أن تشرح “تنبؤات أي مصنف بطريقة قابلة للتفسير وصادقة (faithful)، من خلال تعلم نموذج قابل للتفسير محليًا حول التنبؤ”.
عمليًا، يقوم نموذج LIME بمعرفة ما يحدث داخل النموذج عن طريق تغيير جوانب معينة داخلية ومن ثمة يقوم باختبار النموذج. يتعلق الأمر بشكل أساسي بمحاولة إعادة إنشاء المخرجات عن طريق استخدام نفس المدخلات من خلال عملية التجريب (experimentation).
أهمية خصائص التعلم العميق (Deep LIFT)
DeepLIFT هو نموذج مفيد في المجال الشائك بشكل خاص للتعلم العميق. إنه يعمل من خلال شكل من أشكال الانتشار العكسي (backpropagation): يأخذ المخرجات، ثم يحاول تفكيكها عن طريق “قراءة” العصبونات المختلفة التي ساهمت في تطوير الناتج الأصلي.
بشكل أساسي، هي طريقة للبحث في اختيار الخصائص داخل الخوارزمية (كما يشير الاسم).
انتشار أهمية الطبقة (Layer-wise relevance propagation)
انتشار أهمية الطبقة يشبه DeepLIFT، من حيث أنه يعمل بشكل عكسي من المخرجات، ويحدد العصبونات الأكثر صلة داخل الشبكة العصبية حتى يعود إلى المدخلات (على سبيل المثال، صورة). إذا كنت تريد معرفة المزيد عن العمليات الرياضية وراء هذا المفهوم ، فإن هذا المنشور الذي كتبه دان شيبلر يعد مكانًا رائعًا للبدء.
إضافة التعقيد لمعالجة التعقيد: هل يستطيع تحسين الشفافية؟
تكمن المشكلة المركزية في كل من إمكانية الشرح وقابلية التفسير في أنك تضيف خطوة إضافية في عملية التطوير. في الواقع، ربما تضيف خطوات متعددة. وهذا يعني أنك تحاول معالجة التعقيد بمزيد من التعقيد.
ما يعنيه هذا عمليًا هو أنه إذا أردنا أن نكون جادين حقًا بشأن إمكانية الشرح وقابلية التفسير، فيجب أن يكون هناك تغيير ثقافي واسع في الطريقة التي يتم بها علم وهندسة البيانات، وكيف يعتقد الناس أنه ينبغي القيام بذلك.
ربما يكون هذا هو الجزء الصعب حقًا.
السيرة الذاتية: ريتشارد غال هو مدير منتج المحتوى التحريري في Packt. من خلال الرسائل عالية الجودة التي تركز على احتياجات المجتمعات والعملاء الذي تساعده Packt، يعمل ريتشارد على دفع الإيرادات المباشرة وغير المباشرة وتحسين مدى وصول العلامة التجارية Packt وأهميتها في المشهد التكنولوجي اليوم.
شكراً نضال على المشاركة المثرية، الموضوع مهم للجانب التطبيقي للذكاء الاصطناعي.
Goood
Thank you