What is Explainable Artificial Intelligence (XAI)?
حدود تصميم جديدة في التعلم الآلي
نظرا لأن الخوارزميات الذكية والذكاء الاصطناعي وتطبيقات التعلم الآلي تجد طريقها إلى حياتنا اليومية ، فإنها لم تعد مجرد مفاهيم ، بل حقيقة متنامية. من التعرف على الوجه وآلات التصنيع المستقلة إلى خوارزميات الوسائط الاجتماعية الشخصية وروبوتات الدردشة الذكية لمواقع الويب ، أصبحت هذه الأنظمة القائمة على الذكاء الاصطناعي هي القاعدة. تعتمد مجموعة واسعة من الصناعات مثل التعليم والرعاية الصحية والحكومة والضيافة والتصنيع بشكل متزايد على هذه الأنظمة ، من مستوى العمليات إلى التسويق.
ومع ذلك ، يتم تأمين معظم الأعمال الداخلية لأنظمة الذكاء الاصطناعي هذه في ما يسمى بالصندوق الأسود. بمعنى أن المدخلات والمخرجات معروفة ، لكن كيف ولماذا يتم اتخاذ مثل هذه القرارات غير واضحة بالنسبة لنا نحن البشر الذين يستخدمونها. هذا صحيح بشكل خاص في حالات الاستخدام حيث توجد عملية تعلم عميقة متضمنة ، حيث تصبح الآلة أكثر ذكاء أثناء استخدامها وتأتي المزيد من البيانات ، مما يخلق شبكة عصبية تنمو لتصبح أكثر تعقيدا بمرور الوقت. (فكر في الأمر مثل دماغ بشري!)
لقد أظهر لنا العقد الماضي مدى قوة الذكاء الاصطناعي. وإلى جانب هذا الهيجان، كان هناك قلق متزايد على الأمن، وبشكل عام، على الأخلاقيات المحيطة الذكاء الاصطناعي. نحن نعلم أنها قوية ، ولكن ما مدى قوتها ؟ هل يميز؟ هل الاستنتاجات مبررة؟ لماذا يجب أن نثق به؟
أصبحت معرفة وفهم الأعمال الداخلية لهذه العقول الرقمية الافتراضية أمرا بالغ الأهمية. إن الافتقار إلى التفسير والتفكير يعيق قدرتنا على الوثوق بهذه الأنظمة الذكاء الاصطناعي. بعد كل شيء ، نحن الذين بنيناها. لماذا لا نريد أن نفهمها؟
خلق الشفافية في الذكاء الاصطناعي باستخدام الذكاء الاصطناعي القابلة للشرح (XAI)
لمعالجة القلق المتزايد بشأن الشفافية في خوارزميات التعلم الآلي ، قدمت اللائحة العامة لحماية البيانات في الاتحاد الأوروبي فقرة الحق في التفسير في عام 2018. وفي الوقت نفسه، تواصل وكالة مشاريع البحوث الدفاعية المتقدمة الأمريكية (DARPA) أيضا جهودها للبحث وإنتاج حلول الذكاء الاصطناعي قابلة للتفسير بحيث يمكن أن يكون الصندوق الأسود الذكاء الاصطناعي أكثر شفافية للمضي قدما.
ما الذي يهدف الذكاء الاصطناعي القابل للتفسير (XAI) إلى القيام به؟
باختصار ، تهدف XAI إلى:
- إنتاج نماذج أكثر قابلية للتفسير تسمح بفحص وتتبع الإجراءات التي تتخذها أنظمة الذكاء الاصطناعي.
- منح المستخدمين البشريين القدرة على التوقف والتحكم في المهام الذكاء الاصطناعي وحلقات القرار في كل خطوة على الطريق.
- تزويد المستخدمين البشريين بتقرير شفاف وأساس منطقي حول كيفية وسبب التوصل إلى استنتاجات معينة ، حتى نتمكن نحن البشر من فهم العملية والثقة بها بشكل مناسب.
الذكاء الاصطناعي قابلة للتفسير في سياق بيانات الأعمال
نظرا لأننا جميعا مجانين بشأن تصور البيانات هنا ، فلنفكر قليلا في كيفية تطبيق XAI علينا ، أليس كذلك؟
مع الرسوم البيانية الآلية ولوحات المعلومات الذكية وتحليلات البيانات كجزء من عملية صنع القرار في العمليات اليومية ، غالبا ما يسأل المسؤولون التنفيذيون الأذكياء والناقدون:
ما هو أساس هذا التنبؤ؟
ما هي العوامل التي ينطوي عليها الوصول إلى استنتاج التنبؤ هذا؟
ما هي معايير النجاح على الفشل مع هذا المسار الموصى به؟
لماذا قد تروق هذه الرسالة التكتيكية أكثر لشخصية المشتري أ بدلا من شخصية المشتري ب؟
تراوحت جهود تصور الشبكات العصبية من أشكال أبسط مثل أشجار القرار إلى أشكال أكثر تعقيدا مثل تنظيم البيانات بناء على طوبولوجيا الشبكة ، ومنطق التسلسل الذي يتم تعزيزه بمرور الوقت ، والحسابات مقابل النتائج السابقة وعوامل الحالة الحالية. مع ما يقال ، فإن استكشاف XAI ، خاصة فيما يتعلق بالتعلم العميق ، لا يزال في مراحله المبكرة جدا. ومع ذلك ، يعتقد أفضل أنه سيتم إحراز تقدم كاف في المستقبل القريب حتى نتمكن نحن المستخدمين البشريين من الحصول على القوة والدقة حيث يصبح استخدام الذكاء الاصطناعي أكثر عمقا في حياتنا.
مصممون ذوو خبرة في XAI
يتحرك عالم الذكاء الاصطناعي حقا بوتيرة سريعة ويمكن أن يكون مذهلا – الاستدلال ، والحوسبة المعرفية ، وعلوم البيانات ، والتعلم الآلي ، والخوارزميات … هل تنظر إلى بياناتك الخاصة وتخدش رأسك؟ لا تقلق!
دعنا نعالج بياناتك المعقدة ونحولها إلى واجهات ذكاء اصطناعي جميلة قابلة للشرح. نحن خبراء في ذلك. ولكن إذا كنت ترغب في النزول والتلطيخ بنفسك ، فنحن نقدم أيضا ورش عمل عملية وإرشادات شاملة للعلامة التجارية.
تواصل معنا للحصول على استشارة مجانية! ليس لديك ما تخسره.