ملاحظة: هذا المنشور يشكّل رأي كاتبته وليس بالضرورة رأي "أكسنتشر" ACCENTURE التي تنتمي إليها. نشرت هذه المقالة على صفحة د. تيريزا إسكريغ على "لينكد إن".
لا شكّ أن تبنّي الذكاء الاصطناعي سيكون له تأثير عميق وإيجابي على جميع جوانب حياتنا. والأهم بالنسبة إلى الشركات، سيتيح الذكاء الاصطناعي للإدارة القدرة على إلقاء "الضوء" على ما يسمّى "البيانات المظلمة" أي البيانات التي تُنتج وتُخزّن ولا تقدّم قيمة مضافة للشركة ولا تُستخرج معرفة جديدة منها. وبفضل الذكاء الاصطناعي، سوف تكون الشركات قادرة على تقديم تجارب ومنتجات وخدمات مخصّصة تلبّي طلبات معيّنة لدى العملاء وعلى تحديد فرص النمو بسرعة ودقة أكبر بكثير من السابق.
وفقاً لدراسة أجرتها "بي دبليو سي" PwC، يعتقد 70% من قادة الشركات بأن الذكاء الاصطناعي سيفيد الشركات على صعد عدّة في المستقبل. غير أن 67% من الرؤساء التنفيذيين يعتقدون أن الذكاء الاصطناعي والأتمتة سيتركان أثراً سلبياً على ثقة المعنيين بالقطاعات التي يعملون فيها خلال السنوات الخمس المقبلة (1).
من الصعب تقييم وتخفيف وإدارة مخاطر هذا "الصندوق الأسود" على السمعة والمخاطر التكنولوجية الناجمة عن استخدام هذه التكنولوجيا الجديدة التي لم تتم تجربتها على نطاق واسع. في تقرير "دراسة وعود الذكاء الاصطناعي للمؤسسات: الطريق نحو القيمة" التي أجربت في آب/أغسطس 2017، قال ما يقارب نصف الرؤساء التنفيذيين لـ100 منظمة ومؤسسة أوروبية من قطاعات عديدة منها القطاع المصرفي والتأمين والتصنيع وتجارة التجزئة والمؤسسات الحكومية، إنهم لا يثقون بما يسمى "الصندوق الأسود" للذكاء الاصطناعي الذي لا يمكن للنظام شرح نتائجه (2).
ومؤخراً فقط، عندما بدأ القطاع يهتم بالذكاء الاصطناعي، يتم استخدامه مع التعلّم الآلي بإعدادات مختلفة من الشبكات العصبية والتعلّم العميق، بشكل متبادل. والسبب الرئيسي هو أن التعلّم الآلي يحقق نتائج مهمة لقيمة الأعمال الناشئة والواعدة. اطلّعوا على عدة أمثلة في المرجع (3).
غير أنه في السنوات الستين من تاريخ الذكاء الاصطناعي، لم يشكّل التعلّم الآلي سوى واحدة من مجموعات عدّة من التكنولوجيات ضمن الذكاء الاصطناعي. ويفرض استخدام التعلّم الآلي كأداة وحيدة في الذكاء الاصطناعي، تحديات عديدة للنظام (4)، أبرزها غياب الشفافية. وأحد الأمثلة الافتراضية على ذلك: تخيّلوا أنكم تشترون بيتكم الخاص، ولديكم عمل جيد ومستقر وقدّمتم جميع الأوراق اللازمة للحصول على رهن عقاري. ولكن للأسف رفض البنك طلبكم، وحين استفسرتم عن السبب رمقكم الموظف بنظرة فارغة وهزّ كتفيه في إشارة إلى أنه لا يعرف السبب. هذه الإجابة لا يجب أن تكون مقبولة.
بدأ بعض الباحثين في مجال "التعلّم الآلي" في توفير "ذكاء اصطناعي قابل للشرح" عن طريق الوصول إلى أجزاء من الشبكة العصبية العميقةDNN التي تم إطلاقها بواسطة مُدخلات أو محفّزات معينة. طوّرت شركة NVIDIA مثالاً رائعاً للسيارات ذاتية القيادة (6) ـ وهي القدرة على تصوّر عناصر الصورة (بكسلز) لمشهد ما تكون أكثر صلة بالشبكة العصبية العميقة بعد التدريب بما يتطابق مع ما كان شخص حقيقي سيختاره كجوانب ذات صلة من الطريق أثناء القيادة. غير أنه من خلال استخدام الشبكة العصبية العميقة فقط لا يمكن إطلاقاً رؤية وتسجيل عملية "التفكير" التي تجريها سيارة ذاتية القيادة بما يكفل لنا الشفافية الحقيقية ويساعدنا على تحسين الأنظمة بشكل أسرع ويوفّر الثقة المطلوبة.
"الشفافية" على عكس "الشرح"، هي القدرة على معرفة ما هو المنطق الذي يحكم قراراً اتخذه نظام ذكاء اصطناعي معيّن. فالشفافية أمر في غاية الضرورة حين تؤثر توصيات تجريها أنظمة ذكاء اصطناعي على الناس، وتشكل خطراً كبيراً على الشركات وهي ضرورية أيضاً حين يكون هناك حاجة لأن تتمثل هذه التوصيات مع نُظم وقوانين مقبلة (7). فعلى سبيل المثال، يتضمن النظام الأوروبي العام لحماية البيانات الذي دخل حيّز التنفيذ في أيار/مايو 2018، الحق في الحصول على شرح للقرارات التي تتخذها الخوارزميات كما الحق في رفض قراراتها. (8).
من أجل الوصول إلى شفافية حقيقية، نحتاج إلى مراجعة تعريف الذكاء الاصطناعي بدلاً من الاكتفاء فقط بالاعتماد على نماذج التعلّم الآلي بما في ذلك:
- الإدراك ـ عملية فهم ما يشاهده النظام.
- دمج الاستشعار في العملية ـ إدراج ودمج التفسيرات حين تشاهد أجهزة استشعار مختلفة الأمر نفسه.
- الاستدلال ـ عملية استخراج كل المعرفة الممكنة من المعلومات التي يتعرّض لها النظام، وما نسمّيه "التفكير" وما يعطينا الفهم الحقيقي لوضع ما. إذا كنّا نتعلّم من دون جهد تفكير مسبق، لن نفهم لماذا نتصرّف بطريقة معيّنة.
- التعلّم ـ حين تتكرر الأمور، لا نحتاج إلى أن "نفكّر" بعد الآن، لذلك نقوم بالأمور بشكل "تلقائي".
تسمّى تقنيات الذكاء الاصطناعي المرتبطة بالإدراك والاستشعار والاستدلال والتعلّم: "تمثيل المعرفة والاستدلال" Knowledge Representation and Reasoning والأكثر استعمالاً حالياً في القطاع هي التمثيل النوعي Qualitative Representation وقواعد البيانات التوضيحية Graph Data Bases والأنطولوجيا (مجموعة المفاهيم والعلاقات بينها) Ontologies.
ومن شأن استخدام "تمثيل المعرفة والاستدلال" قبل استخدام تقنيات التعلّم، أن يتيح شفافية حقيقية وأن يحلّ المشاكل التي تترتّب على استخدام التعلّم الآلي لوحده. وقد أطلقنا تعبير "الذكاء الاصطناعي الشامل" على دمج تقنيات "تمثيل المعرفة والاستدلال" والتعلّم الآلي.
إليكم مثال على تطبيقات "تمثيل المعرفة والاستدلال": تمّ تطوير شريحة تسلسل حمض نووي تقوم على تقنية "ثقب النانو" Nanopore. وعد مطوّرو الشريحة بأن تكون بعد إنجازها نهائياً: 1) منخفضة السعر (50 دولار أميركي ثمن الشريحة وصالحة لتسلسل حمض نووي لشخص واحد) 2) مستقرة جداً مقارنة بالتقنيات الأخرى لثقب النانو 3) تتمتع بالقدرة على صياغة تسلسل حمض نووي على الفور تقريباً.
ولكن إشارة السلسلة الزمنية التي تم الحصول عليها عند كل تشغيل للشريحة لم تكن إشارة ثابتة (تبلغ الذروة عند سعات مختلفة وعند عدد نقاط ذات شكل نوعي واحد). تمكّن المطوّرون يدويّاً من تصنيف نقاط الذروة بدقة بنسبة 30%، فيما اعتبر بداية واعدة، ولكن في هذه المرحلة كان يتعيّن عليهم الحصول على حل تلقائي بدقة أعلى لتأمين التمويل من أجل التطوير المستمر. وفشل استخدام نماذج التعلّم الآلي مرتين.
أما الحل الذي طرحناه فكان كالتالي: استخدم النموذج النوعي لرصد الخاصّيات الرئيسية لكل نقطة ذروة للمعلومات بالتوازي مع إلغاء التفاصيل الكمّية. وبذلك حددت ثلاث زوايا نوعية والطول النسبي لأجزاء كل نقطة، ذروة التمثيل النوعي للمعلومات. واستخدمت مقارنة نوعية لنقاط الذروة لإجراء تصنيف غير خاضع للمراقبة، ضمن قواعد بيانات الحمض النووي، ما أفضى إلى قياسات كمّية مماثلة.
والنتيجة كانت: مع بعض العيّنات فقط من البيانات غير المستقرة للغاية، استطعنا أن نضع قواعد حمض نووي بدقة بنسبة 84%. تم اختبار الدقة بأساليب عادية لوضع تسلسلات الحمض النووي. ووصلنا إلى الشفافية من خلال الاختبار المزدوج: 1) قبل التنفيذ، يتم إثبات سلامتها من الناحية النظرية من خلال ما يعرف بـ"المنطق الإسنادي" First-Order Predicate Logic؛ 2) بعد النشر، يتم تصوّر المنطق وراء النموذج بشكل حدسي بحيث يتم التعرف بسهولة على حالات الفشل وأسبابه.
إن كانت هذه الشريحة هي منتجة تسلسلات الحمض النووي في المستقبل، فهل سيكون من الأكثر موثوقية أن نكون قادرين على معرفة كيفية توليد هذه التسلسلات؟
هناك العديد من التطبيقات في القطاع التي لا تتطلب شفافية ـ فهي توفّر قيمة من دون أية عواقب شخصية أو على الشركات، مثل: الأفلام المفضّلة على نتفليكس Netflix أو المنتجات ذات الصلة على أمازون Amazon أو الملابس المماثلة لتلك التي تحبّها.
غير أن هناك العديد من التطبيقات الأخرى تكون فيها الشفافية إجبارية وإلاّ لن يتم قبول أية توصيات يولّدها الذكاء الصناعي. من الأمثلة على ذلك الخدمات المالية: الموافقة على القروض، وإدارة التنظيم المالي، وقرارات الأمن الإلكتروني، والاشتباه الجنائي والسيارات ذاتية القيادة وقرارات الزراعة المؤتمتة.
إن كنتم تقودون شركة في أحد هذه القطاعات، فقد تطرحون على أنفسكم السؤال التالي: "من أين أبدأ وكيف؟" والإجابة البسيطة هي: "من خلال امتلاك بياناتكم الخاصة" أي من خلال تخزينها عبر تقنية "تمثيل المعرفة والاستدلال" التي تناسب شركتكم. ستحصلون على معلومات من عيّنة البيانات الأولى، وستتمكنون في المستقبل من القيام بأي نوع من التعلّم الآلي القائم على الذكاء الاصطناعي التي يبررها العائد على الاستثمار. والأهم من ذلك، سيكون لديكم دائماً الشفافية المطلوبة في كل قرار يتخذه نظام الذكاء الاصطناعي في الشركة أو قرارات عملائكم. قد ترتكبون أخطاء في هذه المسيرة ولكن كلما بدأتم بسرعة، كلما جنيتم الفوائد بشكل أسرع.
مراجع
- 20 years inside the mind of a CEO…What’s next?، المسح العالمي العشرون على الرؤساء التنفيذيين 20th Global CEO Survey، "بي دبليو سي" PwC، 2017، (ceosurvey.pwc).
- http://www.computerweekly.com/news/450428370/AI-adoption-still-nascent-says-SAS-survey
- https://www.techemergence.com/ai-in-business-intelligence-applications/
- https://www.linkedin.com/pulse/modern-ai-intelligent-enough-teresa-escrig-phd/?trackingId=xw28o69jmE9sQTjBlXOZQg%3D%3D
- https://www.accenture.com/us-en/blogs/blogs-why-explainable-ai-must-central-responsible-ai
- بوجاركسي إم وآخرونBojarski, M., et al. ، “Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car”، NVIDIA، نيسان 2017. https://arxiv.org/pdf/1704.07911.pdf
- https://events.technologyreview.com/video/watch/peter-norvig-state-of-the-art-ai/
- http://www.techzone360.com/topics/techzone/articles/2017/01/25/429101-eus-right-explanation-harmful-restriction-artificial-intelligence.htm#