Original Title: A comprehensive review of explainable AI for disease diagnosis
Source: doi.org/10.1016/j.array.2024.100345
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការពិនិត្យឡើងវិញលើបញ្ញាសិប្បនិម្មិតដែលអាចពន្យល់បាន (Explainable AI) សម្រាប់ការធ្វើរោគវិនិច្ឆ័យជំងឺ

ចំណងជើងដើម៖ A comprehensive review of explainable AI for disease diagnosis

អ្នកនិពន្ធ៖ Al Amin Biswas (Department of Computer Science and Engineering, Bangabandhu Sheikh Mujibur Rahman University, Bangladesh)

ឆ្នាំបោះពុម្ព៖ 2024 (Array Journal)

វិស័យសិក្សា៖ Computer Science / Healthcare Informatics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ការសិក្សានេះដោះស្រាយបញ្ហាទាក់ទងនឹងកង្វះតម្លាភាព (Transparency) នៃប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ក្នុងវិស័យសុខាភិបាល ដែលភាពស្មុគស្មាញនៃម៉ូដែល AI ធ្វើឱ្យគ្រូពេទ្យនិងអ្នកជំងឺពិបាកយល់ពីមូលហេតុនៃការសម្រេចចិត្តធ្វើរោគវិនិច្ឆ័យ។

វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធបានធ្វើការសិក្សាពិនិត្យឡើងវិញជាប្រព័ន្ធ (Systematic Review) ដោយវិភាគលើអត្ថបទស្រាវជ្រាវចំនួន ៩០ ដែលដកស្រង់ចេញពីមូលដ្ឋានទិន្នន័យ Scopus និង IEEE Xplore ចន្លោះឆ្នាំ ២០១៨ ដល់ ២០២៣។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
SHAP (SHapley Additive exPlanations)
វិធីសាស្ត្រផ្អែកលើទ្រឹស្តីហ្គេម (Game Theory) ដើម្បីពន្យល់ពីឥទ្ធិពលនៃលក្ខណៈនីមួយៗលើលទ្ធផល
មានមូលដ្ឋានទ្រឹស្តីរឹងមាំ និងអាចផ្តល់ការពន្យល់បានទាំងកម្រិតបុគ្គល និងកម្រិតសកល (Global & Local Interpretability)។ វាភ្ជាប់ទំនាក់ទំនងរវាងវិធីសាស្ត្រផ្សេងៗដូចជា LIME ផងដែរ។ ត្រូវការពេលវេលានិងធនធានគណនាខ្លាំង (Computationally expensive) ជាពិសេសលើទិន្នន័យធំៗ ហើយអាចមានការបកស្រាយខុសប្រសិនបើលក្ខណៈទិន្នន័យមានទំនាក់ទំនងគ្នាខ្លាំង (Correlated features)។ ជាបច្ចេកទេសដែលត្រូវបានប្រើប្រាស់ញឹកញាប់បំផុតក្នុងការសិក្សាស្រាវជ្រាវ (Highest frequency) សម្រាប់ការវិភាគទិន្នន័យជំងឺ។
LIME (Local Interpretable Model-agnostic Explanations)
បច្ចេកទេសបង្កើតម៉ូដែលសាមញ្ញមួយនៅជុំវិញចំណុចទិន្នន័យជាក់លាក់ ដើម្បីពន្យល់ពីការព្យាករណ៍របស់ម៉ូដែលស្មុគស្មាញ
ងាយស្រួលអនុវត្ត លឿន និងអាចប្រើបានជាមួយទិន្នន័យចម្រុះ (រូបភាព អត្ថបទ តារាង) ដោយមិនប្រកាន់ប្រភេទម៉ូដែល AI (Model-agnostic)។ ការពន្យល់អាចប្រែប្រួលមិនស្ថិតស្ថេរ (Instability) នៅពេលដំណើរការឡើងវិញលើចំណុចដដែល ហើយវាពិបាកអនុវត្តចំពោះម៉ូដែលដែលមានព្រំដែនសម្រេចចិត្តមិនមែនជាបន្ទាត់ត្រង់ (Non-linear boundaries)។ ពេញនិយមលំដាប់ទីពីរ ប៉ុន្តែត្រូវបានគេរកឃើញថាមានបញ្ហាខ្វះស្ថេរភាពក្នុងបរិបទវេជ្ជសាស្រ្តមួយចំនួន។
Grad-CAM (Gradient-weighted Class Activation Mapping)
បច្ចេកទេសសម្រាប់បកស្រាយម៉ូដែល Deep Learning (CNN) ដោយបង្កើតផែនទីកម្ដៅ (Heatmap) លើរូបភាព
មានប្រសិទ្ធភាពខ្ពស់សម្រាប់រូបភាពវេជ្ជសាស្រ្ត (ដូចជា X-ray ឬ CT Scan) ដោយបង្ហាញតំបន់សំខាន់ៗដែលម៉ូដែលយកចិត្តទុកដាក់ និងធន់នឹងការរំខានទិន្នន័យ។ មិនអាចបង្ហាញព័ត៌មានលម្អិតតូចៗ (Fine-grained details) បានល្អ និងប្រើបានតែជាមួយម៉ូដែលប្រភេទ CNN ប៉ុណ្ណោះ។ ជាស្តង់ដារមាសសម្រាប់ការបកស្រាយរូបភាពវេជ្ជសាស្រ្តក្នុងការរកឃើញជំងឺដូចជា COVID-19 ឬដុំសាច់។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្ត XAI ក្នុងវិស័យសុខាភិបាលទាមទារធនធានគណនខ្ពស់ជាងម៉ូដែល AI ធម្មតា ដោយសារដំណើរការបង្កើតការពន្យល់។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សាភាគច្រើនដែលបានពិនិត្យឡើងវិញប្រើប្រាស់ទិន្នន័យដែលមានទំហំតូច (Small datasets) និងប្រមូលពីមជ្ឈមណ្ឌលតែមួយ (Single-center) ដែលនាំឱ្យមានហានិភ័យនៃភាពលំអៀង និងកង្វះសមត្ថភាពក្នុងការអនុវត្តទូទៅ (Generalizability)។ សម្រាប់កម្ពុជា នេះជាបញ្ហាសំខាន់ព្រោះម៉ូដែលដែលបង្វឹកលើទិន្នន័យបរទេសអាចនឹងមិនមានប្រសិទ្ធភាពពេញលេញលើពន្ធុសាស្ត្រ ឬបរិបទជំងឺក្នុងស្រុក។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រនេះមានសារៈសំខាន់ខ្លាំងសម្រាប់កម្ពុជា ដើម្បីកសាងទំនុកចិត្តរវាងគ្រូពេទ្យ និងបច្ចេកវិទ្យា AI ថ្មីៗ។

ទោះបីជាមានសក្តានុពលខ្ពស់ ប៉ុន្តែការដាក់ឱ្យប្រើប្រាស់នៅកម្ពុជាទាមទារឱ្យមានការផ្ទៀងផ្ទាត់ជាមួយទិន្នន័យក្នុងស្រុក និងការចូលរួមពីអ្នកជំនាញវេជ្ជសាស្រ្តដើម្បីវាយតម្លៃការពន្យល់ទាំងនោះ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាមូលដ្ឋានគ្រឹះ និងឧបករណ៍ (Tools): និស្សិតគួរចាប់ផ្តើមរៀនភាសា Python និងបណ្ណាល័យសំខាន់ៗសម្រាប់ការបង្កើតម៉ូដែលដូចជា Scikit-Learn ឬ PyTorch ព្រមទាំងបណ្ណាល័យ XAI ដូចជា 'shap' និង 'lime' ។
  2. ការពិសោធន៍ជាមួយទិន្នន័យតារាង (Tabular Data): សាកល្បងប្រើប្រាស់ SHAP ដើម្បីវិភាគទិន្នន័យជំងឺដែលមានស្រាប់ (ដូចជា Diabetes ឬ Heart Disease datasets) ដើម្បីយល់ពីរបៀបដែលលក្ខណៈនីមួយៗប៉ះពាល់ដល់ការព្យាករណ៍។
  3. ការអនុវត្តលើរូបភាពវេជ្ជសាស្រ្ត: សិក្សាពីរបៀបប្រើប្រាស់ Grad-CAM ជាមួយម៉ូដែល CNN លើទិន្នន័យ X-ray (ឧទាហរណ៍៖ រកជំងឺរលាកសួត) ដើម្បីមើលថាតើផ្នែកណានៃរូបភាពដែល AI ផ្តោតសំខាន់។
  4. ការវាយតម្លៃគុណភាពនៃការពន្យល់: កុំគ្រាន់តែទទួលយកលទ្ធផល XAI; ត្រូវសិក្សាពីវិធីសាស្រ្តវាយតម្លៃថាការពន្យល់នោះត្រឹមត្រូវឬអត់ (Fidelity & Stability metrics) និងពិភាក្សាជាមួយអ្នកជំនាញប្រសិនបើអាច។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Explainable AI (XAI) ជាសំណុំនៃវិធីសាស្ត្រនិងបច្ចេកទេសដែលអនុញ្ញាតឱ្យលទ្ធផលនៃការសម្រេចចិត្តរបស់ប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) អាចត្រូវបានយល់និងបកស្រាយបានដោយមនុស្ស។ វាមានគោលបំណងដោះស្រាយបញ្ហា 'ប្រអប់ខ្មៅ' (Black Box) ដើម្បីបង្កើនទំនុកចិត្តនិងតម្លាភាព។ ដូចជាគ្រូគណិតវិទ្យាដែលតម្រូវឱ្យសិស្សបង្ហាញពីរបៀបគណនាលំហាត់ មិនមែនគ្រាន់តែសរសេរចម្លើយចុងក្រោយនោះទេ។
Black Box AI សំដៅលើប្រព័ន្ធ AI ដ៏ស្មុគស្មាញ (ដូចជា Deep Learning) ដែលយើងអាចមើលឃើញតែទិន្នន័យបញ្ចូល (Input) និងលទ្ធផល (Output) ប៉ុន្តែមិនអាចមើលឃើញ ឬយល់ពីដំណើរការគិតខាងក្នុងរបស់វាបានឡើយ។ ប្រៀបដូចជាការដាក់គ្រឿងផ្សំចូលក្នុងប្រអប់វេទមន្តហើយទទួលបាននំខេកមកវិញ ប៉ុន្តែយើងមិនដឹងថាប្រអប់នោះលាយម្សៅឬដុតនំដោយរបៀបណាទេ។
SHAP (SHapley Additive exPlanations) ជាបច្ចេកទេសមួយដែលប្រើប្រាស់ទ្រឹស្តីហ្គេម (Game Theory) ដើម្បីគណនាថា តើលក្ខណៈនីមួយៗនៃទិន្នន័យ (ដូចជា អាយុ ឬសម្ពាធឈាម) បានចូលរួមចំណែកប៉ុន្មានភាគរយក្នុងការធ្វើឱ្យ AI ធ្វើការទស្សន៍ទាយបែបនេះ។ ដូចជាការវាយតម្លៃថា កីឡាករបាល់ទាត់ម្នាក់ៗក្នុងក្រុមបានចូលរួមចំណែកកម្រិតណា (ស៊ុតបញ្ចូលទី ឬបញ្ជូនបាល់) ដើម្បីឱ្យក្រុមទទួលបានជ័យជំនះ។
Grad-CAM (Gradient-weighted Class Activation Mapping) ជាបច្ចេកទេសសម្រាប់បង្កើត 'ផែនទីកម្ដៅ' (Heatmap) លើរូបភាពវេជ្ជសាស្រ្ត ដើម្បីបង្ហាញតំបន់ជាក់លាក់ដែលម៉ូដែល AI កំពុងសម្លឹងមើល និងប្រើប្រាស់ជាមូលដ្ឋានក្នុងការសម្រេចចិត្តធ្វើរោគវិនិច្ឆ័យ។ ប្រៀបដូចជាការប្រើហ្វឺតពណ៌ (Highlighter) គូសលើចំណុចសំខាន់ៗក្នុងសន្លឹក X-ray ដើម្បីប្រាប់គ្រូពេទ្យថា 'ត្រង់នេះហើយគឺជាកន្លែងដែលមានបញ្ហា'។
Model-Agnostic ជាលក្ខណៈនៃវិធីសាស្ត្រ XAI (ដូចជា LIME) ដែលអាចយកទៅប្រើដើម្បីពន្យល់ម៉ូដែល AI ណាមួយក៏បាន មិនថាជាម៉ូដែលប្រភេទ Decision Tree ឬ Neural Network នោះទេ ដោយមិនប្រកាន់រចនាសម្ព័ន្ធខាងក្នុង។ ដូចជាឆ្នាំងសាកថ្មទូរស័ព្ទសកល (Universal Charger) ដែលអាចសាកទូរស័ព្ទបានគ្រប់ម៉ាក ដោយមិនខ្វល់ថាជា iPhone ឬ Samsung។
Post-hoc Explanation វិធីសាស្ត្របកស្រាយលទ្ធផល បន្ទាប់ពី ម៉ូដែល AI បានបង្កើតរួចរាល់ហើយ។ វាមិនព្យាយាមស្វែងយល់ពីរបៀបដែលម៉ូដែលរៀនទេ ប៉ុន្តែព្យាយាមពន្យល់ពីមូលហេតុនៃការសម្រេចចិត្តលើករណីនីមួយៗ។ ដូចជាអ្នករិះគន់អាហារដែលពន្យល់ថាហេតុអ្វីបានជាម្ហូបនេះឆ្ងាញ់ បន្ទាប់ពី បានភ្លក់រួច ដោយមិនចាំបាច់ចូលទៅមើលចុងភៅចម្អិនក្នុងផ្ទះបាយ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖