Original Title: From Black Box to Glass Box: A Practical Review of Explainable Artificial Intelligence (XAI)
Source: doi.org/10.3390/ai6110285
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ពីប្រអប់ខ្មៅទៅប្រអប់កញ្ចក់៖ ការពិនិត្យឡើងវិញជាក់ស្តែងលើបញ្ញាសិប្បនិម្មិតដែលអាចពន្យល់បាន (XAI)

ចំណងជើងដើម៖ From Black Box to Glass Box: A Practical Review of Explainable Artificial Intelligence (XAI)

អ្នកនិពន្ធ៖ Xiaoming Liu (San Jose State University), Danni Huang (Trine University), Jingyu Yao (Yale University), Jing Dong (Columbia University), Litong Song (The University of Texas at Austin), Hui Wang (Yale University), Chao Yao (Arizona State University), Weishen Chu (Northwestern University)

ឆ្នាំបោះពុម្ព៖ 2025 (AI Journal, MDPI)

វិស័យសិក្សា៖ Artificial Intelligence / Computer Science

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ការសិក្សានេះផ្តោតលើការដោះស្រាយបញ្ហានៃកង្វះតម្លាភាពនិងគណនេយ្យភាពនៅក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដែលជាទូទៅដំណើរការជា "ប្រអប់ខ្មៅ" (Black boxes) ដែលបង្កជាបញ្ហាប្រឈមធំៗក្នុងការកសាងទំនុកចិត្ត ពិសេសនៅក្នុងវិស័យហានិភ័យខ្ពស់ដូចជា សន្តិសុខ ហិរញ្ញវត្ថុ និងការថែទាំសុខភាព។

វិធីសាស្ត្រ (The Methodology)៖ ឯកសារនេះធ្វើការពិនិត្យឡើងវិញនូវអក្សរសិល្ប៍ស្រាវជ្រាវ (Literature review) ពីឆ្នាំ ២០១៥ ដល់ ២០២៤ ដោយរួមបញ្ចូលមូលដ្ឋានទ្រឹស្តីជាមួយកម្មវិធីជាក់ស្តែង និងការវិភាគបែបសេដ្ឋកិច្ចលើអត្ថប្រយោជន៍នៃការពន្យល់។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Decision Trees
ដើមឈើសម្រេចចិត្ត (ម៉ូដែលអាចបកស្រាយបានពីកំណើត)
ងាយស្រួលយល់សម្រាប់មនុស្សទូទៅ មានតម្លាភាពពីកំណើត (Glass-box) និងអាចដោះស្រាយទិន្នន័យបានច្រើនប្រភេទ។ ងាយនឹងជួបបញ្ហា Overfitting នៅពេលដែលវាមានទំហំធំ និងមានភាពស្មុគស្មាញ ដែលធ្វើឱ្យកម្រិតនៃការបកស្រាយធ្លាក់ចុះ។ ផ្តល់ភាពអាចបកស្រាយបានកម្រិតខ្ពស់បំផុត (★★★★★) ជាមួយនឹងភាពត្រឹមត្រូវ ៨៥-៩០% នៅក្នុងវិស័យហិរញ្ញវត្ថុនិងការវាយតម្លៃឥណទាន។
LIME (Local Interpretable Model-Agnostic Explanations)
ការបកស្រាយកម្រិតមូលដ្ឋានមិនអាស្រ័យលើម៉ូដែល
មានប្រសិទ្ធភាពក្នុងការបកស្រាយ និងមានភាពបត់បែនខ្ពស់ដែលអាចប្រើប្រាស់ជាមួយម៉ូដែល Black-box គ្រប់ប្រភេទ។ ការពន្យល់អាចមិនមានស្ថិរភាព និងប្រែប្រួលដោយសារការផ្លាស់ប្តូរទិន្នន័យ ឬការរំខានបន្តិចបន្តួច (Random perturbations)។ ផ្តល់ការពន្យល់ប្រកបដោយគុណភាពកម្រិតមូលដ្ឋានសម្រាប់ការរកឃើញការវាយប្រហារបណ្តាញ (Intrusion detection)។
SHAP (Shapley Additive Explanations)
ការបកស្រាយតាមទ្រឹស្តីហ្គេមសហប្រតិបត្តិការ
មានស្ថិរភាពខ្ពស់ ផ្តល់ការពន្យល់ប្រកបដោយភាពយុត្តិធម៌ទាំងកម្រិតមូលដ្ឋាន (Local) និងកម្រិតរួម (Global)។ ទាមទារថាមពលកុំព្យូទ័រនិងពេលវេលាគណនាច្រើន (Computationally expensive) ជាពិសេសសម្រាប់ម៉ូដែលដែលមានលក្ខណៈ (Features) ច្រើន។ ទទួលបានអត្រារកឃើញខ្ពស់ និងបង្ហាញពីកត្តាដែលមានឥទ្ធិពលបំផុតក្នុងការរកឃើញមេរោគ ឬការក្លែងបន្លំបានយ៉ាងច្បាស់លាស់។
Interpretable Neural Networks
បណ្តាញសរសៃប្រសាទសិប្បនិម្មិតដែលអាចពន្យល់បាន
រួមបញ្ចូលគ្នានូវសមត្ថភាពប្រព័ន្ធ Deep learning ដែលមានភាពត្រឹមត្រូវខ្ពស់ ជាមួយនឹងយន្តការ (ដូចជា Attention mechanisms) ដែលជួយលើកកម្ពស់តម្លាភាព។ នៅតែមានភាពស្មុគស្មាញក្នុងការរចនា និងអាចទាមទារការសាកល្បងច្រើន ដើម្បីធានាតុល្យភាពរវាងភាពត្រឹមត្រូវនិងការពន្យល់។ ទទួលបានភាពត្រឹមត្រូវចន្លោះពី ៨៧-៩៦% ជាមួយនឹងកម្រិតអាចបកស្រាយបានល្អ សម្រាប់ការវិភាគឯកសារ (NLP) និងការថែទាំសុខភាព។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្ត XAI ទាមទារឱ្យមានការវិនិយោគ និងការថ្លឹងថ្លែងរវាងថាមពលកុំព្យូទ័រ និងកម្រិតនៃការពន្យល់ ជាពិសេសសម្រាប់វិធីសាស្ត្រទំនើបៗដូចជា SHAP ឬ ការបកស្រាយលើ Large Language Models (LLMs) ដែលស៊ីធនធានច្រើន។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ឯកសារនេះគឺជាការពិនិត្យឡើងវិញ (Literature Review) លើការស្រាវជ្រាវសកល ដោយមិនមានការបញ្ជាក់ពីសំណុំទិន្នន័យតំបន់ណាមួយជាក់លាក់ឡើយ (ភាគច្រើនផ្អែកលើស្តង់ដារនៅអាមេរិក និងអឺរ៉ុប ដូចជា GDPR)។ សម្រាប់ប្រទេសកម្ពុជា នេះជាចំណុចគួរឱ្យកត់សម្គាល់ ព្រោះប្រព័ន្ធ AI ដែលនាំចូលអាចមានគម្លាតទិន្នន័យ (Data Bias) ដោយសារកង្វះទិន្នន័យក្នុងស្រុកដែលអាចតំណាងឱ្យបរិបទវប្បធម៌ និងប្រជាសាស្ត្ររបស់ប្រជាជនខ្មែរ។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រ XAI គឺមានភាពចាំបាច់ និងមានសក្តានុពលខ្លាំងក្នុងការអនុវត្តនៅប្រទេសកម្ពុជា ស្របពេលដែលរដ្ឋាភិបាលនិងវិស័យឯកជនកំពុងជំរុញការប្រើប្រាស់បច្ចេកវិទ្យាឌីជីថលដែលទាមទារតម្លាភាព។

សរុបសេចក្តីមក ការទទួលយក XAI មិនត្រឹមតែជួយបង្កើនសុវត្ថិភាពនិងភាពត្រឹមត្រូវប៉ុណ្ណោះទេ ថែមទាំងជួយកសាងទំនុកចិត្ត (Trustworthy AI) សម្រាប់អ្នកប្រើប្រាស់កម្ពុជាក្នុងยุคសេដ្ឋកិច្ចឌីជីថល។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សាកល្បងប្រើប្រាស់កម្មវិធីកូដបើកទូលាយ (Open-Source Toolkits): អ្នកស្រាវជ្រាវ និងនិស្សិតគួរសាកល្បងអនុវត្តការសរសេរកូដជាក់ស្តែង ដោយប្រើប្រាស់បណ្ណាល័យ IBM AIX360OmniXAI ដើម្បីស្វែងយល់ពីរបៀបទាញយកការពន្យល់ចេញពីម៉ូដែល Machine Learning។
  2. អនុវត្តលើសំណុំទិន្នន័យជាក់ស្តែង (Apply on Real-world Datasets): ធ្វើការវិភាគដោយប្រើ SHAPLIME ទៅលើសំណុំទិន្នន័យក្នុងស្រុក ឧទាហរណ៍ដូចជា ទិន្នន័យផ្តល់ឥណទាន ឬទិន្នន័យសន្តិសុខបណ្តាញ ដើម្បីវាយតម្លៃប្រសិទ្ធភាពនៃម៉ូដែលនៅក្នុងបរិបទប្រទេសកម្ពុជា។
  3. ធានាឯកជនភាពរបស់អ្នកប្រើប្រាស់ (Privacy-Preserving Explainability): សិក្សាពីការរួមបញ្ចូល XAI ជាមួយនឹងបច្ចេកទេស Differential PrivacyFederated Learning ដើម្បីប្រាកដថាការពន្យល់របស់ម៉ូដែលមិនធ្វើឱ្យលេចធ្លាយព័ត៌មានផ្ទាល់ខ្លួនដែលងាយរងគ្រោះរបស់អ្នកប្រើប្រាស់។
  4. ត្រៀមលក្ខណៈសម្រាប់ការវិវត្តថ្មីៗ (Prepare for ZTA and LLMs): ស្រាវជ្រាវពីការធ្វើសមាហរណកម្មប្រព័ន្ធពន្យល់ AI ទៅក្នុងស្ថាបត្យកម្ម Zero Trust Architecture (ZTA) និងចាប់ផ្តើមធ្វើតេស្តបច្ចេកទេស XAI នៅលើ Large Language Models (LLMs) ដើម្បីត្រៀមខ្លួនសម្រាប់និន្នាការស្រាវជ្រាវឆ្នាំ ២០២៥-២០៣០។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Black boxes ជាប្រភេទម៉ូដែលបញ្ញាសិប្បនិម្មិត (AI) ដ៏ស្មុគស្មាញ (ដូចជាប្រព័ន្ធ Deep Learning) ដែលទទួលយកទិន្នន័យបញ្ចូល និងបញ្ចេញលទ្ធផលប្រកបដោយភាពត្រឹមត្រូវខ្ពស់ ប៉ុន្តែមិនអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់មើលឃើញ ឬយល់ពីដំណើរការគិតខាងក្នុងថាហេតុអ្វីបានជាវាសម្រេចចិត្តបែបនេះឡើយ។ ដូចជាម៉ាស៊ីនផលិតសាច់ក្រក ដែលយើងដឹងថាយើងដាក់សាច់ចូលហើយចេញមកជាសាច់ក្រក ប៉ុន្តែយើងមិនអាចមើលឃើញពីដំណើរការកិន និងលាយគ្រឿងផ្សំនៅខាងក្នុងនោះទេ។
Marginal transparency ជាគោលគំនិតផ្នែកសេដ្ឋកិច្ចក្នុង AI ដែលវាស់វែងពីតម្លៃនៃអត្ថប្រយោជន៍ដែលទទួលបាននៅពេលអ្នកអភិវឌ្ឍន៍បន្ថែមព័ត៌មានលម្អិតអំពីប្រព័ន្ធ។ នៅចំណុចមួយ ការបន្ថែមព័ត៌មានបច្ចេកទេសច្រើនពេក (ដូចជាកូដដ៏ស្មុគស្មាញ) លែងផ្តល់ប្រយោជន៍ និងអាចធ្វើឱ្យអ្នកប្រើប្រាស់ធម្មតាកាន់តែយល់ច្រឡំ។ ដូចជាការអានសៀវភៅណែនាំប្រើប្រាស់ទូរស័ព្ទ បើគេប្រាប់ពីរបៀបប្រើគឺល្អ តែបើគេប្រាប់រហូតដល់របៀបផ្សារសៀគ្វីគ្រឿងក្នុង វានឹងធ្វើឱ្យយើងឈឺក្បាលវិញ។
Marginal interpretability ជារង្វាស់នៃតម្លៃបន្ថែមនៃការយល់ដឹងរបស់អ្នកប្រើប្រាស់ នៅពេលប្រព័ន្ធ AI ផ្តល់ការពន្យល់កាន់តែស៊ីជម្រៅសម្រាប់ការសម្រេចចិត្តរបស់វា។ វាបង្ហាញថាការពន្យល់កម្រិតដំបូងមានប្រយោជន៍ខ្លាំង តែការពន្យល់ដែលស៊ីជម្រៅពេកនឹងផ្តល់ផលចំណេញថយចុះ (Diminishing returns) ដែលមិនមានភាពចាំបាច់។ ដូចជាការពន្យល់ពីមូលហេតុដែលឡានខូច ប្រាប់ថា "ដាច់ខ្សែភ្លើង" គឺគ្រប់គ្រាន់ តែបើអ្នកជាងព្យាយាមពន្យល់ពីរូបមន្តចរន្តអគ្គិសនីរូបវិទ្យា គឺអត់ប្រយោជន៍សម្រាប់អ្នកបើកបរធម្មតាទេ។
LIME ជាបច្ចេកទេសដែលជួយបកស្រាយការសម្រេចចិត្តរបស់ AI ក្នុងកម្រិតមូលដ្ឋាន (Local level) ដោយវាធ្វើការផ្លាស់ប្តូរទិន្នន័យបញ្ចូលបន្តិចបន្តួចដោយចៃដន្យ (Perturbations) ដើម្បីសង្កេតមើលថាតើការផ្លាស់ប្តូរនោះប៉ះពាល់ដល់លទ្ធផលនៃការទស្សន៍ទាយចុងក្រោយយ៉ាងដូចម្តេច។ ដូចជាការសាកល្បងដកគ្រឿងផ្សំម្ហូបចេញម្តងមួយមុខៗ ដើម្បីចង់ដឹងច្បាស់ថាគ្រឿងផ្សំណាមួយដែលធ្វើឱ្យសម្លមួយចាននោះមានរសជាតិប្រៃ។
SHAP ជាវិធីសាស្ត្រកម្រិតខ្ពស់ដែលផ្អែកលើទ្រឹស្តីហ្គេម (Game Theory) ដើម្បីគណនា និងបែងចែកចំណែកនៃកម្រិតឥទ្ធិពលរបស់លក្ខណៈទិន្នន័យ (Features) នីមួយៗឱ្យបានស្មើភាពគ្នា សម្រាប់ពន្យល់ពីលទ្ធផលនៃការទស្សន៍ទាយរបស់ AI ទាំងកម្រិតបុគ្គល និងកម្រិតរួម។ ដូចជាការបែងចែកប្រាក់រង្វាន់ដល់កីឡាករក្នុងក្រុមបាល់ទាត់ ដោយគិតយ៉ាងយុត្តិធម៌ទៅតាមទំហំនៃការចូលរួមជួយបញ្ជូនបាល់ និងទាត់បញ្ចូលទីរបស់កីឡាករម្នាក់ៗ។
Post hoc methods គឺជាវិធីសាស្ត្រក្នុងការទាញយកការពន្យល់ និងរកហេតុផលពីម៉ូដែល AI បន្ទាប់ពីម៉ូដែលនោះត្រូវបានហ្វឹកហាត់ (Trained) និងធ្វើការសម្រេចចិត្តរួចរាល់ហើយ ដែលជាទូទៅត្រូវបានប្រើប្រាស់ដើម្បីស្វែងយល់ពីម៉ូដែលប្រភេទ Black-box ។ ដូចជាការធ្វើកោសល្យវិច័យរបស់ប៉ូលីស ដើម្បីស៊ើបអង្កេតរកមូលហេតុនៃគ្រោះថ្នាក់ចរាចរណ៍ បន្ទាប់ពីហេតុការណ៍នោះបានកើតឡើងរួចរាល់ហើយ។
Zero Trust Architectures ជាស្ថាបត្យកម្មសន្តិសុខបណ្តាញកុំព្យូទ័រដែលប្រកាន់ខ្ជាប់គោលការណ៍ "មិនទុកចិត្តអ្នកណាម្នាក់ឡើយ" ទោះបីជាអ្នកនោះនៅក្នុងបណ្តាញផ្ទៃក្នុងក៏ដោយ។ រាល់ការចូលប្រើប្រាស់ទាមទារការផ្ទៀងផ្ទាត់ជានិច្ច ហើយ XAI ត្រូវបានប្រើដើម្បីផ្តល់ហេតុផលប្រកបដោយតម្លាភាពរាល់ពេលមានការបដិសេធសិទ្ធិចូលប្រើ។ ដូចជាការដាក់សន្តិសុខយាមនៅគ្រប់ច្រកទ្វារនៃបន្ទប់នីមួយៗក្នុងអគារ ដោយអ្នកត្រូវតែបង្ហាញកាតសម្គាល់ខ្លួនគ្រប់ពេលទោះបីជាអ្នកជាបុគ្គលិកធ្វើការនៅក្នុងអគារនោះស្រាប់ក៏ដោយ។
Adversarial perturbations ជាការកែច្នៃ ឬបង្កប់ការរំខានបន្តិចបន្តួចទៅលើទិន្នន័យបញ្ចូលដោយចេតនា ដើម្បីបោកបញ្ឆោតប្រព័ន្ធ AI ឱ្យធ្វើការសម្រេចចិត្តខុស ឬទាញយកការពន្យល់ក្លែងក្លាយ ដែលភ្នែកមនុស្សធម្មតាមើលមិនអាចដឹងថាទិន្នន័យនោះត្រូវបានគេកែច្នៃឡើយ។ ដូចជាការបិទស្ទីគ័រតូចមួយលើផ្លាកសញ្ញាចរាចរណ៍ ដែលមនុស្សនៅតែឃើញថាជាផ្លាក "ឈប់" ដដែល ប៉ុន្តែប្រព័ន្ធ AI របស់ឡានបើកបរស្វ័យប្រវត្តិអានខុសថាជាផ្លាក "ផ្លូវល្បឿនលឿន" ទៅវិញ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖