បញ្ហា (The Problem)៖ ការសិក្សានេះដោះស្រាយបញ្ហាទាក់ទងនឹងកង្វះតម្លាភាព (Transparency) នៃប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ក្នុងវិស័យសុខាភិបាល ដែលភាពស្មុគស្មាញនៃម៉ូដែល AI ធ្វើឱ្យគ្រូពេទ្យនិងអ្នកជំងឺពិបាកយល់ពីមូលហេតុនៃការសម្រេចចិត្តធ្វើរោគវិនិច្ឆ័យ។
វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធបានធ្វើការសិក្សាពិនិត្យឡើងវិញជាប្រព័ន្ធ (Systematic Review) ដោយវិភាគលើអត្ថបទស្រាវជ្រាវចំនួន ៩០ ដែលដកស្រង់ចេញពីមូលដ្ឋានទិន្នន័យ Scopus និង IEEE Xplore ចន្លោះឆ្នាំ ២០១៨ ដល់ ២០២៣។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| SHAP (SHapley Additive exPlanations) វិធីសាស្ត្រផ្អែកលើទ្រឹស្តីហ្គេម (Game Theory) ដើម្បីពន្យល់ពីឥទ្ធិពលនៃលក្ខណៈនីមួយៗលើលទ្ធផល |
មានមូលដ្ឋានទ្រឹស្តីរឹងមាំ និងអាចផ្តល់ការពន្យល់បានទាំងកម្រិតបុគ្គល និងកម្រិតសកល (Global & Local Interpretability)។ វាភ្ជាប់ទំនាក់ទំនងរវាងវិធីសាស្ត្រផ្សេងៗដូចជា LIME ផងដែរ។ | ត្រូវការពេលវេលានិងធនធានគណនាខ្លាំង (Computationally expensive) ជាពិសេសលើទិន្នន័យធំៗ ហើយអាចមានការបកស្រាយខុសប្រសិនបើលក្ខណៈទិន្នន័យមានទំនាក់ទំនងគ្នាខ្លាំង (Correlated features)។ | ជាបច្ចេកទេសដែលត្រូវបានប្រើប្រាស់ញឹកញាប់បំផុតក្នុងការសិក្សាស្រាវជ្រាវ (Highest frequency) សម្រាប់ការវិភាគទិន្នន័យជំងឺ។ |
| LIME (Local Interpretable Model-agnostic Explanations) បច្ចេកទេសបង្កើតម៉ូដែលសាមញ្ញមួយនៅជុំវិញចំណុចទិន្នន័យជាក់លាក់ ដើម្បីពន្យល់ពីការព្យាករណ៍របស់ម៉ូដែលស្មុគស្មាញ |
ងាយស្រួលអនុវត្ត លឿន និងអាចប្រើបានជាមួយទិន្នន័យចម្រុះ (រូបភាព អត្ថបទ តារាង) ដោយមិនប្រកាន់ប្រភេទម៉ូដែល AI (Model-agnostic)។ | ការពន្យល់អាចប្រែប្រួលមិនស្ថិតស្ថេរ (Instability) នៅពេលដំណើរការឡើងវិញលើចំណុចដដែល ហើយវាពិបាកអនុវត្តចំពោះម៉ូដែលដែលមានព្រំដែនសម្រេចចិត្តមិនមែនជាបន្ទាត់ត្រង់ (Non-linear boundaries)។ | ពេញនិយមលំដាប់ទីពីរ ប៉ុន្តែត្រូវបានគេរកឃើញថាមានបញ្ហាខ្វះស្ថេរភាពក្នុងបរិបទវេជ្ជសាស្រ្តមួយចំនួន។ |
| Grad-CAM (Gradient-weighted Class Activation Mapping) បច្ចេកទេសសម្រាប់បកស្រាយម៉ូដែល Deep Learning (CNN) ដោយបង្កើតផែនទីកម្ដៅ (Heatmap) លើរូបភាព |
មានប្រសិទ្ធភាពខ្ពស់សម្រាប់រូបភាពវេជ្ជសាស្រ្ត (ដូចជា X-ray ឬ CT Scan) ដោយបង្ហាញតំបន់សំខាន់ៗដែលម៉ូដែលយកចិត្តទុកដាក់ និងធន់នឹងការរំខានទិន្នន័យ។ | មិនអាចបង្ហាញព័ត៌មានលម្អិតតូចៗ (Fine-grained details) បានល្អ និងប្រើបានតែជាមួយម៉ូដែលប្រភេទ CNN ប៉ុណ្ណោះ។ | ជាស្តង់ដារមាសសម្រាប់ការបកស្រាយរូបភាពវេជ្ជសាស្រ្តក្នុងការរកឃើញជំងឺដូចជា COVID-19 ឬដុំសាច់។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្ត XAI ក្នុងវិស័យសុខាភិបាលទាមទារធនធានគណនខ្ពស់ជាងម៉ូដែល AI ធម្មតា ដោយសារដំណើរការបង្កើតការពន្យល់។
ការសិក្សាភាគច្រើនដែលបានពិនិត្យឡើងវិញប្រើប្រាស់ទិន្នន័យដែលមានទំហំតូច (Small datasets) និងប្រមូលពីមជ្ឈមណ្ឌលតែមួយ (Single-center) ដែលនាំឱ្យមានហានិភ័យនៃភាពលំអៀង និងកង្វះសមត្ថភាពក្នុងការអនុវត្តទូទៅ (Generalizability)។ សម្រាប់កម្ពុជា នេះជាបញ្ហាសំខាន់ព្រោះម៉ូដែលដែលបង្វឹកលើទិន្នន័យបរទេសអាចនឹងមិនមានប្រសិទ្ធភាពពេញលេញលើពន្ធុសាស្ត្រ ឬបរិបទជំងឺក្នុងស្រុក។
វិធីសាស្ត្រនេះមានសារៈសំខាន់ខ្លាំងសម្រាប់កម្ពុជា ដើម្បីកសាងទំនុកចិត្តរវាងគ្រូពេទ្យ និងបច្ចេកវិទ្យា AI ថ្មីៗ។
ទោះបីជាមានសក្តានុពលខ្ពស់ ប៉ុន្តែការដាក់ឱ្យប្រើប្រាស់នៅកម្ពុជាទាមទារឱ្យមានការផ្ទៀងផ្ទាត់ជាមួយទិន្នន័យក្នុងស្រុក និងការចូលរួមពីអ្នកជំនាញវេជ្ជសាស្រ្តដើម្បីវាយតម្លៃការពន្យល់ទាំងនោះ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Explainable AI (XAI) | ជាសំណុំនៃវិធីសាស្ត្រនិងបច្ចេកទេសដែលអនុញ្ញាតឱ្យលទ្ធផលនៃការសម្រេចចិត្តរបស់ប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) អាចត្រូវបានយល់និងបកស្រាយបានដោយមនុស្ស។ វាមានគោលបំណងដោះស្រាយបញ្ហា 'ប្រអប់ខ្មៅ' (Black Box) ដើម្បីបង្កើនទំនុកចិត្តនិងតម្លាភាព។ | ដូចជាគ្រូគណិតវិទ្យាដែលតម្រូវឱ្យសិស្សបង្ហាញពីរបៀបគណនាលំហាត់ មិនមែនគ្រាន់តែសរសេរចម្លើយចុងក្រោយនោះទេ។ |
| Black Box AI | សំដៅលើប្រព័ន្ធ AI ដ៏ស្មុគស្មាញ (ដូចជា Deep Learning) ដែលយើងអាចមើលឃើញតែទិន្នន័យបញ្ចូល (Input) និងលទ្ធផល (Output) ប៉ុន្តែមិនអាចមើលឃើញ ឬយល់ពីដំណើរការគិតខាងក្នុងរបស់វាបានឡើយ។ | ប្រៀបដូចជាការដាក់គ្រឿងផ្សំចូលក្នុងប្រអប់វេទមន្តហើយទទួលបាននំខេកមកវិញ ប៉ុន្តែយើងមិនដឹងថាប្រអប់នោះលាយម្សៅឬដុតនំដោយរបៀបណាទេ។ |
| SHAP (SHapley Additive exPlanations) | ជាបច្ចេកទេសមួយដែលប្រើប្រាស់ទ្រឹស្តីហ្គេម (Game Theory) ដើម្បីគណនាថា តើលក្ខណៈនីមួយៗនៃទិន្នន័យ (ដូចជា អាយុ ឬសម្ពាធឈាម) បានចូលរួមចំណែកប៉ុន្មានភាគរយក្នុងការធ្វើឱ្យ AI ធ្វើការទស្សន៍ទាយបែបនេះ។ | ដូចជាការវាយតម្លៃថា កីឡាករបាល់ទាត់ម្នាក់ៗក្នុងក្រុមបានចូលរួមចំណែកកម្រិតណា (ស៊ុតបញ្ចូលទី ឬបញ្ជូនបាល់) ដើម្បីឱ្យក្រុមទទួលបានជ័យជំនះ។ |
| Grad-CAM (Gradient-weighted Class Activation Mapping) | ជាបច្ចេកទេសសម្រាប់បង្កើត 'ផែនទីកម្ដៅ' (Heatmap) លើរូបភាពវេជ្ជសាស្រ្ត ដើម្បីបង្ហាញតំបន់ជាក់លាក់ដែលម៉ូដែល AI កំពុងសម្លឹងមើល និងប្រើប្រាស់ជាមូលដ្ឋានក្នុងការសម្រេចចិត្តធ្វើរោគវិនិច្ឆ័យ។ | ប្រៀបដូចជាការប្រើហ្វឺតពណ៌ (Highlighter) គូសលើចំណុចសំខាន់ៗក្នុងសន្លឹក X-ray ដើម្បីប្រាប់គ្រូពេទ្យថា 'ត្រង់នេះហើយគឺជាកន្លែងដែលមានបញ្ហា'។ |
| Model-Agnostic | ជាលក្ខណៈនៃវិធីសាស្ត្រ XAI (ដូចជា LIME) ដែលអាចយកទៅប្រើដើម្បីពន្យល់ម៉ូដែល AI ណាមួយក៏បាន មិនថាជាម៉ូដែលប្រភេទ Decision Tree ឬ Neural Network នោះទេ ដោយមិនប្រកាន់រចនាសម្ព័ន្ធខាងក្នុង។ | ដូចជាឆ្នាំងសាកថ្មទូរស័ព្ទសកល (Universal Charger) ដែលអាចសាកទូរស័ព្ទបានគ្រប់ម៉ាក ដោយមិនខ្វល់ថាជា iPhone ឬ Samsung។ |
| Post-hoc Explanation | វិធីសាស្ត្របកស្រាយលទ្ធផល បន្ទាប់ពី ម៉ូដែល AI បានបង្កើតរួចរាល់ហើយ។ វាមិនព្យាយាមស្វែងយល់ពីរបៀបដែលម៉ូដែលរៀនទេ ប៉ុន្តែព្យាយាមពន្យល់ពីមូលហេតុនៃការសម្រេចចិត្តលើករណីនីមួយៗ។ | ដូចជាអ្នករិះគន់អាហារដែលពន្យល់ថាហេតុអ្វីបានជាម្ហូបនេះឆ្ងាញ់ បន្ទាប់ពី បានភ្លក់រួច ដោយមិនចាំបាច់ចូលទៅមើលចុងភៅចម្អិនក្នុងផ្ទះបាយ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖