Original Title: Explainable AI (XAI) Techniques to Enhance Cancer Diagnosis
Source: doi.org/10.63920/tjths.43006
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

បច្ចេកទេស Explainable AI (XAI) ដើម្បីបង្កើនប្រសិទ្ធភាពនៃការធ្វើរោគវិនិច្ឆ័យជំងឺមហារីក

ចំណងជើងដើម៖ Explainable AI (XAI) Techniques to Enhance Cancer Diagnosis

អ្នកនិពន្ធ៖ Harmeet Khera (National P.G. College, Lucknow), Nikhil Pandey (National P.G. College, Lucknow), Dr. Shalini Lamba (National P.G. College, Lucknow)

ឆ្នាំបោះពុម្ព៖ 2025, TEJAS Journal of Technologies and Humanitarian Science

វិស័យសិក្សា៖ Computer Science / Medical Imaging

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ បញ្ហាប្រឈមចម្បងគឺម៉ូដែលបញ្ញាសិប្បនិម្មិត (AI) បច្ចុប្បន្នមានសមត្ថភាពខ្ពស់ក្នុងការរកឃើញជំងឺមហារីក ប៉ុន្តែដំណើរការរបស់វាមានលក្ខណៈជា "ប្រអប់ខ្មៅ (Black-box)" ដែលខ្វះតម្លាភាព ធ្វើឱ្យគ្រូពេទ្យមានការស្ទាក់ស្ទើរក្នុងការជឿទុកចិត្ត និងប្រើប្រាស់ក្នុងការព្យាបាលជាក់ស្តែង។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះស្នើឡើងនូវក្របខណ្ឌការងារមួយដោយប្រើប្រាស់ម៉ូដែល ResNet50 សម្រាប់ការបែងចែករូបភាព រួមបញ្ចូលជាមួយបច្ចេកទេស Explainable AI (XAI) ចំនួនបី ដើម្បីពន្យល់ពីលទ្ធផលនៃការព្យាករណ៍។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Traditional CNN (ResNet)
ម៉ូដែល Deep Learning បែបប្រពៃណី (មិនមានការបកស្រាយ)
មានភាពត្រឹមត្រូវ (Accuracy) ខ្ពស់បំផុតក្នុងការបែងចែករូបភាព ដោយមិនចំណាយពេលគណនាលើការពន្យល់។ ជាប្រអប់ខ្មៅ (Black-box) ដែលមិនអាចផ្តល់ហេតុផលនៃការព្យាករណ៍ ធ្វើឱ្យគ្រូពេទ្យខ្វះទំនុកចិត្ត។ ភាពត្រឹមត្រូវ ៩៥% (ទិន្នន័យសម្មតិកម្ម)
CNN + XAI (Grad-CAM, LIME, SHAP)
ម៉ូដែលដែលបំពាក់បច្ចេកទេសបកស្រាយ (Explainable AI)
បង្កើនទំនុកចិត្តគ្រូពេទ្យយ៉ាងខ្លាំង ដោយបង្ហាញតំបន់នៃដុំសាច់ (Heatmap) ដែលម៉ូដែលបានរកឃើញ។ ត្រូវការធនធានគណនាបន្ថែម និងអាចមានភាពត្រឹមត្រូវទាបជាងបន្តិចធៀបនឹងម៉ូដែលសុទ្ធ។ ទំនុកចិត្តគ្រូពេទ្យ (Trust Score) ៩០% (ទិន្នន័យសម្មតិកម្ម)

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តគម្រោងនេះតម្រូវឱ្យមានធនធានកុំព្យូទ័រដែលមានសមត្ថភាពខ្ពស់ក្នុងការដំណើរការ Deep Learning និងវិធីសាស្ត្រគណនាដ៏ស្មុគស្មាញរបស់ SHAP ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះបានលើកឡើងអំពីបញ្ហាដែលម៉ូដែល AI មួយចំនួនត្រូវបានបង្វឹកលើទិន្នន័យអ្នកជំងឺស្បែកស (Lighter skin tones) ដែលអាចធ្វើឱ្យមានកំហុសនៅពេលយកមកប្រើលើអ្នកជំងឺដែលមានស្បែកស្រអែមឬខ្មៅ។ សម្រាប់កម្ពុជា នេះគឺជាចំណុចសំខាន់ណាស់ដែលត្រូវប្រាកដថាសំណុំទិន្នន័យ (Dataset) មានភាពចម្រុះ និងឆ្លុះបញ្ចាំងពីលក្ខណៈជីវសាស្ត្ររបស់ប្រជាជនអាស៊ីអាគ្នេយ៍។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រ XAI នេះមានសារៈសំខាន់ខ្លាំងសម្រាប់វិស័យសុខាភិបាលនៅកម្ពុជា ដើម្បីកាត់បន្ថយគម្លាតរវាងបច្ចេកវិទ្យា និងការអនុវត្តជាក់ស្តែង។

បច្ចេកវិទ្យានេះមិនត្រឹមតែបង្កើនប្រសិទ្ធភាពនៃការធ្វើរោគវិនិច្ឆ័យប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងជួយការពារគ្រូពេទ្យ និងមន្ទីរពេទ្យពីបញ្ហាផ្លូវច្បាប់តាមរយៈការផ្តល់នូវតម្លាភាពក្នុងការសម្រេចចិត្ត។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. ជំហានទី ១៖ ការរៀបចំទិន្នន័យ: ទាញយកសំណុំទិន្នន័យរូបភាពជំងឺមហារីកពី Kaggle (ឧទាហរណ៍៖ Breast Histopathology Images) រួចធ្វើការសម្អាត និងបែងចែកជា Training/Testing sets ដោយប្រើ Python (Pandas/NumPy)។
  2. ជំហានទី ២៖ ការកសាងម៉ូដែលមូលដ្ឋាន: បង្កើត និងបង្ហាត់ម៉ូដែល CNN (ប្រើស្ថាបត្យកម្ម ResNet50 ឬ VGG16) ដោយប្រើ TensorFlow ឬ PyTorch លើ Google Colab ដើម្បីទទួលបានលទ្ធផលបឋម។
  3. ជំហានទី ៣៖ ការអនុវត្តបច្ចេកទេស XAI: ដំឡើងបណ្ណាល័យ XAI (ដូចជា tf-keras-vis សម្រាប់ Grad-CAM, lime, និង shap) រួចសរសេរកូដដើម្បីបង្កើត Heatmap លើរូបភាពដែលម៉ូដែលបានព្យាករណ៍។
  4. ជំហានទី ៤៖ ការវាយតម្លៃ និងប្រៀបធៀប: ធ្វើការប្រៀបធៀបរវាងរូបភាពដើម និងរូបភាពដែលបានបកស្រាយ (Heatmap) ថាតើតំបន់ដែល AI ផ្តោតទៅលើពិតជាតំបន់ដុំសាច់មែនឬទេ ដោយផ្ទៀងផ្ទាត់ជាមួយចំណេះដឹងវេជ្ជសាស្ត្រ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Explainable AI (XAI) គឺជាបច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិតដែលត្រូវបានរចនាឡើងដើម្បីឱ្យមនុស្សអាចយល់ពីមូលហេតុ និងដំណើរការនៃការសម្រេចចិត្តរបស់ម៉ាស៊ីន មិនមែនគ្រាន់តែបង្ហាញចម្លើយចុងក្រោយនោះទេ។ ដូចសិស្សពូកែគណិតវិទ្យាដែលបង្ហាញរបៀបធ្វើលំហាត់មួយជំហានម្តងៗ មិនមែនសរសេរតែចម្លើយចុងក្រោយនោះទេ។
Black-box ពាក្យបច្ចេកទេសសម្រាប់ហៅប្រព័ន្ធ AI ស្មុគស្មាញ (ដូចជា Deep Learning) ដែលផ្តល់លទ្ធផលត្រឹមត្រូវ ប៉ុន្តែអ្នកប្រើប្រាស់មិនអាចមើលឃើញឬយល់ពីដំណើរការគណនាខាងក្នុងបាន។ ដូចប្រអប់វេទមន្តដែលយើងដាក់វត្ថុចូល ហើយវាចេញជាលទ្ធផលមកវិញ ប៉ុន្តែយើងមិនដឹងថាមានអ្វីកើតឡើងនៅក្នុងប្រអប់នោះទេ។
Convolutional Neural Networks (CNNs) ជាប្រភេទនៃបណ្តាញប្រសាទសិប្បនិម្មិតដែលមានជំនាញពិសេសក្នុងការវិភាគទិន្នន័យជារូបភាព ដោយវាអាចស្កេនរកមើលលក្ខណៈសម្បត្តិដូចជា គែម រាង និងពណ៌ ដើម្បីសម្គាល់វត្ថុ។ ប្រៀបដូចជាការយកកែវយឹតមកឆ្លុះមើលរូបភាពធំមួយម្តងមួយផ្នែកតូចៗ ដើម្បីផ្គុំគ្នាស្វែងយល់ថារូបភាពនោះជារូបអ្វី។
Grad-CAM បច្ចេកទេសមួយដែលបង្កើតជាផែនទីកម្ដៅ (Heatmap) ដើម្បីគូសបង្ហាញតំបន់សំខាន់ៗនៅលើរូបភាព ដែលមានឥទ្ធិពលបំផុតដល់ការសម្រេចចិត្តរបស់ AI ។ ដូចជាគ្រូដែលយកប៊ិចក្រហមកូសរង្វង់លើកន្លែងខុសជាក់លាក់នៅក្នុងក្រដាសកិច្ចការ ដើម្បីប្រាប់សិស្សថាពិន្ទុត្រូវបានកាត់ត្រង់ណា។
Histopathology ការពិនិត្យមើលជាលិកា ឬសាច់ដែលកាត់ចេញពីរាងកាយតាមរយៈមីក្រូទស្សន៍ ដើម្បីស្វែងរកសញ្ញានៃជំងឺ ជាពិសេសគឺការផ្លាស់ប្តូរនៃកោសិកាមហារីក។ ដូចជាការយកក្រណាត់មកឆ្លុះមើលសរសៃអំបោះតូចៗ ដើម្បីរកមើលកន្លែងដែលដាច់ឬខូចដែលភ្នែកធម្មតាមើលមិនឃើញ។
SHAP (SHapley Additive exPlanations) វិធីសាស្ត្រគណិតវិទ្យាសម្រាប់វាស់វែងថាតើកត្តានីមួយៗ (Features) បានចូលរួមចំណែកប៉ុន្មានភាគរយក្នុងការជួយឱ្យ AI ធ្វើការទស្សន៍ទាយមួយ។ ដូចជាក្រុមបាល់ទាត់មួយដែលឈ្នះការប្រកួត ហើយយើងគណនាថាតើកីឡាករម្នាក់ៗបានរួមចំណែកប៉ុន្មានភាគរយក្នុងជ័យជម្នះនោះ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖