បញ្ហា (The Problem)៖ ការសិក្សានេះដោះស្រាយបញ្ហាប្រឈមនៃការដាក់ឱ្យប្រើប្រាស់គំរូការរៀនរបស់ម៉ាស៊ីន (Machine Learning) ដ៏ស្មុគស្មាញនៅលើឧបករណ៍គែម (Edge devices) ដែលមានកម្រិតផ្នែកថាមពល និងការចងចាំ នៅក្នុងបណ្តាញហេដ្ឋារចនាសម្ព័ន្ធជំនាន់ក្រោយ។
វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធធ្វើការស្ទង់មតិនិងវិភាគយ៉ាងទូលំទូលាយទៅលើបច្ចេកទេស Soft Computing និងយុទ្ធសាស្ត្របង្កើនប្រសិទ្ធភាពគំរូ ដើម្បីឱ្យដំណើរការបានរលូននៅលើឧបករណ៍ IoT ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Structured Pruning ការកាត់បន្ថយរចនាសម្ព័ន្ធ (Structured Pruning) |
ងាយស្រួលអនុវត្តជាមួយផ្នែករឹង (Hardware-friendly) និងជួយកាត់បន្ថយទំហំគំរូបានយ៉ាងល្អ។ | អាចបណ្តាលឱ្យបាត់បង់ភាពត្រឹមត្រូវនៃទិន្នន័យ (Accuracy loss) ចន្លោះពី 0.1% ទៅ 5%។ | កាត់បន្ថយការប្រើប្រាស់មេម៉ូរីបាន 2x–10x និងបង្កើនល្បឿនបាន 1.2x–3x។ |
| INT8 Quantization ការបំប្លែងតម្លៃទិន្នន័យជាចំនួនគត់ ៨ ប៊ីត (INT8 Quantization) |
សាកសមបំផុតសម្រាប់ការដាក់ឱ្យដំណើរការលើឧបករណ៍គែម (Edge devices) និងបង្កើនប្រសិទ្ធភាពនៃការគណនា។ | ភាពត្រឹមត្រូវអាចធ្លាក់ចុះប្រហែល 0.5% ទៅ 3% បើធៀបនឹងគំរូដើម។ | កាត់បន្ថយទំហំគំរូបាន 4x និងបង្កើនល្បឿនដំណើរការបាន 1.5x–3x។ |
| Knowledge Distillation ការចម្រាញ់ចំណេះដឹង (Knowledge Distillation) |
អាចបង្រួមគំរូធំៗឱ្យមកតូចបានដោយរក្សាភាពត្រឹមត្រូវនៃទិន្នន័យបានល្អ។ | ដំណើរការនៃការបង្ហាត់បង្រៀន (Training) មានភាពស្មុគស្មាញព្រោះត្រូវប្រើគំរូគ្រូ (Teacher model)។ | កាត់បន្ថយទំហំគំរូបាន 2x–5x ដោយមានអត្រាបាត់បង់ភាពត្រឹមត្រូវត្រឹម 0.5%–3%។ |
| Low-Rank Factorization (LoRA) ការបំបែកកត្តាលំដាប់ទាប (Low-Rank Factorization) |
មានប្រសិទ្ធភាពខ្ពស់សម្រាប់ការសម្រួលគំរូភាសាធំៗ (Fine-tuning LLMs)។ | ត្រូវការការគណនាបន្ថែមក្នុងកំឡុងពេលបង្ហាត់បង្រៀន។ | កាត់បន្ថយទំហំគំរូបាន 1.5x–4x និងបង្កើនល្បឿនបាន 1.2x–2.5x។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះសង្កត់ធ្ងន់លើការកាត់បន្ថយធនធានតាមរយៈបច្ចេកទេសបង្កើនប្រសិទ្ធភាព ប៉ុន្តែការអនុវត្តជាក់ស្តែងនៅតែទាមទារឧបករណ៍ និងជំនាញជាក់លាក់។
ឯកសារនេះគឺជាការស្ទង់មតិ (Survey Paper) ដែលប្រមូលផ្តុំការស្រាវជ្រាវពីប្រភពជាច្រើន ប៉ុន្តែភាគច្រើននៃករណីសិក្សា (Use cases) ផ្តោតលើបរិបទនៃប្រទេសអភិវឌ្ឍន៍ដែលមានហេដ្ឋារចនាសម្ព័ន្ធបណ្តាញរឹងមាំ។ សម្រាប់កម្ពុជា បញ្ហាប្រឈមដូចជាល្បឿនអ៊ីនធឺណិតមិនស្ថិតស្ថេរនៅតំបន់ដាច់ស្រយាល និងលក្ខខណ្ឌអាកាសធាតុ (កម្ដៅ) ដែលប៉ះពាល់ដល់ឧបករណ៍គែម មិនត្រូវបានពិភាក្សាលម្អិតទេ។
បច្ចេកទេសដែលបានលើកឡើងមានសារៈសំខាន់ខ្លាំងសម្រាប់កម្ពុជា ព្រោះវាអនុញ្ញាតឱ្យប្រើប្រាស់ AI ដោយមិនពឹងផ្អែកទាំងស្រុងលើ Cloud Server ដែលមានតម្លៃថ្លៃ។
ការអនុវត្ត Edge AI នឹងជួយកម្ពុជាកាត់បន្ថយគម្លាតបច្ចេកវិទ្យា ដោយអនុញ្ញាតឱ្យដំណោះស្រាយឆ្លាតវៃដំណើរការបានទោះបីជាមានកម្រិតហេដ្ឋារចនាសម្ព័ន្ធក៏ដោយ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Edge Machine Learning | ដំណើរការនៃការដំឡើងនិងប្រើប្រាស់គំរូបញ្ញាសិប្បនិម្មិត (AI) ដោយផ្ទាល់នៅលើឧបករណ៍របស់អ្នកប្រើប្រាស់ (ដូចជាទូរស័ព្ទ ឬកាមេរ៉ា) ជំនួសឱ្យការបញ្ជូនទិន្នន័យទៅកុំព្យូទ័រមេ (Cloud Server) ដើម្បីកាត់បន្ថយការយឺតយ៉ាវ និងការពារឯកជនភាព។ | ដូចជាការមានគ្រូពេទ្យជំនាញនៅចាំផ្ទះរបស់អ្នកផ្ទាល់ ដើម្បីពិនិត្យសុខភាពភ្លាមៗ ដោយមិនចាំបាច់ធ្វើដំណើរទៅមន្ទីរពេទ្យឆ្ងាយ។ |
| Federated Learning | បច្ចេកទេសបណ្តុះបណ្តាលគំរូ AI ដោយសហការគ្នារវាងឧបករណ៍ជាច្រើន ដោយមិនចាំបាច់ចែករំលែកទិន្នន័យឯកជនរបស់អ្នកប្រើប្រាស់ទៅកាន់កន្លែងកណ្តាលឡើយ គឺចែករំលែកតែការកែតម្រូវគំរូ (Model Updates) ប៉ុណ្ណោះ។ | ប្រៀបដូចជាសិស្សរៀនដោះស្រាយលំហាត់នៅផ្ទះរៀងខ្លួន ហើយផ្ញើតែចម្លើយទៅគ្រូដើម្បីកែ ដោយមិនបាច់បង្ហាញសៀវភៅព្រាងផ្ទាល់ខ្លួន។ |
| Quantization | វិធីសាស្ត្រកាត់បន្ថយភាពជាក់លាក់នៃលេខដែលប្រើក្នុងគំរូ AI (ឧទាហរណ៍ពីលេខទសភាគវែងៗ ទៅជាលេខគត់តូចៗ) ដើម្បីឱ្យគំរូនោះមានទំហំតូចជាងមុន និងដំណើរការលឿនជាងមុនលើឧបករណ៍ដែលមានថាមពលតិច។ | ដូចជាការបង្រួមរូបភាពដែលមានគុណភាពខ្ពស់ មកត្រឹមគុណភាពមធ្យម ដើម្បីអាចផ្ញើតាមឆាតបានលឿន ប៉ុន្តែនៅតែអាចមើលយល់។ |
| Knowledge Distillation | ដំណើរការផ្ទេរចំណេះដឹងពីគំរូ AI ដ៏ធំនិងស្មុគស្មាញ (Teacher) ទៅកាន់គំរូតូចជាង (Student) ដើម្បីឱ្យគំរូតូចនោះអាចធ្វើការបានល្អប្រហាក់ប្រហែលនឹងគំរូធំ ប៉ុន្តែប្រើប្រាស់ធនធានតិចជាង។ | ដូចជាសាស្ត្រាចារ្យសង្ខេបមេរៀនដ៏វែងរាប់រយទំព័រ ឱ្យមកនៅត្រឹមសៀវភៅសង្ខេបតូចមួយ ដើម្បីឱ្យសិស្សងាយស្រួលយល់និងចងចាំ។ |
| Pruning | ការលុបបំបាត់ផ្នែកដែលមិនចាំបាច់ ឬមិនសូវសំខាន់ចេញពីបណ្តាញសរសៃប្រសាទ (Neural Network) របស់ AI ដើម្បីធ្វើឱ្យវាកាន់តែស្រាល និងលឿន ដោយមិនប៉ះពាល់ខ្លាំងដល់សមត្ថភាពរបស់វា។ | ប្រៀបដូចជាការកាត់មែកឈើដែលស្ងួត ឬមិនចាំបាច់ចេញ ដើម្បីឱ្យដើមឈើលូតលាស់បានល្អ និងមានរាងស្អាត។ |
| Concept Drift | បាតុភូតដែលទិន្នន័យជាក់ស្តែងមានការផ្លាស់ប្តូរតាមពេលវេលា (ឧទាហរណ៍៖ ចំណង់ចំណូលចិត្តអតិថិជនផ្លាស់ប្តូរ) ដែលធ្វើឱ្យគំរូ AI ដែលធ្លាប់តែឆ្លាត ក្លាយទៅជាលែងសូវត្រឹមត្រូវ និងត្រូវការការបណ្តុះបណ្តាលឡើងវិញ។ | ដូចជាការប្រើផែនទីចាស់ដើម្បីធ្វើដំណើរក្នុងទីក្រុងដែលមានការផ្លាស់ប្តូរផ្លូវថ្មីៗ ធ្វើឱ្យយើងអាចវង្វេងផ្លូវបាន។ |
| Low-Rank Adaptation (LoRA) | បច្ចេកទេសមួយសម្រាប់កែតម្រូវគំរូភាសាធំៗ (LLMs) ដោយមិនចាំបាច់បណ្តុះបណ្តាលគំរូទាំងមូលឡើងវិញ គឺគ្រាន់តែបន្ថែមនិងកែតម្រូវប៉ារ៉ាម៉ែត្រមួយចំនួនតូចប៉ុណ្ណោះ ដែលសន្សំសំចៃធនធានកុំព្យូទ័រយ៉ាងខ្លាំង។ | ដូចជាការបិទតែស្ទីគ័រថ្មីពីលើឡាន ដើម្បីប្តូរពណ៌ឬម៉ូដ ដោយមិនចាំបាច់លាបថ្នាំឡានទាំងមូលឡើងវិញ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖