បញ្ហា (The Problem)៖ ការសិក្សានេះដោះស្រាយបញ្ហានៃការរំខានបណ្តាញ (Channel Interference) និងលក្ខខណ្ឌបណ្តាញមិនល្អដែលបណ្តាលមកពីដង់ស៊ីតេ និងការចល័តនៃយានយន្ត ដែលនាំឱ្យមានការកើនឡើងនូវការប្រើប្រាស់ថាមពល និងភាពយឺតយ៉ាវនៅក្នុងប្រព័ន្ធគណនាគែមនៃយានយន្ត (VEC)។
វិធីសាស្ត្រ (The Methodology)៖ អ្នកស្រាវជ្រាវបានស្នើឡើងនូវវិធីសាស្ត្រផ្ទេរភារកិច្ចថ្មីមួយ ដោយប្រើប្រាស់ការរៀនបំប៉នស៊ីជម្រៅបែបសហព័ន្ធ (Federated Deep Reinforcement Learning) ដើម្បីគ្រប់គ្រងថាមពល និងបង្កើនទិន្នផលនៃប្រព័ន្ធ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| FL-DDPG (Proposed Method) ការរៀនបំប៉នស៊ីជម្រៅបែបសហព័ន្ធ (Federated DDPG) |
មានតុល្យភាពល្អរវាងការគ្រប់គ្រងកណ្តាល និងការចែកចាយ (Centralized & Distributed) ដោយធានាបាននូវឯកជនភាពទិន្នន័យ និងកាត់បន្ថយការចំណាយលើការទំនាក់ទំនង (Communication Overhead)។ | មានភាពស្មុគស្មាញក្នុងការអនុវត្តជាងវិធីសាស្ត្រធម្មតា ដោយសារត្រូវសំយោគគំរូពីរគឺ DDPG និង Federated Learning។ | ផ្តល់ទិន្នផល (Throughput) ប្រហាក់ប្រហែលនឹងវិធីសាស្ត្រ Single-agent ប៉ុន្តែកាត់បន្ថយការបញ្ជូនទិន្នន័យបានច្រើនជាង និងប្រសើរជាងវិធីសាស្ត្រ Multi-agent ប្រមាណ ៣៥%។ |
| S-DDPG (Single-agent DDPG) DDPG បែភ្នាក់ងារតែមួយ (គ្រប់គ្រងដោយកណ្តាល) |
មានព័ត៌មានសកល (Global Information) នៃប្រព័ន្ធទាំងមូល ដែលធ្វើឱ្យការសម្រេចចិត្តមានភាពត្រឹមត្រូវខ្ពស់។ | មានបញ្ហាឯកជនភាព និងការចំណាយលើការទំនាក់ទំនងខ្ពស់ (High Communication Overhead) ដោយសារយានយន្តទាំងអស់ត្រូវបញ្ជូនទិន្នន័យឆៅទៅកាន់ម៉ាស៊ីនមេ។ | ទិន្នផលខ្ពស់ ប៉ុន្តែមិនស័ក្តិសមសម្រាប់ការអនុវត្តជាក់ស្តែងដែលមានចំនួនយានយន្តច្រើន។ |
| M-DDPG (Multi-agent DDPG) DDPG បែបពហុភ្នាក់ងារ (ចែកចាយតាមយានយន្ត) |
កាត់បន្ថយការបញ្ជូនទិន្នន័យ និងធ្វើការសម្រេចចិត្តបានលឿននៅតាមយានយន្តនីមួយៗ។ | ខ្វះព័ត៌មានរួម (Global View) ដែលនាំឱ្យការគ្រប់គ្រងការរំខាន (Interference) មិនមានប្រសិទ្ធភាព។ | ទិន្នផលទាបជាងវិធីសាស្ត្រ FL-DDPG ដោយសារការសម្រេចចិត្តមិនបានគិតគូរពីស្ថានភាពជារួម។ |
| DQN Methods (FL/S/M-DQN) វិធីសាស្ត្រ Deep Q-Network |
ងាយស្រួលអនុវត្តជាង DDPG សម្រាប់បញ្ហាដែលមានជម្រើសសកម្មភាពដាច់ដោយឡែក (Discrete Action Space)។ | មិនអាចដោះស្រាយបញ្ហាដែលមានតម្លៃបន្ត (Continuous Values) ដូចជាការគ្រប់គ្រងថាមពលបានល្អឥតខ្ចោះទេ។ | ប្រសិទ្ធភាពទាបជាងវិធីសាស្ត្រ DDPG ប្រមាណ ១៩-២០% នៅក្នុងគ្រប់លក្ខខណ្ឌពិសោធន៍។ |
| GD-P (Greedy Power) ការប្រើប្រាស់ថាមពលអតិបរមា (Greedy) |
សាមញ្ញបំផុត មិនត្រូវការការបណ្តុះបណ្តាលគំរូ AI។ | បង្កឱ្យមានការរំខានបណ្តាញ (Interference) ខ្ពស់បំផុត ដែលធ្វើឱ្យទិន្នផលសរុបធ្លាក់ចុះ។ | ទទួលបានលទ្ធផលអន់បំផុតនៅក្នុងចំណោមវិធីសាស្ត្រទាំងអស់។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះគឺជាការពិសោធន៍លើកុំព្យូទ័រ (Simulation) ដូច្នេះមិនតម្រូវឱ្យមានឧបករណ៍មន្ទីរពិសោធន៍ថ្លៃៗទេ ប៉ុន្តែត្រូវការកុំព្យូទ័រដែលមានសមត្ថភាពខ្ពស់សម្រាប់ការបណ្តុះបណ្តាល AI ។
ការសិក្សានេះប្រើប្រាស់ទិន្នន័យសិប្បនិម្មិតដែលបង្កើតដោយកម្មវិធី SUMO នៅក្នុងតំបន់ទំហំ ២.៥ x ១.៥ គីឡូម៉ែត្រ ដោយមិនបានឆ្លុះបញ្ចាំងពីស្ថានភាពចរាចរណ៍ជាក់ស្តែងនៅកម្ពុជាដែលមានភាពស្មុគស្មាញ (ដូចជាវត្តមានម៉ូតូកង់បី និងការបើកបរមិនតាមគន្លងផ្លូវ)។ លើសពីនេះ ការសន្មតអំពីល្បឿន និងគំរូនៃបណ្តាញ (Channel Model) អាចនឹងមានភាពល្អឥតខ្ចោះជាងស្ថានភាពជាក់ស្តែង។
បច្ចេកវិទ្យានេះមានសារៈសំខាន់ខ្លាំងសម្រាប់អនាគតនៃទីក្រុងឆ្លាតវៃ (Smart City) នៅកម្ពុជា ប៉ុន្តែការអនុវត្តជាក់ស្តែងនៅមានកម្រិតដោយសារកង្វះហេដ្ឋារចនាសម្ព័ន្ធ VEC។
ទោះបីជាការអនុវត្តភ្លាមៗនៅកម្ពុជាជួបបញ្ហាខ្វះខាតផ្នែក Hardware (VEC Servers) ក៏ដោយ វិធីសាស្ត្រនេះផ្តល់នូវមូលដ្ឋានគ្រឹះដ៏រឹងមាំសម្រាប់ការអភិវឌ្ឍប្រព័ន្ធ IoT និង 5G នាពេលអនាគត។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Vehicular Edge Computing (VEC) | ជាបច្ចេកវិទ្យាដែលនាំយកសមត្ថភាពនៃការគណានិងការផ្ទុកទិន្នន័យទៅដាក់នៅគែមនៃបណ្តាញ (ដូចជានៅតាមបង្គោលភ្លើងស្តុប ឬស្ថានីយ៍ផ្សាយសេវា) ដើម្បីឱ្យយានយន្តអាចបញ្ជូនទិន្នន័យទៅដំណើរការបានយ៉ាងឆាប់រហ័ស ដោយមិនចាំបាច់បញ្ជូនទៅកន្លែងឆ្ងាយ (Cloud)។ | ដូចជាមានកុំព្យូទ័រល្បឿនលឿននៅរង់ចាំជួយគិតលេខនៅតាមដងផ្លូវ ជំនួសឱ្យការផ្ញើលំហាត់ទៅឱ្យអ្នកជំនាញនៅបរទេសដោះស្រាយ។ |
| Task Offloading | ជាដំណើរការនៃការផ្ទេរភារកិច្ចគណនាដែលស្មុគស្មាញ ឬប្រើប្រាស់ថាមពលច្រើនពីកុំព្យូទ័ររបស់យានយន្ត ទៅឱ្យម៉ាស៊ីនមេ (VEC Server) ធ្វើជំនួស ដើម្បីសន្សំសំចៃថ្ម និងបង្កើនល្បឿនប្រតិបត្តិការ។ | ដូចជាសិស្សម្នាក់សុំឱ្យគ្រូជួយដោះស្រាយលំហាត់ពិបាកៗជំនួសខ្លួន ដើម្បីឱ្យខ្លួនមានពេលធ្វើកិច្ចការផ្សេងទៀតបានលឿន។ |
| Federated Learning (FL) | ជាបច្ចេកទេសបណ្តុះបណ្តាល AI ដែលអនុញ្ញាតឱ្យយានយន្តនីមួយៗរៀនពីទិន្នន័យផ្ទាល់ខ្លួន ហើយចែករំលែកតែការកែតម្រូវគំរូ (Model Updates) ទៅកាន់ម៉ាស៊ីនកណ្តាល ដោយមិនចាំបាច់បញ្ជូនទិន្នន័យឯកជន (រូបភាព ឬទីតាំង) ចេញទៅក្រៅឡើយ។ | ដូចជាចុងភៅច្រើននាក់រៀនធ្វើម្ហូបនៅផ្ទះរៀងខ្លួន ហើយមកចែករំលែករូបមន្តថ្មីៗឱ្យគ្នាទៅវិញទៅមក ប៉ុន្តែមិនយកគ្រឿងផ្សំឬម្ហូបដែលធ្វើរួចមកបង្ហាញជាសាធារណៈទេ។ |
| Deep Deterministic Policy Gradient (DDPG) | ជាក្បួនដោះស្រាយនៃការរៀនបំប៉ន (Reinforcement Learning) សម្រាប់ដោះស្រាយបញ្ហាដែលមានជម្រើសសកម្មភាពជាប់ៗគ្នា (Continuous Action Space) ដូចជាការកំណត់កម្រិតថាមពលអគ្គិសនីឱ្យបានច្បាស់លាស់ជាដើម។ | ដូចជាការបង្វិលប៊ូតុងសំឡេងវិទ្យុ (Volume) ដែលអាចសារ៉េបានគ្រប់កម្រិតល្អិតល្អន់ មិនមែនគ្រាន់តែមានជម្រើសចុចប៊ូតុងលេខ ១, ២ ឬ ៣ នោះទេ។ |
| Markov Decision Process (MDP) | ជាក្របខណ្ឌគណិតវិទ្យាដែលប្រើសម្រាប់ធ្វើគំរូនៃការសម្រេចចិត្ត ជាកន្លែងដែលលទ្ធផលគឺកើតចេញពីផ្នែកខ្លះដោយចៃដន្យ និងផ្នែកខ្លះទៀតស្ថិតក្រោមការគ្រប់គ្រងរបស់អ្នកសម្រេចចិត្ត (Agent)។ | ដូចជាការលេងអុក ដែលរាល់ការដើរមួយជំហានៗ ត្រូវគិតពីស្ថានភាពក្ដារអុកបច្ចុប្បន្ន និងផលវិបាកដែលអាចកើតមាននៅជំហានបន្ទាប់។ |
| Signal-to-Interference-plus-Noise Ratio (SINR) | ជារង្វាស់គុណភាពនៃសញ្ញាទំនាក់ទំនង ដោយប្រៀបធៀបកម្លាំងសេវាដែលយើងចង់បាន (Signal) ទៅនឹងផលបូកនៃសេវាដែលរំខាន (Interference) និងសំឡេងរំខានផ្សេងៗ (Noise)។ SINR កាន់តែខ្ពស់ សេវាកាន់តែច្បាស់។ | ដូចជាការនិយាយគ្នានៅក្នុងពិធីជប់លៀង បើយើងនិយាយឮច្បាស់ជាងសំឡេងតន្ត្រីនិងសំឡេងមនុស្សផ្សេងទៀត មានន័យថា SINR ខ្ពស់។ |
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖