Original Title: Efficient Virtual Resource Allocation in Mobile Edge Networks Based on Machine Learning
Source: doi.org/10.32604/jcs.2020.010764
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការបែងចែកធនធាននិម្មិតប្រកបដោយប្រសិទ្ធភាពនៅក្នុងបណ្តាញគែមចល័តដោយផ្អែកលើការរៀនម៉ាស៊ីន

ចំណងជើងដើម៖ Efficient Virtual Resource Allocation in Mobile Edge Networks Based on Machine Learning

អ្នកនិពន្ធ៖ Li Li (Beijing University of Posts and Telecommunications), Yifei Wei (Beijing University of Posts and Telecommunications), Lianping Zhang (Alibaba Cloud Computing), Xiaojun Wang (Dublin City University)

ឆ្នាំបោះពុម្ព៖ 2020 (Journal of Cyber Security)

វិស័យសិក្សា៖ Computer Science / Telecommunications

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ កំណើននៃការប្រើប្រាស់ទិន្នន័យ និងសេវាកម្មអ៊ីនធឺណិតទាមទារសមត្ថភាពគណនាខ្ពស់ ប៉ុន្តែធនធាននៅតំបន់គែមបណ្តាញ (Edge Network) មានកម្រិត ដែលទាមទារឱ្យមានការគ្រប់គ្រងប្រកបដោយភាពឆ្លាតវៃដើម្បីកាត់បន្ថយការប្រើប្រាស់ថាមពល និងពង្រឹងគុណភាពសេវាកម្ម។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានស្នើឡើងនូវគំរូនៃបណ្តាញគែមនិម្មិត (Virtualized Edge Network) ដោយប្រើប្រាស់ក្បួនដោះស្រាយ Reinforcement Learning ដើម្បីរៀន និងបែងចែកធនធានដោយស្វ័យប្រវត្តិ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Non-cache Edge Network
បណ្តាញគែមដែលគ្មានការរក្សាទុកទិន្នន័យ (រាល់សំណើត្រូវបានបញ្ជូនទៅ Cloud)
ងាយស្រួលក្នុងការអនុវត្តដោយមិនទាមទារឱ្យមានឧបករណ៍ផ្ទុកទិន្នន័យនៅតាមថ្នាំង (Edge Nodes)។ ប្រើប្រាស់ថាមពលច្រើនសម្រាប់ការបញ្ជូនទិន្នន័យ និងមានរយៈពេលរង់ចាំ (Latency) យូរ។ មានប្រសិទ្ធភាពថាមពលទាបបំផុត និងចំណាយពេលបញ្ជូនទិន្នន័យយូរបំផុត។
Prediction-based Cache Policy
គោលនយោបាយរក្សាទុកទិន្នន័យដោយផ្អែកលើការទស្សន៍ទាយ (ប្រើប្រាស់ស្ថិតិប្រជាប្រិយភាព)
មានប្រសិទ្ធភាពជាងការមិនមាន Cache ដោយកាត់បន្ថយការបញ្ជូនទៅ Cloud សម្រាប់មាតិកាពេញនិយម។ មិនអាចបត់បែនតាមស្ថានភាពជាក់ស្តែងបានល្អដូច Q-learning ជាពិសេសនៅពេលឥរិយាបថអ្នកប្រើប្រាស់ផ្លាស់ប្តូរលឿន។ មានប្រសិទ្ធភាពថាមពលទាបជាងវិធីសាស្ត្រ Q-learning នៅពេលដែលចំនួនថ្នាំងបញ្ជូនបន្ត (Relay Nodes) មានលើសពី ២។
Q-learning Cache Policy (Proposed)
គោលនយោបាយរក្សាទុកទិន្នន័យដោយប្រើប្រាស់ Q-learning (Reinforcement Learning)
អាចរៀននិងសម្របខ្លួនដោយស្វ័យប្រវត្តិទៅនឹងបរិយាកាសបណ្តាញ ដើម្បីបែងចែកធនធានប្រកបដោយប្រសិទ្ធភាព។ ទាមទារការបណ្តុះបណ្តាលម៉ូដែល (Training) នៅលើ Cloud និងត្រូវការពេលវេលាដើម្បីឱ្យម៉ូដែលរៀនពីស្ថានភាពបណ្តាញ។ ផ្តល់ប្រសិទ្ធភាពថាមពលខ្ពស់បំផុត និងបង្កើន Throughput នៅពេលបណ្តាញមានភាពស្មុគស្មាញ (Relays > 2)។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តវិធីសាស្ត្រនេះទាមទារឱ្យមានការសហការគ្នារវាង Cloud (សម្រាប់ការបណ្តុះបណ្តាលម៉ូដែលធំៗ) និង Edge Nodes (សម្រាប់ការអនុវត្តជាក់ស្តែង)។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះប្រើប្រាស់ការធ្វើពិសោធន៍បែប Simulation ជាមួយនឹងអ្នកប្រើប្រាស់ចំនួន ២០នាក់ និងថ្នាំងបណ្តាញមួយចំនួនតូច ដោយមិនបានប្រើប្រាស់ទិន្នន័យចរាចរណ៍ជាក់ស្តែងពីបណ្តាញទូរគមនាគមន៍ពិតប្រាកដទេ។ សម្រាប់កម្ពុជា នេះជាចំណុចសំខាន់ព្រោះហេដ្ឋារចនាសម្ព័ន្ធជាក់ស្តែងអាចមានភាពរអាក់រអួល ឬកម្រិតថាមពលមិនដូចក្នុងលក្ខខណ្ឌពិសោធន៍។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រនេះមានសារៈប្រយោជន៍ខ្ពស់សម្រាប់ប្រតិបត្តិករទូរគមនាគមន៍នៅកម្ពុជាក្នុងការកាត់បន្ថយថ្លៃដើមប្រតិបត្តិការ និងបង្កើនល្បឿនអ៊ីនធឺណិត។

វាជាយុទ្ធសាស្ត្រដ៏ល្អសម្រាប់អនាគតនៃបណ្តាញ 5G នៅកម្ពុជា ប៉ុន្តែទាមទារឱ្យមានការវិនិយោគលើហេដ្ឋារចនាសម្ព័ន្ធ Edge Computing និង SDN ជាមុនសិន។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាមូលដ្ឋានគ្រឹះនៃ SDN និង Edge Computing: និស្សិតគួរចាប់ផ្តើមពីការយល់ដឹងអំពីគោលការណ៍នៃ Software Defined Networking (SDN) និងរបៀបដែល Mobile Edge Computing (MEC) ដំណើរការ ដោយប្រើប្រាស់ធនធានពី IEEE ឬ Coursera ។
  2. រៀនបង្កើតគំរូ Reinforcement Learning: សិក្សាពីរបៀបសរសេរកូដសម្រាប់ Q-learning ដោយប្រើភាសា Python និងបណ្ណាល័យដូចជា (TensorFlow) ឬ (PyTorch) ដើម្បីយល់ពីយន្តការនៃការផ្តល់រង្វាន់ (Reward Function)។
  3. ការធ្វើពិសោធន៍លើបណ្តាញនិម្មិត: ប្រើប្រាស់កម្មវិធី (Mininet) ដើម្បីបង្កើតបណ្តាញ SDN និម្មិត និងសាកល្បងអនុវត្តក្បួនដោះស្រាយ Caching ដូចដែលបានរៀបរាប់ក្នុងឯកសារ។
  4. ការវិភាគទិន្នន័យចរាចរណ៍ក្នុងស្រុក: ប្រសិនបើអាច គួរព្យាយាមប្រមូលទិន្នន័យ (Open Data) អំពីការប្រើប្រាស់អ៊ីនធឺណិតនៅកម្ពុជា ដើម្បីធ្វើការពិសោធន៍ថាតើមាតិកាប្រភេទណាដែលគួររក្សាទុកនៅ Edge Nodes (ឧ. វីដេអូអប់រំ ឬការកម្សាន្ត)។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Mobile Edge Computing (MEC) ជាបច្ចេកវិទ្យាដែលនាំយកសមត្ថភាពគណនា និងការផ្ទុកទិន្នន័យពី Cloud (ដែលនៅឆ្ងាយ) មកដាក់នៅជិតអ្នកប្រើប្រាស់បំផុត (ដូចជាបង្គោលអង់តែន) ដើម្បីកាត់បន្ថយពេលវេលារង់ចាំ (Latency) និងសន្សំសំចៃ Bandwidth។ ដូចជាការមានបណ្ណាល័យតូចមួយនៅក្នុងភូមិរបស់អ្នក ជំនួសឱ្យការធ្វើដំណើរទៅបណ្ណាល័យជាតិនៅរាជធានីរាល់ពេលដែលអ្នកចង់ខ្ចីសៀវភៅ។
Reinforcement Learning (RL) ជាប្រភេទនៃបញ្ញាសិប្បនិម្មិត (AI) ដែលកម្មវិធីកុំព្យូទ័ររៀនធ្វើការសម្រេចចិត្តដោយខ្លួនឯងតាមរយៈការសាកល្បងត្រូវ និងខុស (Trial and Error) ដោយទទួលបានពិន្ទុរង្វាន់នៅពេលធ្វើត្រូវ និងពិន្ទុពិន័យនៅពេលធ្វើខុស។ ដូចជាការបង្វឹកសត្វចិញ្ចឹម ដោយផ្តល់ចំណីនៅពេលវាធ្វើត្រូវ និងមិនផ្តល់អ្វីសោះនៅពេលវាធ្វើខុស រហូតទាល់តែវាចេះធ្វើតាមបញ្ជា។
Edge Caching ជាយុទ្ធសាស្ត្ររក្សាទុកទិន្នន័យដែលអ្នកប្រើប្រាស់ឧស្សាហ៍ត្រូវការ (ដូចជាវីដេអូពេញនិយម) នៅលើឧបករណ៍គែមបណ្តាញ ដើម្បីឱ្យអ្នកប្រើប្រាស់អាចទាញយកបានភ្លាមៗដោយមិនចាំបាច់ទៅយកពី Server ដើមដែលនៅឆ្ងាយ។ ដូចជាហាងលក់ចាប់ហួយដែលដាក់ភេសជ្ជៈលក់ដាច់បំផុតនៅក្នុងទូទឹកកកខាងមុខ ដើម្បីឱ្យអតិថិជនងាយយក ដោយមិនបាច់ចូលទៅយកក្នុងឃ្លាំងក្រោយហាងរាល់ពេល។
Software-Defined Networks (SDN) ជាការគ្រប់គ្រងបណ្តាញដោយបំបែកផ្នែកបញ្ជា (Control Plane - ខួរក្បាល) ចេញពីផ្នែកបញ្ជូនទិន្នន័យ (Data Plane - សាច់ដុំ) ដែលអនុញ្ញាតឱ្យអ្នកគ្រប់គ្រងអាចកំណត់ផ្លូវទិន្នន័យយ៉ាងបត់បែនតាមរយៈកម្មវិធីកុំព្យូទ័រ។ ដូចជាប៉ូលិសចរាចរណ៍ដែលបញ្ជាភ្លើងស្តុបពីមជ្ឈមណ្ឌលបញ្ជាតែមួយ ជំនួសឱ្យការដើរទៅកែភ្លើងស្តុបនៅគ្រប់ផ្លូវបំបែកដោយផ្ទាល់។
Network Function Virtualization (NFV) ជាបច្ចេកវិទ្យាដែលអនុញ្ញាតឱ្យមុខងារបណ្តាញ (ដូចជា Firewall ឬ Router) ដំណើរការជាកម្មវិធី (Software) នៅលើកុំព្យូទ័រធម្មតា ជំនួសឱ្យការប្រើប្រាស់ឧបករណ៍រឹង (Hardware) ថ្លៃៗដាច់ដោយឡែក។ ដូចជាការដំឡើងកម្មវិធីម៉ាស៊ីនគិតលេខ កាមេរ៉ា និងវិទ្យុនៅលើទូរស័ព្ទដៃតែមួយ ជំនួសឱ្យការដាក់តាមខ្លួននូវឧបករណ៍ទាំងបីដាច់ដោយឡែកពីគ្នា។
Q-learning ជាក្បួនដោះស្រាយមួយរបស់ Reinforcement Learning ដែលភ្នាក់ងារ (Agent) រៀនពីតម្លៃនៃសកម្មភាពនីមួយៗក្នុងស្ថានភាពជាក់លាក់ ដើម្បីបង្កើតជាតារាងមួយ (Q-table) សម្រាប់ជ្រើសរើសផ្លូវដែលល្អបំផុតនៅពេលក្រោយ។ ដូចជាការលេងហ្គេមហើយកត់ត្រាទុកក្នុងសៀវភៅថា តើដើរផ្លូវណាបានពិន្ទុច្រើនជាងគេ ដើម្បីទុកលេងឱ្យឈ្នះនៅវគ្គក្រោយ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖