បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហានៃការបង្កើតបញ្ញាសិប្បនិម្មិត (AI) ដោយផ្អែកលើទស្សនវិជ្ជានៃការយល់ដឹង និងតម្រូវការសម្រាប់ក្របខណ្ឌទ្រឹស្តីរួមមួយដើម្បីពន្យល់ពីយន្តការនៃប្រាជ្ញា។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់វិធីសាស្ត្រវិភាគបែបប្រព័ន្ធ និងទស្សនវិជ្ជាដើម្បីបង្ហាញពីការវិវឌ្ឍនៃប្រព័ន្ធផ្សេងៗ រួមបញ្ចូលជាមួយគំរូនៃបញ្ញាសិប្បនិម្មិត។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Growing Neural Gas (GNG) បណ្ដាញសរសៃប្រសាទរៀបចំដោយខ្លួនឯង (Self-Organizing Neural Networks) |
មានភាពបត់បែនខ្ពស់ក្នុងការរៀនសូត្រ ដោយអាចបន្សាំទៅនឹងការប្រែប្រួលរាង (Topology deformations) ដោយមិនចាំបាច់ចាប់ផ្តើមដំណើរការរៀនឡើងវិញ (Reset learning)។ | នៅតែមានកម្រិតកំណត់ចំពោះរចនាសម្ព័ន្ធបណ្តាញដែលត្រូវរៀបចំជាមុន ហើយការគណនាអាចមានភាពស្មុគស្មាញនៅពេលបរិស្ថានប្រែប្រួលលឿនពេក។ | បង្កើតបាននូវផែនទីតំណាង (Topological map) សម្រាប់តាមដានគោលដៅការងារច្រើនប្រកបដោយប្រសិទ្ធភាព ដោយពឹងផ្អែកលើឯកសារយោងទិន្នន័យចាស់ៗ។ |
| Strategy Tree Algorithm (in Reinforcement Learning) ក្បួនដោះស្រាយមែកធាងយុទ្ធសាស្ត្រ (ក្នុង Reinforcement Learning) |
អាចរៀនពីការតំណាងបែបបន្សាំនៃយុទ្ធសាស្ត្រ (Policy) និងស្វែងរកចំណុចបំបែក (Splits) ដែលមានប្រយោជន៍បំផុតសម្រាប់ការធ្វើសេចក្តីសម្រេច។ | ទាមទារការគណនាស្វែងរកតម្លៃជម្រាល (Gradient estimation) ដែលប្រើប្រាស់ធនធានច្រើនជាងក្បួនដោះស្រាយដែលមានប៉ារ៉ាម៉ែត្រថេរ។ | ធ្វើឱ្យប្រសើរឡើងយ៉ាងខ្លាំងលើក្បួនដោះស្រាយលីនេអ៊ែរ (Linear Gibbs Softmax) តាមរយៈការស្វែងរកសញ្ញាដែលមានប្រយោជន៍ក្នុងការតំណាង។ |
| Contextual Bandit with Representation Learning (CBRH) ក្បួន Contextual Bandit ជាមួយនឹងការរៀនតំណាង |
អនុញ្ញាតឱ្យភ្នាក់ងារ (Agent) ជ្រើសរើស និងធ្វើបច្ចុប្បន្នភាពគោលដៅដោយស្វ័យប្រវត្តិ ដោយផ្អែកលើបរិបទដែលវាបានសង្កេតឃើញ។ | ទាមទារឱ្យមានការកំណត់បរិបទប្រវត្តិសាស្ត្រ (Historical context) ជាមុនពីអ្នករចនា (Human designers) មុនពេលវាអាចបន្សាំខ្លួនបាន។ | ដំណើរការបានល្អប្រសើរជាងក្បួន Standard Contextual Bandits នៅក្នុងបរិស្ថានដែលមិនមានស្ថិរភាព (Non-stationary environments)។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះផ្ដោតលើទ្រឹស្ដីជាចម្បង ប៉ុន្តែបានបញ្ជាក់យ៉ាងច្បាស់ថាការអភិវឌ្ឍបញ្ញាសិប្បនិម្មិតកម្រិតខ្ពស់ (ជាពិសេស Deep Reinforcement Learning កម្រិតជ្រៅ) ទាមទារធនធាន និងការចំណាយយ៉ាងច្រើន។
ការសិក្សានេះគឺជាការវិភាគបែបទ្រឹស្ដី ដែលសរសេរឡើងដោយអ្នកស្រាវជ្រាវមកពីសាកលវិទ្យាល័យ Shanxi នៅក្នុងប្រទេសចិន ដោយផ្អែកលើអក្សរសិល្ប៍វិទ្យាសាស្ត្រ និងទស្សនវិជ្ជាសកល។ ដោយសារវាជាឯកសារពន្យល់ពីយន្តការជាមូលដ្ឋាន (Fundamental mechanisms) វាមិនមានភាពលម្អៀងលើទិន្នន័យប្រជាសាស្ត្រជាក់លាក់ណាមួយនោះទេ។ សម្រាប់ប្រទេសកម្ពុជា នេះមានន័យថាទ្រឹស្តីនេះអាចអនុវត្តបានជាសកល ប៉ុន្តែការយកទៅអនុវត្តជាក់ស្តែងត្រូវប្រឈមនឹងកង្វះខាតហេដ្ឋារចនាសម្ព័ន្ធកុំព្យូទ័រធំៗ។
ទ្រឹស្ដីតំណាងបែបបន្សាំ (Adaptive representation) នេះមានអត្ថប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់ការកសាងមូលដ្ឋានគ្រឹះនៃការស្រាវជ្រាវ និងអភិវឌ្ឍ AI នៅកម្ពុជា ពិសេសក្នុងការបង្កើតប្រព័ន្ធដែលអាចបត់បែនតាមស្ថានភាពជាក់ស្តែង។
ការយល់ដឹងពីយន្តការបន្សាំនេះ នឹងជួយឱ្យអ្នកស្រាវជ្រាវ និងនិស្សិតកម្ពុជាអាចអភិវឌ្ឍ AI ដែលមានភាពបត់បែនខ្ពស់ និងអាចដោះស្រាយបញ្ហាក្នុងស្រុកប្រកបដោយប្រសិទ្ធភាព ជាងការប្រើប្រាស់ម៉ូដែលដែលមានប៉ារ៉ាម៉ែត្រថេរ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Adaptive Representation | វាជាយន្តការដែលប្រព័ន្ធមួយ (ដូចជាខួរក្បាលមនុស្ស ឬប្រព័ន្ធបញ្ញាសិប្បនិម្មិត) កែប្រែរបៀបដែលវាតំណាងឱ្យព័ត៌មានដោយស្វ័យប្រវត្តិ ដើម្បីឆ្លើយតបនឹងការផ្លាស់ប្តូរនៅក្នុងបរិស្ថានរបស់វា។ នៅក្នុងការអនុវត្ត វាមិនត្រឹមតែជាការថតចម្លងទិន្នន័យចូលទៅក្នុងម៉ាស៊ីននោះទេ តែជាការរៀបចំរចនាសម្ព័ន្ធព័ត៌មាននោះឡើងវិញឱ្យមានន័យ និងងាយស្រួលទាញយកមកប្រើប្រាស់ក្នុងការដោះស្រាយបញ្ហា។ | ដូចជាសត្វពង្រូលដែលរមៀលខ្លួនជារាងមូលនៅពេលមានអាសន្ន ដើម្បីសម្របខ្លួនការពារពីសត្រូវ តែទីនេះគឺកុំព្យូទ័រប្តូរ "ទម្រង់នៃការគិត" ទៅតាម "ប្រភេទបញ្ហា"។ |
| Self-organizing Systems | វាគឺជាប្រព័ន្ធដែលអាចបង្កើតរចនាសម្ព័ន្ធ ឬសណ្តាប់ធ្នាប់ដោយខ្លួនឯងចេញពីភាពរញ៉េរញ៉ៃ (chaos) ដោយមិនមានការបញ្ជាពីខាងក្រៅ។ នៅក្នុង AI នេះសំដៅលើបណ្តាញកុំព្យូទ័រដែលអាចរៀបចំចំណាត់ថ្នាក់ទិន្នន័យ ឬកែសម្រួលទម្ងន់នៃបណ្តាញសរសៃប្រសាទ (Neural weights) ដោយខ្លួនឯងពេលកំពុងរៀន។ | ដូចជាហ្វូងសត្វស្លាបដែលហោះហើរជាទម្រង់អក្សរ V នៅលើមេឃយ៉ាងរៀបរយ ដោយមិនមានសត្វណាមួយស្រែកបញ្ជាប្រាប់ទិសដៅ។ |
| Growing Neural Gas (GNG) | វាជាក្បួនដោះស្រាយ (Algorithm) នៅក្នុងបណ្តាញសរសៃប្រសាទសិប្បនិម្មិត ដែលមានសមត្ថភាពបង្កើត "ថ្នាំង" (nodes) ថ្មីៗដោយស្វ័យប្រវត្តិនៅពេលវាជួបទិន្នន័យថ្មី និងលុបថ្នាំងចាស់ៗចោលប្រសិនបើមិនសូវប្រើប្រាស់ ដើម្បីផ្តិតយករូបរាងនិងរចនាសម្ព័ន្ធនៃទិន្នន័យនោះដោយមិនចាំបាច់រៀនពីដើមឡើងវិញ។ | ដូចជាការសាងសង់ផ្លូវក្នុងទីក្រុង ដោយគេសង់ផ្លូវថ្មីបន្ថែមតែនៅកន្លែងដែលមានចរាចរណ៍កកស្ទះខ្លាំង ហើយទុកចោលផ្លូវដែលលែងមានអ្នកជិះ។ |
| Contextual Bandit | វាជាទម្រង់មួយនៃការរៀនសូត្ររបស់ម៉ាស៊ីន (Machine Learning) ដែលភ្នាក់ងារ (Agent) ត្រូវធ្វើការសម្រេចចិត្តជ្រើសរើសសកម្មភាពមួយក្នុងចំណោមជម្រើសច្រើន ដោយផ្អែកលើព័ត៌មានជាក់លាក់ (បរិបទ) នៅពេលនោះ ដើម្បីទទួលបានរង្វាន់ (Reward) ខ្ពស់បំផុត។ វាត្រូវថ្លឹងថ្លែងរវាងការប្រើប្រាស់បទពិសោធន៍ចាស់ និងការស្វែងរកជម្រើសថ្មី។ | ដូចជាគ្រូពេទ្យម្នាក់ដែលត្រូវជ្រើសរើសថ្នាំ១មុខក្នុងចំណោមថ្នាំ១០មុខ ដោយមើលទៅលើអាការៈរោគ (បរិបទ) របស់អ្នកជំងឺម្នាក់ៗនៅពេលនោះ ដើម្បីឱ្យឆាប់ជាសះស្បើយបំផុត។ |
| Replicator | វាជាឯកតាបញ្ជូនព័ត៌មានដែលកូពី (ចម្លង) ខ្លួនឯងពីប្រព័ន្ធមួយទៅប្រព័ន្ធមួយទៀត ដើម្បីបន្តពូជ ឬពង្រីកឥទ្ធិពល។ ក្នុងរូបវិទ្យាវាជាប៊ីត (Bit), ក្នុងជីវវិទ្យាវាជាហ្សែន (Gene), ក្នុងវប្បធម៌វាជា មីម (Meme) ហើយក្នុង AI វាជាភ្នាក់ងារបញ្ញា (Agent) ដែលចម្លងកូដឬយុទ្ធសាស្ត្រល្អៗ។ | ដូចជារូបមន្តធ្វើម្ហូបដ៏ឆ្ងាញ់មួយ ដែលគេថតចម្លងចែកតៗគ្នាពីគ្រួសារមួយទៅគ្រួសារមួយរហូតល្បីពេញភូមិ។ |
| Hyper-Cycle | វាជាទ្រឹស្ដីវិវឌ្ឍន៍ដែលពន្យល់ពីរបៀបដែលម៉ូលេគុល ឬប្រព័ន្ធតូចៗធ្វើការដោយជួយគ្នាទៅវិញទៅមកជាវដ្ត (cycle) ដើម្បីបង្កើតប្រព័ន្ធធំមួយដែលអាចបន្តពូជ និងរក្សាលំនឹងខ្លួនឯងបាន។ នៅក្នុង AI វាត្រូវបានប្រើដើម្បីពន្យល់ពីការវិវឌ្ឍ និងការកែលម្អប្រព័ន្ធកូដដោយស្វ័យប្រវត្តិ។ | ដូចជារោងចក្រ៣ ដែលរោងចក្រទី១ បង្កើតវត្ថុធាតុដើមឱ្យរោងចក្រទី២, រោងចក្រទី២ ធ្វើគ្រឿងបន្លាស់ឱ្យទី៣, ហើយរោងចក្រទី៣ ផលិតម៉ាស៊ីនឱ្យរោងចក្រទី១ វិញ ដើម្បីឱ្យរោងចក្រទាំង៣ អាចដើរទៅមុខបាន។ |
| Reinforcement Learning | វាគឺជាវិធីសាស្ត្រមួយក្នុងបញ្ញាសិប្បនិម្មិត ដែលបង្រៀនកុំព្យូទ័រឱ្យចេះធ្វើការសម្រេចចិត្តជាបន្តបន្ទាប់ តាមរយៈការសាកល្បងនិងកំហុស។ ប្រសិនបើវាធ្វើត្រូវ វាទទួលបាន "រង្វាន់" (Reward) ហើយបើខុស វាត្រូវកាត់ពិន្ទុ ដែលជំរុញឱ្យវាខិតខំស្វែងរកយុទ្ធសាស្ត្រដែលល្អបំផុតដើម្បី максимize រង្វាន់។ | ដូចជាការបង្រៀនសត្វឆ្កែឱ្យចេះចាប់បាល់ ដោយយើងឱ្យចំណីវានៅពេលវាពាំបាល់ត្រឡប់មកឱ្យយើងវិញត្រឹមត្រូវ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖