បញ្ហា (The Problem)៖ បញ្ហាចម្បងគឺការខ្វះខាតនូវស្ថាបត្យកម្មបណ្តាញសរសៃប្រសាទ (Neural Network Architectures) ដែលមានប្រសិទ្ធភាពខ្ពស់ក្នុងការចាប់យកទំនាក់ទំនងទិន្នន័យ ការព្យាករណ៍តាមពេលវេលា និងការកាត់បន្ថយពេលវេលាគណនាក្នុងទិន្នន័យតាមលំដាប់លំដោយ (Sequential Data) ដូចជាអត្ថបទ និងទិន្នន័យសេនស័រ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានបង្កើត និងសាកល្បងម៉ូដែលស្ថាបត្យកម្មបណ្តាញសរសៃប្រសាទថ្មីចំនួនបួនផ្សេងគ្នា ដែលផ្ដោតលើប្រភេទលក្ខណៈទិន្នន័យខុសៗគ្នាក្នុងការដោះស្រាយបញ្ហាផ្សេងៗ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| LSTNet (Long- and Short-term Time-series Network) បណ្តាញសរសៃប្រសាទ LSTNet (ម៉ូដែលស្នើឡើង) |
មានសមត្ថភាពខ្ពស់ក្នុងការចាប់យកទំនាក់ទំនងពេលវេលាទាំងទម្រង់ខ្លី និងវែង (Periodic patterns) ហើយមានភាពធន់នឹងបម្រែបម្រួលទំហំទិន្នន័យ (Scale changing)។ | ទាមទារការកំណត់ប៉ារ៉ាម៉ែត្ររំលង (Skip-length p) ជាមុន ដែលអាចមានភាពលំបាកសម្រាប់ទិន្នន័យដែលគ្មានវដ្តកាលច្បាស់លាស់។ | បង្កើនភាពត្រឹមត្រូវនៃការព្យាករណ៍ចន្លោះពី 9.2% ទៅ 22.2% ធៀបនឹងម៉ូដែល RNN-GRU ជាមូលដ្ឋាន លើទិន្នន័យដែលមានលំនាំវិលជុំ។ |
| Funnel-Transformer (F-TFM) ម៉ូដែល Funnel-Transformer (ម៉ូដែលស្នើឡើង) |
កាត់បន្ថយចំនួននៃការគណនា (FLOPs) និងសន្សំសំចៃការប្រើប្រាស់អង្គចងចាំ ដោយធ្វើការបង្រួមប្រវែងលំដាប់ទិន្នន័យ (Sequence compression) បន្តិចម្តងៗ។ | ដោយសារតែមានការបង្រួមទិន្នន័យ វាអាចបាត់បង់ព័ត៌មានលម្អិតកម្រិតពាក្យ (Token-level) ដែលធ្វើឲ្យប្រសិទ្ធភាពធ្លាក់ចុះបន្តិចសម្រាប់កិច្ចការដែលទាមទារការវិភាគស៊ីជម្រៅកម្រិតពាក្យ (ឧ. SQuAD ធំៗ)។ | អាចកាត់បន្ថយពេលវេលាបណ្តុះបណ្តាលបាន 30% ទៅ 50% ជាមួយនឹងលទ្ធផលល្អជាង ឬប្រហាក់ប្រហែល Standard Transformer លើ GLUE Benchmark។ |
| Standard Transformer / BERT ម៉ូដែល Standard Transformer / BERT (ជាមូលដ្ឋាន) |
មានភាពសុក្រឹតខ្ពស់ និងរក្សាព័ត៌មានលម្អិតនៃគ្រប់ពាក្យទាំងអស់តាំងពីដើមដល់ចប់ (Full-length sequence)។ | ត្រូវការធនធានកុំព្យូទ័រ និងពេលវេលាយូរណាស់ក្នុងការបណ្តុះបណ្តាល ព្រោះទំហំគណនាកើនឡើងជាលំដាប់ការេ (Quadratically) នៃប្រវែងអត្ថបទ។ | ប្រើប្រាស់ធនធាន FLOPs ច្រើនជាង F-TFM តែទទួលបានលទ្ធផលនៃការចាត់ថ្នាក់អត្ថបទ (Text Classification) ទាបជាង F-TFM បន្តិច លើទំហំម៉ូដែលប៉ុនគ្នា។ |
| DSGC (Depthwise Separable Graph Convolution) បណ្តាញ DSGC វិភាគក្រាហ្វ (ម៉ូដែលស្នើឡើង) |
អាចរៀនពីទំនាក់ទំនងលំហ (Spatial correlation) ដោយស្វ័យប្រវត្តិពីទិន្នន័យដែលគ្មានទម្រង់ច្បាស់លាស់ (Non-grid data) ដោយប្រើប្រាស់ប៉ារ៉ាម៉ែត្រតិច។ | ត្រូវចំណាយពេលគណនាទម្ងន់ (Weight) សម្រាប់គែម (Edge) នីមួយៗនៃក្រាហ្វ ដែលធ្វើឲ្យការបណ្តុះបណ្តាលយឺតជាង GCN បន្តិច។ | កាត់បន្ថយអត្រាកំហុសរហូតដល់ 18.72% លើទិន្នន័យ CIFAR10 បើធៀបនឹង 26.78% របស់ម៉ូដែល GCN ជាមូលដ្ឋាន។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការស្រាវជ្រាវនេះទាមទារធនធានកុំព្យូទ័រ និងផ្នែករឹង (Hardware) កម្រិតខ្ពស់សម្រាប់ការបណ្តុះបណ្តាលម៉ូដែលធំៗ ពិសេសកិច្ចការទាក់ទងនឹង Natural Language Processing ដូចជាម៉ូដែល Transformer ជាដើម។
ការសិក្សានេះប្រើប្រាស់ទាំងស្រុងនូវទិន្នន័យពីសហរដ្ឋអាមេរិក និងបរិបទលោកខាងលិច ដូចជាចរាចរណ៍រដ្ឋកាលីហ្វ័រញ៉ា ថាមពលអគ្គិសនី តម្លៃភាគហ៊ុន និងអត្ថបទភាសាអង់គ្លេស។ វាមិនមានការសាកល្បងលើទិន្នន័យពីប្រទេសកំពុងអភិវឌ្ឍឡើយ។ សម្រាប់កម្ពុជា នេះជាបញ្ហាប្រឈមមួយ ព្រោះលំហូរចរាចរណ៍ ការប្រើប្រាស់អគ្គិសនី និងរចនាសម្ព័ន្ធភាសាខ្មែរ មានលក្ខណៈខុសប្លែកពីបរទេសយ៉ាងខ្លាំង ដែលទាមទារការប្រមូលទិន្នន័យក្នុងស្រុកដើម្បីធ្វើតេស្ត។
ថ្វីបើបរិបទទីតាំងមានការខុសប្លែកគ្នា ប៉ុន្តែគោលគំនិតនិងស្ថាបត្យកម្មនៃម៉ូដែលទិន្នន័យតាមពេលវេលាទាំងនេះ អាចយកមកអនុវត្តដើម្បីដោះស្រាយបញ្ហាជាក់ស្តែងនៅកម្ពុជាបានយ៉ាងល្អ។
ការចាប់យកនិងកែច្នៃបច្ចេកវិទ្យា Neural Sequential Modeling ទាំងនេះ នឹងជួយស្ថាប័នរដ្ឋ និងឯកជននៅកម្ពុជា អាចធ្វើស្វ័យប្រវត្តិកម្ម និងទាញយកប្រយោជន៍ពីទិន្នន័យរបស់ខ្លួនបានយ៉ាងមានប្រសិទ្ធភាព ដោយទាមទារត្រឹមតែការវិនិយោគលើទិន្នន័យក្នុងស្រុកប៉ុណ្ណោះ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Depthwise Separable Graph Convolution (DSGC) | វាជាបច្ចេកទេសបណ្តាញសរសៃប្រសាទដែលបំបែកការគណនាទំនាក់ទំនងលំហ (Spatial) និងទំនាក់ទំនងលក្ខណៈ (Channel) ដាច់ពីគ្នា ដើម្បីចាប់យកលំនាំទិន្នន័យលើរចនាសម្ព័ន្ធក្រាហ្វដែលមិនមានទម្រង់ច្បាស់លាស់ ដោយចំណាយកម្លាំងគណនាតិច។ | ដូចជាការបែងចែកការងារចម្អិនម្ហូប ដោយម្នាក់រៀបចំបន្លែ (លំហ) និងម្នាក់ទៀតរៀបចំសាច់ (លក្ខណៈ) ដើម្បីឱ្យការធ្វើម្ហូបកាន់តែលឿននិងមានប្រសិទ្ធភាព។ |
| Autoregressive Model | ជាម៉ូដែលគណិតវិទ្យាដែលប្រើប្រាស់ទិន្នន័យអតីតកាលយកមកធ្វើការទស្សន៍ទាយឬប៉ាន់ស្មានតម្លៃទិន្នន័យនៅពេលអនាគត ដោយផ្អែកលើសម្មតិកម្មថាទិន្នន័យបច្ចុប្បន្នមានទំនាក់ទំនងជិតស្និទ្ធជាមួយទិន្នន័យមុនៗ។ | ដូចជាការព្យាករណ៍ថាម៉ោងក្រោយនឹងមានភ្លៀង ដោយមើលទៅលើកម្រិតពពកនិងខ្យល់កាលពីប៉ុន្មានម៉ោងមុនបន្តបន្ទាប់គ្នា។ |
| Spatiotemporal Data | ជាប្រភេទព័ត៌មានដែលប្រមូលផ្តុំទិន្នន័យទាំងទីតាំងភូមិសាស្ត្រ (លំហ) និងពេលវេលា ឧទាហរណ៍ដូចជាទិន្នន័យចរាចរណ៍ដែលបញ្ជាក់ពីទីតាំងផ្លូវផង និងពេលវេលាជាក់លាក់នៃទំហំចរាចរណ៍នោះផង។ | ដូចជាប្រវត្តិទីតាំង GPS របស់ស្មាតហ្វូនរបស់អ្នក ដែលប្រាប់ថានៅម៉ោងប៉ុន្មាន អ្នកកំពុងស្ថិតនៅកន្លែងណាខ្លះ។ |
| Recurrent-skip Component | ជាយន្តការមួយនៅក្នុងម៉ូដែល LSTNet ដែលជួយម៉ូដែលចងចាំលំនាំទិន្នន័យវិលជុំ (Periodic) ដោយភ្ជាប់ទំនាក់ទំនងដោយផ្ទាល់ពីទិន្នន័យបច្ចុប្បន្នទៅកាន់ទិន្នន័យក្នុងអតីតកាលនៅវដ្តកាលស្រដៀងគ្នា (ឧ. ម៉ោង៩ព្រឹកនេះ ធៀបនឹង ម៉ោង៩ព្រឹកម្សិលមិញ)។ | ដូចជាការមើលម៉ឺនុយអាហារប្រចាំថ្ងៃពុធសប្តាហ៍មុន ដើម្បីទាយថាថ្ងៃពុធសប្តាហ៍នេះអាហារដ្ឋាននឹងមានលក់ម្ហូបអ្វី។ |
| Masked Language Modeling (MLM) | គឺជាវិធីសាស្ត្របណ្តុះបណ្តាលម៉ូដែលភាសា (NLP) ដោយលាក់ (Mask) ពាក្យមួយចំនួននៅក្នុងប្រយោគ ហើយតម្រូវឱ្យម៉ូដែលប្រើប្រាស់បរិបទជុំវិញដើម្បីទាយពាក្យដែលលាក់នោះ សំដៅឱ្យវាស្វែងយល់ពីរចនាសម្ព័ន្ធភាសា។ | ដូចជាការធ្វើលំហាត់បំពេញចន្លោះក្នុងប្រយោគ ដែលសិស្សត្រូវទាយពាក្យដែលបាត់ដោយអានអត្ថន័យនៃពាក្យមុននិងក្រោយ។ |
| Evidence Lower Bound (ELBO) | ជាអនុគមន៍គណិតវិទ្យាមួយសម្រាប់ប្រើក្នុងបណ្តាញសរសៃប្រសាទប្រភេទបង្កើតទិន្នន័យ (Generative Models) ដើម្បីប៉ាន់ស្មាននិងកាត់បន្ថយកំហុស ក្នុងការរៀនពីបម្រែបម្រួលនៃទិន្នន័យដែលលាក់កំបាំង (Latent Variables) ។ | ដូចជាការព្យាយាមគូសវាសរូបថតព្រិលៗមួយឱ្យបានជិតនឹងរូបច្បាប់ដើមបំផុត ដោយផ្តោតលើការកាត់បន្ថយកំហុសនៃទម្រង់រូបរាងរួមជាជាងព័ត៌មានលម្អិតតូចៗ។ |
| Multi-head Self-attention | គឺជាសមាសភាគស្នូលនៃម៉ូដែល Transformer ដែលអនុញ្ញាតឱ្យប្រព័ន្ធអាចវាយតម្លៃនិងផ្តល់ទម្ងន់ទៅលើពាក្យនីមួយៗក្នុងប្រយោគធៀបនឹងពាក្យផ្សេងទៀត ក្នុងពេលតែមួយតាមច្រើនទម្រង់ ដើម្បីយល់ពីអត្ថន័យនិងបរិបទស៊ីជម្រៅ។ | ដូចជាការសួរសាក្សីច្រើននាក់អំពីព្រឹត្តិការណ៍តែមួយ ដោយម្នាក់ៗសង្កេតទៅលើចំណុចខុសៗគ្នា (ម្នាក់មើលសម្លៀកបំពាក់ ម្នាក់មើលយានយន្ត) ដើម្បីយកមកផ្គុំជារូបភាពរួមមួយដែលពេញលេញ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖