បញ្ហា (The Problem)៖ អត្ថបទផ្លែគីវីជាភាសាចិនមានរចនាសម្ព័ន្ធស្មុគស្មាញ និងមានទំនាក់ទំនងឆ្លងកាត់កថាខណ្ឌ (Cross-paragraph dependencies) ដែលធ្វើឱ្យម៉ូដែលបច្ចុប្បន្នពិបាកក្នុងការទាញយកព័ត៌មានអត្តសញ្ញាណឱ្យបានត្រឹមត្រូវ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានស្នើឡើងនូវម៉ូដែល KIWI-Coord-Prune ដោយរួមបញ្ចូលយន្តការទាញយកព័ត៌មានទ្វេវិមាត្រ និងបច្ចេកទេសកាត់បន្ថយទិន្នន័យមិនចាំបាច់ (Pruning) ដើម្បីបង្កើនភាពត្រឹមត្រូវក្នុងការសម្គាល់។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| KIWI-Coord-Prune ម៉ូដែល KIWI-Coord-Prune (ស្នើឡើងដោយការសិក្សានេះ) |
មានសមត្ថភាពខ្ពស់ក្នុងការទាញយកព័ត៌មានទ្វេវិមាត្រ (ទាំងទិសផ្ដេក និងបញ្ឈរ) កាត់បន្ថយប៉ារ៉ាម៉ែត្រមិនចាំបាច់ និងមានប្រសិទ្ធភាពក្នុងការសម្គាល់អង្គភាពស្មុគស្មាញ (Nested entities) ព្រមទាំងសន្សំសំចៃអង្គចងចាំ។ | ត្រូវការការកែសម្រួល និងការស្រាវជ្រាវបន្ថែមដើម្បីយកទៅប្រើប្រាស់លើអត្ថបទដែលមិនមែនជាកសិកម្ម ឬបរិបទពហុភាសា។ | ទទួលបានពិន្ទុ F1 ខ្ពស់បំផុតរហូតដល់ ៨៩.៥៥% លើសំណុំទិន្នន័យកសិកម្មផ្លែគីវី (KIWIPRO) និង ៩១.០២% លើសំណុំទិន្នន័យ People's Daily។ |
| LSTM / Bi-LSTM ម៉ូដែល LSTM និង Bi-LSTM |
ជាម៉ូដែលមូលដ្ឋានដ៏ល្អ និងមានភាពងាយស្រួលក្នុងការទាញយកព័ត៌មានពីបរិបទជាលំដាប់ (Sequential context)។ | ពឹងផ្អែកតែលើការវាយតម្លៃអត្ថបទតាមទិសដៅតែមួយ ឬទ្វេទិស មិនអាចចាប់យកព័ត៌មានទ្វេវិមាត្រ និងខ្សោយក្នុងការវិភាគអង្គភាពដែលមានទំនាក់ទំនងឆ្លងកថាខណ្ឌ ឬទិន្នន័យកសិកម្មស្មុគស្មាញ។ | ទទួលបានពិន្ទុ F1 ត្រឹមតែ ៧៧.២៧% សម្រាប់ LSTM និង ៨៥.៣១% សម្រាប់ Bi-LSTM លើសំណុំទិន្នន័យ KIWIPRO។ |
| LR-CNN / Softlexicon-LSTM ម៉ូដែល LR-CNN និង Softlexicon-LSTM |
មានការប្រើប្រាស់វចនានុក្រមខាងក្រៅ (External Lexicons) ដើម្បីបង្កើនសមត្ថភាពក្នុងការយល់ដឹងពីបរិបទ និងពាក្យនៅក្នុងអត្ថបទ។ | វិធីសាស្ត្រក្នុងការទាញយកលក្ខណៈពិសេសមានលក្ខណៈទូទៅពេក ធ្វើឱ្យពិបាកក្នុងការសម្របខ្លួនទៅនឹងរចនាសម្ព័ន្ធចំណេះដឹងជាក់លាក់នៃអត្ថបទកសិកម្ម (Domain-specific)។ | ទទួលបានពិន្ទុ F1 ៨៨.៥៥% (LR-CNN) និង ៨៧.៩៩% (Softlexicon-LSTM)។ |
| KIWINER ម៉ូដែល KIWINER |
ជាម៉ូដែលដែលត្រូវបានរចនាឡើងដោយមានការផ្តោតលើទិន្នន័យអត្ថបទកសិកម្មផ្លែគីវីរួចជាស្រេច។ | នៅខ្វះសមត្ថភាពក្នុងការបែងចែកពាក្យដែលមានឈ្មោះស្រដៀងគ្នា (ឧទាហរណ៍ប្រភេទសត្វល្អិត) ដោយសារការមិនមានយន្តការកាត់ចេញប៉ារ៉ាម៉ែត្រកម្រិតខ្ពស់។ | ទទួលបានពិន្ទុ F1 ៨៨.៧៥% លើសំណុំទិន្នន័យ KIWIPRO។ |
ការចំណាយលើធនធាន (Resource Cost)៖ យោងតាមឯកសារ ការពិសោធន៍នេះទាមទារផ្នែករឹងកម្រិតខ្ពស់ (High-end Hardware) និងផ្នែកទន់ជាក់លាក់ ដើម្បីដំណើរការការបណ្តុះបណ្តាលម៉ូដែល Deep Learning ឱ្យមានប្រសិទ្ធភាព។
ការសិក្សានេះប្រើប្រាស់ទាំងស្រុងនូវទិន្នន័យអត្ថបទភាសាចិនទាក់ទងនឹងផ្លែគីវី (សំណុំទិន្នន័យ KIWIPRO) និងសំណុំទិន្នន័យសាធារណៈរបស់ចិន។ ដូច្នេះ ម៉ូដែលនេះត្រូវបានផ្សារភ្ជាប់យ៉ាងខ្លាំងទៅនឹងវេយ្យាករណ៍ និងរចនាសម្ព័ន្ធនៃភាសាចិន។ សម្រាប់ប្រទេសកម្ពុជា នេះគឺជាបញ្ហាប្រឈម ពីព្រោះភាសាខ្មែរមានរចនាសម្ព័ន្ធខុសគ្នា (គ្មានការដកឃ្លារវាងពាក្យ) និងទាមទារសំណុំទិន្នន័យបរិបទកសិកម្មរបស់ខ្មែរផ្ទាល់ដើម្បីយកមកបណ្តុះបណ្តាលឡើងវិញ។
ទោះបីជាមានរបាំងភាសាក៏ដោយ វិធីសាស្ត្រនៃការទាញយកព័ត៌មានទ្វេវិមាត្រ និងយន្តការកាត់ចេញ (Pruning) នេះ មានសក្តានុពលខ្ពស់សម្រាប់អនុវត្តក្នុងវិស័យកសិកម្មនៅកម្ពុជា។
ជារួម ក្របខ័ណ្ឌម៉ូដែលនេះផ្តល់នូវគំរូដ៏ល្អមួយសម្រាប់ការធ្វើទំនើបកម្មប្រព័ន្ធព័ត៌មានកសិកម្មនៅក្នុងប្រទេសកម្ពុជា ឱ្យតែមានការវិនិយោគលើការបង្កើតសំណុំទិន្នន័យភាសាខ្មែរឱ្យបានគ្រប់គ្រាន់។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Named Entity Recognition (NER) | ជាដំណើរការនៅក្នុងបញ្ញាសិប្បនិម្មិត (AI) ឬដំណើរការភាសាធម្មជាតិ (NLP) ដែលស្កេនអត្ថបទដើម្បីរកមើល និងចាត់ថ្នាក់ពាក្យសំខាន់ៗដោយស្វ័យប្រវត្តិ ដូចជា ឈ្មោះទីតាំង ឈ្មោះជំងឺ ឬឈ្មោះថ្នាំសម្លាប់សត្វល្អិត ជាដើម។ | ដូចជាការគូសបន្ទាត់ពីក្រោមពាក្យសំខាន់ៗក្នុងសៀវភៅដោយប្រើហ្វឺតពណ៌ផ្សេងៗគ្នាសម្រាប់ប្រភេទនីមួយៗ (ឧ. ពណ៌ក្រហមសម្រាប់ឈ្មោះ ពណ៌ខៀវសម្រាប់ទីកន្លែង)។ |
| Dual-Dimensional Information | នៅក្នុងបរិបទនៃការសិក្សានេះ វាសំដៅលើការទាញយកព័ត៌មានពីអត្ថបទតាមពីរទិសដៅ គឺទិសផ្ដេក (ទំនាក់ទំនងពាក្យជាប់គ្នាក្នុងប្រយោគ) និងទិសបញ្ឈរ (ទំនាក់ទំនងពាក្យដែលឆ្លងកាត់កថាខណ្ឌផ្សេងៗគ្នាក្នុងអត្ថបទទាំងមូល)។ | ដូចជាការលេងល្បែងផ្គុំពាក្យខ្វែង (Crossword) ដែលអ្នកត្រូវមើលទាំងពាក្យដេក និងពាក្យឈរ ដើម្បីយល់ន័យពេញលេញ។ |
| Weight Pruning | ជាបច្ចេកទេសកាត់បន្ថយប៉ារ៉ាម៉ែត្រ ឬទិន្នន័យទម្ងន់ (Weights) ដែលមិនសូវមានឥទ្ធិពលចេញពីបណ្តាញសរសៃប្រសាទសិប្បនិម្មិត ដើម្បីឱ្យម៉ូដែលដំណើរការបានលឿន ស៊ីទំហំផ្ទុកតិច និងកាត់បន្ថយភាពស្មុគស្មាញដោយមិនធ្វើឱ្យបាត់បង់ភាពត្រឹមត្រូវ។ | ដូចជាការលួសកាត់មែកឈើដែលងាប់ ឬមិនសូវសំខាន់ចេញ ដើម្បីឱ្យដើមឈើលូតលាស់បានល្អ និងមើលទៅមានសណ្តាប់ធ្នាប់។ |
| Bi-LSTM (Bidirectional Long Short-Term Memory) | ជាប្រភេទនៃបណ្តាញសរសៃប្រសាទសិប្បនិម្មិត ដែលអាចចងចាំព័ត៌មានពីបរិបទទាំងសងខាង (ពោលគឺវាអានអត្ថបទពីឆ្វេងទៅស្តាំ និងពីស្តាំមកឆ្វេង) ដើម្បីយល់ពីអត្ថន័យនៃពាក្យនីមួយៗផ្អែកលើពាក្យនៅខាងមុខ និងខាងក្រោយវា។ | ដូចជាការអានប្រយោគមួយដោយមើលសង្កេតទាំងពាក្យខាងមុខ និងពាក្យខាងក្រោយ ដើម្បីទាយអត្ថន័យនៃពាក្យដែលយើងមិនស្គាល់ច្បាស់។ |
| CRF (Conditional Random Field) | ជាម៉ូដែលស្ថិតិដែលត្រូវបានប្រើនៅដំណាក់កាលចុងក្រោយនៃប្រព័ន្ធ NER ដើម្បីធានាថាការទស្សន៍ទាយស្លាក (Tags) សម្រាប់ពាក្យជាបន្តបន្ទាប់គ្នា គឺមានភាពសមហេតុផល និងត្រឹមត្រូវតាមលំដាប់វេយ្យាករណ៍ច្បាស់លាស់។ | ដូចជាអ្នកត្រួតពិនិត្យអក្ខរាវិរុទ្ធនិងវេយ្យាករណ៍ចុងក្រោយគេ មុននឹងបោះពុម្ពអត្ថបទ ដើម្បីប្រាកដថាការរៀបចំលំដាប់ពាក្យគឺត្រឹមត្រូវតាមក្បួនខ្នាត។ |
| Coordinate Attention (CoordAtt) | ជាយន្តការនៅក្នុងបណ្តាញ Neural Network ដែលជួយឱ្យម៉ូដែលផ្តោតការយកចិត្តទុកដាក់ទៅលើផ្នែកសំខាន់ៗនៃទិន្នន័យ ដោយគណនាទីតាំងជាក់លាក់ (កូអរដោនេ X និង Y) នៃលក្ខណៈពិសេសទាំងនោះ ដើម្បីចាប់យកព័ត៌មានលម្អិត។ | ដូចជាការប្រើប្រាស់ភ្លើងពិល (Spotlight) ចាំងបញ្ចាំងចំៗទៅលើតួអង្គសំខាន់ ឬសកម្មភាពសំខាន់ដែលកំពុងកើតឡើងនៅលើឆាកងងឹត។ |
| Nested Entities | សំដៅលើករណីដែលអង្គភាពមួយ (ឈ្មោះពាក្យសំខាន់) ត្រូវបានរុំព័ទ្ធ ឬបង្កប់នៅខាងក្នុងអង្គភាពមួយទៀត ដែលធ្វើឱ្យការកំណត់ព្រំដែនពាក្យមានភាពស្មុគស្មាញ (ឧទាហរណ៍៖ ពាក្យ 'សាកលវិទ្យាល័យភូមិន្ទភ្នំពេញ' មានបង្កប់ពាក្យទីតាំង 'ភ្នំពេញ')។ | ដូចជាប្រអប់កាដូធំមួយ ដែលនៅពេលបើកទៅមានផ្ទុកប្រអប់កាដូតូចៗជាច្រើនទៀតនៅខាងក្នុង (ប្រអប់តុក្កតា Matryoshka)។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖