បញ្ហា (The Problem)៖ ប្រព័ន្ធបកប្រែសំឡេងជាទូទៅធ្វើការបង្កើនប្រសិទ្ធភាពផ្នែកទទួលស្គាល់សំឡេង (ASR) និងផ្នែកបកប្រែ (MT) ដាច់ដោយឡែកពីគ្នា ដែលនាំឱ្យលទ្ធផលមិនសូវល្អប្រសើរនៅពេលមានកំហុសក្នុងការសម្គាល់សំឡេង។ ការសិក្សានេះដោះស្រាយបញ្ហានេះដោយធ្វើការប្រៀបធៀបវិធីសាស្ត្របង្កើនប្រសិទ្ធភាពរួមគ្នានៃប្រព័ន្ធទាំងពីរ ដើម្បីលើកកម្ពស់គុណភាពបកប្រែ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានធ្វើការប្រៀបធៀបតាមបែបពិសោធន៍លើក្បួនដោះស្រាយបង្កើនប្រសិទ្ធភាពចំនួនបី និងបានស្នើឡើងនូវវិធីសាស្ត្របង្កើនប្រសិទ្ធភាពកូនកាត់ថ្មីមួយ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Minimum Error Rate Training (MERT) ការបង្កើនប្រសិទ្ធភាពអត្រាកំហុសអប្បបរមា (MERT) |
ជាវិធីសាស្ត្រមូលដ្ឋានដែលត្រូវបានប្រើប្រាស់យ៉ាងទូលាយ និងអាចទាញយកពិន្ទុ BLEU ខ្ពស់លើទិន្នន័យហ្វឹកហាត់។ | ដំណើរការយឺតខ្លាំងនៅពេលមានមុខងារ (Features) ច្រើន និងងាយរងនូវបញ្ហា Overfitting លើទិន្នន័យសាកល្បង។ | ចំណាយពេលយូរជាងគេបំផុត (២៣០,០០០ វិនាទី សម្រាប់ n-best+ASR) និងទទួលបានលទ្ធផលបកប្រែមិនសូវល្អលើទិន្នន័យសាកល្បងជាក់ស្តែង។ |
| Batch Margin Infused Relaxed Algorithm (MIRA) ក្បួនដោះស្រាយបន្ធូរបន្ថយបញ្ជូលគែមជាបាច់ (MIRA) |
មានប្រសិទ្ធភាពខ្ពស់ក្នុងការប្រើប្រាស់ Sparse features និងអាចជួយការពារបញ្ហា Overfitting តាមរយៈ Regularization។ | តម្រូវឱ្យមានការជ្រើសរើស Oracle translation ដែលអាចជួបប្រទះការលំបាកក្នុងការកំណត់ឱ្យបានច្បាស់លាស់។ | ចំណាយពេលតិចជាង MERT ច្រើន ប៉ុន្តែទទួលបានគុណភាពបកប្រែទាបជាង PRO លើទិន្នន័យសាកល្បង។ |
| Pairwise Ranking Optimization (PRO) with Smooth BLEU+1 ការបង្កើនប្រសិទ្ធភាពចំណាត់ថ្នាក់តាមគូ (PRO) ជាមួយ Smooth BLEU+1 |
ជួយជៀសវាងបញ្ហាប្រយោគខ្លីពេក (Short sentence bias) និងរៀបចំចំណាត់ថ្នាក់ល្អសម្រាប់បេក្ខភាពបកប្រែជាច្រើន (n-best lists)។ | មិនសូវមានភាពបត់បែននៅពេលប្រើជាមួយ Sparse features សុទ្ធ ដោយសារវាទាមទារនូវភាពចម្រុះនៃពាក្យ។ | ទទួលបានកំណើនគុណភាពបកប្រែខ្ពស់បំផុតរហូតដល់ ១.៣ ពិន្ទុ BLEU ដោយចំណាយពេលគណនាត្រឹមតែ ២៧% ធៀបនឹង MERT។ |
| Hybrid Optimization វិធីសាស្ត្របង្កើនប្រសិទ្ធភាពកូនកាត់ |
ទាញយកអត្ថប្រយោជន៍ពី Smooth BLEU+1 សម្រាប់ Dense features និង BLEU+1 ធម្មតាសម្រាប់ Sparse features (Lexicalized features)។ | មានភាពស្មុគស្មាញក្នុងការរៀបចំ ហើយលទ្ធផលកើនឡើងមានកម្រិតតិចតួចធៀបនឹងកិច្ចខិតខំប្រឹងប្រែង។ | ផ្តល់នូវកំណើនបន្ថែមតូចមួយចំនួន ០.១៧ ពិន្ទុ BLEU លើទិន្នន័យសាកល្បង។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះទាមទារធនធានកុំព្យូទ័រដែលមានសមត្ថភាពគណនាខ្ពស់សម្រាប់ការហ្វឹកហាត់ម៉ូដែល និងទំហំទិន្នន័យជាក់លាក់សម្រាប់ការបកប្រែសំឡេង។
ការសិក្សានេះពឹងផ្អែកទាំងស្រុងលើទិន្នន័យសន្ទនាទេសចរណ៍ពីភាសាជប៉ុនទៅអង់គ្លេស (BTEC corpus)។ ទម្រង់វេយ្យាករណ៍ និងរចនាសម្ព័ន្ធសូរសព្ទនៃភាសាទាំងពីរនេះគឺខុសគ្នាស្រឡះពីភាសាខ្មែរ។ សម្រាប់ប្រទេសកម្ពុជា ការខ្វះខាតទិន្នន័យសំឡេង និងអត្ថបទភាសាខ្មែរដែលមានគុណភាពខ្ពស់ គឺជាឧបសគ្គចម្បងក្នុងការអនុវត្តម៉ូដែលនេះដោយផ្ទាល់ដោយមិនមានការកែសម្រួល។
ទោះបីជាមានបញ្ហាប្រឈមខាងផ្នែកទិន្នន័យក៏ដោយ បច្ចេកទេសបង្កើនប្រសិទ្ធភាពរួមគ្នានេះមានសក្តានុពលខ្លាំងក្នុងការអភិវឌ្ឍប្រព័ន្ធបកប្រែភាសាខ្មែរឱ្យមានភាពប្រសើរឡើង។
ជារួម ការអនុវត្តវិធីសាស្ត្របង្កើនប្រសិទ្ធភាពរួមគ្នា (Joint Optimization) នេះនឹងជួយកាត់បន្ថយឥទ្ធិពលនៃកំហុសស្តាប់សំឡេង (ASR errors) ដែលជារឿយៗតែងតែកើតមានក្នុងភាសាខ្មែរ ធ្វើឱ្យការបកប្រែមានភាពត្រឹមត្រូវ និងអាចប្រើប្រាស់ជាផ្លូវការបាន។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Joint Optimization | ការធ្វើឱ្យប្រសើរឡើងនូវប្រព័ន្ធពីរ ឬច្រើន (ដូចជាប្រព័ន្ធសម្គាល់សំឡេង និងប្រព័ន្ធបកប្រែ) ក្នុងពេលតែមួយ ដើម្បីឱ្យពួកវាធ្វើការស៊ីចង្វាក់គ្នា និងកាត់បន្ថយកំហុសសរុប ជាជាងការកែសម្រួលវាដាច់ដោយឡែកពីគ្នា។ | ដូចជាការបង្រៀនអ្នកចម្រៀង និងអ្នកលេងភ្លេងឱ្យហាត់សមជាមួយគ្នាក្នុងពេលតែមួយ ដើម្បីឱ្យការប្រគំតន្ត្រីរួមមានភាពពិរោះ ជាជាងការហាត់រៀងៗខ្លួន។ |
| Minimum Error Rate Training (MERT) | គឺជាក្បួនដោះស្រាយសម្រាប់ប្រព័ន្ធបកប្រែដោយម៉ាស៊ីន ដែលស្វែងរកតម្លៃទម្ងន់ប៉ារ៉ាម៉ែត្រណាដែលជួយកាត់បន្ថយអត្រាកំហុស (ឬបង្កើនពិន្ទុ BLEU) ឱ្យនៅតិចបំផុតលើទិន្នន័យហ្វឹកហាត់។ | ដូចជាការកាច់ប៉ូតុងម៉ាស៊ីនត្រជាក់ចុះឡើងៗម្តងបន្តិចៗ ដើម្បីរកមើលសីតុណ្ហភាពណាដែលធ្វើឱ្យអ្នកក្នុងបន្ទប់មានអារម្មណ៍ស្រួលបំផុត។ |
| Pairwise Ranking Optimization (PRO) | ជាវិធីសាស្ត្រវាយតម្លៃនិងកែសម្រួលប្រព័ន្ធបកប្រែ ដោយយកលទ្ធផលបកប្រែមកប្រៀបធៀបគ្នាម្តងមួយគូៗ រួចបង្រៀនម៉ាស៊ីនឱ្យចេះរៀបចំណាត់ថ្នាក់ថាមួយណាល្អជាងមួយណា។ | ដូចជាការឱ្យគណៈកម្មការភ្លក់ម្ហូបពីរចានម្តងៗ រួចប្រាប់ថាមួយណាឆ្ងាញ់ជាង ដើម្បីបង្រៀនចុងភៅឱ្យដឹងពីចំណូលចិត្តរបស់អតិថិជន។ |
| Batch Margin Infused Relaxed Algorithm (MIRA) | ជាក្បួនដោះស្រាយ Machine Learning មួយប្រភេទដែលធ្វើការកែតម្រូវទម្ងន់ម៉ូដែលជាបាច់ៗ (Batches) ដោយផ្តោតលើការបែងចែកដាច់ស្រឡះ (Margin) រវាងលទ្ធផលល្អនិងអាក្រក់ ដើម្បីជៀសវាងការទន្ទេញចាំទិន្នន័យ (Overfitting)។ | ដូចជាការបង្ហាត់សត្វសុនខឱ្យចេះញែករបស់ត្រូវនិងខុសជារង្វង់ឆ្ងាយពីគ្នា ដើម្បីកុំឱ្យវាច្រឡំគ្នានៅថ្ងៃក្រោយ។ |
| BLEU score | ជារង្វាស់ស្តង់ដារសម្រាប់វាស់ស្ទង់គុណភាពនៃការបកប្រែដោយម៉ាស៊ីន ដោយរាប់ចំនួនពាក្យ ឬឃ្លាដែលម៉ាស៊ីនបកប្រែត្រូវគ្នាទៅនឹងអត្ថបទដើមដែលបកប្រែដោយមនុស្ស។ | ដូចជាការផ្តល់ពិន្ទុអក្ខរាវិរុទ្ធដល់សិស្ស ដោយផ្ទៀងផ្ទាត់កិច្ចការសិស្សទៅនឹងសៀវភៅចម្លើយ។ |
| Smooth BLEU+1 | ជាទម្រង់កែច្នៃនៃរង្វាស់ BLEU ដែលជួយដោះស្រាយបញ្ហាពិន្ទុសូន្យនៅពេលម៉ាស៊ីនបកប្រែបានប្រយោគខ្លីពេក ឬមិនមានពាក្យត្រូវគ្នាទាល់តែសោះ ដោយការបូកបន្ថែមចំនួន 1 ទៅលើការគណនាប្រភាគ និងលើកទឹកចិត្តឱ្យម៉ាស៊ីនបកប្រែបង្កើតប្រយោគដែលមានប្រវែងសមស្រប។ | ដូចជាការបូកពិន្ទុលើកទឹកចិត្ត (Bonus) ដល់សិស្សទោះបីជាសិស្សឆ្លើយខុសខ្លះក៏ដោយ ដើម្បីកុំឱ្យសិស្សបាក់ទឹកចិត្តក្នុងការសរសេរចម្លើយវែងៗ។ |
| n-best lists | បញ្ជីនៃជម្រើសលទ្ធផលល្អបំផុតចំនួន n ដែលប្រព័ន្ធកុំព្យូទ័រ (ដូចជាប្រព័ន្ធសម្គាល់សំឡេង) បង្កើតបាន ដើម្បីទុកឱ្យប្រព័ន្ធបន្ទាប់ (ប្រព័ន្ធបកប្រែ) ពិចារណានិងជ្រើសរើសយកមួយណាដែលត្រឹមត្រូវបំផុតតាមបរិបទ។ | ដូចជាការផ្តល់ជម្រើសចម្លើយ A, B, C, D ឱ្យសិស្សជ្រើសរើស ជាជាងការបង្ខំឱ្យសិស្សទាយចម្លើយតែមួយដោយខ្លួនឯង។ |
| Sparse features | លក្ខណៈពិសេសកម្រិតពាក្យ ឬទិន្នន័យនីមួយៗដែលមានចំនួនច្រើនសន្ធឹកសន្ធាប់ ប៉ុន្តែកម្រនឹងលេចឡើងក្នុងទិន្នន័យទូទៅ។ វាត្រូវបានប្រើដើម្បីផ្តល់ទម្ងន់ខុសៗគ្នាទៅលើពាក្យនីមួយៗ ដើម្បីជួយម៉ាស៊ីនបែងចែកបរិបទនៃពាក្យបានកាន់តែល្អ។ | ដូចជាការទន្ទេញចំណាំចំណុចពិសេសតូចៗរាប់ពាន់របស់មនុស្សម្នាក់ៗ (ដូចជាប្រជ្រុយ ស្នាមសម្លាក) ដើម្បីចំណាំមុខពួកគេបានកាន់តែច្បាស់។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖