បញ្ហា (The Problem)៖ ការរចនាយុទ្ធសាស្រ្តសន្ទនាសម្រាប់ប្រព័ន្ធកុំព្យូទ័រនិយាយដោយដៃងាយនឹងមានកំហុស និងចំណាយពេលយូរ ចំណែកឯការប្រើប្រាស់ការរៀនពង្រឹង (Reinforcement Learning) ប្រឈមនឹងបញ្ហាលំហស្ថានភាពធំៗ (Large state spaces) ព្រមទាំងការចំណាយខ្ពស់ក្នុងការប្រមូលទិន្នន័យពីអ្នកប្រើប្រាស់ពិតប្រាកដ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះស្នើឡើងនូវវិធីសាស្ត្រផ្អែកលើទិន្នន័យ (Corpus-based) ដើម្បីក្លែងធ្វើការសន្ទនា និងស្វែងរកយុទ្ធសាស្ត្រគ្រប់គ្រងការសន្ទនាដ៏ប្រសើរបំផុត។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Random Dialogues ការសន្ទនាដោយចៃដន្យ |
ងាយស្រួលក្នុងការបង្កើត ដោយមិនតម្រូវឱ្យមានទិន្នន័យសម្រាប់បង្ហាត់ច្រើននោះទេ។ | បង្កើតបានការសន្ទនាដែលមិនប្រាកដនិយមទាល់តែសោះ ហើយខ្វះរចនាសម្ព័ន្ធឡូជីខល។ | ទទួលបានពិន្ទុទាបបំផុតទាំងរង្វាស់ Dialogue Similarity និង Precision-Recall ធៀបនឹងការសន្ទនាពិត។ |
| Standard HMMs ម៉ូដែល Hidden Markov ស្ដង់ដារ |
អាចចាប់យករចនាសម្ព័ន្ធគោលដៅនៃការសន្ទនាបានល្អជាងការជ្រើសរើសដោយចៃដន្យ។ | ការផ្លាស់ប្តូរស្ថានភាពមិនបានគិតបញ្ជូលនូវចម្លើយតបរបស់អ្នកប្រើប្រាស់ពីមុននោះទេ (Ignores previous user responses)។ | ដំណើរការល្អជាងការសន្ទនាចៃដន្យ ប៉ុន្តែនៅមានគម្លាតឆ្ងាយពីភាពប្រាកដនិយមនៃការសន្ទនាពិត។ |
| Input/Input-Output HMMs (IHMMs/IOHMMs) ម៉ូដែល IHMMs និង IOHMMs |
ពិចារណាលើការឆ្លើយតបរបស់អ្នកប្រើប្រាស់ ដែលជួយធ្វើឱ្យលំហូរនៃការសន្ទនាកាន់តែមានភាពប្រាកដនិយម។ | ទាមទារទិន្នន័យច្រើនក្នុងការបង្ហាត់ និងងាយប្រឈមនឹងបញ្ហាខ្វះទិន្នន័យ (Data sparsity) សម្រាប់ស្ថានភាពដែលមិនធ្លាប់ជួប។ | ទទួលបានលទ្ធផលខិតជិតទៅនឹងការសន្ទនាពិតប្រាកដជាងម៉ូដែល HMM ស្ដង់ដារបន្តិច ផ្អែកលើការវាស់ស្ទង់ Dialogue Similarity។ |
| Hierarchical RL (Options, MAXQ, HAMs) ការរៀនពង្រឹងតាមឋានានុក្រម |
ដោះស្រាយបញ្ហាលំហស្ថានភាពធំៗ (Large state spaces) បានល្អ រៀនបានលឿន និងប្រើប្រាស់ទិន្នន័យតិច។ | ទាមទារឱ្យមានការរៀបចំរចនាសម្ព័ន្ធឋានានុក្រមដោយដៃ ដែលជួនកាលអាចទទួលបានត្រឹមយុទ្ធសាស្ត្រដែលមិនទាន់ល្អឥតខ្ចោះ (Suboptimal policies)។ | ជាវិធីសាស្ត្រស្នើឡើងដែលមានសក្តានុពលក្នុងការកាត់បន្ថយទំហំ State Space ដ៏ធំសម្បើម (ពី 72^31 * 4^6 មកកម្រិតដែលអាចគណនាបាន)។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះទាមទារនូវធនធានកុំព្យូទ័រមធ្យមសម្រាប់ការក្លែងធ្វើការសន្ទនា និងទិន្នន័យសន្ទនាជាក់ស្តែងក្នុងបរិមាណសមរម្យដើម្បីបង្ហាត់ម៉ូដែលឱ្យមានប្រសិទ្ធភាព។
ការសិក្សានេះផ្អែកលើទិន្នន័យ DARPA Communicator ដែលជាភាសាអង់គ្លេស និងផ្តោតលើវិស័យទេសចរណ៍នៅសហរដ្ឋអាមេរិក (កក់ជើងហោះហើរ សណ្ឋាគារ រថយន្ត)។ ទិន្នន័យនេះមានលក្ខណៈលម្អៀងទៅរកវប្បធម៌ និងរបៀបសន្ទនារបស់ជនជាតិអាមេរិក ដែលមិនឆ្លុះបញ្ចាំងពីទម្លាប់ វាក្យសព្ទ ឬរចនាសម្ព័ន្ធប្រយោគក្នុងការសន្ទនារបស់ប្រជាជនកម្ពុជាឡើយ។ ហេតុនេះ ការយកមកអនុវត្តនៅកម្ពុជាចាំបាច់ត្រូវតែមានការប្រមូលទិន្នន័យសន្ទនាជាភាសាខ្មែរថ្មីទាំងស្រុង។
ទោះបីជាមានភាពខុសគ្នាផ្នែកភាសាក៏ដោយ ទ្រឹស្តី និងវិធីសាស្ត្រនៃការក្លែងធ្វើការសន្ទនា រួមជាមួយការរៀនពង្រឹងតាមឋានានុក្រម គឺមានអត្ថប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់ការអភិវឌ្ឍប្រព័ន្ធឆ្លើយតបស្វ័យប្រវត្តិ (Spoken Dialogue Systems) នៅកម្ពុជា។
ជារួម បច្ចេកវិទ្យានេះអាចជួយស្ថាប័នរដ្ឋនិងឯកជននៅកម្ពុជាក្នុងការធ្វើស្វ័យប្រវត្តិកម្មសេវាកម្មអតិថិជនកម្រិតខ្ពស់ ប្រសិនបើមានការវិនិយោគត្រឹមត្រូវលើការប្រមូលទិន្នន័យសន្ទនាជាភាសាខ្មែរ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Reinforcement Learning (RL) | ការរៀនពង្រឹង គឺជាវិធីសាស្ត្រនៃបញ្ញាសិប្បនិម្មិត (AI) ដែលភ្នាក់ងារកុំព្យូទ័ររៀនធ្វើការសម្រេចចិត្តដោយការសាកល្បងនិងកំហុស ដោយទទួលបានរង្វាន់ពេលធ្វើត្រូវ និងការពិន័យពេលធ្វើខុស រហូតទាល់តែវារកឃើញយុទ្ធសាស្ត្រដ៏ល្អបំផុត។ | ដូចជាការបង្ហាត់សត្វឆ្កែឱ្យចេះធ្វើតាមបញ្ជា ដោយឲ្យចំណីពេលវាធ្វើត្រូវ និងស្តីបន្ទោសពេលវាធ្វើខុស។ |
| Hierarchical Reinforcement Learning | ការបំបែកបញ្ហាស្មុគស្មាញធំៗនៅក្នុងការរៀនពង្រឹងទៅជាកិច្ចការតូចៗ (Subtasks) ជាលំដាប់ថ្នាក់ ដើម្បីឱ្យកុំព្យូទ័រងាយស្រួលរៀន និងដោះស្រាយបញ្ហាបានលឿនជាងមុន ដោយមិនចាំបាច់រៀនអ្វីៗទាំងអស់ពីចំណុចសូន្យឡើងវិញរាល់ពេល។ | ដូចជាការរៀនបើកបរឡាន ដែលយើងបែងចែកជាការរៀនបញ្ឆេះម៉ាស៊ីន រៀនប្តូរលេខ និងរៀនបង្វិលចង្កូត ជាជាងព្យាយាមរៀនធ្វើអ្វីៗទាំងអស់ក្នុងពេលតែមួយ។ |
| Hidden Markov Models (HMMs) | ម៉ូដែលប្រូបាប៊ីលីតេដែលប្រើសម្រាប់ទស្សន៍ទាយស្ថានភាពបន្តបន្ទាប់ដែលយើងមិនអាចមើលឃើញផ្ទាល់ ដោយពឹងផ្អែកលើព្រឹត្តិការណ៍ ឬសញ្ញាដែលយើងអាចសង្កេតឃើញ។ ក្នុងការសិក្សានេះ វាត្រូវបានប្រើដើម្បីទស្សន៍ទាយចេតនាសន្ទនារបស់អ្នកប្រើប្រាស់ និងប្រព័ន្ធ។ | ដូចជាការទស្សន៍ទាយអាកាសធាតុថ្ងៃស្អែក (ភ្លៀងឬអត់) ដោយគ្រាន់តែមើលសម្លៀកបំពាក់ដែលមនុស្សពាក់ដើរតាមផ្លូវថ្ងៃនេះ។ |
| Markov Decision Process (MDP) | ក្របខ័ណ្ឌគណិតវិទ្យាសម្រាប់ធ្វើគំរូពីការសម្រេចចិត្តក្នុងស្ថានភាពដែលលទ្ធផលមានភាពមិនច្បាស់លាស់ (ចៃដន្យខ្លះ និងអាចគ្រប់គ្រងបានខ្លះ)។ វាមានធាតុផ្សំសំខាន់ៗដូចជា ស្ថានភាព (State) សកម្មភាព (Action) និងរង្វាន់ (Reward)។ | ដូចជាការលេងអុក ដែលអ្នកត្រូវគិតពីរង្វាន់ (ស៊ីកូនគេ) និងស្ថានភាពក្តារអុក មុនពេលដើរកូននីមួយៗ ដោយដឹងថាការដើរមួយជំហាននឹងប្តូរស្ថានភាពទាំងមូល។ |
| State Space | លំហនៃស្ថានភាពទាំងអស់ដែលអាចកើតមានឡើងនៅក្នុងប្រព័ន្ធមួយ។ នៅក្នុងការសន្ទនា វាសំដៅលើបន្សំនៃព័ត៌មានទាំងអស់ (ដូចជា គោលដៅប្រធានបទ ប្រភេទអ្នកប្រើប្រាស់ ប្រវត្តិការសន្ទនា) ដែលប្រព័ន្ធត្រូវដឹងដើម្បីធ្វើការសម្រេចចិត្ត។ ប្រសិនបើព័ត៌មានកាន់តែច្រើន ទំហំ State Space កាន់តែធំ។ | ដូចជាចំនួនផ្លូវបំបែកទាំងអស់នៅក្នុងផ្ទាំងគំនូររង្វង់វង្វេង (Maze) ដែលអ្នកអាចដើរបាន។ បើផ្លូវកាន់តែច្រើន ការរកច្រកចេញកាន់តែលំបាក។ |
| Spoken Dialogue Management | ប្រព័ន្ធកណ្តាល ឬខួរក្បាលដែលគ្រប់គ្រងលំហូរនៃការសន្ទនារវាងមនុស្សនិងម៉ាស៊ីន ដោយសម្រេចចិត្តថាត្រូវសួរអ្វីបន្ត ត្រូវឆ្លើយតបយ៉ាងដូចម្តេច ឬត្រូវផ្តល់ព័ត៌មានអ្វីដល់អ្នកប្រើប្រាស់ ដើម្បីសម្រេចគោលដៅនៃការសន្ទនាប្រកបដោយប្រសិទ្ធភាព។ | ដូចជាអ្នកសម្របសម្រួលកម្មវិធី (MC) ដែលជាអ្នកកំណត់ថានរណាត្រូវនិយាយអ្វីបន្ទាប់ និងធានាថាកម្មវិធីដើរទៅមុខដោយរលូនតាមគម្រោង។ |
| Function Approximation | បច្ចេកទេសក្នុង Machine Learning ដើម្បីប៉ាន់ស្មាន ឬទស្សន៍ទាយតម្លៃសម្រាប់ស្ថានភាពដែលប្រព័ន្ធមិនធ្លាប់ជួបពីមុនមក ដោយពឹងផ្អែកលើលំនាំនៃទិន្នន័យដែលវាធ្លាប់បានរៀន ជាជាងការបង្កើតតារាងកត់ត្រាទុកគ្រប់ស្ថានភាពទាំងអស់ដែលស៊ីទំហំផ្ទុកធំ។ | ដូចជាការចេះប៉ាន់ស្មានតម្លៃផ្ទះមួយដែលអ្នកមិនធ្លាប់ឃើញ ដោយផ្អែកលើតម្លៃផ្ទះផ្សេងៗទៀតដែលមានទំហំ និងទីតាំងស្រដៀងគ្នា។ |
| Dialogue Simulation | ការបង្កើតការសន្ទនាសិប្បនិម្មិត (ក្លែងក្លាយ) រវាងប្រព័ន្ធនិងកុំព្យូទ័រដែលដើរតួជាអ្នកប្រើប្រាស់ ដើម្បីយកទិន្នន័យនោះទៅបង្ហាត់និងធ្វើតេស្តប្រព័ន្ធសន្ទនា មុនពេលដាក់ឱ្យមនុស្សពិតប្រាកដប្រើប្រាស់ ដែលជួយសន្សំពេលវេលា និងថវិកាយ៉ាងច្រើន។ | ដូចជាការហ្វឹកហាត់សមយុទ្ធយោធាដោយប្រើគ្រាប់សិត ដើម្បីត្រៀមខ្លួនមុនពេលចេញទៅច្បាំងក្នុងសមរភូមិពិតប្រាកដ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖