បញ្ហា (The Problem)៖ ស្ថាប័នអាជីវកម្មនានាជួបប្រទះការលំបាកក្នុងការយល់ដឹងពីមតិយោបល់របស់អតិថិជនតាមប្រព័ន្ធអ៊ីនធឺណិត ដោយសារវិធីសាស្ត្រវិភាគធម្មតាមិនអាចដោះស្រាយភាពស្មុគស្មាញនៃបរិបទពាក្យពេចន៍ និងបញ្ហាអតុល្យភាពនៃទិន្នន័យ (Class Imbalance) បានល្អ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានបង្កើតម៉ូដែលបណ្ដាញសរសៃប្រសាទសិប្បនិម្មិតចម្រុះ ដោយរួមបញ្ចូលគ្នានូវបច្ចេកវិទ្យា BGRU និង LSTM ដើម្បីវិភាគ និងចាត់ថ្នាក់មតិយោបល់អតិថិជន។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| LSTM (Long Short-Term Memory) ម៉ូដែលសរសៃប្រសាទបណ្ដាញវែង-ខ្លី (LSTM) |
អាចរក្សាទុកព័ត៌មានពីអតីតកាលសម្រាប់ទិន្នន័យជាលំដាប់វែងៗ (Long-term dependencies) បានល្អ។ | ប្រើប្រាស់ធនធានគណនាច្រើន និងពិបាកក្នុងការចាប់យកអត្ថន័យបរិបទបញ្ច្រាស (Bidirectional context)។ | ទទួលបានភាពត្រឹមត្រូវ ៩៣.០៦% ជាមួយនឹងអត្រាបាត់បង់ (Percent loss) ១៨.៥២%។ |
| CNN+LSTM ការរួមបញ្ចូលគ្នានៃបណ្ដាញ CNN និង LSTM |
មានសមត្ថភាពចាប់យកលក្ខណៈពិសេសក្នុងតំបន់ (Local patterns) តាមរយៈ CNN និងចងចាំលំដាប់តាមរយៈ LSTM។ | មានភាពខ្សោយជាងក្នុងការរក្សាទំនាក់ទំនងនៃមតិយោបល់ដែលមានចម្ងាយឆ្ងាយពីគ្នានៅក្នុងអត្ថបទ។ | ទទួលបានភាពត្រឹមត្រូវ ៩៣.៣១% ជាមួយនឹងអត្រាបាត់បង់ ១៩.៨១%។ |
| GRU+LSTM ការរួមបញ្ចូលគ្នានៃបណ្ដាញ GRU និង LSTM |
មានដំណើរការលឿនជាង និងប្រើប្រាស់ធនធានគណនាតិចជាងម៉ូដែល LSTM សុទ្ធ។ | មានចំណុចខ្សោយខ្លាំងក្នុងការទាញយកមតិអវិជ្ជមាន ដោយទទួលបានអត្រា Recall សម្រាប់ថ្នាក់អវិជ្ជមានទាប (៧៦%)។ | ទទួលបានភាពត្រឹមត្រូវ ៩២.២០% ជាមួយនឹងអត្រាបាត់បង់ ២៦.៨០%។ |
| HBGRU-LSTM ម៉ូដែលចម្រុះ BGRU និង LSTM (ម៉ូដែលស្នើឡើង) |
អាចចាប់យកអត្ថន័យបរិបទទាំងសងខាង (Bidirectional) បានយ៉ាងល្អិតល្អន់ និងមានភាពរឹងមាំក្នុងការដោះស្រាយបញ្ហាអតុល្យភាពទិន្នន័យ។ | ទាមទារការកំណត់ប៉ារ៉ាម៉ែត្រស្មុគស្មាញច្រើនជាងម៉ូដែលធម្មតា និងតម្រូវឱ្យមានការគណនាស៊ីជម្រៅ។ | ទទួលបានភាពត្រឹមត្រូវខ្ពស់បំផុត ៩៥.០% ជាមួយនឹងអត្រាបាត់បង់ទាបបំផុតត្រឹម ១៣.៣០%។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះទាមទារនូវធនធានកុំព្យូទ័រដែលមានសមត្ថភាពមធ្យមទៅខ្ពស់ ពិសេសគឺតម្រូវឱ្យមានក្រាហ្វិកកាត (GPU) សម្រាប់ពន្លឿនការហ្វឹកហាត់ម៉ូដែល Deep Learning ។
ការសិក្សានេះប្រើប្រាស់សំណុំទិន្នន័យជាភាសាអង់គ្លេសសុទ្ធពី IMDB (ភាពយន្ត) និង Amazon (ផលិតផលទូទៅ) ដែលឆ្លុះបញ្ចាំងតែពីបរិបទ និងការបញ្ចេញមតិរបស់ប្រជាជននៅប្រទេសលោកខាងលិច។ សម្រាប់ប្រទេសកម្ពុជា ការយកម៉ូដែលនេះមកអនុវត្តផ្ទាល់គឺមិនអាចទៅរួចទេ ដោយវាទាមទារឱ្យមានការប្រមូលសំណុំទិន្នន័យមតិយោបល់ជាភាសាខ្មែរ (ឧទាហរណ៍ពី Facebook) ដែលមានរចនាសម្ព័ន្ធវេយ្យាករណ៍ និងពាក្យស្លោកខុសពីភាសាអង់គ្លេសទាំងស្រុង។
ទោះបីជាខ្វះខាតទិន្នន័យជាភាសាខ្មែរស្រាប់ក្ដី វិធីសាស្ត្រនៃការប្រើប្រាស់បណ្ដាញចម្រុះ (HBGRU-LSTM) នេះមានសក្តានុពលខ្ពស់ខ្លាំងសម្រាប់វិស័យពាណិជ្ជកម្ម និងសេវាកម្មនៅកម្ពុជា ប្រសិនបើត្រូវបានបណ្តុះបណ្តាលជាមួយទិន្នន័យត្រឹមត្រូវ។
ជារួម បច្ចេកវិទ្យានេះអាចជាកាតាលីករជួយឱ្យស្ថាប័នរដ្ឋ និងឯកជននៅកម្ពុជាអាចយល់ដឹងពីតម្រូវការប្រជាជនបានកាន់តែរហ័ស តាមរយៈការវិភាគទិន្នន័យធំៗ (Big Data) នៅលើបណ្ដាញសង្គមដោយស្វ័យប្រវត្តិ និងមានប្រសិទ្ធភាព។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Sentiment Analysis | ដំណើរការប្រើប្រាស់កុំព្យូទ័រដើម្បីវិភាគអត្ថបទ (ដូចជាមតិយោបល់របស់អតិថិជន) និងកំណត់ថាតើវាមានអត្ថន័យវិជ្ជមាន អវិជ្ជមាន ឬអព្យាក្រឹត្យ ដើម្បីយល់ពីអារម្មណ៍និងអាកប្បកិរិយារបស់អ្នកសរសេរ។ | ដូចជាម៉ាស៊ីនអានចិត្តមនុស្ស ដែលអាចប្រាប់យើងថាអ្នកសរសេរប្រយោគនោះកំពុងសប្បាយចិត្ត ខឹង ឬមិនខ្វល់។ |
| Bidirectional Gated Recurrent Unit (BGRU) | ជាប្រភេទបណ្ដាញសរសៃប្រសាទសិប្បនិម្មិតដែលរៀនពីទិន្នន័យជាលំដាប់ ដោយអានទាំងពីឆ្វេងទៅស្តាំ និងពីស្តាំទៅឆ្វេង ជួយឱ្យកុំព្យូទ័រទាញយកអត្ថន័យបរិបទពាក្យពេចន៍បានកាន់តែច្បាស់លាស់។ | ដូចជាការអានសៀវភៅដោយមើលទាំងប្រយោគមុន និងប្រយោគបន្ទាប់ ដើម្បីស្មានដឹងពីអត្ថន័យពិតនៃពាក្យមួយឱ្យបានច្បាស់។ |
| Long Short-Term Memory (LSTM) | ជាបណ្ដាញសរសៃប្រសាទដែលមានសមត្ថភាពចងចាំព័ត៌មានពីអតីតកាលសម្រាប់រយៈពេលវែង ដែលជួយទប់ស្កាត់ការបាត់បង់អត្ថន័យដើមនៅពេលម៉ូដែលត្រូវវិភាគប្រយោគដែលវែងៗ។ | ដូចជាមនុស្សដែលមានការចងចាំល្អ ដែលអាចស្តាប់រឿងវែងឆ្ងាយហើយនៅតែចងចាំថាចំណុចដើមគេនិយាយពីអ្វី។ |
| Class Imbalance | បញ្ហានៅក្នុងសំណុំទិន្នន័យដែលចំនួនទិន្នន័យនៃក្រុមនីមួយៗមិនមានតុល្យភាព (ឧទាហរណ៍៖ មតិយោបល់ល្អមានច្រើនលើសលប់ធៀបនឹងមតិយោបល់អាក្រក់) ដែលធ្វើឱ្យម៉ូដែលលម្អៀងទៅរកការទស្សន៍ទាយតែក្រុមដែលមានចំនួនច្រើនជាង។ | ដូចជាការបង្រៀនសិស្សពីសត្វឆ្កែចំនួន ១០០ក្បាល តែបង្រៀនពីសត្វឆ្មាត្រឹម ២ក្បាល ដែលធ្វើឱ្យសិស្សនោះស្គាល់តែឆ្កែ តែងាយនឹងភាន់ច្រឡំនៅពេលឃើញឆ្មា។ |
| Word Embeddings | បច្ចេកទេសបំប្លែងពាក្យពេចន៍ពីទម្រង់អក្សរទៅជាវ៉ិចទ័រលេខ ដើម្បីឱ្យកុំព្យូទ័រអាចគណនា និងយល់ពីទំនាក់ទំនងអត្ថន័យរវាងពាក្យដែលស្រដៀងគ្នាដោយផ្អែកលើបរិបទ។ | ដូចជាការចាត់ថ្នាក់មនុស្សជាក្រុមដោយផ្ដល់កូដសម្គាល់ អ្នកដែលមានចរិត ឬចំណង់ចំណូលចិត្តស្រដៀងគ្នានឹងមានលេខកូដប្រហាក់ប្រហែលគ្នា។ |
| Dropout Regularization | បច្ចេកទេសក្នុង Deep Learning ដែលបិទដំណើរការណឺរ៉ូនមួយចំនួនដោយចៃដន្យក្នុងពេលកំពុងហ្វឹកហាត់ ដើម្បីការពារកុំឱ្យម៉ូដែលគ្រាន់តែទន្ទេញចាំទិន្នន័យ (Overfitting) ដែលជួយឱ្យវាអាចដំណើរការបានល្អនៅពេលជួបទិន្នន័យថ្មីៗ។ | ដូចជាការបិទភ្នែកម្ខាងពេលកំពុងហាត់វាយសី ដើម្បីបង្ខំឱ្យខ្លួនឯងអាចលេងបានល្អ ទោះបីស្ថិតក្នុងស្ថានភាពលំបាកយ៉ាងណាក៏ដោយ។ |
| Epochs | វដ្តនៃការហ្វឹកហាត់ម៉ូដែល Machine Learning ដែលរាប់នៅពេលម៉ូដែលនោះបានអាន រៀន និងកែតម្រូវខ្លួនឯងពីសំណុំទិន្នន័យហ្វឹកហាត់ទាំងមូលចប់មួយជុំពេញ។ | ដូចជាការអានសៀវភៅមេរៀនចប់មួយក្បាលជាស្ថាពរ បើហ្វឹកហាត់ 100 Epochs គឺស្មើនឹងការអានសៀវភៅដដែលនោះចំនួន ១០០ដង។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖