Original Title: Opinion Mining and Analysis Using Hybrid Deep Neural Networks
Source: doi.org/10.3390/technologies13050175
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការទាញយកមតិ និងការវិភាគដោយប្រើប្រាស់បណ្ដាញសរសៃប្រសាទសិប្បនិម្មិតចម្រុះជម្រៅ

ចំណងជើងដើម៖ Opinion Mining and Analysis Using Hybrid Deep Neural Networks

អ្នកនិពន្ធ៖ Adel Hidri, Suleiman Ali Alsaif, Muteeb Alahmari, Eman AlShehri, Minyar Sassi Hidri

ឆ្នាំបោះពុម្ព៖ 2025 Technologies

វិស័យសិក្សា៖ Machine Learning

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ស្ថាប័នអាជីវកម្មនានាជួបប្រទះការលំបាកក្នុងការយល់ដឹងពីមតិយោបល់របស់អតិថិជនតាមប្រព័ន្ធអ៊ីនធឺណិត ដោយសារវិធីសាស្ត្រវិភាគធម្មតាមិនអាចដោះស្រាយភាពស្មុគស្មាញនៃបរិបទពាក្យពេចន៍ និងបញ្ហាអតុល្យភាពនៃទិន្នន័យ (Class Imbalance) បានល្អ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានបង្កើតម៉ូដែលបណ្ដាញសរសៃប្រសាទសិប្បនិម្មិតចម្រុះ ដោយរួមបញ្ចូលគ្នានូវបច្ចេកវិទ្យា BGRU និង LSTM ដើម្បីវិភាគ និងចាត់ថ្នាក់មតិយោបល់អតិថិជន។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
LSTM (Long Short-Term Memory)
ម៉ូដែលសរសៃប្រសាទបណ្ដាញវែង-ខ្លី (LSTM)
អាចរក្សាទុកព័ត៌មានពីអតីតកាលសម្រាប់ទិន្នន័យជាលំដាប់វែងៗ (Long-term dependencies) បានល្អ។ ប្រើប្រាស់ធនធានគណនាច្រើន និងពិបាកក្នុងការចាប់យកអត្ថន័យបរិបទបញ្ច្រាស (Bidirectional context)។ ទទួលបានភាពត្រឹមត្រូវ ៩៣.០៦% ជាមួយនឹងអត្រាបាត់បង់ (Percent loss) ១៨.៥២%។
CNN+LSTM
ការរួមបញ្ចូលគ្នានៃបណ្ដាញ CNN និង LSTM
មានសមត្ថភាពចាប់យកលក្ខណៈពិសេសក្នុងតំបន់ (Local patterns) តាមរយៈ CNN និងចងចាំលំដាប់តាមរយៈ LSTM។ មានភាពខ្សោយជាងក្នុងការរក្សាទំនាក់ទំនងនៃមតិយោបល់ដែលមានចម្ងាយឆ្ងាយពីគ្នានៅក្នុងអត្ថបទ។ ទទួលបានភាពត្រឹមត្រូវ ៩៣.៣១% ជាមួយនឹងអត្រាបាត់បង់ ១៩.៨១%។
GRU+LSTM
ការរួមបញ្ចូលគ្នានៃបណ្ដាញ GRU និង LSTM
មានដំណើរការលឿនជាង និងប្រើប្រាស់ធនធានគណនាតិចជាងម៉ូដែល LSTM សុទ្ធ។ មានចំណុចខ្សោយខ្លាំងក្នុងការទាញយកមតិអវិជ្ជមាន ដោយទទួលបានអត្រា Recall សម្រាប់ថ្នាក់អវិជ្ជមានទាប (៧៦%)។ ទទួលបានភាពត្រឹមត្រូវ ៩២.២០% ជាមួយនឹងអត្រាបាត់បង់ ២៦.៨០%។
HBGRU-LSTM
ម៉ូដែលចម្រុះ BGRU និង LSTM (ម៉ូដែលស្នើឡើង)
អាចចាប់យកអត្ថន័យបរិបទទាំងសងខាង (Bidirectional) បានយ៉ាងល្អិតល្អន់ និងមានភាពរឹងមាំក្នុងការដោះស្រាយបញ្ហាអតុល្យភាពទិន្នន័យ។ ទាមទារការកំណត់ប៉ារ៉ាម៉ែត្រស្មុគស្មាញច្រើនជាងម៉ូដែលធម្មតា និងតម្រូវឱ្យមានការគណនាស៊ីជម្រៅ។ ទទួលបានភាពត្រឹមត្រូវខ្ពស់បំផុត ៩៥.០% ជាមួយនឹងអត្រាបាត់បង់ទាបបំផុតត្រឹម ១៣.៣០%។

ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះទាមទារនូវធនធានកុំព្យូទ័រដែលមានសមត្ថភាពមធ្យមទៅខ្ពស់ ពិសេសគឺតម្រូវឱ្យមានក្រាហ្វិកកាត (GPU) សម្រាប់ពន្លឿនការហ្វឹកហាត់ម៉ូដែល Deep Learning ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះប្រើប្រាស់សំណុំទិន្នន័យជាភាសាអង់គ្លេសសុទ្ធពី IMDB (ភាពយន្ត) និង Amazon (ផលិតផលទូទៅ) ដែលឆ្លុះបញ្ចាំងតែពីបរិបទ និងការបញ្ចេញមតិរបស់ប្រជាជននៅប្រទេសលោកខាងលិច។ សម្រាប់ប្រទេសកម្ពុជា ការយកម៉ូដែលនេះមកអនុវត្តផ្ទាល់គឺមិនអាចទៅរួចទេ ដោយវាទាមទារឱ្យមានការប្រមូលសំណុំទិន្នន័យមតិយោបល់ជាភាសាខ្មែរ (ឧទាហរណ៍ពី Facebook) ដែលមានរចនាសម្ព័ន្ធវេយ្យាករណ៍ និងពាក្យស្លោកខុសពីភាសាអង់គ្លេសទាំងស្រុង។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ទោះបីជាខ្វះខាតទិន្នន័យជាភាសាខ្មែរស្រាប់ក្ដី វិធីសាស្ត្រនៃការប្រើប្រាស់បណ្ដាញចម្រុះ (HBGRU-LSTM) នេះមានសក្តានុពលខ្ពស់ខ្លាំងសម្រាប់វិស័យពាណិជ្ជកម្ម និងសេវាកម្មនៅកម្ពុជា ប្រសិនបើត្រូវបានបណ្តុះបណ្តាលជាមួយទិន្នន័យត្រឹមត្រូវ។

ជារួម បច្ចេកវិទ្យានេះអាចជាកាតាលីករជួយឱ្យស្ថាប័នរដ្ឋ និងឯកជននៅកម្ពុជាអាចយល់ដឹងពីតម្រូវការប្រជាជនបានកាន់តែរហ័ស តាមរយៈការវិភាគទិន្នន័យធំៗ (Big Data) នៅលើបណ្ដាញសង្គមដោយស្វ័យប្រវត្តិ និងមានប្រសិទ្ធភាព។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាពីមូលដ្ឋានគ្រឹះនៃការកែច្នៃអត្ថបទ (Text Preprocessing): និស្សិតត្រូវចាប់ផ្តើមរៀនពីការធ្វើការងារជាមួយអត្ថបទ ដូចជាការកាត់ពាក្យ (Tokenization) និងការលុបពាក្យមិនចាំបាច់ (Stopwords removal) ដោយអនុវត្តផ្ទាល់ជាមួយបណ្ណាល័យ NLTK ឬ spaCy នៅក្នុងភាសា Python។ សម្រាប់ភាសាខ្មែរ គួរស្វែងយល់ពីឧបករណ៍ដូចជា khmer-nltk ជាដើម។
  2. ស្វែងយល់និងអនុវត្តបច្ចេកទេស Word Embeddings: សិក្សាពីរបៀបបំប្លែងពាក្យទៅជាវ៉ិចទ័រលេខ ដើម្បីឱ្យកុំព្យូទ័រអាចយល់ន័យរបស់វាបាន ដោយប្រើប្រាស់កូដ Word2Vec ឬ FastText។ សាកល្បងហ្វឹកហាត់ម៉ូដែល Word2Vec ជាមួយទិន្នន័យអត្ថបទតូចៗសិន។
  3. កសាងម៉ូដែល Deep Learning ជាមូលដ្ឋាន (Baseline Models): សាកល្បងសរសេរកូដបង្កើតម៉ូដែលធម្មតាៗដូចជា LSTM ឬ GRU សុទ្ធ ដោយប្រើប្រាស់ TensorFlow ឬ Keras Framework។ អនុវត្តហ្វឹកហាត់ម៉ូដែលទាំងនេះនៅលើសំណុំទិន្នន័យ IMDB ដែលមានស្រាប់នៅក្នុង Keras Datasets ដើម្បីយល់ពីដំណើរការ។
  4. អភិវឌ្ឍម៉ូដែលចម្រុះ និងការដោះស្រាយទិន្នន័យមិនមានតុល្យភាព (Class Imbalance): សរសេរកូដភ្ជាប់បណ្តាញ BGRU ជាមួយនឹង LSTM បង្កើតជាម៉ូដែលចម្រុះ HBGRU-LSTM។ បន្ទាប់មក សិក្សាពីការប្រើប្រាស់បច្ចេកទេស Random Oversampling ឬ SMOTE ពីបណ្ណាល័យ imbalanced-learn ដើម្បីតម្រឹមចំនួនទិន្នន័យវិជ្ជមាន និងអវិជ្ជមានឱ្យស្មើគ្នា។
  5. ប្រមូលនិងសាកល្បងជាមួយទិន្នន័យភាសាខ្មែរពិតប្រាកដ: ធ្វើការទាញយកទិន្នន័យមតិយោបល់ (Scraping comments) ពី Facebook Pages ក្នុងស្រុក (ឧទាហរណ៍ ផេកព័ត៌មាន ឬហាងទំនិញ) រួចបិទស្លាក (Label) វាជាវិជ្ជមាន ឬអវិជ្ជមាន រួចយកវាមកហ្វឹកហាត់ និងវាយតម្លៃលើម៉ូដែល HBGRU-LSTM ដែលបានបង្កើត ដើម្បីសង្កេតមើលប្រសិទ្ធភាពជាក់ស្តែង។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Sentiment Analysis ដំណើរការប្រើប្រាស់កុំព្យូទ័រដើម្បីវិភាគអត្ថបទ (ដូចជាមតិយោបល់របស់អតិថិជន) និងកំណត់ថាតើវាមានអត្ថន័យវិជ្ជមាន អវិជ្ជមាន ឬអព្យាក្រឹត្យ ដើម្បីយល់ពីអារម្មណ៍និងអាកប្បកិរិយារបស់អ្នកសរសេរ។ ដូចជាម៉ាស៊ីនអានចិត្តមនុស្ស ដែលអាចប្រាប់យើងថាអ្នកសរសេរប្រយោគនោះកំពុងសប្បាយចិត្ត ខឹង ឬមិនខ្វល់។
Bidirectional Gated Recurrent Unit (BGRU) ជាប្រភេទបណ្ដាញសរសៃប្រសាទសិប្បនិម្មិតដែលរៀនពីទិន្នន័យជាលំដាប់ ដោយអានទាំងពីឆ្វេងទៅស្តាំ និងពីស្តាំទៅឆ្វេង ជួយឱ្យកុំព្យូទ័រទាញយកអត្ថន័យបរិបទពាក្យពេចន៍បានកាន់តែច្បាស់លាស់។ ដូចជាការអានសៀវភៅដោយមើលទាំងប្រយោគមុន និងប្រយោគបន្ទាប់ ដើម្បីស្មានដឹងពីអត្ថន័យពិតនៃពាក្យមួយឱ្យបានច្បាស់។
Long Short-Term Memory (LSTM) ជាបណ្ដាញសរសៃប្រសាទដែលមានសមត្ថភាពចងចាំព័ត៌មានពីអតីតកាលសម្រាប់រយៈពេលវែង ដែលជួយទប់ស្កាត់ការបាត់បង់អត្ថន័យដើមនៅពេលម៉ូដែលត្រូវវិភាគប្រយោគដែលវែងៗ។ ដូចជាមនុស្សដែលមានការចងចាំល្អ ដែលអាចស្តាប់រឿងវែងឆ្ងាយហើយនៅតែចងចាំថាចំណុចដើមគេនិយាយពីអ្វី។
Class Imbalance បញ្ហានៅក្នុងសំណុំទិន្នន័យដែលចំនួនទិន្នន័យនៃក្រុមនីមួយៗមិនមានតុល្យភាព (ឧទាហរណ៍៖ មតិយោបល់ល្អមានច្រើនលើសលប់ធៀបនឹងមតិយោបល់អាក្រក់) ដែលធ្វើឱ្យម៉ូដែលលម្អៀងទៅរកការទស្សន៍ទាយតែក្រុមដែលមានចំនួនច្រើនជាង។ ដូចជាការបង្រៀនសិស្សពីសត្វឆ្កែចំនួន ១០០ក្បាល តែបង្រៀនពីសត្វឆ្មាត្រឹម ២ក្បាល ដែលធ្វើឱ្យសិស្សនោះស្គាល់តែឆ្កែ តែងាយនឹងភាន់ច្រឡំនៅពេលឃើញឆ្មា។
Word Embeddings បច្ចេកទេសបំប្លែងពាក្យពេចន៍ពីទម្រង់អក្សរទៅជាវ៉ិចទ័រលេខ ដើម្បីឱ្យកុំព្យូទ័រអាចគណនា និងយល់ពីទំនាក់ទំនងអត្ថន័យរវាងពាក្យដែលស្រដៀងគ្នាដោយផ្អែកលើបរិបទ។ ដូចជាការចាត់ថ្នាក់មនុស្សជាក្រុមដោយផ្ដល់កូដសម្គាល់ អ្នកដែលមានចរិត ឬចំណង់ចំណូលចិត្តស្រដៀងគ្នានឹងមានលេខកូដប្រហាក់ប្រហែលគ្នា។
Dropout Regularization បច្ចេកទេសក្នុង Deep Learning ដែលបិទដំណើរការណឺរ៉ូនមួយចំនួនដោយចៃដន្យក្នុងពេលកំពុងហ្វឹកហាត់ ដើម្បីការពារកុំឱ្យម៉ូដែលគ្រាន់តែទន្ទេញចាំទិន្នន័យ (Overfitting) ដែលជួយឱ្យវាអាចដំណើរការបានល្អនៅពេលជួបទិន្នន័យថ្មីៗ។ ដូចជាការបិទភ្នែកម្ខាងពេលកំពុងហាត់វាយសី ដើម្បីបង្ខំឱ្យខ្លួនឯងអាចលេងបានល្អ ទោះបីស្ថិតក្នុងស្ថានភាពលំបាកយ៉ាងណាក៏ដោយ។
Epochs វដ្តនៃការហ្វឹកហាត់ម៉ូដែល Machine Learning ដែលរាប់នៅពេលម៉ូដែលនោះបានអាន រៀន និងកែតម្រូវខ្លួនឯងពីសំណុំទិន្នន័យហ្វឹកហាត់ទាំងមូលចប់មួយជុំពេញ។ ដូចជាការអានសៀវភៅមេរៀនចប់មួយក្បាលជាស្ថាពរ បើហ្វឹកហាត់ 100 Epochs គឺស្មើនឹងការអានសៀវភៅដដែលនោះចំនួន ១០០ដង។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖