បញ្ហា (The Problem)៖ ការធ្វើសមាហរណកម្មបញ្ញាសិប្បនិម្មិត (AI) ទៅក្នុងការអប់រំកំពុងកើនឡើង ប៉ុន្តែភាពលំអៀងដែលមានស្រាប់នៅក្នុងក្បួនដោះស្រាយ (Algorithms) អាចបង្កឱ្យមានការរើសអើងដោយអចេតនាប្រឆាំងនឹងក្រុមមនុស្សមួយចំនួន ដែលប៉ះពាល់ដល់យុត្តិធម៌ក្នុងការវាយតម្លៃ និងលទ្ធផលសិក្សារបស់សិស្ស។
វិធីសាស្ត្រ (The Methodology)៖ នេះគឺជាការសិក្សាស្រាវជ្រាវបែបស្ទង់មតិ (Survey Paper) ដែលពិនិត្យមើលអក្សរសិល្ប៍ដែលមានស្រាប់ ដើម្បីកំណត់ប្រភេទនៃភាពលំអៀង វាយតម្លៃរង្វាស់នៃយុត្តិធម៌ និងចាត់ថ្នាក់យុទ្ធសាស្ត្រកាត់បន្ថយបញ្ហានេះនៅក្នុងបរិបទអប់រំ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Pre-processing Techniques (e.g., Re-weighing, Resampling) បច្ចេកទេសកែសម្រួលទិន្នន័យមុនពេលបង្វឹក (Pre-processing) ដូចជាការថ្លឹងទម្ងន់ទិន្នន័យឡើងវិញ (Re-weighing) ឬការប្ដូរគំរូទិន្នន័យ (Resampling) |
អាចដោះស្រាយបញ្ហាភាពលំអៀងបានតាំងពីដើមទី ដោយធ្វើឱ្យទិន្នន័យមានតុល្យភាពមុនពេលបញ្ជូនទៅឱ្យម៉ូដែល AI រៀន។ | អាចបណ្តាលឱ្យបាត់បង់ព័ត៌មានសំខាន់ៗមួយចំនួន ឬធ្វើឱ្យម៉ូដែលរៀនលើស (Overfitting) ប្រសិនបើការបង្កើតទិន្នន័យមិនបានល្អ។ | កាត់បន្ថយភាពលំអៀងនៃទិន្នន័យ (Data Bias) បានយ៉ាងមានប្រសិទ្ធភាពសម្រាប់ក្រុមដែលមិនសូវមានតំណាង (Underrepresented groups)។ |
| In-processing Techniques (e.g., Adversarial Debiasing) បច្ចេកទេសកែសម្រួលអំឡុងពេលបង្វឹក (In-processing) ដូចជាការប្រើប្រាស់ Adversarial Debiasing |
ផ្តល់នូវតុល្យភាពល្អរវាងភាពត្រឹមត្រូវ (Accuracy) និងយុត្តិធម៌ (Fairness) ដោយដាក់បញ្ចូលលក្ខខណ្ឌយុត្តិធម៌ទៅក្នុងមុខងារបង្វឹកដោយផ្ទាល់។ | ទាមទារធនធានកុំព្យូទ័រខ្លាំង និងមានភាពស្មុគស្មាញក្នុងការអនុវត្តជាងវិធីសាស្ត្រផ្សេងទៀត។ | បង្កើនសមត្ថភាពម៉ូដែលក្នុងការទស្សន៍ទាយដោយមិនពឹងផ្អែកខ្លាំងលើលក្ខណៈសម្បត្តិរសើប (Sensitive attributes) ដូចជាភេទ ឬពូជសាសន៍។ |
| Post-processing Techniques (e.g., Threshold Adjustment) បច្ចេកទេសកែសម្រួលលទ្ធផលចុងក្រោយ (Post-processing) ដូចជាការកែតម្រូវកម្រិតពិន្ទុ (Threshold Adjustment) |
អាចអនុវត្តបានលើម៉ូដែលដែលមានស្រាប់ដោយមិនចាំបាច់បង្វឹកសារថ្មី (Retraining) ធ្វើឱ្យវាមានភាពងាយស្រួលក្នុងការប្រើប្រាស់។ | អាចកាត់បន្ថយភាពត្រឹមត្រូវនៃការព្យាករណ៍សម្រាប់ក្រុមមួយចំនួន ដើម្បីបំពេញតាមលក្ខខណ្ឌនៃយុត្តិធម៌។ | ធានាបាននូវយុត្តិធម៌នៃលទ្ធផលសម្រេច (Decision Outcomes) ដូចជាការផ្តល់ពិន្ទុ ឬការណែនាំវគ្គសិក្សា។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តបច្ចេកទេសទាំងនេះទាមទារនូវធនធានកុំព្យូទ័រ និងជំនាញបច្ចេកទេសជាក់លាក់ ប៉ុន្តែឧបករណ៍ភាគច្រើនគឺជា Open-source។
ការសិក្សានេះផ្អែកលើសំណុំទិន្នន័យអន្តរជាតិដូចជា TIMSS, PISA, និង OULAD ដែលភាគច្រើនប្រមូលពីប្រទេសលោកខាងលិច ឬប្រទេសអភិវឌ្ឍន៍។ សម្រាប់កម្ពុជា នេះគឺជាបញ្ហាប្រឈមធំមួយ ព្រោះទិន្នន័យសិស្សកម្ពុជា (បរិបទវប្បធម៌ ភាសា និងសេដ្ឋកិច្ច) មិនត្រូវបានរាប់បញ្ចូល ដែលអាចនាំឱ្យ AI មានភាពលំអៀង (Representation Bias) ប្រសិនបើយកមកអនុវត្តដោយផ្ទាល់។
វិធីសាស្ត្រ និងក្របខ័ណ្ឌដែលបានលើកឡើងក្នុងការសិក្សានេះ មានសារៈសំខាន់ណាស់សម្រាប់គ្រឹះស្ថានឧត្តមសិក្សានៅកម្ពុជាដែលកំពុងចាប់ផ្តើមប្រើប្រាស់ប្រព័ន្ធឌីជីថល។
ទោះបីជាទិន្នន័យជាក់លាក់សម្រាប់កម្ពុជានៅខ្វះខាតក្តី ប៉ុន្តែឧបករណ៍ និងគោលការណ៍ណែនាំពីការសិក្សានេះ គឺជាផែនទីបង្ហាញផ្លូវដ៏ចាំបាច់ដើម្បីការពារកុំឱ្យបច្ចេកវិទ្យាបង្កើតវិសមភាពថ្មីនៅក្នុងប្រព័ន្ធអប់រំខ្មែរ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Algorithmic Bias | គឺជាកំហុសជាប្រព័ន្ធនៅក្នុងដំណើរការរបស់កុំព្យូទ័រ ដែលបង្កើតលទ្ធផលមិនយុត្តិធម៌សម្រាប់ក្រុមមនុស្សជាក់លាក់ណាមួយ (ដូចជា ភេទ ឬពូជសាសន៍) ដោយសារតែទិន្នន័យដែលប្រើសម្រាប់បង្វឹកវាមានភាពលំអៀងតាំងពីដើម។ | ប្រៀបដូចជាជញ្ជីងមួយដែលតែងតែបង្ហាញទម្ងន់មិនស្មើគ្នា ទោះបីជាយើងដាក់របស់ដែលមានទម្ងន់ដូចគ្នាក៏ដោយ។ |
| Individual Fairness | ជាគោលការណ៍ដែលតម្រូវឱ្យប្រព័ន្ធ AI ផ្តល់លទ្ធផលដូចគ្នា ឬប្រហាក់ប្រហែលគ្នា ដល់បុគ្គលពីរនាក់ដែលមានសមត្ថភាព ឬលក្ខណៈសម្បត្តិដូចគ្នា ដោយមិនគិតពីអត្តសញ្ញាណផ្ទាល់ខ្លួនរបស់ពួកគេ។ | ដូចជាសិស្សពីរនាក់ដែលធ្វើលំហាត់ត្រូវដូចគ្នា គួរតែទទួលបានពិន្ទុស្មើគ្នា ដោយមិនគិតថាពួកគេជាប្រុស ឬស្រី។ |
| Adversarial Debiasing | គឺជាបច្ចេកទេសបង្វឹក AI ដោយប្រើម៉ូដែលពីរប្រកួតគ្នា៖ ម៉ូដែលមួយព្យាយាមទស្សន៍ទាយលទ្ធផល (ដូចជាពិន្ទុសិស្ស) ហើយម៉ូដែលមួយទៀតព្យាយាមចាប់កំហុសថាតើលទ្ធផលនោះមានភាពលំអៀងឬអត់ ដើម្បីកែតម្រូវវាភ្លាមៗ។ | ប្រៀបដូចជាអ្នកសរសេរ និងអ្នកត្រួតពិនិត្យ៖ អ្នកសរសេរព្យាយាមលាក់អត្តសញ្ញាណក្នុងអត្ថបទ ហើយអ្នកត្រួតពិនិត្យព្យាយាមរកវា។ ពួកគេប្រកួតគ្នាដើម្បីធ្វើឱ្យអត្ថបទនោះមានភាពអព្យាក្រឹត។ |
| Lipschitz Condition | ជាលក្ខខណ្ឌគណិតវិទ្យាដែលប្រើដើម្បីវាស់វែងយុត្តិធម៌បុគ្គល (Individual Fairness) ដោយកំណត់ថា បើទិន្នន័យបញ្ចូល (Input) របស់មនុស្សពីរនាក់មានភាពខុសគ្នាតិចតួច នោះលទ្ធផល (Output) ក៏មិនគួរខុសគ្នាខ្លាំងដែរ។ | ដូចជាប្រសិនបើមនុស្សពីរនាក់ឈរជិតគ្នា ស្រមោលរបស់ពួកគេក៏គួរតែនៅជិតគ្នាដែរ មិនមែនម្នាក់នៅឆ្ងាយដាច់ស្រយាលនោះទេ។ |
| Equalized Odds | ជារង្វាស់យុត្តិធម៌ដែលធានាថា អត្រានៃការទស្សន៍ទាយត្រឹមត្រូវ (True Positive) និងការទស្សន៍ទាយខុស (False Positive) គឺមានភាពស្មើគ្នារវាងក្រុមផ្សេងៗគ្នា (ដូចជាក្រុមសិស្សប្រុស និងសិស្សស្រី)។ | ប្រសិនបើប្រព័ន្ធកុំព្យូទ័រធ្វើកំហុសក្នុងការដាក់ពិន្ទុ វាគួរតែធ្វើកំហុសចំពោះសិស្សប្រុស និងសិស្សស្រីក្នុងចំនួនស្មើៗគ្នា មិនមែនខុសតែលើក្រុមណាមួយនោះទេ។ |
| Fairness Bonded Utility (FBU) | គឺជាក្របខ័ណ្ឌដែលអ្នកស្រាវជ្រាវប្រើដើម្បីវាស់វែង និងរកតុល្យភាពរវាង "ភាពត្រឹមត្រូវ" (Accuracy) របស់ម៉ូដែល និង "កម្រិតយុត្តិធម៌" (Fairness) ដើម្បីមើលថាវិធីសាស្ត្រមួយណាផ្តល់ផលល្អបំផុត។ | ដូចជាការថ្លឹងជញ្ជីងដើម្បីរកចំណុចកណ្តាលដ៏ល្អបំផុតរវាង ល្បឿន និង សុវត្ថិភាព ក្នុងការបើកបរ។ |
| SMOTE (Synthetic Minority Over-sampling Technique) | ជាបច្ចេកទេសបង្កើតទិន្នន័យសិប្បនិម្មិតបន្ថែមសម្រាប់ក្រុមដែលមានទិន្នន័យតិច ដើម្បីឱ្យម៉ូដែល AI អាចរៀនពីក្រុមនោះបានច្បាស់លាស់ដូចក្រុមដែលមានទិន្នន័យច្រើនដែរ។ | ប្រសិនបើអ្នកមានរូបថតឆ្មាតែ ២ សន្លឹក និងរូបថតឆ្កែ ១០០ សន្លឹក អ្នកប្រើកុំព្យូទ័រដើម្បីគូររូបឆ្មាបន្ថែមឱ្យបាន ១០០ សន្លឹក ដើម្បីឱ្យស្មើគ្នា។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖