បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាទាក់ទងនឹងភាពលម្អៀងដែលបង្កប់នៅក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដែលអាចបន្តធ្វើឱ្យមានការរើសអើងក្នុងសង្គម វិសមភាព និងធ្វើឱ្យបាត់បង់ទំនុកចិត្តពីសាធារណជនប្រសិនបើមិនមានការទប់ស្កាត់។
វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធបានផ្តល់នូវការត្រួតពិនិត្យយ៉ាងទូលំទូលាយអំពីវិធីសាស្ត្រស្វែងរកភាពលម្អៀង រង្វាស់នៃភាពយុត្តិធម៌ និងបច្ចេកទេសកាត់បន្ថយភាពលម្អៀងនៅគ្រប់ដំណាក់កាលនៃការអភិវឌ្ឍន៍ AI ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Pre-Processing Techniques បច្ចេកទេសកែតម្រូវមុនពេលដំណើរការទិន្នន័យ |
អាចកាត់បន្ថយភាពលម្អៀងតាំងពីប្រភពដើម និងការពារកុំឱ្យម៉ូដែលរៀនពីទិន្នន័យខុសឆ្គង ឬមានភាពរើសអើង។ | ពិបាកក្នុងការកំណត់ និងវាស់ស្ទង់ភាពលម្អៀងឱ្យបានច្បាស់លាស់ ដោយសារទិន្នន័យជារឿយៗមានប្រភព និងទស្សនៈចម្រុះជាច្រើន។ | កែតម្រូវទិន្នន័យមុនពេលបញ្ជូនទៅហ្វឹកហាត់ ដើម្បីធានាឱ្យមានភាពជាតំណាងកាន់តែប្រសើរសម្រាប់ក្រុមប្រជាសាស្ត្រនានា។ |
| In-Processing Approaches បច្ចេកទេសកែតម្រូវកំពុងពេលដំណើរការ (អំឡុងពេលហ្វឹកហាត់) |
អាចធ្វើអន្តរាគមន៍ភ្លាមៗក្នុងពេលហ្វឹកហាត់ដោយប្រើប្រាស់លក្ខខណ្ឌយុត្តិធម៌ (Fairness constraints) និងបច្ចេកទេស Regularization។ | អាចធ្វើឱ្យប៉ះពាល់ដល់ភាពត្រឹមត្រូវសរុប (Accuracy trade-offs) របស់ម៉ូដែល ហើយទាមទារការកែប្រែស៊ីជម្រៅលើអាល់កូរីតឹមស្នូល។ | តម្រង់ទិសដំណើរការនៃការរៀនសូត្ររបស់ម៉ូដែលម៉ាស៊ីនយ៉ាងសកម្មឆ្ពោះទៅរកការសម្រេចចិត្ត និងលទ្ធផលដែលមានភាពយុត្តិធម៌។ |
| Post-Processing Methods បច្ចេកទេសកែតម្រូវក្រោយពេលដំណើរការ |
មិនតម្រូវឱ្យមានការហ្វឹកហាត់ម៉ូដែលឡើងវិញទេ ដែលអនុញ្ញាតឱ្យកែតម្រូវលទ្ធផលទស្សន៍ទាយដោយផ្ទាល់តែម្តង។ | ទាមទារការតាមដានជាប្រចាំក្រោយពេលដាក់ឱ្យដំណើរការ ហើយនៅតែអាចប្រឈមមុខនឹងផលវិបាកដែលមិនបានរំពឹងទុក។ | ធ្វើឱ្យមានតុល្យភាពលទ្ធផលសម្រាប់ក្រុមប្រជាសាស្ត្រផ្សេងៗគ្នា តាមរយៈការកែតម្រូវទម្ងន់នៃការទស្សន៍ទាយ (Re-weighting predictions)។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះមិនបានបញ្ជាក់លម្អិតពីការប្រើប្រាស់ធនធានកុំព្យូទ័រសម្រាប់ការពិសោធន៍ជាក់លាក់នោះទេ ប៉ុន្តែបានសង្កត់ធ្ងន់លើបញ្ហាប្រឈមទាក់ទងនឹងការចំណាយ និងធនធានចាំបាច់សម្រាប់ការអនុវត្តការកាត់បន្ថយភាពលម្អៀងក្នុងទំហំធំ។
ឯកសារនេះគឺជាការស្រាវជ្រាវបែបពិនិត្យឡើងវិញ (Review Paper) ដែលផ្អែកលើករណីសិក្សាអន្តរជាតិ (ឧទាហរណ៍៖ ប្រព័ន្ធមុខរបរ Amazon, COMPAS) ដោយមិនមានការផ្តោតលើតំបន់ ឬទិន្នន័យជាក់លាក់ណាមួយឡើយ។ សម្រាប់ប្រទេសកម្ពុជា នេះជាចំណុចសំខាន់ណាស់ ព្រោះប្រព័ន្ធ AI ដែលយកមកប្រើប្រាស់ភាគច្រើនត្រូវបានហ្វឹកហាត់លើទិន្នន័យបរទេស ដែលអាចបណ្តាលឱ្យមានភាពលម្អៀង និងកំហុសឆ្គងនៅពេលអនុវត្តលើប្រជាជនកម្ពុជា ដែលមានភាសា វប្បធម៌ និងបរិបទសង្គមខុសប្លែកពីគេ។
គោលការណ៍ និងបច្ចេកទេសដែលបានរៀបរាប់ក្នុងឯកសារនេះគឺពិតជាមានសារៈសំខាន់ខ្លាំងណាស់សម្រាប់ការត្រួសត្រាយផ្លូវក្នុងការអភិវឌ្ឍប្រព័ន្ធ AI ដែលអាចទុកចិត្តបាននៅក្នុងប្រទេសកម្ពុជា។
ការអនុវត្តតាមក្របខ័ណ្ឌនេះនឹងជួយឱ្យអ្នកអភិវឌ្ឍន៍ និងអ្នកបង្កើតគោលនយោបាយនៅកម្ពុជាអាចកសាងប្រព័ន្ធ AI ប្រកបដោយក្រមសីលធម៌ និងបរិយាប័ន្ន ដែលផ្តល់ប្រយោជន៍ស្មើៗគ្នាដល់ប្រជាពលរដ្ឋគ្រប់រូប។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Algorithmic Fairness | សំដៅលើការធានាថាប្រព័ន្ធម៉ាស៊ីនរៀន (Machine Learning) ធ្វើការសម្រេចចិត្តដោយមិនមានការរើសអើង ឬលម្អៀងទៅលើក្រុមប្រជាសាស្ត្រណាមួយ (ដូចជា ភេទ សាសន៍ ឬអាយុ) ដោយសារតែកំហុសនៃកូដ ឬទិន្នន័យ។ | ដូចជាចៅក្រមម្នាក់ដែលកាត់ក្តីដោយយុត្តិធម៌ និងតម្លាភាព មិនលម្អៀងទៅរកអ្នកមាន ឬអ្នកក្រ។ |
| Pre-Processing Techniques | ជាវិធីសាស្ត្រក្នុងការកែតម្រូវ និងសម្អាតសំណុំទិន្នន័យ (Dataset) មុនពេលបញ្ជូនវាទៅឱ្យម៉ូដែល AI ហ្វឹកហាត់ ដើម្បីលុបបំបាត់ភាពលម្អៀងដែលបង្កប់នៅក្នុងប្រភពទិន្នន័យដើមនោះ។ | ដូចជាការរើសគ្រាប់ក្រួស និងអង្កាមចេញពីអង្ករឱ្យអស់ មុនពេលយកវាទៅដាំបាយ។ |
| In-Processing Approaches | ជាការធ្វើអន្តរាគមន៍កែតម្រូវអាល់កូរីតឹមដោយផ្ទាល់នៅអំឡុងពេលដែលម៉ូដែល AI កំពុងរៀន (Training) តាមរយៈការដាក់បញ្ចូលលក្ខខណ្ឌយុត្តិធម៌ (Fairness constraints) និងបច្ចេកទេស Regularization។ | ដូចជាគ្រូបង្រៀនដែលតាមដាននិងកែតម្រូវកំហុសសិស្សភ្លាមៗ នៅពេលដែលពួកគេកំពុងធ្វើលំហាត់ក្នុងថ្នាក់។ |
| Post-Processing Methods | ជាបច្ចេកទេសកែតម្រូវលទ្ធផលទស្សន៍ទាយដែលបញ្ចេញដោយម៉ូដែល AI រួចហើយ ដើម្បីធានាថាវាមានតុល្យភាពសម្រាប់ក្រុមគោលដៅផ្សេងៗគ្នា ដោយមិនតម្រូវឱ្យមានការហ្វឹកហាត់ម៉ូដែលនោះឡើងវិញទេ។ | ដូចជាការភ្លក់ និងថែមគ្រឿងទេសទៅក្នុងសម្លដែលឆ្អិនរួចហើយ ដើម្បីឱ្យមានរសជាតិសមល្មមសម្រាប់អ្នកញ៉ាំគ្រប់គ្នា។ |
| Demographic parity | ជារង្វាស់នៃភាពយុត្តិធម៌មួយដែលតម្រូវឱ្យអត្រានៃការទទួលបានលទ្ធផលវិជ្ជមានពី AI មានភាពស្មើគ្នាសម្រាប់គ្រប់ក្រុមប្រជាសាស្ត្រ ទោះបីជាពួកគេមានលក្ខណៈខុសគ្នា ឬតម្រូវការខុសគ្នាក៏ដោយ។ | ដូចជាការកំណត់ជាមុនថា ត្រូវតែមានបេក្ខជនប្រុស ៥០% និងស្រី ៥០% ជាប់ការប្រឡងចូលរៀន ដោយមិនគិតពីកត្តាផ្សេងៗទៀត។ |
| Equalized odds | ជារង្វាស់យុត្តិធម៌ក្នុង AI ដែលទាមទារឱ្យម៉ូដែលមួយមានអត្រាទស្សន៍ទាយត្រូវ (True Positive Rate) និងអត្រាទស្សន៍ទាយខុស (False Positive Rate) ស្មើៗគ្នាសម្រាប់គ្រប់ក្រុមគោលដៅទាំងអស់។ | ដូចជាគ្រូពេទ្យម្នាក់ដែលអាចធ្វើតេស្តរកឃើញជំងឺបានត្រឹមត្រូវក្នុងកម្រិតដូចគ្នា មិនថាអ្នកជំងឺនោះជាក្មេង ចាស់ ប្រុស ឬស្រីនោះទេ។ |
| Explainability | សមត្ថភាពក្នុងការបកស្រាយ និងពន្យល់ពីមូលហេតុ ឬដំណើរការដែលប្រព័ន្ធ AI កម្រិតខ្ពស់ (ជាពិសេសប្រភេទ Black-box) ប្រើប្រាស់ដើម្បីធ្វើការទស្សន៍ទាយ និងទាញយកការសម្រេចចិត្តណាមួយ។ | ដូចជាសិស្សគណិតវិទ្យាដែលមិនត្រឹមតែសរសេរចម្លើយបានត្រឹមត្រូវប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងអាចបង្ហាញរបៀបគណនាមួយជំហានម្តងៗឱ្យគេយល់បានទៀតផង។ |
| Disparate impact | ជារង្វាស់ដែលបង្ហាញពីសមាមាត្រនៃភាពខុសគ្នានៃអត្រាដែលម៉ូដែល AI ផ្តល់លទ្ធផលវិជ្ជមាន រវាងក្រុមដែលត្រូវបានការពារ (ឧ. ជនជាតិភាគតិច) និងក្រុមទូទៅ។ វាឆ្លុះបញ្ចាំងពីផលប៉ះពាល់អវិជ្ជមានដោយប្រយោល។ | ដូចជានយោបាយវាយតម្លៃការងាររបស់ក្រុមហ៊ុនមួយ ដែលមើលទៅហាក់បីដូចជាស្មើភាពគ្នាលើក្រដាស ប៉ុន្តែជាក់ស្តែងវាធ្វើឱ្យបុគ្គលិកស្រ្តីពិបាកឡើងឋានៈជាងបុរស។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖