Original Title: The State of the Situation and Policy Recommendations for Algorithmic Bias
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ស្ថានភាពបច្ចុប្បន្ន និងអនុសាសន៍គោលនយោបាយសម្រាប់ភាពលម្អៀងនៃក្បួនដោះស្រាយ

ចំណងជើងដើម៖ The State of the Situation and Policy Recommendations for Algorithmic Bias

អ្នកនិពន្ធ៖ Ryan S. Baker, M. Aaron Hawn, Seiyon Lee

ឆ្នាំបោះពុម្ព៖ 2022

វិស័យសិក្សា៖ Educational Technology and AI Ethics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះពិភាក្សាអំពីបញ្ហានៃភាពលម្អៀងនៃក្បួនដោះស្រាយ (Algorithmic Bias) នៅក្នុងវិស័យអប់រំ ដែលបណ្តាលឱ្យមានការវាយតម្លៃខុស ឬការរើសអើងដោយអចេតនាទៅលើក្រុមសិស្សមួយចំនួន ដោយផ្អែកលើពូជសាសន៍ យេនឌ័រ និងកត្តាប្រជាសាស្ត្រផ្សេងៗទៀត។

វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធបានធ្វើការត្រួតពិនិត្យអក្សរសិល្ប៍ (Literature Review) លើភស្តុតាងដែលមានស្រាប់ទាក់ទងនឹងភាពលម្អៀងនៃក្បួនដោះស្រាយក្នុងវិស័យអប់រំ វិភាគពីឧបសគ្គនានា និងបង្កើតជាអនុសាសន៍គោលនយោបាយសម្រាប់ការកែលម្អ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Formalized Statistical Fairness Metrics
ការវាស់វែងភាពយុត្តិធម៌តាមបែបស្ថិតិជាផ្លូវការ (Formalized Metrics)
ជួយកំណត់អត្តសញ្ញាណភាពលម្អៀងតាមរយៈរង្វាស់ច្បាស់លាស់ (ដូចជា ABROCA, Equal Opportunity) និងអាចអនុវត្តបានកំឡុងពេលវាយតម្លៃម៉ូដែល។ ជួបប្រទះនឹងបញ្ហាគណិតវិទ្យាដែលមិនអាចបំពេញលក្ខខណ្ឌយុត្តិធម៌ទាំងអស់ក្នុងពេលតែមួយបាន (Impossibility results) និងអាចមើលរំលងបរិបទសង្គម។ មិនអាចដោះស្រាយភាពលម្អៀងបានទាំងស្រុង ប្រសិនបើទិន្នន័យដើមមានបញ្ហា។
Inclusive Data Collection (Addressing Representational Bias)
ការប្រមូលទិន្នន័យប្រកបដោយបរិយាបន្ន (Inclusive Data Collection)
ដោះស្រាយបញ្ហាពីឫសគល់ដោយលុបបំបាត់ភាពលម្អៀងនៃការតំណាង (Representational Bias) និងការវាស់វែង (Measurement Bias)។ ពិបាកក្នុងការអនុវត្តដោយសារតែច្បាប់ឯកជនភាពទិន្នន័យ (Privacy Laws) ដែលរារាំងការប្រមូលទិន្នន័យប្រជាសាស្ត្រចាំបាច់។ គឺជាវិធីសាស្ត្រល្អបំផុតក្នុងការបង្កើតម៉ូដែលដែលដំណើរការបានល្អសម្រាប់សិស្សគ្រប់ក្រុម។
Human-in-the-Loop Evaluation (e.g., Automated Essay Scoring)
ការវាយតម្លៃដោយមានការចូលរួមពីមនុស្ស (Human-in-the-Loop)
កាត់បន្ថយហានិភ័យនៃការរើសអើងដោយស្វ័យប្រវត្តិ តាមរយៈការផ្ទៀងផ្ទាត់ដោយមនុស្សនៅពេលម៉ូដែលផ្តល់ពិន្ទុខុសប្រក្រតី ដូចជាករណីប្រឡង TOEFL ជាដើម។ ចំណាយពេលវេលា និងថវិកាច្រើនជាងប្រព័ន្ធស្វ័យប្រវត្តិទាំងស្រុង។ ការពារសិស្ស (ឧទាហរណ៍៖ អ្នកប្រើប្រាស់ភាសាទីពីរ) ពីការទទួលបានលទ្ធផលវាយតម្លៃអយុត្តិធម៌។

ការចំណាយលើធនធាន (Resource Cost)៖ ការវិភាគ និងកាត់បន្ថយភាពលម្អៀងនៃក្បួនដោះស្រាយទាមទារការប្រមូលទិន្នន័យប្រជាសាស្ត្រលម្អិត និងកញ្ចប់ឧបករណ៍ជំនាញ ដែលជារឿយៗត្រូវរារាំងដោយគោលនយោបាយឯកជនភាព។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការស្រាវជ្រាវភាគច្រើនលើសលប់ត្រូវបានធ្វើឡើងនៅសហរដ្ឋអាមេរិក ដោយផ្តោតតែលើពូជសាសន៍ និងយេនឌ័រ ហើយមើលរំលងក្រុមប្រទេសដទៃទៀត។ នេះមានសារៈសំខាន់ណាស់សម្រាប់ប្រទេសកម្ពុជា ព្រោះបច្ចេកវិទ្យាអប់រំអន្តរជាតិ (EdTech) ដែលនាំចូលមកអាចមានភាពលម្អៀង និងមិនដំណើរការល្អសម្រាប់សិស្សកម្ពុជា ដោយសារភាពខុសគ្នានៃវប្បធម៌ ភាសា និងបរិបទសង្គម-សេដ្ឋកិច្ច។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ការយល់ដឹងពីភាពលម្អៀងនៃក្បួនដោះស្រាយ (Algorithmic Bias) គឺមានសារៈសំខាន់បំផុតសម្រាប់ប្រទេសកម្ពុជា ស្របពេលដែលក្រសួងអប់រំ និងស្ថាប័ននានាកំពុងជំរុញការអប់រំឌីជីថល។

ការអនុវត្តការវាយតម្លៃភាពលម្អៀងនេះ នឹងជួយធានាថាការអភិវឌ្ឍប្រព័ន្ធ EdTech នៅកម្ពុជាផ្តល់ឱកាសស្មើៗគ្នា និងមិនពង្រីកគម្លាតវិសមភាពអប់រំដែលមានស្រាប់រវាងទីក្រុង និងជនបទ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាពីមូលដ្ឋានគ្រឹះនៃយុត្តិធម៌ក្នុង AI (Fairness in AI): យល់ដឹងពីរង្វាស់ស្តង់ដារដូចជា AUC ROC, Kappa និងរង្វាស់ភាពលម្អៀងជាក់លាក់ ដោយប្រើប្រាស់ឧបករណ៍ដូចជា AIF360Fairlearn ដើម្បីធ្វើតេស្តលើទិន្នន័យអប់រំ។
  2. ប្រមូលទិន្នន័យប្រកបដោយបរិយាបន្ននៅកម្ពុជា: រៀបចំយុទ្ធសាស្ត្រប្រមូលទិន្នន័យដោយរួមបញ្ចូលកត្តាទីតាំងភូមិសាស្ត្រ (ទីក្រុង vs ជនបទ) ស្ថានភាពសេដ្ឋកិច្ច និងភាសាដើម ដោយស្នើសុំការអនុញ្ញាតពីគណៈកម្មាធិការក្រមសីលធម៌ (Ethics Committee) ដើម្បីចៀសវាងការរំលោភឯកជនភាព។
  3. វិភាគទិន្នន័យអប់រំច្រើនកម្រិត (Multi-level Analysis): ប្រើប្រាស់បច្ចេកទេស Hierarchical Linear Modeling ដោយប្រើ RPython ព្រោះទិន្នន័យអប់រំមានរចនាសម្ព័ន្ធស្មុគស្មាញ (សិស្ស ស្ថិតក្នុងថ្នាក់រៀន ស្ថិតក្នុងសាលា) ដែលមិនអាចចាត់ទុកជាទិន្នន័យឯករាជ្យធម្មតាបានទេ។
  4. សហការកំណត់ស្លាកទិន្នន័យ (Data Labeling Collaboration): ធ្វើការផ្ទាល់ជាមួយគ្រូបង្រៀនកម្ពុជា ដើម្បីកំណត់ស្លាកទិន្នន័យ (ឧ. អាកប្បកិរិយាសិក្សា) ជៀសវាងភាពលម្អៀងនៃការវាស់វែង (Measurement Bias) ដែលបណ្តាលមកពីភាពខុសគ្នានៃការបកស្រាយវប្បធម៌។
  5. បង្កើតប្រព័ន្ធតាមដានភាពលម្អៀង (Bias Monitoring Dashboard): អភិវឌ្ឍប្រព័ន្ធ Dashboard ដែលអាចតាមដានដំណើរការក្បួនដោះស្រាយជាប្រចាំ (Ongoing Feedback) និងផ្តល់របាយការណ៍ប្រសិនបើមានភាពមិនប្រក្រតីណាមួយកើតឡើងចំពោះក្រុមសិស្សជាក់លាក់។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algorithmic bias ស្ថានភាពដែលកូដកុំព្យូទ័រ ឬប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) បញ្ចេញលទ្ធផលរើសអើង ឬផ្តល់ផលវិបាកអវិជ្ជមានទៅលើក្រុមមនុស្សជាក់លាក់ណាមួយ ដោយសារម៉ូដែលនោះបានរៀនសូត្រពីទិន្នន័យដែលមានបង្កប់ភាពលម្អៀងក្នុងសង្គមរួចមកហើយ។ ដូចជាកូនក្មេងដែលរៀនពាក្យមិនសមរម្យពីបរិយាកាសជុំវិញខ្លួន រួចយកទៅនិយាយបន្តដោយមិនដឹងខ្លួនថាវាខុស និងប៉ះពាល់ដល់អ្នកដទៃ។
Allocative harms ផលប៉ះពាល់ដែលកើតឡើងនៅពេលប្រព័ន្ធកុំព្យូទ័របដិសេធមិនផ្តល់ឱកាស ធនធាន ឬសេវាកម្ម (ឧទាហរណ៍៖ ការចូលរៀន ការទទួលបានប្រាក់កម្ចី ឬការគាំទ្របន្ថែម) ទៅដល់ក្រុមមនុស្សណាមួយដោយអយុត្តិធម៌។ ដូចជាការបែងចែកអាហារូបករណ៍ដោយមើលតែលើសម្លៀកបំពាក់របស់សិស្ស ជាជាងមើលលើសមត្ថភាពពិតប្រាកដរបស់ពួកគេ។
Representational harms ការធ្វើឱ្យខូចខាតដល់កិត្តិយស ឬតម្លៃរបស់ក្រុមមនុស្សណាមួយ តាមរយៈការបង្ហាញរូបភាពអវិជ្ជមាន ការពង្រឹងគំនិតរើសអើង (Stereotyping) ឬការលាក់បាំងមិនបង្ហាញពីភាពវិជ្ជមានរបស់ពួកគេនៅក្នុងប្រព័ន្ធបច្ចេកវិទ្យា។ ដូចជាការស្វែងរករូបភាពពាក្យថា 'អ្នកដឹកនាំ' ក្នុងអ៊ីនធឺណិត ហើយឃើញតែរូបភាពបុរស ជាជាងឃើញមានស្ត្រីចូលរួមផងដែរ។
Historical bias ភាពលម្អៀងដែលកើតឡើងដោយសារប្រព័ន្ធត្រូវបានបង្ហាត់ដោយប្រើទិន្នន័យពីអតីតកាល ដែលទិន្នន័យទាំងនោះផ្ទុកនូវវិសមភាព ការរើសអើង ឬភាពអយុត្តិធម៌ដែលធ្លាប់កើតមានក្នុងប្រវត្តិសាស្ត្រ។ ដូចជាការទស្សន៍ទាយថាអ្នកណានឹងក្លាយជាវេជ្ជបណ្ឌិតឆ្នើម ដោយពឹងផ្អែកតែលើសៀវភៅប្រវត្តិសាស្ត្រចាស់ៗ ដែលកាលពីមុនមិនសូវមានស្ត្រីមានឱកាសរៀនពេទ្យ។
Measurement bias ភាពខុសឆ្គងដែលកើតឡើងនៅពេលរបៀបដែលយើងវាស់វែង ឬប្រមូលទិន្នន័យមានចំណុចខ្សោយ ឬពឹងផ្អែកលើការសម្រេចចិត្តរបស់មនុស្សដែលមានការរើសអើងស្រាប់ (ឧទាហរណ៍ ការដាក់ពិន្ទុអាកប្បកិរិយាដោយគ្រូដែលមានគតិលម្អៀង)។ ដូចជាការប្រើបន្ទាត់កោងដើម្បីវាស់ភាពត្រង់របស់វត្ថុមួយ ដែលធ្វើឱ្យលទ្ធផលនៃការវាស់វែងចេញមកខុសជានិច្ច។
Aggregation bias ភាពលម្អៀងដែលកើតឡើងនៅពេលទិន្នន័យពីក្រុមមនុស្សផ្សេងៗគ្នា (ឧទាហរណ៍ សិស្សនៅទីក្រុង និងជនបទ) ត្រូវបានច្របាច់បញ្ចូលគ្នាដើម្បីបង្កើតម៉ូដែលតែមួយ ដែលធ្វើឱ្យម៉ូដែលនោះមិនដំណើរការល្អសម្រាប់ក្រុមណាមួយឡើយ។ ដូចជាការយកខោអាវទំហំមធ្យម (M) តែមួយទំហំទៅចែកជូនសិស្សទាំងអស់ស្លៀក ដោយមិនខ្វល់ថាសិស្សខ្លះតូច ឬធំ ដែលធ្វើឱ្យគ្មានអ្នកណាស្លៀកសមទាល់តែសោះ។
Evaluation bias បញ្ហាដែលកើតឡើងនៅពេលយើងយកម៉ូដែល AI ទៅធ្វើតេស្តសាកល្បងវាយតម្លៃលើសំណុំទិន្នន័យ (Test sets) ដែលមិនតំណាងឱ្យក្រុមអ្នកប្រើប្រាស់ជាក់ស្តែងពិតប្រាកដនៅពេលយកទៅប្រើ។ ដូចជាការបង្រៀនសិស្សពីប្រវត្តិសាស្ត្រខ្មែររាល់ថ្ងៃ ប៉ុន្តែពេលប្រឡងបែរជាចេញវិញ្ញាសាប្រវត្តិសាស្ត្រអឺរ៉ុបទៅវិញ។
Impossibility results លទ្ធផលនៃការស្រាវជ្រាវផ្នែកគណិតវិទ្យាដែលបង្ហាញថា វាមិនអាចទៅរួចទេក្នុងការបង្កើតម៉ូដែលមួយដែលអាចបំពេញតាមលក្ខខណ្ឌនៃភាពយុត្តិធម៌តាមបែបស្ថិតិ (Statistical criteria of fairness) ទាំងអស់ក្នុងពេលតែមួយបាន។ ដូចជាការព្យាយាមធ្វើឱ្យមនុស្ស៣នាក់ដែលកំពុងមានជម្លោះនឹងគ្នា ពេញចិត្តក្នុងពេលតែមួយជាមួយនឹងដំណោះស្រាយតែមួយរលូន គឺជារឿងដែលមិនអាចទៅរួចទេ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖