Original Title: How do the Existing Fairness Metrics and Unfairness Mitigation Algorithms contribute to Ethical Learning Analytics?
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

តើរង្វាស់ភាពយុត្តិធម៌ដែលមានស្រាប់ និងក្បួនដោះស្រាយកាត់បន្ថយភាពអយុត្តិធម៌ រួមចំណែកដល់វិភាគទិន្នន័យសិក្សាប្រកបដោយក្រមសីលធម៌យ៉ាងដូចម្តេច?

ចំណងជើងដើម៖ How do the Existing Fairness Metrics and Unfairness Mitigation Algorithms contribute to Ethical Learning Analytics?

អ្នកនិពន្ធ៖ Deho Oscar Blessed (University of South Australia), Chen Zhan (University of South Australia), Jiuyong Li (University of South Australia), Jixue Liu (University of South Australia), Lin Liu (University of South Australia), Thuc Duy Le (University of South Australia)

ឆ្នាំបោះពុម្ព៖ 2021

វិស័យសិក្សា៖ Computer Science / Learning Analytics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះពិភាក្សាអំពីក្តីបារម្ភផ្នែកក្រមសីលធម៌ និងភាពលម្អៀង (Bias) នៅក្នុងម៉ូដែលវិភាគទិន្នន័យសិក្សា (Learning Analytics) ដែលអាចធ្វើការសម្រេចចិត្តរើសអើង ឬមិនយុត្តិធម៌ទៅលើក្រុមនិស្សិតមួយចំនួនផ្អែកលើប្រវត្តិរូបសង្គមរបស់ពួកគេ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់វិធីសាស្ត្រវាយតម្លៃប្រៀបធៀបលើក្បួនដោះស្រាយកាត់បន្ថយភាពអយុត្តិធម៌ផ្សេងៗ ដោយប្រើប្រាស់ទិន្នន័យជាក់ស្តែង និងធ្វើតេស្តសម្មតិកម្មឆ្លងកាត់រង្វាស់ភាពយុត្តិធម៌ជាច្រើន។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Baseline Models (GBM, LR)
ម៉ូដែលមូលដ្ឋានគ្មានការកំណត់ភាពយុត្តិធម៌ (Gradient Boosted Machines និង Logistic Regression)
ងាយស្រួលក្នុងការស្វែងរកប៉ារ៉ាម៉ែត្រ (Hyperparameter tuning) ដោយស្វ័យប្រវត្តិ និងមានភាពត្រឹមត្រូវខ្ពស់ក្នុងការទស្សន៍ទាយក្នុងករណីទូទៅ។ អាចចម្លង ឬធ្វើឱ្យភាពលម្អៀងដែលមានស្រាប់នៅក្នុងទិន្នន័យ (Data Bias) កាន់តែអាក្រក់ទៅៗ ដែលនាំឱ្យការសម្រេចចិត្តមានការរើសអើង។ បង្កើតនូវកម្រិតមូលដ្ឋាននៃភាពត្រឹមត្រូវ (Accuracy) ប៉ុន្តែមានភាពលម្អៀងខ្ពស់ (Disparate Impact) ប្រឆាំងនឹងនិស្សិតដែលមិននិយាយភាសាអង់គ្លេសជាភាសាដើម។
Learning Fair Representation (LFR)
ការរៀបចំទិន្នន័យមុនដំណើរការម៉ូដែល (Pre-processing)
ជួយកាត់បន្ថយភាពលម្អៀងតាំងពីដំណាក់កាលទិន្នន័យ និងអាចជួយបង្កើនប្រសិទ្ធភាពទស្សន៍ទាយដោយបង្កើតទម្រង់ទិន្នន័យដែលសម្បូរបែបជាងមុន (Richer data representation)។ ប្រសិទ្ធភាពរបស់វាមិនថេរនោះទេ ដោយវាដំណើរការល្អលើទិន្នន័យអប់រំ (Dropout) ប៉ុន្តែមិនសូវល្អលើទិន្នន័យប្រភេទផ្សេងដូចជា Law School ជាដើម។ សម្រេចបាននូវតុល្យភាពល្អបំផុតរវាងភាពត្រឹមត្រូវ (Accuracy) និងភាពយុត្តិធម៌ (Statistical Parity & Consistency) សម្រាប់ទិន្នន័យបោះបង់ការសិក្សា។
Disparate Impact Remover (DIR)
ការរៀបចំទិន្នន័យមុនដំណើរការដោយរក្សាលំដាប់ទិន្នន័យ (Pre-processing)
អាចធានាបាននូវភាពយុត្តិធម៌ជាក្រុម (Group fairness) តាមរយៈការកែប្រែតម្លៃលក្ខណៈពិសេសរបស់ទិន្នន័យ ខណៈពេលដែលរក្សាលំដាប់ចំណាត់ថ្នាក់ (Rank-ordering) របស់វា។ តម្រូវឱ្យមានការជ្រើសរើសកម្រិតជួសជុល (Repair level) យ៉ាងប្រុងប្រយ័ត្ន ព្រោះការកែប្រែជ្រុលអាចធ្វើឱ្យធ្លាក់ចុះភាពត្រឹមត្រូវនៃម៉ូដែល។ នៅកម្រិតកែប្រែ (Repair level) 0.5 វាអាចរក្សាភាពត្រឹមត្រូវខ្ពស់ និងបង្កើនភាពយុត្តិធម៌បានយ៉ាងមានប្រសិទ្ធភាព។
Prejudice Remover (PR)
ក្បួនដោះស្រាយលុបបំបាត់ការរើសអើងក្នុងពេលដំណើរការម៉ូដែល (In-processing)
ដាក់កំហិតភាពយុត្តិធម៌ដោយផ្ទាល់ទៅក្នុង Objective function របស់ម៉ូដែល ដែលធ្វើឱ្យការដោះស្រាយភាពលម្អៀងក្លាយជាផ្នែកមួយនៃការរៀនរបស់កុំព្យូទ័រ។ សាកសមប្រើប្រាស់តែជាមួយក្បួនដោះស្រាយដែលមានទម្រង់ Probabilistic discriminative model តែប៉ុណ្ណោះ។ ការបង្កើនតម្លៃប៉ារ៉ាម៉ែត្រជួយកែលម្អ Statistical Parity (SP) និង Equal Odds (EO) ដោយមិនធ្វើឱ្យធ្លាក់ចុះប្រសិទ្ធភាពរួម (Utility) គួរឱ្យកត់សម្គាល់នោះទេ។
Calibrated Equal Odds (CalEqOdds)
ការកែសម្រួលលទ្ធផលក្រោយពេលម៉ូដែលបានទស្សន៍ទាយ (Post-processing)
មានប្រយោជន៍ខ្លាំងសម្រាប់ប្រព័ន្ធកុំព្យូទ័រប្រភេទ Blackbox ដែលយើងមានសិទ្ធិត្រឹមតែប្រើប្រាស់លទ្ធផលទស្សន៍ទាយចុងក្រោយប៉ុណ្ណោះ។ អាចទាញទម្លាក់នូវប្រសិទ្ធភាពទស្សន៍ទាយ (Accuracy) ដើម្បីធ្វើឱ្យប្រូបាប៊ីលីតេនៃលទ្ធផលមានភាពស្មើគ្នារវាងក្រុម។ ជួយកែប្រែលទ្ធផលទស្សន៍ទាយឲ្យមានសមធម៌រវាងក្រុមសិស្សផ្សេងៗគ្នា ប៉ុន្តែអត្រាភាពត្រឹមត្រូវមានការថយចុះបន្តិចបន្តួចប្រៀបធៀបនឹងម៉ូដែលមូលដ្ឋាន។

ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះមិនបានបញ្ជាក់លម្អិតពីចំណាយហិរញ្ញវត្ថុផ្ទាល់នោះទេ ប៉ុន្តែការអនុវត្តវិធីសាស្ត្រនេះតម្រូវឱ្យមានការវិនិយោគលើហេដ្ឋារចនាសម្ព័ន្ធទិន្នន័យ កម្មវិធីវិភាគ និងធនធានមនុស្សដែលមានជំនាញ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះត្រូវបានធ្វើឡើងដោយប្រើប្រាស់ទិន្នន័យពិតនៃនិស្សិតបោះបង់ការសិក្សារយៈពេល៣ឆ្នាំ ពីសាកលវិទ្យាល័យសាធារណៈធំមួយនៅប្រទេសអូស្ត្រាលី រួមជាមួយទិន្នន័យស្តង់ដារ៤ទៀត ដោយផ្ដោតលើភាពលម្អៀងផ្នែកភាសាដើម (អង់គ្លេស និងមិនមែនអង់គ្លេស)។ សម្រាប់កម្ពុជា ការយល់ដឹងនេះមានសារៈសំខាន់ណាស់ ព្រោះប្រព័ន្ធអប់រំរបស់យើងអាចមានភាពលម្អៀងដោយមិនដឹងខ្លួនទៅលើសិស្សមកពីតំបន់ជនបទ សិស្សដែលមានជីវភាពខ្វះខាត ឬជនជាតិដើមភាគតិច។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រវាយតម្លៃ និងក្បួនដោះស្រាយទាំងនេះ ពិតជាមានសក្តានុពលខ្ពស់ក្នុងការយកមកអនុវត្ត ដើម្បីកសាងប្រព័ន្ធសម្រេចចិត្តប្រកបដោយសមធម៌នៅកម្ពុជា។

សរុបមក ការសមាហរណកម្មក្បួនដោះស្រាយកាត់បន្ថយភាពលម្អៀងទាំងនេះ នឹងជួយស្ថាប័នកម្ពុជាឱ្យឈានទៅរកការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) និងវិភាគទិន្នន័យ (Data Analytics) ប្រកបដោយតម្លាភាព និងក្រមសីលធម៌ខ្ពស់។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាមូលដ្ឋានគ្រឹះនៃទិន្នន័យ និងភាពលម្អៀង (Understand Data Bias): ចាប់ផ្តើមដោយការសម្អាតទិន្នន័យ និងវិភាគអត្រាភាពលម្អៀងបឋម (EDA) នៅក្នុងប្រព័ន្ធទិន្នន័យសាកលវិទ្យាល័យ ដោយប្រើប្រាស់ Python និង Pandas ដើម្បីស្វែងរកមើលថាតើមានក្រុមនិស្សិតណាដែលរងការរើសអើងដោយអចេតនាឬអត់។
  2. ប្រើប្រាស់ឧបករណ៍វាស់ស្ទង់ភាពយុត្តិធម៌ (Implement Fairness Tools): បញ្ចូលបណ្ណាល័យកូដ IBM AI Fairness 360 (AIF360) ទៅក្នុងគម្រោងរបស់អ្នក ដើម្បីធ្វើការវាស់ស្ទង់កម្រិតភាពអយុត្តិធម៌ (Fairness Metrics) ដូចជា Disparate Impact (DI) និង Equal Opportunity។
  3. អភិវឌ្ឍម៉ូដែលមូលដ្ឋាន (Build Baseline Model): ប្រើប្រាស់ H2O.ai AutoMLXGBoost ដើម្បីហ្វឹកហាត់ម៉ូដែលទស្សន៍ទាយហានិភ័យបោះបង់ការសិក្សាដោយគ្មានកំហិតភាពយុត្តិធម៌ រួចកត់ត្រាលទ្ធផលកម្រិតភាពត្រឹមត្រូវ (Accuracy) បម្រុងទុកជាគោលសម្រាប់ប្រៀបធៀប។
  4. អនុវត្តក្បួនដោះស្រាយកាត់បន្ថយភាពអយុត្តិធម៌ (Apply Mitigation Algorithms): សាកល្បងប្រើប្រាស់ក្បួនដោះស្រាយ Learning Fair Representation (LFR) សម្រាប់កែសម្រួលទិន្នន័យមុនពេលហ្វឹកហាត់ម៉ូដែល ឬប្រើប្រាស់ Prejudice Remover កំឡុងពេលដំណើរការ ដើម្បីស្វែងរកចំណុចតុល្យភាពល្អបំផុត (Trade-off) រវាងប្រសិទ្ធភាព និងភាពយុត្តិធម៌។
  5. សម្របសម្រួលដោយអ្នកជំនាញអប់រំ (Human-in-the-loop Evaluation): កុំពឹងផ្អែកទាំងស្រុងលើលទ្ធផលរបស់ម៉ូដែល។ ត្រូវរៀបចំគណៈកម្មការត្រួតពិនិត្យដែលមានអ្នកជំនាញផ្នែកអប់រំ និងសង្គម ដើម្បីសម្រេចចិត្តចុងក្រោយក្នុងការផ្តល់អន្តរាគមន៍ដល់សិស្ស សំដៅធានានូវសមធម៌ពិតប្រាកដ (Equitable LA)។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Learning Analytics ការប្រមូល វិភាគ និងការប្រើប្រាស់ទិន្នន័យរបស់សិស្ស (ដូចជាពិន្ទុ អវត្តមាន ការចូលរួម) ដើម្បីយល់ពីឥរិយាបថនៃការសិក្សា និងជួយកែលម្អប្រព័ន្ធអប់រំឲ្យកាន់តែប្រសើរ ជាពិសេសទស្សន៍ទាយរកសិស្សដែលអាចប្រឈមនឹងការបោះបង់ការសិក្សា។ ប្រៀបដូចជាគ្រូពេទ្យពិនិត្យមើលរោគសញ្ញារបស់អ្នកជំងឺ ដើម្បីដឹងមុនថាគាត់អាចនឹងឈឺធ្ងន់ និងប្រញាប់ផ្តល់ថ្នាំព្យាបាលបានទាន់ពេលវេលា។
Statistical Parity រង្វាស់ភាពយុត្តិធម៌ដែលធានាថា អត្រានៃការទទួលបានលទ្ធផលជាទីគាប់ចិត្ត (ឧទាហរណ៍៖ ការត្រូវបានជ្រើសរើស) គឺមានភាពស្មើគ្នារវាងក្រុមមនុស្សផ្សេងៗគ្នា (ដូចជាប្រុស និងស្រី) ដោយមិនគិតពីលក្ខណៈសម្បត្តិផ្សេងទៀតឡើយ។ ដូចជាការបែងចែកនំខេកឱ្យក្មេងប្រុស៥នាក់ និងក្មេងស្រី៥នាក់ក្នុងចំនួនស្មើៗគ្នា ដោយមិនខ្វល់ថានរណាឃ្លានជាងនរណានោះទេ។
Equal Odds រង្វាស់ភាពយុត្តិធម៌ដែលទាមទារឱ្យម៉ូដែលកុំព្យូទ័រមានអត្រាទស្សន៍ទាយត្រូវ (True Positive) និងអត្រាទស្សន៍ទាយខុស (False Positive) ស្មើគ្នារវាងក្រុមមនុស្សដែលមកពីមជ្ឈដ្ឋានខុសគ្នា ប៉ុន្តែមានសមត្ថភាពពិតប្រាកដដូចគ្នា។ ប្រៀបដូចជាអាជ្ញាកណ្តាលបាល់ទាត់ដែលផ្តល់ការពិន័យដោយកំហុស (កាតលឿង) និងការផ្តល់រង្វាន់ (បាល់ពិន័យ) ក្នុងអត្រាស្មើគ្នាទៅកាន់ក្រុមទាំងពីរដោយមិនលម្អៀង។
Consistency ជារង្វាស់ភាពយុត្តិធម៌សម្រាប់បុគ្គលម្នាក់ៗ (Individual Fairness) ដែលក្បួនដោះស្រាយនេះធានាថាមនុស្សពីរនាក់ដែលមានលក្ខណៈសម្បត្តិប្រហាក់ប្រហែលគ្នា (ឧទាហរណ៍ ពិន្ទុដូចគ្នា) នឹងទទួលបានការសម្រេចចិត្តដូចគ្នាពីប្រព័ន្ធកុំព្យូទ័រ។ ដូចជាសិស្សពីរនាក់ដែលឆ្លើយត្រូវគ្រប់សំនួរដូចគ្នាលើក្រដាសប្រឡង ត្រូវតែទទួលបានពិន្ទុ 'A' ដូចគ្នា ដោយមិនគិតពីថាពួកគេមកពីខេត្តណានោះទេ។
impossibility theorem ទ្រឹស្តីក្នុងវិស័យគណិតវិទ្យា និងទិន្នន័យដែលបង្ហាញថា វាជារឿងមិនអាចទៅរួចទេក្នុងការបំពេញតម្រូវការនៃរង្វាស់ភាពយុត្តិធម៌ផ្សេងៗគ្នាទាំងអស់ក្នុងពេលតែមួយ ប្រសិនបើក្រុមទាំងពីរមានមូលដ្ឋានទិន្នន័យខុសគ្នាពីដំបូងមកម្ល៉េះ។ ដូចជាការព្យាយាមគូររូបត្រីកោណមួយឲ្យមានមុំទាំងបីស្មើ ៩០ ដឺក្រេទាំងអស់ វាជារឿងដែលមិនអាចកើតមានឡើយក្នុងទ្រឹស្តីធរណីមាត្រ។
Pre-processing ដំណាក់កាលនៃក្បួនដោះស្រាយដែលធ្វើការកែប្រែ និងសម្អាតទិន្នន័យដើមដែលមានការលម្អៀង (Biased data) ឱ្យក្លាយជាទិន្នន័យយុត្តិធម៌ មុននឹងបញ្ជូនវាទៅឱ្យម៉ូដែលកុំព្យូទ័រធ្វើការរៀនសូត្រ។ ដូចជាការពង្រាបដីឱ្យរាបស្មើ និងយកគ្រាប់មីនចេញសិន មុននឹងចាប់ផ្តើមសាងសង់ផ្ទះនៅលើដីនោះ។
In-processing ការបញ្ជ្រាបលក្ខខណ្ឌភាពយុត្តិធម៌ដោយផ្ទាល់ទៅក្នុងក្បួនដោះស្រាយកុំព្យូទ័រ កំឡុងពេលដែលម៉ូដែលកំពុងហ្វឹកហាត់រៀនសូត្រពីទិន្នន័យ ដើម្បីកុំឱ្យវាបង្កើតការសម្រេចចិត្តដែលលម្អៀង។ ដូចជាការដាក់វិន័យនិងបង្រៀនក្មេងតាំងពីតូចមិនឱ្យចេះរើសអើងអ្នកដទៃ កំឡុងពេលដែលពួកគេកំពុងលូតលាស់និងរៀនសូត្រ។
Post-processing វិធីសាស្ត្រកែសម្រួលលទ្ធផលទស្សន៍ទាយចុងក្រោយរបស់ម៉ូដែលកុំព្យូទ័រ (បន្ទាប់ពីវាបានទស្សន៍ទាយរួច) ដើម្បីផ្លាស់ប្តូរការសម្រេចចិត្តឱ្យស្របតាមស្តង់ដារសមធម៌រវាងក្រុมนីមួយៗ។ ដូចជាគ្រូបង្រៀនដែលបូកពិន្ទុបន្ថែមឱ្យសិស្សខ្សោយនៅពេលចុងម៉ោង ដើម្បីធានាថាសិស្សគ្រប់គ្នាមានឱកាសប្រឡងជាប់ស្មើៗគ្នា បន្ទាប់ពីការប្រឡងបានបញ្ចប់។
Disparate Impact ការវាស់ស្ទង់ភាពលម្អៀងដោយប្រៀបធៀបសមាមាត្រនៃក្រុមដែលមិនសូវមានឱកាស ធៀបនឹងក្រុមដែលមានឱកាសច្រើន ដើម្បីរកមើលថាការសម្រេចចិត្តរបស់ម៉ូដែលជះផលប៉ះពាល់អវិជ្ជមានខ្លាំងលើក្រុមណាមួយទោះបីជាគ្មានចេតនាក៏ដោយ។ ប្រសិនបើសាលារៀនកំណត់កម្ពស់អប្បបរមាសម្រាប់កីឡាបាល់បោះ វាអាចនឹងរារាំងសិស្សស្រីភាគច្រើនមិនឱ្យចូលរួម ដែលនេះជាការបង្កើតផលប៉ះពាល់អវិជ្ជមានទោះច្បាប់នោះមិនបានហាមសិស្សស្រីចំៗក៏ដោយ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖