Original Title: Addressing Bias for Equity in AI-driven Customized Learning Systems
Source: doi.org/10.15702/mall.2024.27.4.70
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការដោះស្រាយភាពលម្អៀងដើម្បីសមធម៌នៅក្នុងប្រព័ន្ធសិក្សាតាមតម្រូវការដែលជំរុញដោយបញ្ញាសិប្បនិម្មិត (AI)

ចំណងជើងដើម៖ Addressing Bias for Equity in AI-driven Customized Learning Systems

អ្នកនិពន្ធ៖ Junseong Bang (Ymatics Corp.), Sangmin-Michelle Lee (Kyung Hee University)

ឆ្នាំបោះពុម្ព៖ 2024 Multimedia-Assisted Language Learning

វិស័យសិក្សា៖ Educational Technology

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយហានិភ័យនៃភាពលម្អៀងនៅក្នុងប្រព័ន្ធសិក្សាតាមតម្រូវការដែលជំរុញដោយបញ្ញាសិប្បនិម្មិត (AI) ដែលអាចធ្វើឱ្យប៉ះពាល់ដល់សមធម៌អប់រំ បើទោះបីជាប្រព័ន្ធទាំងនេះមានគោលបំណងផ្តល់បទពិសោធន៍សិក្សាផ្ទាល់ខ្លួនក៏ដោយ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានពិនិត្យយ៉ាងប្រព័ន្ធលើឯកសារស្រាវជ្រាវដែលមានស្រាប់ ដើម្បីកំណត់ប្រភពនៃភាពលម្អៀងរបស់ AI នៅតាមដំណាក់កាលផ្សេងៗ និងស្នើឡើងនូវដំណោះស្រាយបច្ចេកទេស និងមិនមែនបច្ចេកទេស។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Data Augmentation and Weighted Sampling
ការបង្កើនទិន្នន័យ និងការយកគំរូតាមទម្ងន់
កាត់បន្ថយវិសមភាពទិន្នន័យដោយធានាថា ក្រុមភាគតិច ឬក្រុមដែលខ្វះទិន្នន័យត្រូវបានតំណាងយ៉ាងត្រឹមត្រូវនៅក្នុងសំណុំទិន្នន័យបង្ហាត់។ វាជួយឱ្យក្បួនដោះស្រាយមិនផ្តោតតែទៅលើក្រុមដែលមានអំណោយផល។ ការបង្កើតទិន្នន័យសិប្បនិម្មិត (Synthetic data) អាចមិនតំណាងឱ្យលក្ខណៈពិតប្រាកដ ឬបរិបទស្មុគស្មាញរបស់អ្នកសិក្សាទាំងអស់ដែលអាចនាំឱ្យមានកំហុសឆ្គងផ្សេងទៀត។ កែលម្អភាពត្រឹមត្រូវនៃការទស្សន៍ទាយ និងការពារគំរូកុំឱ្យវាយតម្លៃទាប ឬវាយតម្លៃខ្ពស់លើក្រុមជាក់លាក់ណាមួយ (ឧទាហរណ៍ សិស្សមកពីតំបន់ជនបទ ឬគ្រួសារចំណូលទាប)។
Algorithmic Fairness Evaluation (Loss Functions & Metrics)
ការវាយតម្លៃភាពយុត្តិធម៌នៃក្បួនដោះស្រាយតាមរយៈមុខងារ Loss Function និងសូចនាករ
អនុញ្ញាតឱ្យមានការត្រួតពិនិត្យជាប្រចាំនូវភាពលម្អៀងតាមរយៈសូចនាករដូចជា ABROCA, AUC Gap និងការបន្ថែមកម្រិតពិន័យ (Penalties) ទៅក្នុង Loss Function ដើម្បីបង្រួមគម្លាតរវាងក្រុមសិស្ស។ ភាពស្មុគស្មាញនៃការគណនានៃក្បួនដោះស្រាយកើនឡើងជាលំដាប់នៅពេលដែលចំនួនក្រុមប្រជាសាស្ត្រ (Demographic groups) ដែលត្រូវវិភាគមានកាន់តែច្រើន។ ផ្តល់យន្តការប្រកាសអាសន្ន (Alert mechanism) នៅពេលដែលប្រព័ន្ធបញ្ចេញលទ្ធផលខុសគ្នាខ្លាំងរវាងក្រុមផ្សេងៗ ដែលជួយកែលម្អសមត្ថភាពវាយតម្លៃសមធម៌របស់ AI ។
Teacher Ethical Intervention (TPCEK Framework)
ការអន្តរាគមន៍ក្រមសីលធម៌ដោយគ្រូបង្រៀន (ក្របខ័ណ្ឌ TPCEK)
ផ្តល់ការសម្រេចចិត្តចុងក្រោយដោយមនុស្ស ដើម្បីកែតម្រូវកំហុសឆ្គង ឬភាពលម្អៀងរបស់ AI ដោយពិចារណាលើបរិបទសង្គម និងតម្រូវការជាក់ស្តែងរបស់សិស្សម្នាក់ៗ។ ទាមទារការបណ្តុះបណ្តាលគ្រូបង្រៀនយ៉ាងច្រើន និងយូរអង្វែង ទាំងផ្នែកបច្ចេកវិទ្យា គរុកោសល្យ និងជាពិសេសគឺសមត្ថភាពផ្នែកក្រមសីលធម៌ (Ethical competency)។ បង្កើតបរិយាកាសសិក្សាប្រកបដោយបរិយាបន្ន និងការពារសិស្សពីផលប៉ះពាល់អវិជ្ជមាននៃ AI តាមរយៈកាត់បន្ថយការពឹងផ្អែកទាំងស្រុងទៅលើប្រព័ន្ធស្វ័យប្រវត្តិ។

ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះមិនបានបញ្ជាក់ពីការចំណាយជាតួលេខជាក់លាក់នោះទេ ប៉ុន្តែបានសង្កត់ធ្ងន់លើធនធានចាំបាច់សម្រាប់ដំណើរការប្រព័ន្ធ AI ប្រកបដោយសមធម៌នៅក្នុងវិស័យអប់រំ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះផ្តោតលើបរិបទនៃការដាក់ឱ្យប្រើប្រាស់សៀវភៅសិក្សាឌីជីថល AI (AIDT) នៅក្នុងប្រទេសកូរ៉េខាងត្បូង ដោយប្រើប្រាស់ទិន្នន័យប្រវត្តិសិស្ស និងសមិទ្ធផលសិក្សាពីអតីតកាល។ សម្រាប់ប្រទេសកម្ពុជា បញ្ហានេះមានសារៈសំខាន់ខ្លាំងណាស់ ដោយសារទិន្នន័យឌីជីថលភាគច្រើនអាចប្រមូលបានតែពីសិស្សនៅទីក្រុងភ្នំពេញ ដែលធ្វើឱ្យ AI អាចមានភាពលម្អៀង និងធ្វើការទស្សន៍ទាយខុស ឬផ្តល់ការគាំទ្រមិនបានល្អចំពោះសិស្សនៅតំបន់ជនបទដាច់ស្រយាលដែលខ្វះខាតឧបករណ៍ ឬអ៊ិនធឺណិត។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រ និងក្របខ័ណ្ឌក្នុងការកាត់បន្ថយភាពលម្អៀងរបស់ AI ដែលបានលើកឡើងនៅក្នុងឯកសារនេះ គឺមានសារៈប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់ប្រព័ន្ធអប់រំនៅប្រទេសកម្ពុជាក្នុងការឆ្ពោះទៅរកការអប់រំឌីជីថលពិតប្រាកដ។

ការយល់ដឹងពីប្រភពនៃភាពលម្អៀងរបស់ AI នឹងជួយអ្នកបង្កើតគោលនយោបាយ និងស្ថាប័នអប់រំកម្ពុជាបង្កើតប្រព័ន្ធសិក្សាផ្ទាល់ខ្លួនប្រកបដោយបរិយាបន្ន ដែលមិនបន្សល់ទុកសិស្សណាម្នាក់ចោលដោយសារបញ្ហាខ្វះខាតទិន្នន័យតំណាង (Data Representation) របស់ពួកគេឡើយ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាអំពីមូលដ្ឋាននៃភាពលម្អៀងក្នុងទិន្នន័យអប់រំ: ចាប់ផ្តើមដោយការស្វែងយល់ពីប្រភពនៃភាពលម្អៀង (ដូចជា Historical bias និង Representation bias) នៅក្នុងសំណុំទិន្នន័យអប់រំដោយទាញយកទិន្នន័យសិក្សាពីវេទិកា Kaggle (ឧ. Student Performance Datasets) ដើម្បីធ្វើការវិភាគរកមើលភាពខុសគ្នារវាងក្រុមប្រជាសាស្ត្រ។
  2. សាកល្បងប្រើប្រាស់បណ្ណាល័យវាយតម្លៃភាពយុត្តិធម៌ (Fairness Toolkits): អនុវត្តការសរសេរកូដ Python ដោយប្រើប្រាស់បណ្ណាល័យដូចជា AIF360 (AI Fairness 360) ដោយក្រុមហ៊ុន IBM ឬ Fairlearn របស់ក្រុមហ៊ុន Microsoft ដើម្បីវាស់ស្ទង់ និងកាត់បន្ថយភាពលម្អៀងនៃក្បួនដោះស្រាយ (Algorithms) របស់អ្នក។
  3. អនុវត្តវិធីសាស្ត្រធ្វើឱ្យទិន្នន័យមានតុល្យភាព (Data Balancing Techniques): រៀនសរសេរកូដប្រើប្រាស់បច្ចេកទេស Weighted Random Sampling ឬក្បួនដោះស្រាយ SMOTE (Synthetic Minority Over-sampling Technique) ដើម្បីបង្កើនទិន្នន័យសម្រាប់ក្រុមភាគតិច មុនពេលបង្ហាត់គំរូ Machine Learning។
  4. គណនាសូចនាករវាយតម្លៃសមធម៌ (Calculate Equity Metrics): ធ្វើការស្រាវជ្រាវ និងសរសេរកូដដើម្បីគណនាសូចនាករវាយតម្លៃជំនាញដូចជា ABROCA (Area Between ROC Curves)AUC Gap ដើម្បីប្រៀបធៀបគម្លាតនៃសមត្ថភាពរបស់គំរូ AI ទៅលើក្រុមសិស្សផ្សេងៗគ្នា (ឧ. សិស្សប្រុស ទល់នឹង សិស្សស្រី)។
  5. រៀបចំគោលការណ៍ណែនាំក្រមសីលធម៌នៃការប្រើប្រាស់ AI: សហការជាមួយសាស្ត្រាចារ្យដើម្បីរៀបចំ Checklist ឬគោលការណ៍ណែនាំដោយផ្អែកលើ TPCEK Framework ដើម្បីវាយតម្លៃឧបករណ៍ EdTechGenerative AI នានា មុននឹងសម្រេចចិត្តយកពួកវាមកប្រើប្រាស់សម្រាប់ការអប់រំនៅក្នុងសាកលវិទ្យាល័យ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Educational Equity គោលគំនិតនៃការផ្តល់ធនធាន និងការគាំទ្រដល់សិស្សម្នាក់ៗផ្អែកលើតម្រូវការនិងស្ថានភាពជាក់ស្តែងរបស់ពួកគេ ដើម្បីធានាថាពួកគេអាចទទួលបានលទ្ធផលសិក្សាល្អដូចៗគ្នា (ខុសពីសមភាពដែលផ្តល់អ្វីៗដូចគ្នាទាំងអស់ទៅកាន់មនុស្សគ្រប់គ្នាដោយមិនគិតពីតម្រូវការជាក់ស្តែង)។ ដូចជាការទិញស្បែកជើងឱ្យក្មេងៗ ដោយរើសទំហំឱ្យត្រូវជើងក្មេងម្នាក់ៗ ជាជាងទិញទំហំតែមួយឱ្យក្មេងគ្រប់គ្នាពាក់។
Algorithmic Bias ភាពលម្អៀង ឬការរើសអើងដែលកើតចេញពីប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដោយសារតែកំហុសក្នុងការរចនាកូដ ឬការប្រើប្រាស់ទិន្នន័យបង្ហាត់ដែលមិនមានតុល្យភាព ដែលធ្វើឱ្យវាផ្តល់លទ្ធផលអយុត្តិធម៌ ឬទាយខុសញឹកញាប់ចំពោះក្រុមមនុស្សណាមួយ។ ដូចជាចៅក្រមម្នាក់ដែលកាត់ក្តីលម្អៀងទៅរកអ្នកមាន ដោយសារតែគាត់ធ្លាប់តែអានសៀវភៅច្បាប់ដែលសរសេរឡើងដោយអ្នកមានតាំងពីដើមមក។
Overfitting បញ្ហានៅក្នុងដំណើរការសិក្សារបស់ម៉ាស៊ីន (Machine Learning) ដែលប្រព័ន្ធ AI ទន្ទេញចាំទិន្នន័យបង្ហាត់ចាស់ៗខ្លាំងពេក រហូតដល់វាបាត់បង់សមត្ថភាពក្នុងការទស្សន៍ទាយ ឬវិភាគទិន្នន័យថ្មីៗដែលវាមិនធ្លាប់ជួបពីមុនមកក្នុងពិភពពិត។ ដូចជាសិស្សដែលទន្ទេញចាំវិញ្ញាសាប្រឡងឆ្នាំចាស់ៗគ្រប់អក្សរ ប៉ុន្តែដល់ពេលប្រឡងចេញលំហាត់ថ្មីដែលមានទម្រង់ស្រដៀងគ្នា បែរជាធ្វើមិនចេះសោះ។
Feedback Loop ដំណើរការវិលជុំដែលលទ្ធផលទស្សន៍ទាយខុសឆ្គង ឬលម្អៀងរបស់ AI ត្រូវបានអ្នកប្រើប្រាស់ជឿជាក់និងយកទៅអនុវត្ត ហើយបន្ទាប់មកសកម្មភាពនោះបានក្លាយជាទិន្នន័យថ្មីត្រឡប់ទៅបង្ហាត់ AI ដដែលនោះវិញ ដែលធ្វើឱ្យភាពលម្អៀងនោះកាន់តែចាក់ឫសជ្រៅឡើងៗ។ ដូចជាការយកមេក្រូទៅនិយាយក្បែរធុងបាស ដែលសំឡេងចេញពីបាសស្រូបចូលមេក្រូវិញ បង្កើតជាសំឡេងស្រែកកងរំពងកាន់តែខ្លាំងឡើងៗគ្មានទីបញ្ចប់។
Class Imbalance បញ្ហាវិសមាមាត្រនៅក្នុងសំណុំទិន្នន័យ ដែលទិន្នន័យរបស់ក្រុមមួយ (ឧ. សិស្សរស់នៅទីក្រុង) មានចំនួនច្រើនលើសលប់ ខណៈទិន្នន័យក្រុមមួយទៀត (ឧ. សិស្សជនបទ) មានតិចតួចបំផុត ដែលធ្វើឱ្យ AI ពូកែស្គាល់និងផ្តល់ដំណោះស្រាយតែចំពោះក្រុមដែលមានទិន្នន័យច្រើន។ ដូចជាការរៀនធ្វើម្ហូបដោយមានសៀវភៅធ្វើម្ហូបខ្មែរ ១០០ក្បាល និងសៀវភៅម្ហូបអឺរ៉ុបតែ ១ក្បាល ដែលជាលទ្ធផលធ្វើឱ្យអ្នកពូកែតែម្ហូបខ្មែរ តែមិនចេះធ្វើម្ហូបអឺរ៉ុបទាល់តែសោះ។
Weighted sampling បច្ចេកទេសប្រមូល ឬរៀបចំទិន្នន័យដោយផ្តល់ទម្ងន់ ឬតម្លៃបន្ថែមទៅលើទិន្នន័យរបស់ក្រុមសិស្សដែលមានចំនួនតិចតួច ដើម្បីបង្ខំឱ្យ AI រៀនពីលក្ខណៈរបស់ពួកគេឱ្យបានគ្រប់គ្រាន់ និងមិនមើលរំលងពួកគេកំឡុងពេលវឹកហាត់។ ដូចជាការកំណត់កូតាពិសេសនៅក្នុងការបោះឆ្នោតមួយ ដែលសម្លេងរបស់អ្នកមកពីតំបន់ដាច់ស្រយាលម្នាក់ ត្រូវបានគេគិតទម្ងន់ស្មើនឹងសម្លេងអ្នកទីក្រុងពីរនាក់ ដើម្បីធានាថាតម្រូវការរបស់ពួកគេត្រូវបានគេយកចិត្តទុកដាក់។
ABROCA (Area Between Receiver Operating Characteristic Curves) សូចនាករស្ថិតិសម្រាប់វាស់ស្ទង់គម្លាតនៃសមត្ថភាព ឬភាពត្រឹមត្រូវរបស់គំរូ AI នៅពេលវាធ្វើការទស្សន៍ទាយទៅលើក្រុមប្រជាសាស្ត្រពីរផ្សេងគ្នា (ឧទាហរណ៍ សិស្សប្រុស និងសិស្សស្រី) ដើម្បីពិនិត្យមើលថាតើប្រព័ន្ធនេះមានភាពយុត្តិធម៌កម្រិតណា។ ដូចជាជញ្ជីងដែលថ្លឹងមើលថាតើគ្រូបង្រៀនម្នាក់ផ្តល់ពិន្ទុយុត្តិធម៌ឬលម្អៀងកម្រិតណា រវាងសិស្សប្រុស និងសិស្សស្រីដែលមានសមត្ថភាពពិតប្រាកដស្មើគ្នា។
TPCEK (Technological Pedagogical Content Ethical Knowledge) ក្របខ័ណ្ឌចំណេះដឹងរួមបញ្ចូលគ្នាដែលគ្រូបង្រៀនក្នុងយុគសម័យ AI ត្រូវមាន ដែលទាមទារឱ្យមានការចេះប្រើប្រាស់បច្ចេកវិទ្យា វិធីសាស្ត្របង្រៀន ខ្លឹមសារមេរៀន និងជាពិសេសគឺការយល់ដឹងស៊ីជម្រៅពីក្រមសីលធម៌ដើម្បីការពារសិស្សពីផលប៉ះពាល់អវិជ្ជមាននៃបច្ចេកវិទ្យា។ ដូចជាអាជ្ញាប័ណ្ណបើកបរយន្តហោះដែលតម្រូវឱ្យអ្នកបើកបរមិនត្រឹមតែចេះបញ្ជាយន្តហោះប៉ុណ្ណោះទេ តែត្រូវចេះសង្គ្រោះអ្នកដំណើរ និងដឹងពីច្បាប់ហោះហើរប្រកបដោយការទទួលខុសត្រូវនិងក្រមសីលធម៌ខ្ពស់ទៀតផង។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖