Original Title: FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications
Source: wenbin.zhang@fiu.edu
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

FairAIED៖ ការស្វែងយល់អំពីយុត្តិធម៌ ភាពលំអៀង និងក្រមសីលធម៌នៅក្នុងកម្មវិធី AI សម្រាប់ការអប់រំ

ចំណងជើងដើម៖ FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications

អ្នកនិពន្ធ៖ Sribala Vidyadhari Chinta (Florida International University), Zichong Wang (Florida International University), Wenbin Zhang (Florida International University)

ឆ្នាំបោះពុម្ព៖ 2024

វិស័យសិក្សា៖ Artificial Intelligence in Education (AIED)

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ការធ្វើសមាហរណកម្មបញ្ញាសិប្បនិម្មិត (AI) ទៅក្នុងការអប់រំកំពុងកើនឡើង ប៉ុន្តែភាពលំអៀងដែលមានស្រាប់នៅក្នុងក្បួនដោះស្រាយ (Algorithms) អាចបង្កឱ្យមានការរើសអើងដោយអចេតនាប្រឆាំងនឹងក្រុមមនុស្សមួយចំនួន ដែលប៉ះពាល់ដល់យុត្តិធម៌ក្នុងការវាយតម្លៃ និងលទ្ធផលសិក្សារបស់សិស្ស។

វិធីសាស្ត្រ (The Methodology)៖ នេះគឺជាការសិក្សាស្រាវជ្រាវបែបស្ទង់មតិ (Survey Paper) ដែលពិនិត្យមើលអក្សរសិល្ប៍ដែលមានស្រាប់ ដើម្បីកំណត់ប្រភេទនៃភាពលំអៀង វាយតម្លៃរង្វាស់នៃយុត្តិធម៌ និងចាត់ថ្នាក់យុទ្ធសាស្ត្រកាត់បន្ថយបញ្ហានេះនៅក្នុងបរិបទអប់រំ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Pre-processing Techniques (e.g., Re-weighing, Resampling)
បច្ចេកទេសកែសម្រួលទិន្នន័យមុនពេលបង្វឹក (Pre-processing) ដូចជាការថ្លឹងទម្ងន់ទិន្នន័យឡើងវិញ (Re-weighing) ឬការប្ដូរគំរូទិន្នន័យ (Resampling)
អាចដោះស្រាយបញ្ហាភាពលំអៀងបានតាំងពីដើមទី ដោយធ្វើឱ្យទិន្នន័យមានតុល្យភាពមុនពេលបញ្ជូនទៅឱ្យម៉ូដែល AI រៀន។ អាចបណ្តាលឱ្យបាត់បង់ព័ត៌មានសំខាន់ៗមួយចំនួន ឬធ្វើឱ្យម៉ូដែលរៀនលើស (Overfitting) ប្រសិនបើការបង្កើតទិន្នន័យមិនបានល្អ។ កាត់បន្ថយភាពលំអៀងនៃទិន្នន័យ (Data Bias) បានយ៉ាងមានប្រសិទ្ធភាពសម្រាប់ក្រុមដែលមិនសូវមានតំណាង (Underrepresented groups)។
In-processing Techniques (e.g., Adversarial Debiasing)
បច្ចេកទេសកែសម្រួលអំឡុងពេលបង្វឹក (In-processing) ដូចជាការប្រើប្រាស់ Adversarial Debiasing
ផ្តល់នូវតុល្យភាពល្អរវាងភាពត្រឹមត្រូវ (Accuracy) និងយុត្តិធម៌ (Fairness) ដោយដាក់បញ្ចូលលក្ខខណ្ឌយុត្តិធម៌ទៅក្នុងមុខងារបង្វឹកដោយផ្ទាល់។ ទាមទារធនធានកុំព្យូទ័រខ្លាំង និងមានភាពស្មុគស្មាញក្នុងការអនុវត្តជាងវិធីសាស្ត្រផ្សេងទៀត។ បង្កើនសមត្ថភាពម៉ូដែលក្នុងការទស្សន៍ទាយដោយមិនពឹងផ្អែកខ្លាំងលើលក្ខណៈសម្បត្តិរសើប (Sensitive attributes) ដូចជាភេទ ឬពូជសាសន៍។
Post-processing Techniques (e.g., Threshold Adjustment)
បច្ចេកទេសកែសម្រួលលទ្ធផលចុងក្រោយ (Post-processing) ដូចជាការកែតម្រូវកម្រិតពិន្ទុ (Threshold Adjustment)
អាចអនុវត្តបានលើម៉ូដែលដែលមានស្រាប់ដោយមិនចាំបាច់បង្វឹកសារថ្មី (Retraining) ធ្វើឱ្យវាមានភាពងាយស្រួលក្នុងការប្រើប្រាស់។ អាចកាត់បន្ថយភាពត្រឹមត្រូវនៃការព្យាករណ៍សម្រាប់ក្រុមមួយចំនួន ដើម្បីបំពេញតាមលក្ខខណ្ឌនៃយុត្តិធម៌។ ធានាបាននូវយុត្តិធម៌នៃលទ្ធផលសម្រេច (Decision Outcomes) ដូចជាការផ្តល់ពិន្ទុ ឬការណែនាំវគ្គសិក្សា។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តបច្ចេកទេសទាំងនេះទាមទារនូវធនធានកុំព្យូទ័រ និងជំនាញបច្ចេកទេសជាក់លាក់ ប៉ុន្តែឧបករណ៍ភាគច្រើនគឺជា Open-source។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះផ្អែកលើសំណុំទិន្នន័យអន្តរជាតិដូចជា TIMSS, PISA, និង OULAD ដែលភាគច្រើនប្រមូលពីប្រទេសលោកខាងលិច ឬប្រទេសអភិវឌ្ឍន៍។ សម្រាប់កម្ពុជា នេះគឺជាបញ្ហាប្រឈមធំមួយ ព្រោះទិន្នន័យសិស្សកម្ពុជា (បរិបទវប្បធម៌ ភាសា និងសេដ្ឋកិច្ច) មិនត្រូវបានរាប់បញ្ចូល ដែលអាចនាំឱ្យ AI មានភាពលំអៀង (Representation Bias) ប្រសិនបើយកមកអនុវត្តដោយផ្ទាល់។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រ និងក្របខ័ណ្ឌដែលបានលើកឡើងក្នុងការសិក្សានេះ មានសារៈសំខាន់ណាស់សម្រាប់គ្រឹះស្ថានឧត្តមសិក្សានៅកម្ពុជាដែលកំពុងចាប់ផ្តើមប្រើប្រាស់ប្រព័ន្ធឌីជីថល។

ទោះបីជាទិន្នន័យជាក់លាក់សម្រាប់កម្ពុជានៅខ្វះខាតក្តី ប៉ុន្តែឧបករណ៍ និងគោលការណ៍ណែនាំពីការសិក្សានេះ គឺជាផែនទីបង្ហាញផ្លូវដ៏ចាំបាច់ដើម្បីការពារកុំឱ្យបច្ចេកវិទ្យាបង្កើតវិសមភាពថ្មីនៅក្នុងប្រព័ន្ធអប់រំខ្មែរ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. ការសិក្សាមូលដ្ឋានគ្រឹះនៃយុត្តិធម៌ក្នុង AI: និស្សិត និងអ្នកស្រាវជ្រាវគួរចាប់ផ្តើមស្វែងយល់អំពីនិយមន័យនៃយុត្តិធម៌ (Fairness Notions) ដូចជា Individual Fairness និង Group Fairness ដែលមានពន្យល់ក្នុងផ្នែកទី ៤ នៃឯកសារនេះ។
  2. ការសាកល្បងប្រើប្រាស់ឧបករណ៍ Open-source: ដំឡើងនិងសាកល្បងប្រើប្រាស់ឧបករណ៍ IBM AI Fairness 360 (AIF360)Microsoft Fairlearn ជាមួយសំណុំទិន្នន័យគំរូ ដើម្បីរៀនពីរបៀបវាស់វែងភាពលំអៀង។
  3. ការត្រួតពិនិត្យទិន្នន័យក្នុងស្រុក (Local Data Audit): សាកលវិទ្យាល័យគួរធ្វើការត្រួតពិនិត្យទិន្នន័យដែលមានស្រាប់ (ដូចជាទិន្នន័យពិន្ទុ ឬការចូលរៀន) ដើម្បីស្វែងរកភាពលំអៀងដែលអាចកើតមាន ដោយប្រើបច្ចេកទេស Exploratory Data Analysis (EDA) មុននឹងប្រើវាក្នុងការបង្វឹក AI។
  4. ការបង្កើតគោលការណ៍ណែនាំក្រមសីលធម៌: បង្កើតក្រុមការងារដើម្បីតាក់តែងគោលការណ៍ណែនាំស្តីពីការប្រើប្រាស់ AI ប្រកបដោយក្រមសីលធម៌នៅក្នុងសាកលវិទ្យាល័យ ដោយយោងតាមតារាងទី ២ (Table 2) នៃឯកសារនេះ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algorithmic Bias គឺជាកំហុសជាប្រព័ន្ធនៅក្នុងដំណើរការរបស់កុំព្យូទ័រ ដែលបង្កើតលទ្ធផលមិនយុត្តិធម៌សម្រាប់ក្រុមមនុស្សជាក់លាក់ណាមួយ (ដូចជា ភេទ ឬពូជសាសន៍) ដោយសារតែទិន្នន័យដែលប្រើសម្រាប់បង្វឹកវាមានភាពលំអៀងតាំងពីដើម។ ប្រៀបដូចជាជញ្ជីងមួយដែលតែងតែបង្ហាញទម្ងន់មិនស្មើគ្នា ទោះបីជាយើងដាក់របស់ដែលមានទម្ងន់ដូចគ្នាក៏ដោយ។
Individual Fairness ជាគោលការណ៍ដែលតម្រូវឱ្យប្រព័ន្ធ AI ផ្តល់លទ្ធផលដូចគ្នា ឬប្រហាក់ប្រហែលគ្នា ដល់បុគ្គលពីរនាក់ដែលមានសមត្ថភាព ឬលក្ខណៈសម្បត្តិដូចគ្នា ដោយមិនគិតពីអត្តសញ្ញាណផ្ទាល់ខ្លួនរបស់ពួកគេ។ ដូចជាសិស្សពីរនាក់ដែលធ្វើលំហាត់ត្រូវដូចគ្នា គួរតែទទួលបានពិន្ទុស្មើគ្នា ដោយមិនគិតថាពួកគេជាប្រុស ឬស្រី។
Adversarial Debiasing គឺជាបច្ចេកទេសបង្វឹក AI ដោយប្រើម៉ូដែលពីរប្រកួតគ្នា៖ ម៉ូដែលមួយព្យាយាមទស្សន៍ទាយលទ្ធផល (ដូចជាពិន្ទុសិស្ស) ហើយម៉ូដែលមួយទៀតព្យាយាមចាប់កំហុសថាតើលទ្ធផលនោះមានភាពលំអៀងឬអត់ ដើម្បីកែតម្រូវវាភ្លាមៗ។ ប្រៀបដូចជាអ្នកសរសេរ និងអ្នកត្រួតពិនិត្យ៖ អ្នកសរសេរព្យាយាមលាក់អត្តសញ្ញាណក្នុងអត្ថបទ ហើយអ្នកត្រួតពិនិត្យព្យាយាមរកវា។ ពួកគេប្រកួតគ្នាដើម្បីធ្វើឱ្យអត្ថបទនោះមានភាពអព្យាក្រឹត។
Lipschitz Condition ជាលក្ខខណ្ឌគណិតវិទ្យាដែលប្រើដើម្បីវាស់វែងយុត្តិធម៌បុគ្គល (Individual Fairness) ដោយកំណត់ថា បើទិន្នន័យបញ្ចូល (Input) របស់មនុស្សពីរនាក់មានភាពខុសគ្នាតិចតួច នោះលទ្ធផល (Output) ក៏មិនគួរខុសគ្នាខ្លាំងដែរ។ ដូចជាប្រសិនបើមនុស្សពីរនាក់ឈរជិតគ្នា ស្រមោលរបស់ពួកគេក៏គួរតែនៅជិតគ្នាដែរ មិនមែនម្នាក់នៅឆ្ងាយដាច់ស្រយាលនោះទេ។
Equalized Odds ជារង្វាស់យុត្តិធម៌ដែលធានាថា អត្រានៃការទស្សន៍ទាយត្រឹមត្រូវ (True Positive) និងការទស្សន៍ទាយខុស (False Positive) គឺមានភាពស្មើគ្នារវាងក្រុមផ្សេងៗគ្នា (ដូចជាក្រុមសិស្សប្រុស និងសិស្សស្រី)។ ប្រសិនបើប្រព័ន្ធកុំព្យូទ័រធ្វើកំហុសក្នុងការដាក់ពិន្ទុ វាគួរតែធ្វើកំហុសចំពោះសិស្សប្រុស និងសិស្សស្រីក្នុងចំនួនស្មើៗគ្នា មិនមែនខុសតែលើក្រុមណាមួយនោះទេ។
Fairness Bonded Utility (FBU) គឺជាក្របខ័ណ្ឌដែលអ្នកស្រាវជ្រាវប្រើដើម្បីវាស់វែង និងរកតុល្យភាពរវាង "ភាពត្រឹមត្រូវ" (Accuracy) របស់ម៉ូដែល និង "កម្រិតយុត្តិធម៌" (Fairness) ដើម្បីមើលថាវិធីសាស្ត្រមួយណាផ្តល់ផលល្អបំផុត។ ដូចជាការថ្លឹងជញ្ជីងដើម្បីរកចំណុចកណ្តាលដ៏ល្អបំផុតរវាង ល្បឿន និង សុវត្ថិភាព ក្នុងការបើកបរ។
SMOTE (Synthetic Minority Over-sampling Technique) ជាបច្ចេកទេសបង្កើតទិន្នន័យសិប្បនិម្មិតបន្ថែមសម្រាប់ក្រុមដែលមានទិន្នន័យតិច ដើម្បីឱ្យម៉ូដែល AI អាចរៀនពីក្រុមនោះបានច្បាស់លាស់ដូចក្រុមដែលមានទិន្នន័យច្រើនដែរ។ ប្រសិនបើអ្នកមានរូបថតឆ្មាតែ ២ សន្លឹក និងរូបថតឆ្កែ ១០០ សន្លឹក អ្នកប្រើកុំព្យូទ័រដើម្បីគូររូបឆ្មាបន្ថែមឱ្យបាន ១០០ សន្លឹក ដើម្បីឱ្យស្មើគ្នា។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖