Original Title: Mitigating Bias in Artificial Intelligence: Methods and Challenges
Source: icaiit.org
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការកាត់បន្ថយភាពលម្អៀងក្នុងបញ្ញាសិប្បនិម្មិត៖ វិធីសាស្ត្រ និងបញ្ហាប្រឈមនានា

ចំណងជើងដើម៖ Mitigating Bias in Artificial Intelligence: Methods and Challenges

អ្នកនិពន្ធ៖ Saja Salim Mohammed (University of Diyala, Iraq), Israa Alsaadi (University of Baghdad, Iraq), Hind Ibrahim (University of Diyala/University of Baghdad, Iraq), Sarah Ali Abdulkareem (University of Diyala, Iraq), Hasinah Maizan (Universiti Kebangsaan Malaysia, Malaysia)

ឆ្នាំបោះពុម្ព៖ Proceedings of the 13th International Conference on Applied Innovations in IT (ICAIIT), June 2025

វិស័យសិក្សា៖ Artificial Intelligence Ethics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាទាក់ទងនឹងភាពលម្អៀងដែលបង្កប់នៅក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដែលអាចបន្តធ្វើឱ្យមានការរើសអើងក្នុងសង្គម វិសមភាព និងធ្វើឱ្យបាត់បង់ទំនុកចិត្តពីសាធារណជនប្រសិនបើមិនមានការទប់ស្កាត់។

វិធីសាស្ត្រ (The Methodology)៖ អ្នកនិពន្ធបានផ្តល់នូវការត្រួតពិនិត្យយ៉ាងទូលំទូលាយអំពីវិធីសាស្ត្រស្វែងរកភាពលម្អៀង រង្វាស់នៃភាពយុត្តិធម៌ និងបច្ចេកទេសកាត់បន្ថយភាពលម្អៀងនៅគ្រប់ដំណាក់កាលនៃការអភិវឌ្ឍន៍ AI ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Pre-Processing Techniques
បច្ចេកទេសកែតម្រូវមុនពេលដំណើរការទិន្នន័យ
អាចកាត់បន្ថយភាពលម្អៀងតាំងពីប្រភពដើម និងការពារកុំឱ្យម៉ូដែលរៀនពីទិន្នន័យខុសឆ្គង ឬមានភាពរើសអើង។ ពិបាកក្នុងការកំណត់ និងវាស់ស្ទង់ភាពលម្អៀងឱ្យបានច្បាស់លាស់ ដោយសារទិន្នន័យជារឿយៗមានប្រភព និងទស្សនៈចម្រុះជាច្រើន។ កែតម្រូវទិន្នន័យមុនពេលបញ្ជូនទៅហ្វឹកហាត់ ដើម្បីធានាឱ្យមានភាពជាតំណាងកាន់តែប្រសើរសម្រាប់ក្រុមប្រជាសាស្ត្រនានា។
In-Processing Approaches
បច្ចេកទេសកែតម្រូវកំពុងពេលដំណើរការ (អំឡុងពេលហ្វឹកហាត់)
អាចធ្វើអន្តរាគមន៍ភ្លាមៗក្នុងពេលហ្វឹកហាត់ដោយប្រើប្រាស់លក្ខខណ្ឌយុត្តិធម៌ (Fairness constraints) និងបច្ចេកទេស Regularization។ អាចធ្វើឱ្យប៉ះពាល់ដល់ភាពត្រឹមត្រូវសរុប (Accuracy trade-offs) របស់ម៉ូដែល ហើយទាមទារការកែប្រែស៊ីជម្រៅលើអាល់កូរីតឹមស្នូល។ តម្រង់ទិសដំណើរការនៃការរៀនសូត្ររបស់ម៉ូដែលម៉ាស៊ីនយ៉ាងសកម្មឆ្ពោះទៅរកការសម្រេចចិត្ត និងលទ្ធផលដែលមានភាពយុត្តិធម៌។
Post-Processing Methods
បច្ចេកទេសកែតម្រូវក្រោយពេលដំណើរការ
មិនតម្រូវឱ្យមានការហ្វឹកហាត់ម៉ូដែលឡើងវិញទេ ដែលអនុញ្ញាតឱ្យកែតម្រូវលទ្ធផលទស្សន៍ទាយដោយផ្ទាល់តែម្តង។ ទាមទារការតាមដានជាប្រចាំក្រោយពេលដាក់ឱ្យដំណើរការ ហើយនៅតែអាចប្រឈមមុខនឹងផលវិបាកដែលមិនបានរំពឹងទុក។ ធ្វើឱ្យមានតុល្យភាពលទ្ធផលសម្រាប់ក្រុមប្រជាសាស្ត្រផ្សេងៗគ្នា តាមរយៈការកែតម្រូវទម្ងន់នៃការទស្សន៍ទាយ (Re-weighting predictions)។

ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះមិនបានបញ្ជាក់លម្អិតពីការប្រើប្រាស់ធនធានកុំព្យូទ័រសម្រាប់ការពិសោធន៍ជាក់លាក់នោះទេ ប៉ុន្តែបានសង្កត់ធ្ងន់លើបញ្ហាប្រឈមទាក់ទងនឹងការចំណាយ និងធនធានចាំបាច់សម្រាប់ការអនុវត្តការកាត់បន្ថយភាពលម្អៀងក្នុងទំហំធំ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ឯកសារនេះគឺជាការស្រាវជ្រាវបែបពិនិត្យឡើងវិញ (Review Paper) ដែលផ្អែកលើករណីសិក្សាអន្តរជាតិ (ឧទាហរណ៍៖ ប្រព័ន្ធមុខរបរ Amazon, COMPAS) ដោយមិនមានការផ្តោតលើតំបន់ ឬទិន្នន័យជាក់លាក់ណាមួយឡើយ។ សម្រាប់ប្រទេសកម្ពុជា នេះជាចំណុចសំខាន់ណាស់ ព្រោះប្រព័ន្ធ AI ដែលយកមកប្រើប្រាស់ភាគច្រើនត្រូវបានហ្វឹកហាត់លើទិន្នន័យបរទេស ដែលអាចបណ្តាលឱ្យមានភាពលម្អៀង និងកំហុសឆ្គងនៅពេលអនុវត្តលើប្រជាជនកម្ពុជា ដែលមានភាសា វប្បធម៌ និងបរិបទសង្គមខុសប្លែកពីគេ។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

គោលការណ៍ និងបច្ចេកទេសដែលបានរៀបរាប់ក្នុងឯកសារនេះគឺពិតជាមានសារៈសំខាន់ខ្លាំងណាស់សម្រាប់ការត្រួសត្រាយផ្លូវក្នុងការអភិវឌ្ឍប្រព័ន្ធ AI ដែលអាចទុកចិត្តបាននៅក្នុងប្រទេសកម្ពុជា។

ការអនុវត្តតាមក្របខ័ណ្ឌនេះនឹងជួយឱ្យអ្នកអភិវឌ្ឍន៍ និងអ្នកបង្កើតគោលនយោបាយនៅកម្ពុជាអាចកសាងប្រព័ន្ធ AI ប្រកបដោយក្រមសីលធម៌ និងបរិយាប័ន្ន ដែលផ្តល់ប្រយោជន៍ស្មើៗគ្នាដល់ប្រជាពលរដ្ឋគ្រប់រូប។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. វាយតម្លៃទិន្នន័យមុនពេលចាប់ផ្តើមគម្រោង (Data Auditing): អ្នកស្រាវជ្រាវ និងវិស្វករទិន្នន័យត្រូវប្រើប្រាស់ឧបករណ៍ដូចជា AI Fairness 360 (AIF360) របស់ IBM ដើម្បីធ្វើការត្រួតពិនិត្យអត្រាភាពលម្អៀងនៅក្នុងសំណុំទិន្នន័យ (Dataset) ជាពិសេសទិន្នន័យក្នុងស្រុក មុនពេលយកទៅហ្វឹកហាត់ម៉ូដែល AI។
  2. អនុវត្តរង្វាស់នៃភាពយុត្តិធម៌ (Implement Fairness Metrics): បញ្ចូលរង្វាស់ស្តង់ដារដូចជា Demographic ParityEqualized Odds ទៅក្នុងដំណើរការវាស់ស្ទង់ប្រសិទ្ធភាពម៉ូដែលរបស់អ្នក ដោយប្រើបណ្ណាល័យកម្មវិធី Fairlearn ជាជាងការពឹងផ្អែកតែលើអត្រាភាពត្រឹមត្រូវ (Accuracy) សរុបតែមួយមុខ។
  3. ប្រើប្រាស់បច្ចេកទេសបកស្រាយ AI (Explainability Tools): សាកល្បងប្រើប្រាស់បច្ចេកទេសដូចជា SHAP (SHapley Additive exPlanations)LIME ដើម្បីស្វែងយល់ថាតើមុខងារ (Features) ណាមួយដែលជំរុញឱ្យម៉ូដែល AI ធ្វើការសម្រេចចិត្តបែបនោះ ដែលជួយសម្រួលដល់ការតាមដានរកភាពលម្អៀងដែលលាក់កំបាំង។
  4. បង្កើតយន្តការតាមដានក្រោយពេលដាក់ឱ្យដំណើរការ (Post-Deployment Monitoring): រៀបចំប្រព័ន្ធត្រួតពិនិត្យលទ្ធផលដោយប្រើប្រាស់ Grafana ឬគួបផ្សំជាមួយការត្រួតពិនិត្យពីមនុស្ស (Human-in-the-loop) ដើម្បីតាមដានដំណើរការម៉ូដែលជាប្រចាំ និងធ្វើការកែតម្រូវទាន់ពេលវេលា (Post-processing) ពេលវាមានប្រតិកម្មលម្អៀងជាមួយទិន្នន័យថ្មីៗ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algorithmic Fairness សំដៅលើការធានាថាប្រព័ន្ធម៉ាស៊ីនរៀន (Machine Learning) ធ្វើការសម្រេចចិត្តដោយមិនមានការរើសអើង ឬលម្អៀងទៅលើក្រុមប្រជាសាស្ត្រណាមួយ (ដូចជា ភេទ សាសន៍ ឬអាយុ) ដោយសារតែកំហុសនៃកូដ ឬទិន្នន័យ។ ដូចជាចៅក្រមម្នាក់ដែលកាត់ក្តីដោយយុត្តិធម៌ និងតម្លាភាព មិនលម្អៀងទៅរកអ្នកមាន ឬអ្នកក្រ។
Pre-Processing Techniques ជាវិធីសាស្ត្រក្នុងការកែតម្រូវ និងសម្អាតសំណុំទិន្នន័យ (Dataset) មុនពេលបញ្ជូនវាទៅឱ្យម៉ូដែល AI ហ្វឹកហាត់ ដើម្បីលុបបំបាត់ភាពលម្អៀងដែលបង្កប់នៅក្នុងប្រភពទិន្នន័យដើមនោះ។ ដូចជាការរើសគ្រាប់ក្រួស និងអង្កាមចេញពីអង្ករឱ្យអស់ មុនពេលយកវាទៅដាំបាយ។
In-Processing Approaches ជាការធ្វើអន្តរាគមន៍កែតម្រូវអាល់កូរីតឹមដោយផ្ទាល់នៅអំឡុងពេលដែលម៉ូដែល AI កំពុងរៀន (Training) តាមរយៈការដាក់បញ្ចូលលក្ខខណ្ឌយុត្តិធម៌ (Fairness constraints) និងបច្ចេកទេស Regularization។ ដូចជាគ្រូបង្រៀនដែលតាមដាននិងកែតម្រូវកំហុសសិស្សភ្លាមៗ នៅពេលដែលពួកគេកំពុងធ្វើលំហាត់ក្នុងថ្នាក់។
Post-Processing Methods ជាបច្ចេកទេសកែតម្រូវលទ្ធផលទស្សន៍ទាយដែលបញ្ចេញដោយម៉ូដែល AI រួចហើយ ដើម្បីធានាថាវាមានតុល្យភាពសម្រាប់ក្រុមគោលដៅផ្សេងៗគ្នា ដោយមិនតម្រូវឱ្យមានការហ្វឹកហាត់ម៉ូដែលនោះឡើងវិញទេ។ ដូចជាការភ្លក់ និងថែមគ្រឿងទេសទៅក្នុងសម្លដែលឆ្អិនរួចហើយ ដើម្បីឱ្យមានរសជាតិសមល្មមសម្រាប់អ្នកញ៉ាំគ្រប់គ្នា។
Demographic parity ជារង្វាស់នៃភាពយុត្តិធម៌មួយដែលតម្រូវឱ្យអត្រានៃការទទួលបានលទ្ធផលវិជ្ជមានពី AI មានភាពស្មើគ្នាសម្រាប់គ្រប់ក្រុមប្រជាសាស្ត្រ ទោះបីជាពួកគេមានលក្ខណៈខុសគ្នា ឬតម្រូវការខុសគ្នាក៏ដោយ។ ដូចជាការកំណត់ជាមុនថា ត្រូវតែមានបេក្ខជនប្រុស ៥០% និងស្រី ៥០% ជាប់ការប្រឡងចូលរៀន ដោយមិនគិតពីកត្តាផ្សេងៗទៀត។
Equalized odds ជារង្វាស់យុត្តិធម៌ក្នុង AI ដែលទាមទារឱ្យម៉ូដែលមួយមានអត្រាទស្សន៍ទាយត្រូវ (True Positive Rate) និងអត្រាទស្សន៍ទាយខុស (False Positive Rate) ស្មើៗគ្នាសម្រាប់គ្រប់ក្រុមគោលដៅទាំងអស់។ ដូចជាគ្រូពេទ្យម្នាក់ដែលអាចធ្វើតេស្តរកឃើញជំងឺបានត្រឹមត្រូវក្នុងកម្រិតដូចគ្នា មិនថាអ្នកជំងឺនោះជាក្មេង ចាស់ ប្រុស ឬស្រីនោះទេ។
Explainability សមត្ថភាពក្នុងការបកស្រាយ និងពន្យល់ពីមូលហេតុ ឬដំណើរការដែលប្រព័ន្ធ AI កម្រិតខ្ពស់ (ជាពិសេសប្រភេទ Black-box) ប្រើប្រាស់ដើម្បីធ្វើការទស្សន៍ទាយ និងទាញយកការសម្រេចចិត្តណាមួយ។ ដូចជាសិស្សគណិតវិទ្យាដែលមិនត្រឹមតែសរសេរចម្លើយបានត្រឹមត្រូវប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងអាចបង្ហាញរបៀបគណនាមួយជំហានម្តងៗឱ្យគេយល់បានទៀតផង។
Disparate impact ជារង្វាស់ដែលបង្ហាញពីសមាមាត្រនៃភាពខុសគ្នានៃអត្រាដែលម៉ូដែល AI ផ្តល់លទ្ធផលវិជ្ជមាន រវាងក្រុមដែលត្រូវបានការពារ (ឧ. ជនជាតិភាគតិច) និងក្រុមទូទៅ។ វាឆ្លុះបញ្ចាំងពីផលប៉ះពាល់អវិជ្ជមានដោយប្រយោល។ ដូចជានយោបាយវាយតម្លៃការងាររបស់ក្រុមហ៊ុនមួយ ដែលមើលទៅហាក់បីដូចជាស្មើភាពគ្នាលើក្រដាស ប៉ុន្តែជាក់ស្តែងវាធ្វើឱ្យបុគ្គលិកស្រ្តីពិបាកឡើងឋានៈជាងបុរស។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖