Original Title: Bias in artificial intelligence: smart solutions for detection, mitigation, and ethical strategies in real-world applications
Source: doi.org/10.11591/ijai.v14.i1.pp32-43
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ភាពលម្អៀងក្នុងបញ្ញាសិប្បនិម្មិត៖ ដំណោះស្រាយឆ្លាតវៃសម្រាប់ការរកឃើញ ការកាត់បន្ថយ និងយុទ្ធសាស្ត្រសីលធម៌ក្នុងកម្មវិធីពិភពពិត

ចំណងជើងដើម៖ Bias in artificial intelligence: smart solutions for detection, mitigation, and ethical strategies in real-world applications

អ្នកនិពន្ធ៖ Agariadne Dwinggo Samala (Universitas Negeri Padang), Soha Rawas (Beirut Arab University)

ឆ្នាំបោះពុម្ព៖ 2025, IAES International Journal of Artificial Intelligence (IJ-AI)

វិស័យសិក្សា៖ Artificial Intelligence

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាដ៏ធ្ងន់ធ្ងរនៃភាពលម្អៀងនៅក្នុងក្បួនដោះស្រាយបញ្ញាសិប្បនិម្មិត (AI) ដែលអាចបណ្តាលឱ្យមានការរើសអើងជាប្រព័ន្ធ និងធ្វើឱ្យវិសមភាពសង្គមកាន់តែធ្ងន់ធ្ងរនៅក្នុងវិស័យដូចជាការថែទាំសុខភាព ហិរញ្ញវត្ថុ និងយុត្តិធម៌ព្រហ្មទណ្ឌ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានប្រើប្រាស់វិធីសាស្ត្រពិនិត្យអក្សរសិល្ប៍ជាប្រព័ន្ធដោយផ្អែកលើគោលការណ៍ណែនាំ PRISMA ដើម្បីប្រមូល និងវិភាគអត្ថបទស្រាវជ្រាវពាក់ព័ន្ធចំនួន ៤០ ដែលបានបោះពុម្ពចន្លោះឆ្នាំ ២០១៤ ដល់ ២០២៤។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Data Preprocessing
ការរៀបចំទិន្នន័យជាមុន
ជួយកាត់បន្ថយភាពលម្អៀងពីដំបូងដោយការសម្អាត និងធ្វើឱ្យទិន្នន័យបណ្តុះបណ្តាលមានភាពចម្រុះនិងមានតុល្យភាព។ ជួបប្រទះបញ្ហាប្រឈមដូចជាភាពខ្វះចន្លោះនៃទិន្នន័យ (Data sparsity) សំឡេងរំខាននៃស្លាក និងភាពស្មុគស្មាញនៃក្បួនដោះស្រាយ។ បង្កើតទិន្នន័យបណ្តុះបណ្តាលដែលជាតំណាងពិតប្រាកដនិងចម្រុះ ជៀសវាងការរើសអើងតាំងពីប្រភព។
Algorithmic Transparency
តម្លាភាពនៃក្បួនដោះស្រាយ
សម្រួលដល់ការកំណត់អត្តសញ្ញាណភាពលម្អៀង ព្រមទាំងបង្កើនគណនេយ្យភាព និងទំនុកចិត្តពីអ្នកប្រើប្រាស់។ ជួបឧបសគ្គដោយសារភាពស្មុគស្មាញនៃម៉ូដែល AI ភាពមិនច្បាស់លាស់ និងការព្រួយបារម្ភអំពីសិទ្ធិកម្មសិទ្ធិបញ្ញា។ ធ្វើឱ្យអ្នកប្រើប្រាស់អាចយល់ និងបកស្រាយពីមូលហេតុនៃការសម្រេចចិត្តរបស់ AI បានយ៉ាងច្បាស់លាស់។
Fairness-Aware Learning
ការរៀនសូត្រដែលគិតគូរពីសមធម៌
បញ្ចូលការពិចារណាលើសមធម៌ដោយផ្ទាល់ទៅក្នុងដំណើរការបណ្តុះបណ្តាលម៉ូដែល (ឧ. បច្ចេកទេស Adversarial learning)។ ជួបការលំបាកក្នុងការកំណត់រង្វាស់សមធម៌ និងការធ្វើតុល្យភាពរវាងគោលដៅប្រកួតប្រជែងក្នុងការអនុវត្តជាក់ស្តែង។ ធានាបាននូវលទ្ធផលប្រកបដោយសមធម៌សម្រាប់ក្រុមប្រជាសាស្ត្រចម្រុះ និងកាត់បន្ថយគម្លាតនៃលទ្ធផល។

ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារមិនបានបញ្ជាក់ពីការចំណាយជាថវិកាជាក់លាក់ទេ ប៉ុន្តែបានសង្កត់ធ្ងន់យ៉ាងច្បាស់អំពីភាពចាំបាច់នៃធនធានទិន្នន័យគុណភាពខ្ពស់ ជំនាញបច្ចេកទេស និងកិច្ចសហការអន្តរវិស័យ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះគឺជាការពិនិត្យឡើងវិញជាប្រព័ន្ធនៃអក្សរសិល្ប៍សកល ដោយពឹងផ្អែកយ៉ាងខ្លាំងលើបរិបទលោកខាងលិច (ដូចជាច្បាប់ GDPR របស់អឺរ៉ុប និងទិន្នន័យសហរដ្ឋអាមេរិក)។ វាមិនមានទិន្នន័យជាក់លាក់តំណាងឱ្យប្រទេសកំពុងអភិវឌ្ឍន៍នោះទេ ដែលនេះជាចំណុចសំខាន់សម្រាប់កម្ពុជា ព្រោះប្រព័ន្ធ AI ដែលនាំចូលអាចផ្ទុកភាពលម្អៀងបរទេស និងមិនឆ្លុះបញ្ចាំងពីតម្លៃសង្គម ឬវប្បធម៌ខ្មែរឡើយ។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

វិធីសាស្ត្រ និងយុទ្ធសាស្ត្រនៅក្នុងឯកសារនេះមានសារៈសំខាន់ខ្លាំងណាស់សម្រាប់កម្ពុជា ស្របពេលដែលរដ្ឋាភិបាលនិងឯកជនកំពុងជំរុញការប្រើប្រាស់បច្ចេកវិទ្យាឌីជីថល។

ការអនុវត្តយុទ្ធសាស្ត្រកាត់បន្ថយភាពលម្អៀង និងតម្លាភាពក្បួនដោះស្រាយទាំងនេះ នឹងជួយកម្ពុជាធានាបាននូវការអភិវឌ្ឍ AI ដែលប្រកបដោយបរិយាបន្ន និងមិនរុញច្រានប្រជាជនងាយរងគ្រោះឱ្យនៅក្រៅប្រព័ន្ធឌីជីថល។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាពីមូលដ្ឋានគ្រឹះនៃភាពលម្អៀងក្នុង AI: និស្សិតគួរសិក្សាស្វែងយល់ពីប្រភេទទម្រង់នៃភាពលម្អៀង (យេនឌ័រ ពូជសាសន៍ សេដ្ឋកិច្ចសង្គម) ព្រមទាំងប្រភពដើមរបស់វា (Bias in Training Data) ដោយពិនិត្យមើលករណីសិក្សាជាក់ស្តែងដែលធ្លាប់បរាជ័យកន្លងមក។
  2. រៀនប្រើប្រាស់ឧបករណ៍វាស់ស្ទង់ភាពលម្អៀង: អនុវត្តការសរសេរកូដដើម្បីធ្វើសវនកម្មភាពលម្អៀង ដោយប្រើប្រាស់ឧបករណ៍កូដបើកចំហរដូចជា IBM AI Fairness 360Fairlearn ទៅលើសំណុំទិន្នន័យសាកល្បង។
  3. អនុវត្តការរៀបចំទិន្នន័យជាមុន (Data Preprocessing): សាកល្បងអនុវត្តបច្ចេកទេស Data Augmentation និងការសម្អាតទិន្នន័យ ដើម្បីកាត់បន្ថយភាពលម្អៀងនិងធ្វើឱ្យទិន្នន័យមានតុល្យភាព មុននឹងបន្តទៅវគ្គបណ្តុះបណ្តាលម៉ូដែល Machine Learning
  4. វាយតម្លៃនិងធ្វើតេស្តម៉ូដែលជាប្រចាំ (Adversarial Testing): រៀនបង្កើតសេណារីយ៉ូប្រឈម (Adversarial examples) ដើម្បីធ្វើតេស្តភាពធន់របស់ប្រព័ន្ធ AI ធានាថាម៉ូដែលនៅតែមានភាពត្រឹមត្រូវ និងមិនមានភាពលម្អៀងលាក់កំបាំងនៅពេលជួបបញ្ហាប្រែប្រួលទិន្នន័យ។
  5. ចូលរួមក្នុងការតាក់តែងគោលនយោបាយសីលធម៌ AI: សិក្សាពីច្បាប់ការពារទិន្នន័យផ្ទាល់ខ្លួន និងសហការជាមួយសាស្ត្រាចារ្យ ឬអ្នកច្បាប់ ដើម្បីរៀបចំសេចក្តីព្រាងគោលការណ៍ណែនាំសីលធម៌ AI (Ethical Guidelines) សម្រាប់ការប្រើប្រាស់នៅកម្ពុជា។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algorithmic audits ដំណើរការនៃការត្រួតពិនិត្យ និងវាយតម្លៃយ៉ាងម៉ត់ចត់ទៅលើក្បួនដោះស្រាយ (algorithms) កូដ និងទិន្នន័យដើម ដើម្បីស្វែងរកកំហុសឆ្គង ឬភាពលម្អៀងដែលលាក់កំបាំងនៅក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត។ ដូចជាការហៅសវនករ ឬអ្នកត្រួតពិនិត្យគណនេយ្យមកពិនិត្យមើលបញ្ជីចំណូលចំណាយរបស់ក្រុមហ៊ុនដើម្បីរកមើលភាពមិនប្រក្រតីអញ្ចឹងដែរ តែនេះគឺពិនិត្យលើប្រព័ន្ធ AI។
Adversarial testing វិធីសាស្ត្រសាកល្បងភាពរឹងមាំរបស់ម៉ូដែល AI ដោយការបញ្ចូនទិន្នន័យបញ្ឆោត ឬស្ថានភាពស្មុគស្មាញដោយចេតនា ដើម្បីមើលថាតើប្រព័ន្ធនេះនឹងធ្វើការសម្រេចចិត្តខុស ឬបង្ហាញភាពលម្អៀងដែរឬទេ។ ដូចជាការធ្វើតេស្តសាកល្បងបើកបររថយន្តក្នុងស្ថានភាពផ្លូវរអិលខ្លាំង ឬមានឧបសគ្គភ្លាមៗ ដើម្បីមើលថាតើប្រព័ន្ធហ្វ្រាំងដំណើរការបានល្អកម្រិតណា។
Data preprocessing ដំណាក់កាលនៃការរៀបចំ សម្អាត និងកែតម្រូវទិន្នន័យឱ្យមានតុល្យភាពនិងភាពចម្រុះ មុននឹងយកវាទៅបង្រៀន (train) ម៉ូដែល AI ដើម្បីធានាថាមិនមានភាពលម្អៀងតាំងពីប្រភពដើម។ ដូចជាការលាងសម្អាត និងហាន់បន្លែសាច់ឱ្យបានត្រឹមត្រូវនិងមានអនាម័យ មុននឹងយកទៅចម្អិនជាម្ហូប។
Fairness-aware learning បច្ចេកទេសបង្រៀនម៉ូដែល AI ដែលបញ្ជ្រាបគោលការណ៍សមធម៌ទៅក្នុងដំណើរការរៀនសូត្ររបស់វាតែម្តង ដោយកំណត់ឱ្យក្បួនដោះស្រាយព្យាយាមកាត់បន្ថយគម្លាតនៃការសម្រេចចិត្តរវាងក្រុមមនុស្សផ្សេងៗគ្នា។ ដូចជាការបង្រៀនក្មេងម្នាក់មិនត្រឹមតែឱ្យចេះដោះស្រាយលំហាត់គណិតវិទ្យាប៉ុណ្ណោះទេ តែថែមទាំងបង្រៀនឱ្យចេះចែករំលែកនំដល់មិត្តភក្តិទាំងអស់ដោយស្មើភាពគ្នាផងដែរ។
Disparate impact រង្វាស់បរិមាណសម្រាប់វាស់ស្ទង់ភាពលម្អៀង ដែលបង្ហាញពីផលប៉ះពាល់អវិជ្ជមាន ឬអយុត្តិធម៌ដែលកើតមានទៅលើក្រុមមនុស្សជាក់លាក់ណាមួយ (ដូចជាជនជាតិភាគតិច ឬយេនឌ័រ) ជាលទ្ធផលនៃការសម្រេចចិត្តរបស់ប្រព័ន្ធទោះបីជាមិនមានចេតនារើសអើងក៏ដោយ។ ដូចជាច្បាប់តម្រូវឱ្យបុគ្គលិកទាំងអស់ត្រូវមានកម្ពស់យ៉ាងហោចណាស់ ១.៧០ ម៉ែត្រ ដែលស្តាប់ទៅដូចជាស្មើភាព តែវាបានកាត់បង់ឱកាសការងាររបស់ស្ត្រីភាគច្រើនដោយប្រយោល។
Algorithmic transparency លក្ខណៈនៃការរចនាប្រព័ន្ធ AI ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់អាចមើលឃើញ យល់ដឹង និងបកស្រាយបានពីរបៀបដែលក្បួនដោះស្រាយដំណើរការ និងមូលហេតុនៅពីក្រោយការសម្រេចចិត្តនីមួយៗរបស់វា។ ដូចជាផ្ទះបាយបើកចំហរនៅក្នុងភោជនីយដ្ឋាន ដែលអតិថិជនអាចមើលឃើញយ៉ាងច្បាស់ពីរបៀបដែលចុងភៅរៀបចំ និងចម្អិនម្ហូបរបស់ពួកគេ។
Butterfly effect ទាក់ទងនឹង AI ទ្រឹស្តីនេះពិពណ៌នាអំពីរបៀបដែលការផ្លាស់ប្តូរ ឬភាពលម្អៀងដ៏តូចតាចបំផុតនៅក្នុងទិន្នន័យដើម ឬក្បួនដោះស្រាយ អាចបណ្តាលឱ្យមានផលប៉ះពាល់ និងភាពអយុត្តិធម៌យ៉ាងធំធេងដែលមិនអាចទាយទុកជាមុនបាននៅក្នុងលទ្ធផលចុងក្រោយរបស់ប្រព័ន្ធ។ ដូចជាការបោះដុំថ្មតូចមួយចូលក្នុងបឹង ដែលបង្កើតជារលកសាយភាយកាន់តែធំទៅៗរហូតដល់ត្រើយម្ខាងទៀតនៃបឹង។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖