បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាអំពីកង្វះខាតសីលធម៌និងគម្លាតនៃភាពស្របច្បាប់នៅក្នុងអភិបាលកិច្ចក្បួនដោះស្រាយ (Algorithmic Governance) ដោយសារតែការប្រគល់អំណាចសម្រេចចិត្តទៅឱ្យប្រព័ន្ធស្វ័យប្រវត្តិ ដែលអាចបង្កឱ្យមានភាពលម្អៀង បាត់បង់តម្លាភាព និងបាត់បង់ការទទួលខុសត្រូវរបស់មនុស្ស។
វិធីសាស្ត្រ (The Methodology)៖ ការស្រាវជ្រាវនេះប្រើប្រាស់វិធីសាស្ត្រវិភាគខ្លឹមសារគុណវុឌ្ឍិ (Qualitative Content Analysis) លើប្រភពឯកសារឥស្លាមចម្បងៗ ដើម្បីទាញយកគោលការណ៍សីលធម៌សម្រាប់ការធ្វើអភិបាលកិច្ចបញ្ញាសិប្បនិម្មិត។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Secular Algorithmic Governance (Algocracy) អភិបាលកិច្ចក្បួនដោះស្រាយបែបលោកិយ (Algocracy) |
ផ្តល់នូវប្រសិទ្ធភាពខ្ពស់ ភាពជាក់លាក់ និងសមត្ថភាពក្នុងការព្យាករណ៍សម្រាប់ការសម្រេចចិត្តដោយស្វ័យប្រវត្តិ។ វាជួយសម្រួលដល់ការគ្រប់គ្រងស្ថាប័នតាមរយៈការប្រើប្រាស់ទិន្នន័យ។ | ប្រឈមនឹងបញ្ហាកង្វះតម្លាភាព (Opacity) បង្កើតភាពលម្អៀង និងកាត់បន្ថយការសម្រេចចិត្តដោយមនុស្ស។ វាខ្វះខាតមូលដ្ឋានគ្រឹះសីលធម៌ ដែលបណ្តាលឱ្យមានឱនភាពនៃភាពស្របច្បាប់ (Legitimacy deficit)។ | នៅតែមានភាពផុយស្រួយផ្នែកសីលធម៌ ដោយសារតែពឹងផ្អែកតែលើប្រសិទ្ធភាពបច្ចេកទេស និងវិធានការបែបបទ (Procedural safeguards) ប៉ុណ្ណោះ។ |
| Ethical Stewardship (Islamic Ethical Framework) ភាពជាអ្នកគ្រប់គ្រងប្រកបដោយក្រមសីលធម៌ (ក្របខ័ណ្ឌសីលធម៌ឥស្លាម) |
ផ្សារភ្ជាប់ការសម្រេចចិត្តដោយក្បួនដោះស្រាយទៅនឹងគោលបំណងសីលធម៌ និងការទទួលខុសត្រូវ។ វាធានាថាប្រព័ន្ធបញ្ញាសិប្បនិម្មិតគោរពសេចក្តីថ្លៃថ្នូររបស់មនុស្ស និងផ្តោតលើសុខុមាលភាពសង្គមជាចម្បង។ | នៅជាទម្រង់ទ្រឹស្តីនៅឡើយ ដោយពុំទាន់មានការបញ្ជាក់ច្បាស់លាស់ពីរបៀបសរសេរកូដគោលការណ៍ទាំងនេះទៅក្នុងប្រព័ន្ធបច្ចេកទេស (Machine-learning pipelines)។ ភាពចម្រុះនៃការបកស្រាយសាសនាអាចធ្វើឱ្យមានការលំបាកក្នុងការអនុវត្តរួម។ | ផ្តល់នូវគោលការណ៍សីលធម៌ស្នូលចំនួន ៩ ដើម្បីកសាងប្រព័ន្ធអភិបាលកិច្ច AI ដែលផ្តោតលើភាពជាភ្នាក់ងារសីលធម៌របស់មនុស្ស ជាជាងគ្រាន់តែជាឧបករណ៍បច្ចេកទេស។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ដោយសារការសិក្សានេះគឺជាការវិភាគទ្រឹស្តីនិងឯកសារ (Qualitative Research) វាទាមទារធនធានជាចម្បងលើចំណេះដឹងនិងអ្នកជំនាញ ជាជាងសម្ភារៈបច្ចេកទេស ឬកុំព្យូទ័រយួរដៃធុនធ្ងន់។
ការសិក្សានេះពឹងផ្អែកលើការវិភាគឯកសារទ្រឹស្តីពីប្រភពឥស្លាម (កូរ៉ាន និងហាឌីត) និងអក្សរសិល្ប៍អន្តរជាតិ ដោយមិនមានការប្រមូលទិន្នន័យជាក់ស្តែង (Empirical data) នោះទេ។ សម្រាប់ប្រទេសកម្ពុជា ទោះបីជាកម្ពុជាមានបរិបទសាសនាខុសគ្នាក៏ដោយ ក៏ការដកស្រង់គោលគំនិតនៃការបង្កើតក្រមសីលធម៌ AI ផ្អែកលើតម្លៃវប្បធម៌ក្នុងស្រុក (Local moral frameworks) គឺជារឿងដ៏សំខាន់ដើម្បីចៀសវាងការចម្លងតាមទម្រង់លោកខាងលិចទាំងស្រុង។
គំរូនៃការពង្រឹងសីលធម៌ក្នុងអភិបាលកិច្ចក្បួនដោះស្រាយនេះ មានប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់ការត្រួសត្រាយផ្លូវអភិវឌ្ឍគោលនយោបាយបញ្ញាសិប្បនិម្មិតនៅកម្ពុជា។
ជារួម ការរៀបចំអភិបាលកិច្ច AI នៅកម្ពុជាគួរតែផ្សារភ្ជាប់នូវប្រសិទ្ធភាពបច្ចេកវិទ្យា ជាមួយនឹងគុណតម្លៃវប្បធម៌ និងសីលធម៌សង្គម ដើម្បីធានាបាននូវទំនុកចិត្ត និងសេចក្តីថ្លៃថ្នូររបស់ប្រជាពលរដ្ឋ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Algocracy | គឺជាប្រព័ន្ធគ្រប់គ្រងសង្គម ឬស្ថាប័នដែលអំណាចសម្រេចចិត្តត្រូវបានផ្ទេរពីមនុស្សទៅឱ្យក្បួនដោះស្រាយ (Algorithms) និងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត។ ក្នុងប្រព័ន្ធនេះ កូដកុំព្យូទ័រដើរតួជាអ្នកកំណត់ច្បាប់ និងធ្វើការសម្រេចចិត្តជំនួសឱ្យមនុស្សនៅក្នុងកិច្ចការសាធារណៈ។ | ដូចជាការបណ្តោយឱ្យម៉ាស៊ីនយន្តហោះបញ្ជាការហោះហើរដោយស្វ័យប្រវត្តិទាំងស្រុង ដោយដកសិទ្ធិសម្រេចចិត្តពីពីឡុត។ |
| Algorithmic Governance | គឺជានិន្នាការនៃការប្រើប្រាស់ប្រព័ន្ធកុំព្យូទ័រ និងទិន្នន័យធំ ដើម្បីធ្វើការសម្រេចចិត្តក្នុងវិស័យរដ្ឋបាលសាធារណៈ ដូចជាការកាត់ក្តី ការជ្រើសរើសបុគ្គលិក ឬការផ្តល់សេវាសង្គម ដោយផ្លាស់ប្តូរពីការប្រើប្រាស់ឆន្ទានុសិទ្ធិរបស់មនុស្សទៅជាការគិតគូរដោយម៉ាស៊ីនវិញ។ | ដូចជាការប្រើប្រាស់កម្មវិធីកុំព្យូទ័រដើម្បីវិនិច្ឆ័យថាតើនរណាម្នាក់គួរទទួលបានប្រាក់កម្ចីពីធនាគារឬអត់ ជាជាងឱ្យបុគ្គលិកធនាគារជាអ្នកពិចារណា។ |
| Ethical Stewardship | គឺជាទស្សនាទាននៃការគ្រប់គ្រងបច្ចេកវិទ្យាដោយចាត់ទុកវាជាការទុកចិត្ត (Trust) ដែលត្រូវទទួលខុសត្រូវខ្ពស់ផ្នែកសីលធម៌។ វាមានន័យថាមនុស្សនៅតែជាអ្នកទទួលខុសត្រូវចុងក្រោយលើរាល់ផលវិបាកដែលបង្កឡើងដោយ AI ដោយធានាថាវាបម្រើដល់យុត្តិធម៌ និងមិនរំលោភបំពានសេចក្តីថ្លៃថ្នូររបស់មនុស្ស។ | ដូចជាឪពុកម្តាយដែលផ្តល់ទូរស័ព្ទឱ្យកូនប្រើ ប៉ុន្តែនៅតែមានតួនាទីតាមដាននិងទទួលខុសត្រូវចំពោះទង្វើរបស់កូននៅលើបណ្តាញសង្គម។ |
| Legitimacy deficit | គឺជាស្ថានភាពដែលប្រព័ន្ធគ្រប់គ្រងបាត់បង់ការជឿទុកចិត្ត និងភាពត្រឹមត្រូវផ្នែកសីលធម៌ពីសាធារណជន ដោយសារតែការសម្រេចចិត្តត្រូវបានធ្វើឡើងដោយម៉ាស៊ីនដែលគ្មានមនោសញ្ចេតនា គ្មានតម្លាភាព និងមិនអាចផ្តល់ការពន្យល់សមហេតុផលដល់អ្នកដែលរងផលប៉ះពាល់បាន។ | ដូចជាសិស្សដែលត្រូវធ្លាក់ការប្រឡងដោយសារកុំព្យូទ័រដាក់ពិន្ទុខុស ប៉ុន្តែមិនអាចតវ៉ាសុំការពន្យល់ពីនរណាម្នាក់បាន ដែលធ្វើឱ្យសិស្សលែងជឿជាក់លើសាលា។ |
| Algorithmic Bias | គឺជាបាតុភូតដែលប្រព័ន្ធក្បួនដោះស្រាយបង្កើតលទ្ធផលរើសអើង ឬលម្អៀង ដោយសារតែវាត្រូវបានបណ្តុះបណ្តាលដោយទិន្នន័យចាស់ៗដែលមានផ្ទុកនូវភាពអយុត្តិធម៌ក្នុងសង្គមរួចជាស្រេច។ វាធ្វើឱ្យម៉ាស៊ីនជួយពង្រីកការរើសអើងឡើងវិញ ក្រោមរូបភាពជាប្រព័ន្ធស្វ័យប្រវត្តិដែលអព្យាក្រឹត្យ។ | ដូចជាកញ្ចក់ឆ្លុះដែលកោង វាចាំបាច់តែបង្ហាញរូបភាពដែលខូចទ្រង់ទ្រាយ ទោះបីជាអ្នកឆ្លុះមានរូបរាងពិតយ៉ាងណាក៏ដោយ ព្រោះវាត្រូវបានបង្កើតឡើងដោយកំហុសតាំងពីរោងចក្រ។ |
| Algorithmic impact assessments | គឺជាឧបករណ៍ ឬដំណើរការវាយតម្លៃជាមុន ដើម្បីត្រួតពិនិត្យ និងប៉ាន់ស្មានអំពីហានិភ័យ ផលប៉ះពាល់សង្គម និងការរំលោភសិទ្ធិ ដែលអាចកើតមានមុនពេលដាក់ឱ្យដំណើរការប្រព័ន្ធបញ្ញាសិប្បនិម្មិតណាមួយទៅក្នុងស្ថាប័នរដ្ឋ ឬឯកជន។ | ដូចជាការធ្វើតេស្តបុកទង្គិច (Crash test) លើរថយន្តថ្មីមុននឹងអនុញ្ញាតឱ្យលក់នៅលើទីផ្សារ ដើម្បីធានាថាវាមិនបង្កគ្រោះថ្នាក់ដល់អ្នកដំណើរ។ |
| Opacity | នៅក្នុងបរិបទនៃបញ្ញាសិប្បនិម្មិត វាសំដៅទៅលើភាពអាថ៌កំបាំងនៃដំណើរការគិតគូររបស់ក្បួនដោះស្រាយ (Black-box) ដែលធ្វើឱ្យមនុស្ស សូម្បីតែអ្នកបង្កើតវាផ្ទាល់ មិនអាចយល់ច្បាស់ពីរបៀប ឬហេតុផលដែលម៉ាស៊ីនឈានដល់ការសម្រេចចិត្តណាមួយ។ | ដូចជាម៉ាស៊ីនកិនសាច់បិទជិតមួយ ដែលយើងឃើញតែសាច់ស្រស់ដាក់ចូល និងសាច់កិនធ្លាក់មកក្រៅ តែមិនអាចមើលឃើញពីដំណើរការកាត់កិននៅខាងក្នុងនោះទេ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖