Original Title: From Algocracy to Ethical Stewardship: Islamic Ethics and the Moral Reconstruction of Algorithmic Governance
Source: doi.org/10.30497/rmg.2025.249325.1047
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ពីអភិបាលកិច្ចក្បួនដោះស្រាយ (Algocracy) ទៅកាន់ភាពជាអ្នកគ្រប់គ្រងប្រកបដោយក្រមសីលធម៌៖ ក្រមសីលធម៌ឥស្លាម និងការកសាងឡើងវិញនូវសីលធម៌នៃអភិបាលកិច្ចក្បួនដោះស្រាយ (Algorithmic Governance)

ចំណងជើងដើម៖ From Algocracy to Ethical Stewardship: Islamic Ethics and the Moral Reconstruction of Algorithmic Governance

អ្នកនិពន្ធ៖ Reza Payendeh, University of Tehran, Alireza Zeini, University of Tehran

ឆ្នាំបោះពុម្ព៖ 2025, Journal of Religion, Management & Governance

វិស័យសិក្សា៖ Technology Governance / AI Ethics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាអំពីកង្វះខាតសីលធម៌និងគម្លាតនៃភាពស្របច្បាប់នៅក្នុងអភិបាលកិច្ចក្បួនដោះស្រាយ (Algorithmic Governance) ដោយសារតែការប្រគល់អំណាចសម្រេចចិត្តទៅឱ្យប្រព័ន្ធស្វ័យប្រវត្តិ ដែលអាចបង្កឱ្យមានភាពលម្អៀង បាត់បង់តម្លាភាព និងបាត់បង់ការទទួលខុសត្រូវរបស់មនុស្ស។

វិធីសាស្ត្រ (The Methodology)៖ ការស្រាវជ្រាវនេះប្រើប្រាស់វិធីសាស្ត្រវិភាគខ្លឹមសារគុណវុឌ្ឍិ (Qualitative Content Analysis) លើប្រភពឯកសារឥស្លាមចម្បងៗ ដើម្បីទាញយកគោលការណ៍សីលធម៌សម្រាប់ការធ្វើអភិបាលកិច្ចបញ្ញាសិប្បនិម្មិត។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Secular Algorithmic Governance (Algocracy)
អភិបាលកិច្ចក្បួនដោះស្រាយបែបលោកិយ (Algocracy)
ផ្តល់នូវប្រសិទ្ធភាពខ្ពស់ ភាពជាក់លាក់ និងសមត្ថភាពក្នុងការព្យាករណ៍សម្រាប់ការសម្រេចចិត្តដោយស្វ័យប្រវត្តិ។ វាជួយសម្រួលដល់ការគ្រប់គ្រងស្ថាប័នតាមរយៈការប្រើប្រាស់ទិន្នន័យ។ ប្រឈមនឹងបញ្ហាកង្វះតម្លាភាព (Opacity) បង្កើតភាពលម្អៀង និងកាត់បន្ថយការសម្រេចចិត្តដោយមនុស្ស។ វាខ្វះខាតមូលដ្ឋានគ្រឹះសីលធម៌ ដែលបណ្តាលឱ្យមានឱនភាពនៃភាពស្របច្បាប់ (Legitimacy deficit)។ នៅតែមានភាពផុយស្រួយផ្នែកសីលធម៌ ដោយសារតែពឹងផ្អែកតែលើប្រសិទ្ធភាពបច្ចេកទេស និងវិធានការបែបបទ (Procedural safeguards) ប៉ុណ្ណោះ។
Ethical Stewardship (Islamic Ethical Framework)
ភាពជាអ្នកគ្រប់គ្រងប្រកបដោយក្រមសីលធម៌ (ក្របខ័ណ្ឌសីលធម៌ឥស្លាម)
ផ្សារភ្ជាប់ការសម្រេចចិត្តដោយក្បួនដោះស្រាយទៅនឹងគោលបំណងសីលធម៌ និងការទទួលខុសត្រូវ។ វាធានាថាប្រព័ន្ធបញ្ញាសិប្បនិម្មិតគោរពសេចក្តីថ្លៃថ្នូររបស់មនុស្ស និងផ្តោតលើសុខុមាលភាពសង្គមជាចម្បង។ នៅជាទម្រង់ទ្រឹស្តីនៅឡើយ ដោយពុំទាន់មានការបញ្ជាក់ច្បាស់លាស់ពីរបៀបសរសេរកូដគោលការណ៍ទាំងនេះទៅក្នុងប្រព័ន្ធបច្ចេកទេស (Machine-learning pipelines)។ ភាពចម្រុះនៃការបកស្រាយសាសនាអាចធ្វើឱ្យមានការលំបាកក្នុងការអនុវត្តរួម។ ផ្តល់នូវគោលការណ៍សីលធម៌ស្នូលចំនួន ៩ ដើម្បីកសាងប្រព័ន្ធអភិបាលកិច្ច AI ដែលផ្តោតលើភាពជាភ្នាក់ងារសីលធម៌របស់មនុស្ស ជាជាងគ្រាន់តែជាឧបករណ៍បច្ចេកទេស។

ការចំណាយលើធនធាន (Resource Cost)៖ ដោយសារការសិក្សានេះគឺជាការវិភាគទ្រឹស្តីនិងឯកសារ (Qualitative Research) វាទាមទារធនធានជាចម្បងលើចំណេះដឹងនិងអ្នកជំនាញ ជាជាងសម្ភារៈបច្ចេកទេស ឬកុំព្យូទ័រយួរដៃធុនធ្ងន់។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះពឹងផ្អែកលើការវិភាគឯកសារទ្រឹស្តីពីប្រភពឥស្លាម (កូរ៉ាន និងហាឌីត) និងអក្សរសិល្ប៍អន្តរជាតិ ដោយមិនមានការប្រមូលទិន្នន័យជាក់ស្តែង (Empirical data) នោះទេ។ សម្រាប់ប្រទេសកម្ពុជា ទោះបីជាកម្ពុជាមានបរិបទសាសនាខុសគ្នាក៏ដោយ ក៏ការដកស្រង់គោលគំនិតនៃការបង្កើតក្រមសីលធម៌ AI ផ្អែកលើតម្លៃវប្បធម៌ក្នុងស្រុក (Local moral frameworks) គឺជារឿងដ៏សំខាន់ដើម្បីចៀសវាងការចម្លងតាមទម្រង់លោកខាងលិចទាំងស្រុង។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

គំរូនៃការពង្រឹងសីលធម៌ក្នុងអភិបាលកិច្ចក្បួនដោះស្រាយនេះ មានប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់ការត្រួសត្រាយផ្លូវអភិវឌ្ឍគោលនយោបាយបញ្ញាសិប្បនិម្មិតនៅកម្ពុជា។

ជារួម ការរៀបចំអភិបាលកិច្ច AI នៅកម្ពុជាគួរតែផ្សារភ្ជាប់នូវប្រសិទ្ធភាពបច្ចេកវិទ្យា ជាមួយនឹងគុណតម្លៃវប្បធម៌ និងសីលធម៌សង្គម ដើម្បីធានាបាននូវទំនុកចិត្ត និងសេចក្តីថ្លៃថ្នូររបស់ប្រជាពលរដ្ឋ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាអំពីគម្លាតនៃក្រមសីលធម៌ AI បច្ចុប្បន្ន: ចាប់ផ្តើមដោយការស្វែងយល់ពីបញ្ហានៃក្បួនដោះស្រាយ (Algorithmic bias) និងវិបត្តិភាពស្របច្បាប់តាមរយៈការអានឯកសារស្រាវជ្រាវ និងរបាយការណ៍នានាដោយប្រើ Algorithmic Impact Assessments (AIA) ជាមូលដ្ឋាន។
  2. ស្រាវជ្រាវប្រៀបធៀបគុណតម្លៃវប្បធម៌ក្នុងស្រុក: ធ្វើការប្រៀបធៀបគោលការណ៍សីលធម៌ទាំង ៩ ដែលបានលើកឡើងក្នុងឯកសារនេះ ជាមួយនឹងគុណតម្លៃនៃព្រះពុទ្ធសាសនា ឬវប្បធម៌ខ្មែរ (ឧទាហរណ៍៖ ទសពិធរាជធម៌ ឬ ព្រហ្មវិហារធម៌) ដើម្បីស្វែងរកចំណុចរួមសម្រាប់ការរៀបចំគោលនយោបាយ។
  3. កសាងកិច្ចសហការអន្តរវិស័យ: បង្កើតក្រុមការងារពិភាក្សា (Focus Group) ដែលរួមមានអ្នកជំនាញផ្នែកសីលធម៌សង្គម អ្នកវិទ្យាសាស្ត្រទិន្នន័យ (Data Scientists) និងអ្នកច្បាប់ ដើម្បីពិភាក្សាពីវិធីសាស្ត្របំប្លែងទ្រឹស្តីសីលធម៌ទៅជាកូដបច្ចេកទេស (Machine-learning pipelines)។
  4. អភិវឌ្ឍសេចក្តីព្រាងក្របខ័ណ្ឌភាពជាអ្នកគ្រប់គ្រង AI: រៀបចំសេចក្តីព្រាងគោលការណ៍ណែនាំ (Guidelines) សម្រាប់ការរចនា និងគ្រប់គ្រង AI នៅក្នុងស្ថាប័ន ដោយអនុវត្តតាមទម្រង់ Value-based Technological Governance ដែលផ្តោតលើតម្លាភាព ការទទួលខុសត្រូវ និងការពាការពារសិទ្ធិឯកជន (Non-invasiveness)។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algocracy គឺជាប្រព័ន្ធគ្រប់គ្រងសង្គម ឬស្ថាប័នដែលអំណាចសម្រេចចិត្តត្រូវបានផ្ទេរពីមនុស្សទៅឱ្យក្បួនដោះស្រាយ (Algorithms) និងប្រព័ន្ធបញ្ញាសិប្បនិម្មិត។ ក្នុងប្រព័ន្ធនេះ កូដកុំព្យូទ័រដើរតួជាអ្នកកំណត់ច្បាប់ និងធ្វើការសម្រេចចិត្តជំនួសឱ្យមនុស្សនៅក្នុងកិច្ចការសាធារណៈ។ ដូចជាការបណ្តោយឱ្យម៉ាស៊ីនយន្តហោះបញ្ជាការហោះហើរដោយស្វ័យប្រវត្តិទាំងស្រុង ដោយដកសិទ្ធិសម្រេចចិត្តពីពីឡុត។
Algorithmic Governance គឺជានិន្នាការនៃការប្រើប្រាស់ប្រព័ន្ធកុំព្យូទ័រ និងទិន្នន័យធំ ដើម្បីធ្វើការសម្រេចចិត្តក្នុងវិស័យរដ្ឋបាលសាធារណៈ ដូចជាការកាត់ក្តី ការជ្រើសរើសបុគ្គលិក ឬការផ្តល់សេវាសង្គម ដោយផ្លាស់ប្តូរពីការប្រើប្រាស់ឆន្ទានុសិទ្ធិរបស់មនុស្សទៅជាការគិតគូរដោយម៉ាស៊ីនវិញ។ ដូចជាការប្រើប្រាស់កម្មវិធីកុំព្យូទ័រដើម្បីវិនិច្ឆ័យថាតើនរណាម្នាក់គួរទទួលបានប្រាក់កម្ចីពីធនាគារឬអត់ ជាជាងឱ្យបុគ្គលិកធនាគារជាអ្នកពិចារណា។
Ethical Stewardship គឺជាទស្សនាទាននៃការគ្រប់គ្រងបច្ចេកវិទ្យាដោយចាត់ទុកវាជាការទុកចិត្ត (Trust) ដែលត្រូវទទួលខុសត្រូវខ្ពស់ផ្នែកសីលធម៌។ វាមានន័យថាមនុស្សនៅតែជាអ្នកទទួលខុសត្រូវចុងក្រោយលើរាល់ផលវិបាកដែលបង្កឡើងដោយ AI ដោយធានាថាវាបម្រើដល់យុត្តិធម៌ និងមិនរំលោភបំពានសេចក្តីថ្លៃថ្នូររបស់មនុស្ស។ ដូចជាឪពុកម្តាយដែលផ្តល់ទូរស័ព្ទឱ្យកូនប្រើ ប៉ុន្តែនៅតែមានតួនាទីតាមដាននិងទទួលខុសត្រូវចំពោះទង្វើរបស់កូននៅលើបណ្តាញសង្គម។
Legitimacy deficit គឺជាស្ថានភាពដែលប្រព័ន្ធគ្រប់គ្រងបាត់បង់ការជឿទុកចិត្ត និងភាពត្រឹមត្រូវផ្នែកសីលធម៌ពីសាធារណជន ដោយសារតែការសម្រេចចិត្តត្រូវបានធ្វើឡើងដោយម៉ាស៊ីនដែលគ្មានមនោសញ្ចេតនា គ្មានតម្លាភាព និងមិនអាចផ្តល់ការពន្យល់សមហេតុផលដល់អ្នកដែលរងផលប៉ះពាល់បាន។ ដូចជាសិស្សដែលត្រូវធ្លាក់ការប្រឡងដោយសារកុំព្យូទ័រដាក់ពិន្ទុខុស ប៉ុន្តែមិនអាចតវ៉ាសុំការពន្យល់ពីនរណាម្នាក់បាន ដែលធ្វើឱ្យសិស្សលែងជឿជាក់លើសាលា។
Algorithmic Bias គឺជាបាតុភូតដែលប្រព័ន្ធក្បួនដោះស្រាយបង្កើតលទ្ធផលរើសអើង ឬលម្អៀង ដោយសារតែវាត្រូវបានបណ្តុះបណ្តាលដោយទិន្នន័យចាស់ៗដែលមានផ្ទុកនូវភាពអយុត្តិធម៌ក្នុងសង្គមរួចជាស្រេច។ វាធ្វើឱ្យម៉ាស៊ីនជួយពង្រីកការរើសអើងឡើងវិញ ក្រោមរូបភាពជាប្រព័ន្ធស្វ័យប្រវត្តិដែលអព្យាក្រឹត្យ។ ដូចជាកញ្ចក់ឆ្លុះដែលកោង វាចាំបាច់តែបង្ហាញរូបភាពដែលខូចទ្រង់ទ្រាយ ទោះបីជាអ្នកឆ្លុះមានរូបរាងពិតយ៉ាងណាក៏ដោយ ព្រោះវាត្រូវបានបង្កើតឡើងដោយកំហុសតាំងពីរោងចក្រ។
Algorithmic impact assessments គឺជាឧបករណ៍ ឬដំណើរការវាយតម្លៃជាមុន ដើម្បីត្រួតពិនិត្យ និងប៉ាន់ស្មានអំពីហានិភ័យ ផលប៉ះពាល់សង្គម និងការរំលោភសិទ្ធិ ដែលអាចកើតមានមុនពេលដាក់ឱ្យដំណើរការប្រព័ន្ធបញ្ញាសិប្បនិម្មិតណាមួយទៅក្នុងស្ថាប័នរដ្ឋ ឬឯកជន។ ដូចជាការធ្វើតេស្តបុកទង្គិច (Crash test) លើរថយន្តថ្មីមុននឹងអនុញ្ញាតឱ្យលក់នៅលើទីផ្សារ ដើម្បីធានាថាវាមិនបង្កគ្រោះថ្នាក់ដល់អ្នកដំណើរ។
Opacity នៅក្នុងបរិបទនៃបញ្ញាសិប្បនិម្មិត វាសំដៅទៅលើភាពអាថ៌កំបាំងនៃដំណើរការគិតគូររបស់ក្បួនដោះស្រាយ (Black-box) ដែលធ្វើឱ្យមនុស្ស សូម្បីតែអ្នកបង្កើតវាផ្ទាល់ មិនអាចយល់ច្បាស់ពីរបៀប ឬហេតុផលដែលម៉ាស៊ីនឈានដល់ការសម្រេចចិត្តណាមួយ។ ដូចជាម៉ាស៊ីនកិនសាច់បិទជិតមួយ ដែលយើងឃើញតែសាច់ស្រស់ដាក់ចូល និងសាច់កិនធ្លាក់មកក្រៅ តែមិនអាចមើលឃើញពីដំណើរការកាត់កិននៅខាងក្នុងនោះទេ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖