Original Title: Operationalizing AI Stewardship through the V.A.L.U.E. Protocol: Bridging the Gap Between Global AI Governance and Daily User Agency
Source: doi.org/10.70382/ajsitr.v10i9.069
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ប្រតិបត្តិការនៃភាពជាអ្នកគ្រប់គ្រងបញ្ញាសិប្បនិម្មិតតាមរយៈពិធីការ V.A.L.U.E.៖ ការផ្សារភ្ជាប់គម្លាតរវាងអភិបាលកិច្ច AI សកល និងភ្នាក់ងារអ្នកប្រើប្រាស់ប្រចាំថ្ងៃ

ចំណងជើងដើម៖ Operationalizing AI Stewardship through the V.A.L.U.E. Protocol: Bridging the Gap Between Global AI Governance and Daily User Agency

អ្នកនិពន្ធ៖ Simeon Ayoade Adedokun (Department of Computer Science, Ladoke Akintola University of Technology, Ogbomoso, Nigeria), Isiak Akinwumi Adeyemo, Dorcas Atinuke Adedokun, Stella Kehinde Ogunkan, Olufunke Kemi Ogunniyi

ឆ្នាំបោះពុម្ព៖ 2026 Journal of Science Innovation and Technology Research

វិស័យសិក្សា៖ Artificial Intelligence Ethics and Governance

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ការរួមបញ្ចូលយ៉ាងឆាប់រហ័សនៃបញ្ញាសិប្បនិម្មិត (AI) បានបង្កើតឱ្យមានគម្លាតអភិបាលកិច្ច ដែលបទប្បញ្ញត្តិកម្រិតខ្ពស់បរាជ័យក្នុងការផ្តល់ការណែនាំដែលអាចអនុវត្តបានសម្រាប់អ្នកប្រើប្រាស់ប្រចាំថ្ងៃ ដែលបណ្តាលឱ្យមានហានិភ័យដូចជាការថយចុះសមត្ថភាពយល់ដឹង និងភាពលម្អៀងនៃស្វ័យប្រវត្តិកម្ម។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានធ្វើការត្រួតពិនិត្យអក្សរសិល្ប៍ចម្រុះដោយប្រើប្រាស់ទ្រឹស្តីសំខាន់ៗចំនួនពីរ ដើម្បីសំយោគចេញនូវក្របខ័ណ្ឌប្រតិបត្តិការសម្រាប់អ្នកប្រើប្រាស់។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Global AI Governance (EU AI Act / UNESCO)
អភិបាលកិច្ច AI សកល (ច្បាប់ EU AI / អនុសាសន៍ UNESCO)
ផ្តល់នូវរបាំងការពារជាមូលដ្ឋាន បទប្បញ្ញត្តិ និងស្តង់ដារសីលធម៌សម្រាប់អ្នកអភិវឌ្ឍន៍និងរដ្ឋាភិបាល។ ជាយន្តការចេញបញ្ជាពីលើចុះក្រោម (Top-Down) ដែលខ្វះការណែនាំជាក់ស្តែងប្រចាំថ្ងៃសម្រាប់អ្នកប្រើប្រាស់ទូទៅ ធ្វើឱ្យពួកគេងាយរងគ្រោះដោយសារកង្វះចំណេះដឹង។ តម្រូវឱ្យមានការត្រួតពិនិត្យពីមនុស្សចំពោះប្រព័ន្ធដែលមានហានិភ័យខ្ពស់ (Ensure Human Oversight) ដោយផ្តោតលើការអនុលោមតាមច្បាប់។
V.A.L.U.E. Framework
ក្របខ័ណ្ឌ V.A.L.U.E.
ផ្តល់ការណែនាំជាក់ស្តែងពីក្រោមឡើងលើ (Bottom-Up) ជួយអ្នកប្រើប្រាស់ម្នាក់ៗកសាងទម្លាប់ត្រួតពិនិត្យ និងរក្សាភាពជាម្ចាស់ការលើ AI ។ ទាមទារការប្តេជ្ញាចិត្តផ្ទាល់ខ្លួនខ្ពស់ និងការអប់រំជាមុន (ដូចជាក្របខ័ណ្ឌ 5-P) ដើម្បីឱ្យការអនុវត្តមានប្រសិទ្ធភាព។ ផ្តល់អំណាចដល់អ្នកប្រើប្រាស់ក្នុងការផ្ទៀងផ្ទាត់ (Verify) ពង្រឹង (Augment) និងអប់រំ (Edify) នៅក្នុងរាល់អន្តរកម្មជាមួយ AI ប្រចាំថ្ងៃ។

ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះផ្តោតលើការកសាងក្របខ័ណ្ឌទ្រឹស្តី និងទម្លាប់របស់អ្នកប្រើប្រាស់ ដូច្នេះវាមិនតម្រូវឱ្យមានធនធានផ្នែករឹង ឬកម្មវិធីកុំព្យូទ័រស្មុគស្មាញនោះទេ ប៉ុន្តែទាមទារការវិនិយោគពេលវេលាលើការអប់រំ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះផ្អែកលើការពិនិត្យឡើងវិញនូវអក្សរសិល្ប៍រួមបញ្ចូលគ្នាពីឆ្នាំ ២០២១ ដល់ ២០២៥ ដែលភាគច្រើនផ្តោតលើគោលនយោបាយសកលលោកខាងលិច (ដូចជា EU AI Act) ទោះបីជាអ្នកនិពន្ធមកពីស្ថាប័ននៅប្រទេសនីហ្សេរីយ៉ាក៏ដោយ។ សម្រាប់ប្រទេសកម្ពុជា ការខ្វះខាតទិន្នន័យជាក់លាក់ក្នុងបរិបទអាស៊ីអាគ្នេយ៍ ទាមទារឱ្យមានការបន្សាំ (Adaptation) ក្របខ័ណ្ឌនេះទៅនឹងកម្រិតនៃការយល់ដឹងផ្នែកឌីជីថល និងប្រព័ន្ធអប់រំក្នុងស្រុក។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ក្របខ័ណ្ឌទ្រឹស្តីនេះមានសារៈសំខាន់ និងអាចអនុវត្តបានយ៉ាងល្អដើម្បីដោះស្រាយបញ្ហាកង្វះអក្ខរកម្ម AI នៅក្នុងប្រទេសកម្ពុជា។

ជារួម ការផ្លាស់ប្តូរផ្នត់គំនិតពីការគ្រាន់តែគោរពតាមច្បាប់ ទៅជាការបង្កើតទម្លាប់ត្រួតពិនិត្យដោយខ្លួនឯងប្រចាំថ្ងៃ នឹងជួយពង្រឹងភាពធន់នៃការយល់ដឹងរបស់ពលរដ្ឋកម្ពុជាក្នុងការប្រើប្រាស់បច្ចេកវិទ្យាទំនើប។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាពីគោលការណ៍អភិបាលកិច្ច AI សកល: ស្វែងយល់ពីគោលនយោបាយសំខាន់ៗដូចជា EU AI Act និង UNESCO Recommendations ដើម្បីយល់ពីទិដ្ឋភាពទូទៅនៃច្បាប់ សីលធម៌ និងការគ្រប់គ្រងហានិភ័យនៃប្រព័ន្ធបញ្ញាសិប្បនិម្មិត។
  2. អនុវត្តក្របខ័ណ្ឌ 5-P មុនពេលប្រើប្រាស់: មុនពេលបើកប្រើឧបករណ៍ដូចជា ChatGPTGemini អ្នកត្រូវរៀបចំការយល់ដឹង (Perception) និងគោលបំណង (Purpose) ឱ្យបានច្បាស់លាស់ជាមុនសិន ដើម្បីមានភាពត្រៀមខ្លួនរួចរាល់ (Preparation) ក្នុងការការពារ (Protection) ខ្លួនពីព័ត៌មានមិនពិត។
  3. បណ្តុះទម្លាប់តាមពិធីការ V.A.L.U.E.: អនុវត្តការផ្ទៀងផ្ទាត់ (Verify) ប្រភពទិន្នន័យដែលទទួលបានពី AI, រៀនសូត្រ (Learn) និងយល់ (Understand) ពីដំណើរការរបស់វា រួចប្រើប្រាស់លទ្ធផលនោះដើម្បីពង្រឹង (Augment) សមត្ថភាពការងាររបស់ខ្លួនឯង ជាជាងការចម្លងយកទាំងស្រុង។
  4. តម្កល់មនុស្សជាកត្តាសម្រេច (Human-in-the-Loop): ក្នុងគ្រប់កិច្ចការស្រាវជ្រាវ ឬការសម្រេចចិត្តអាជីវកម្ម ត្រូវធានាថា AI គ្រាន់តែជាជំនួយការ (Co-pilot) ប៉ុណ្ណោះ ចំណែកការសម្រេចចិត្តចុងក្រោយត្រូវតែឆ្លងកាត់ការវាយតម្លៃផ្នែកសីលធម៌ និងតក្កវិជ្ជាដោយមនុស្សជានិច្ច។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Cognitive atrophy នេះគឺជាការថយចុះ ឬការបាត់បង់សមត្ថភាពគិត វិភាគ និងចងចាំរបស់មនុស្ស ដោយសារតែការពឹងផ្អែកខ្លាំងពេកទៅលើប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ឬបច្ចេកវិទ្យាស្វ័យប្រវត្តិឱ្យគិត និងធ្វើការជំនួសយើងក្នុងរយៈពេលយូរ។ ដូចជាសាច់ដុំរបស់យើងដែលនឹងប្រែជាខ្សោយ និងរួមតូចទៅៗ ប្រសិនបើយើងមិនសូវបញ្ចេញកម្លាំងពលកម្ម ឬហាត់ប្រាណសោះ។
Automation bias នេះជាទំនោរដែលមនុស្សយើងតែងតែជឿជាក់ និងទទួលយកការសម្រេចចិត្ត ឬចម្លើយដែលបង្កើតឡើងដោយម៉ាស៊ីន (AI) ថាជាការពិតត្រឹមត្រូវជានិច្ច ដោយផាត់ចោលការគិតរបស់ខ្លួនឯង ទោះបីជាពេលខ្លះម៉ាស៊ីននោះផ្តល់ចម្លើយខុសក៏ដោយ។ ដូចជាការជឿតាម Google Maps ងងឹតងងុលរហូតដល់បើកឡានធ្លាក់ទឹក ទោះបីជាភ្នែកយើងមើលឃើញផ្លូវខូចនៅខាងមុខក៏ដោយ។
Sociotechnical Systems (STS) theory ទ្រឹស្តីដែលសិក្សាពីទំនាក់ទំនងដ៏ស្មុគស្មាញរវាងប្រព័ន្ធសង្គម (មនុស្ស វប្បធម៌ ការងារ) និងប្រព័ន្ធបច្ចេកទេស (កុំព្យូទ័រ AI) ដោយតម្រូវឱ្យមានការអភិវឌ្ឍន៍ទន្ទឹមគ្នា ដើម្បីធានាថាមនុស្សនៅតែមានតួនាទីសំខាន់នៅពេលបច្ចេកវិទ្យារីកចម្រើន។ ដូចជាការលេងភ្លេងក្នុងវង់តន្ត្រី ដែលឧបករណ៍ភ្លេងទំនើប (បច្ចេកវិទ្យា) និងអ្នកលេងភ្លេង (មនុស្ស) ត្រូវតែស៊ីចង្វាក់គ្នាទើបបង្កើតបានជាបទចម្រៀងដ៏ពីរោះ។
Value Sensitive Design (VSD) វិធីសាស្ត្រក្នុងការបង្កើតបច្ចេកវិទ្យា ដោយបញ្ចូលគុណតម្លៃ សីលធម៌ និងសិទ្ធិរបស់មនុស្សទៅក្នុងដំណាក់កាលរចនា និងអភិវឌ្ឍន៍តាំងពីដំបូង ដើម្បីធានាថាផលិតផលចុងក្រោយមិនធ្វើឱ្យប៉ះពាល់ដល់សង្គម។ ដូចជាការសាងសង់អគារមួយដោយគិតគូរពីផ្លូវសម្រាប់ជនពិការតាំងពីពេលគូរជើងប្លង់ដំបូង មិនមែនសាងសង់រួចទើបរកវិធីវាយជញ្ជាំងថែមថយនោះទេ។
Human-in-the-Loop ជាដំណើរការប្រតិបត្តិការដែលតម្រូវឱ្យមានការចូលរួមពីមនុស្សយ៉ាងសកម្ម ក្នុងការត្រួតពិនិត្យ ផ្ទៀងផ្ទាត់ និងធ្វើការសម្រេចចិត្តចុងក្រោយលើលទ្ធផលដែលបង្កើតដោយ AI ជាជាងទុកឱ្យ AI សម្រេចចិត្តដោយស្វ័យប្រវត្តិទាំងស្រុងដោយគ្មានការត្រួតពិនិត្យ។ ដូចជាការប្រើប្រាស់មុខងារបើកបរស្វ័យប្រវត្តិ (Autopilot) ក្នុងយន្តហោះ ដែលនៅតែតម្រូវឱ្យអាកាសយានិកអង្គុយត្រៀមខ្លួនកាន់ចង្កូតជានិច្ចក្នុងករណីមានអាសន្ន។
Ontological distinction ជាភាពខុសគ្នាជាមូលដ្ឋាននៃធម្មជាតិរវាងវត្ថុពីរ។ នៅក្នុងឯកសារនេះ វាសំដៅលើភាពខុសគ្នាដាច់ស្រឡះរវាង AI ដែលគ្រាន់តែដំណើរការទិន្នន័យតាមប្រូបាប៊ីលីតេ (ទស្សន៍ទាយពាក្យបន្ទាប់) និងមនុស្សដែលមានសមត្ថភាពយល់ដឹងពីអត្ថន័យ និងមានគោលការណ៍សីលធម៌ក្នុងខ្លួន។ ដូចជាភាពខុសគ្នារវាងសត្វសេកដែលអាចត្រាប់តាមសម្តីមនុស្សបាន (AI) និងមនុស្សដែលនិយាយចេញមកដោយយល់ពីអត្ថន័យនៃពាក្យនោះ។
Algorithmic bias ជាកំហុសប្រព័ន្ធដែលមាននៅក្នុងកម្មវិធីកុំព្យូទ័រ ដែលធ្វើឱ្យលទ្ធផលដែលបញ្ចេញមកមានភាពលម្អៀង និងអយុត្តិធម៌ចំពោះក្រុមមនុស្សណាមួយ ដោយសារតែទិន្នន័យដែលគេយកមកបង្វឹក (Train) វាមានភាពលម្អៀងតាំងពីដំបូង។ ដូចជាគ្រូបង្រៀនដែលតែងតែផ្តល់ពិន្ទុល្អដល់សិស្សដែលពាក់វ៉ែនតា ដោយសារតែគាត់មានជំនឿខុសឆ្គងពីមុនមកថាសិស្សពាក់វ៉ែនតាសុទ្ធតែជាសិស្សរៀនពូកែ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖