បញ្ហា (The Problem)៖ ការរួមបញ្ចូលយ៉ាងឆាប់រហ័សនៃបញ្ញាសិប្បនិម្មិត (AI) បានបង្កើតឱ្យមានគម្លាតអភិបាលកិច្ច ដែលបទប្បញ្ញត្តិកម្រិតខ្ពស់បរាជ័យក្នុងការផ្តល់ការណែនាំដែលអាចអនុវត្តបានសម្រាប់អ្នកប្រើប្រាស់ប្រចាំថ្ងៃ ដែលបណ្តាលឱ្យមានហានិភ័យដូចជាការថយចុះសមត្ថភាពយល់ដឹង និងភាពលម្អៀងនៃស្វ័យប្រវត្តិកម្ម។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះបានធ្វើការត្រួតពិនិត្យអក្សរសិល្ប៍ចម្រុះដោយប្រើប្រាស់ទ្រឹស្តីសំខាន់ៗចំនួនពីរ ដើម្បីសំយោគចេញនូវក្របខ័ណ្ឌប្រតិបត្តិការសម្រាប់អ្នកប្រើប្រាស់។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Global AI Governance (EU AI Act / UNESCO) អភិបាលកិច្ច AI សកល (ច្បាប់ EU AI / អនុសាសន៍ UNESCO) |
ផ្តល់នូវរបាំងការពារជាមូលដ្ឋាន បទប្បញ្ញត្តិ និងស្តង់ដារសីលធម៌សម្រាប់អ្នកអភិវឌ្ឍន៍និងរដ្ឋាភិបាល។ | ជាយន្តការចេញបញ្ជាពីលើចុះក្រោម (Top-Down) ដែលខ្វះការណែនាំជាក់ស្តែងប្រចាំថ្ងៃសម្រាប់អ្នកប្រើប្រាស់ទូទៅ ធ្វើឱ្យពួកគេងាយរងគ្រោះដោយសារកង្វះចំណេះដឹង។ | តម្រូវឱ្យមានការត្រួតពិនិត្យពីមនុស្សចំពោះប្រព័ន្ធដែលមានហានិភ័យខ្ពស់ (Ensure Human Oversight) ដោយផ្តោតលើការអនុលោមតាមច្បាប់។ |
| V.A.L.U.E. Framework ក្របខ័ណ្ឌ V.A.L.U.E. |
ផ្តល់ការណែនាំជាក់ស្តែងពីក្រោមឡើងលើ (Bottom-Up) ជួយអ្នកប្រើប្រាស់ម្នាក់ៗកសាងទម្លាប់ត្រួតពិនិត្យ និងរក្សាភាពជាម្ចាស់ការលើ AI ។ | ទាមទារការប្តេជ្ញាចិត្តផ្ទាល់ខ្លួនខ្ពស់ និងការអប់រំជាមុន (ដូចជាក្របខ័ណ្ឌ 5-P) ដើម្បីឱ្យការអនុវត្តមានប្រសិទ្ធភាព។ | ផ្តល់អំណាចដល់អ្នកប្រើប្រាស់ក្នុងការផ្ទៀងផ្ទាត់ (Verify) ពង្រឹង (Augment) និងអប់រំ (Edify) នៅក្នុងរាល់អន្តរកម្មជាមួយ AI ប្រចាំថ្ងៃ។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះផ្តោតលើការកសាងក្របខ័ណ្ឌទ្រឹស្តី និងទម្លាប់របស់អ្នកប្រើប្រាស់ ដូច្នេះវាមិនតម្រូវឱ្យមានធនធានផ្នែករឹង ឬកម្មវិធីកុំព្យូទ័រស្មុគស្មាញនោះទេ ប៉ុន្តែទាមទារការវិនិយោគពេលវេលាលើការអប់រំ។
ការសិក្សានេះផ្អែកលើការពិនិត្យឡើងវិញនូវអក្សរសិល្ប៍រួមបញ្ចូលគ្នាពីឆ្នាំ ២០២១ ដល់ ២០២៥ ដែលភាគច្រើនផ្តោតលើគោលនយោបាយសកលលោកខាងលិច (ដូចជា EU AI Act) ទោះបីជាអ្នកនិពន្ធមកពីស្ថាប័ននៅប្រទេសនីហ្សេរីយ៉ាក៏ដោយ។ សម្រាប់ប្រទេសកម្ពុជា ការខ្វះខាតទិន្នន័យជាក់លាក់ក្នុងបរិបទអាស៊ីអាគ្នេយ៍ ទាមទារឱ្យមានការបន្សាំ (Adaptation) ក្របខ័ណ្ឌនេះទៅនឹងកម្រិតនៃការយល់ដឹងផ្នែកឌីជីថល និងប្រព័ន្ធអប់រំក្នុងស្រុក។
ក្របខ័ណ្ឌទ្រឹស្តីនេះមានសារៈសំខាន់ និងអាចអនុវត្តបានយ៉ាងល្អដើម្បីដោះស្រាយបញ្ហាកង្វះអក្ខរកម្ម AI នៅក្នុងប្រទេសកម្ពុជា។
ជារួម ការផ្លាស់ប្តូរផ្នត់គំនិតពីការគ្រាន់តែគោរពតាមច្បាប់ ទៅជាការបង្កើតទម្លាប់ត្រួតពិនិត្យដោយខ្លួនឯងប្រចាំថ្ងៃ នឹងជួយពង្រឹងភាពធន់នៃការយល់ដឹងរបស់ពលរដ្ឋកម្ពុជាក្នុងការប្រើប្រាស់បច្ចេកវិទ្យាទំនើប។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Cognitive atrophy | នេះគឺជាការថយចុះ ឬការបាត់បង់សមត្ថភាពគិត វិភាគ និងចងចាំរបស់មនុស្ស ដោយសារតែការពឹងផ្អែកខ្លាំងពេកទៅលើប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ឬបច្ចេកវិទ្យាស្វ័យប្រវត្តិឱ្យគិត និងធ្វើការជំនួសយើងក្នុងរយៈពេលយូរ។ | ដូចជាសាច់ដុំរបស់យើងដែលនឹងប្រែជាខ្សោយ និងរួមតូចទៅៗ ប្រសិនបើយើងមិនសូវបញ្ចេញកម្លាំងពលកម្ម ឬហាត់ប្រាណសោះ។ |
| Automation bias | នេះជាទំនោរដែលមនុស្សយើងតែងតែជឿជាក់ និងទទួលយកការសម្រេចចិត្ត ឬចម្លើយដែលបង្កើតឡើងដោយម៉ាស៊ីន (AI) ថាជាការពិតត្រឹមត្រូវជានិច្ច ដោយផាត់ចោលការគិតរបស់ខ្លួនឯង ទោះបីជាពេលខ្លះម៉ាស៊ីននោះផ្តល់ចម្លើយខុសក៏ដោយ។ | ដូចជាការជឿតាម Google Maps ងងឹតងងុលរហូតដល់បើកឡានធ្លាក់ទឹក ទោះបីជាភ្នែកយើងមើលឃើញផ្លូវខូចនៅខាងមុខក៏ដោយ។ |
| Sociotechnical Systems (STS) theory | ទ្រឹស្តីដែលសិក្សាពីទំនាក់ទំនងដ៏ស្មុគស្មាញរវាងប្រព័ន្ធសង្គម (មនុស្ស វប្បធម៌ ការងារ) និងប្រព័ន្ធបច្ចេកទេស (កុំព្យូទ័រ AI) ដោយតម្រូវឱ្យមានការអភិវឌ្ឍន៍ទន្ទឹមគ្នា ដើម្បីធានាថាមនុស្សនៅតែមានតួនាទីសំខាន់នៅពេលបច្ចេកវិទ្យារីកចម្រើន។ | ដូចជាការលេងភ្លេងក្នុងវង់តន្ត្រី ដែលឧបករណ៍ភ្លេងទំនើប (បច្ចេកវិទ្យា) និងអ្នកលេងភ្លេង (មនុស្ស) ត្រូវតែស៊ីចង្វាក់គ្នាទើបបង្កើតបានជាបទចម្រៀងដ៏ពីរោះ។ |
| Value Sensitive Design (VSD) | វិធីសាស្ត្រក្នុងការបង្កើតបច្ចេកវិទ្យា ដោយបញ្ចូលគុណតម្លៃ សីលធម៌ និងសិទ្ធិរបស់មនុស្សទៅក្នុងដំណាក់កាលរចនា និងអភិវឌ្ឍន៍តាំងពីដំបូង ដើម្បីធានាថាផលិតផលចុងក្រោយមិនធ្វើឱ្យប៉ះពាល់ដល់សង្គម។ | ដូចជាការសាងសង់អគារមួយដោយគិតគូរពីផ្លូវសម្រាប់ជនពិការតាំងពីពេលគូរជើងប្លង់ដំបូង មិនមែនសាងសង់រួចទើបរកវិធីវាយជញ្ជាំងថែមថយនោះទេ។ |
| Human-in-the-Loop | ជាដំណើរការប្រតិបត្តិការដែលតម្រូវឱ្យមានការចូលរួមពីមនុស្សយ៉ាងសកម្ម ក្នុងការត្រួតពិនិត្យ ផ្ទៀងផ្ទាត់ និងធ្វើការសម្រេចចិត្តចុងក្រោយលើលទ្ធផលដែលបង្កើតដោយ AI ជាជាងទុកឱ្យ AI សម្រេចចិត្តដោយស្វ័យប្រវត្តិទាំងស្រុងដោយគ្មានការត្រួតពិនិត្យ។ | ដូចជាការប្រើប្រាស់មុខងារបើកបរស្វ័យប្រវត្តិ (Autopilot) ក្នុងយន្តហោះ ដែលនៅតែតម្រូវឱ្យអាកាសយានិកអង្គុយត្រៀមខ្លួនកាន់ចង្កូតជានិច្ចក្នុងករណីមានអាសន្ន។ |
| Ontological distinction | ជាភាពខុសគ្នាជាមូលដ្ឋាននៃធម្មជាតិរវាងវត្ថុពីរ។ នៅក្នុងឯកសារនេះ វាសំដៅលើភាពខុសគ្នាដាច់ស្រឡះរវាង AI ដែលគ្រាន់តែដំណើរការទិន្នន័យតាមប្រូបាប៊ីលីតេ (ទស្សន៍ទាយពាក្យបន្ទាប់) និងមនុស្សដែលមានសមត្ថភាពយល់ដឹងពីអត្ថន័យ និងមានគោលការណ៍សីលធម៌ក្នុងខ្លួន។ | ដូចជាភាពខុសគ្នារវាងសត្វសេកដែលអាចត្រាប់តាមសម្តីមនុស្សបាន (AI) និងមនុស្សដែលនិយាយចេញមកដោយយល់ពីអត្ថន័យនៃពាក្យនោះ។ |
| Algorithmic bias | ជាកំហុសប្រព័ន្ធដែលមាននៅក្នុងកម្មវិធីកុំព្យូទ័រ ដែលធ្វើឱ្យលទ្ធផលដែលបញ្ចេញមកមានភាពលម្អៀង និងអយុត្តិធម៌ចំពោះក្រុមមនុស្សណាមួយ ដោយសារតែទិន្នន័យដែលគេយកមកបង្វឹក (Train) វាមានភាពលម្អៀងតាំងពីដំបូង។ | ដូចជាគ្រូបង្រៀនដែលតែងតែផ្តល់ពិន្ទុល្អដល់សិស្សដែលពាក់វ៉ែនតា ដោយសារតែគាត់មានជំនឿខុសឆ្គងពីមុនមកថាសិស្សពាក់វ៉ែនតាសុទ្ធតែជាសិស្សរៀនពូកែ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖