បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយពីបញ្ហាប្រឈមនៃការបែងចែកទំនួលខុសត្រូវផ្លូវច្បាប់ និងសីលធម៌នៅពេលដាក់ពង្រាយប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដែលមានហានិភ័យខ្ពស់នៅក្នុងស្ថាប័នដែលទទួលបានទំនុកចិត្តពីសាធារណជន (ដូចជាមន្ទីរពេទ្យ) ដោយសារម៉ូដែល CSR បែបប្រពៃណីមិនបានគ្របដណ្ដប់លើហានិភ័យនៃបច្ចេកវិទ្យាទាំងនេះទេ។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់ការរចនាវិធីសាស្ត្រចម្រុះតាមលំដាប់លំដោយ (Explanatory sequential mixed-methods design) ដោយរួមបញ្ចូលការត្រួតពិនិត្យបទប្បញ្ញត្តិ និងការស្រាវជ្រាវផ្ទាល់នៅទីតាំងមន្ទីរពេទ្យ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Traditional CSR Model ម៉ូដែលទំនួលខុសត្រូវសង្គមរបស់ក្រុមហ៊ុន (CSR) បែបប្រពៃណី |
មានភាពចាស់ទុំក្នុងការអនុវត្ត និងគ្របដណ្ដប់បានល្អលើសសរស្តម្ភផ្នែកសេដ្ឋកិច្ច ច្បាប់ សីលធម៌ និងបរិស្ថានរបស់ស្ថាប័ន។ | មិនបានដោះស្រាយហានិភ័យជាក់លាក់នៅក្នុងយុគសម័យក្បួនដោះស្រាយ (AI) ដូចជា ភាពលម្អៀងនៃទិន្នន័យ និងភាពស្រពិចស្រពិលនៃម៉ូដែល (Model Opacity) នោះទេ ដែលបណ្តាលឱ្យមានការរសាត់បាត់ទំនួលខុសត្រូវ។ | បណ្តាលឱ្យមានចន្លោះប្រហោងក្នុងការគ្រប់គ្រងស្ថាប័នចំនួន ៥ ចំណុចធំៗ និងគ្មានយន្តការច្បាស់លាស់ក្នុងការជូនដំណឹងដល់អ្នកជំងឺ។ |
| RACIAI Framework ក្របខ័ណ្ឌការងារ RACIAI (អភិបាលកិច្ច AI) |
បែងចែកតួនាទីច្បាស់លាស់ (អ្នកអនុវត្ត អ្នកទទួលខុសត្រូវ អ្នកផ្តល់ប្រឹក្សា អ្នកទទួលព័ត៌មាន) សម្រាប់គ្រប់ដំណាក់កាលនៃវដ្តជីវិត AI និងស្របតាមច្បាប់ EU AI Act និងស្តង់ដារ ISO 42001។ | ទាមទារការផ្លាស់ប្តូរវប្បធម៌ស្ថាប័នយ៉ាងខ្លាំង ហើយអាចមានការព្រួយបារម្ភអំពីការថយចុះប្រសិទ្ធភាពការងារ (ឧទាហរណ៍ ការពន្យារពេលក្នុងការពិគ្រោះជំងឺដោយសារត្រូវពន្យល់ពី AI)។ | ត្រូវបានរំពឹងថានឹងជួយកាត់បន្ថយពេលវេលាឆ្លើយតបទៅនឹងឧប្បត្តិហេតុ កាត់បន្ថយចំនួនសំណើរសុំការបំភ្លឺ និងពង្រឹងទំនុកចិត្តរបស់អ្នកជំងឺនិងសាធារណជន។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តក្របខ័ណ្ឌនេះមិនទាមទារធនធានហិរញ្ញវត្ថុធំដុំសម្រាប់ទិញបច្ចេកវិទ្យាថ្មីនោះទេ ប៉ុន្តែទាមទារការបណ្តុះបណ្តាលបុគ្គលិកយ៉ាងស៊ីជម្រៅ និងការរៀបចំរចនាសម្ព័ន្ធគ្រប់គ្រងពេលវេលា។
ការសិក្សានេះត្រូវបានធ្វើឡើងនៅក្នុងមន្ទីរពេទ្យសាធារណៈធំៗចំនួន ៤ នាភាគខាងត្បូងប្រទេសប៉ូឡូញ ដោយមានអ្នកចូលរួមសម្ភាសន៍ត្រឹមតែ ២៣ នាក់ (គ្រូពេទ្យ វិស្វករ IT និងថ្នាក់ដឹកនាំ)។ ទិន្នន័យនេះឆ្លុះបញ្ចាំងពីបរិបទប្រទេសអឺរ៉ុបដែលមានច្បាប់តឹងរ៉ឹងរួចទៅហើយ។ សម្រាប់ប្រទេសកម្ពុជា ការខ្វះខាតច្បាប់គោលស្តីពី AI និងកម្រិតអក្ខរកម្មឌីជីថលទាប អាចធ្វើឱ្យបញ្ហាប្រឈមនៃ 'ភាពស្រពិចស្រពិលនៃម៉ូដែល AI' (Model Opacity) កាន់តែមានសភាពធ្ងន់ធ្ងរជាងនេះ។
ទោះបីជាកម្ពុជាកំពុងស្ថិតក្នុងដំណាក់កាលដំបូងនៃការប្រើប្រាស់ AI ក៏ដោយ ក៏ការរៀបចំក្របខ័ណ្ឌអភិបាលកិច្ច AI នេះមានសារៈសំខាន់ខ្លាំងណាស់ក្នុងការធានាទំនុកចិត្តសាធារណៈជាមុន។
ការអនុវត្តម៉ូដែល RACIAI នឹងជួយឱ្យស្ថាប័នរដ្ឋនិងឯកជននៅកម្ពុជាផ្លាស់ប្តូរពីការប្រើប្រាស់បច្ចេកវិទ្យាដោយប្រថុយប្រថាន ទៅជាការប្រើប្រាស់ដែលមានការទទួលខុសត្រូវ និងមានការចូលរួមពីភាគីពាក់ព័ន្ធយ៉ាងច្បាស់លាស់។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Model opacity | ស្ថានភាពដែលដំណើរការខាងក្នុងនៃប្រព័ន្ធ AI ត្រូវបានលាក់បាំង ឬមិនអាចស្វែងយល់បាន ដែលធ្វើឱ្យអ្នកប្រើប្រាស់ (ដូចជាគ្រូពេទ្យ) មិនអាចដឹងពីមូលហេតុពិតប្រាកដដែលម៉ាស៊ីនសម្រេចចិត្ត ឬទាញសេចក្តីសន្និដ្ឋានបែបនេះ។ | ដូចជាសិស្សដែលទទួលបានពិន្ទុ "A" ពីគ្រូដោយមិនដឹងថាគ្រូដាក់ពិន្ទុលើចំណុចណាខ្លះ (ឃើញតែលទ្ធផល តែមិនដឹងពីក្បួនគណនា)។ |
| RACIAI | គឺជាក្របខ័ណ្ឌការងារសម្រាប់កំណត់តួនាទីយ៉ាងច្បាស់លាស់ដល់បុគ្គលិកក្នុងការគ្រប់គ្រងប្រព័ន្ធ AI ក្នុងស្ថាប័ន ដោយបែងចែកជា៖ អ្នកអនុវត្តការងារ (Responsible) អ្នកទទួលខុសត្រូវចុងក្រោយ (Accountable) អ្នកផ្តល់ប្រឹក្សា (Consulted) និងអ្នកដែលត្រូវទទួលព័ត៌មាន (Informed) សម្រាប់គ្រប់វដ្តជីវិតរបស់ AI។ | ដូចជាការបែងចែកភារកិច្ចក្នុងចង្ក្រានបាយ៖ ម្នាក់ជាអ្នកហាន់សាច់ ម្នាក់ជាមេចុងភៅធំ ម្នាក់ជាអ្នកភ្លក់ និងម្នាក់ទៀតជាអ្នកញ៉ាំដែលត្រូវដឹងពីគ្រឿងផ្សំ។ |
| Responsibility drift | គឺជាបាតុភូតដែលការទទួលខុសត្រូវត្រូវបានរសាត់បាត់ ឬបែកខ្ញែកនៅពេលមានកំហុសកើតឡើង ព្រោះការសម្រេចចិត្តពឹងផ្អែកលើម៉ាស៊ីន ហើយមានការចូលរួមពីភាគីច្រើន (អ្នកបង្កើត អ្នកប្រើ ថ្នាក់ដឹកនាំ) ដោយគ្មានអ្នកណាចេញមុខទទួលកំហុសផ្ទាល់។ | ដូចជាការជិះឡានក្រុងដែលគ្មានអ្នកបើកបរផ្ទាល់ ពេលមានគ្រោះថ្នាក់ គ្មាននរណាម្នាក់ទទួលខុសត្រូវច្បាស់លាស់ ព្រោះម្នាក់ៗរុញទម្លាក់កំហុសដាក់គ្នា។ |
| Corporate Digital Responsibility (CDR) | ជាការការពង្រីកគោលការណ៍ទំនួលខុសត្រូវសង្គមរបស់ក្រុមហ៊ុន (CSR) ទៅក្នុងពិភពឌីជីថល ដោយតម្រូវឱ្យស្ថាប័នធានាលើសិទ្ធិទិន្នន័យ ភាពយុត្តិធម៌នៃក្បួនដោះស្រាយ និងតម្លាភាពក្នុងការប្រើប្រាស់បច្ចេកវិទ្យា។ | ដូចជាច្បាប់វិន័យសាលាដែលពីមុនហាមតែការវាយតប់គ្នាផ្ទាល់ ឥឡូវត្រូវបន្ថែមច្បាប់ហាមមិនឱ្យគំរាមកំហែងគ្នាតាមបណ្តាញសង្គម (Cyberbullying) ទៀត។ |
| Saliency maps | ជាបច្ចេកទេសក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិតដែលជួយពន្យល់ពីការសម្រេចចិត្តរបស់វា ដោយការគូសបញ្ជាក់ ឬបង្ហាញពណ៌លើចំណុចសំខាន់ៗនៃទិន្នន័យ (ឧទាហរណ៍ លើរូបភាពកាំរស្មី X) ដែលម៉ាស៊ីនបានផ្តោតដើម្បីធ្វើរោគវិនិច្ឆ័យ។ | ដូចជាការយកហ្វឺត (Highlighter) ទៅគូសចំណាំលើពាក្យគន្លឹះក្នុងសៀវភៅ ដើម្បីបង្ហាញប្រាប់ថាយើងបានចម្លើយនេះមកពីកន្លែងណា។ |
| Counterfactual explanations | ការពន្យល់ពីលទ្ធផលរបស់ប្រព័ន្ធ AI ដោយបង្ហាញប្រាប់ថាតើត្រូវផ្លាស់ប្តូរទិន្នន័យត្រង់ណាខ្លះ ទើបលទ្ធផលនោះអាចផ្លាស់ប្តូរទៅជាទម្រង់ផ្សេងមួយទៀត (ឧ. បើអាយុតិចជាងនេះ ៥ឆ្នាំ AI នឹងមិនចាត់ទុកថាមានជំងឺទេ)។ | ដូចជាការប្រាប់សិស្សថា "បើអ្នកខំរៀនគណិតវិទ្យាថែម ១ម៉ោងទៀតក្នុងមួយថ្ងៃ អ្នកនឹងប្រឡងជាប់មិនខាន"។ |
| Algorithmic Ethics | សាខានៃក្រមសីលធម៌បច្ចេកវិទ្យាដែលសិក្សាអំពីការរចនា និងការប្រើប្រាស់ក្បួនដោះស្រាយ (Algorithms) ដើម្បីធានាថាពួកវាមិនមានភាពលម្អៀង ផ្តល់ភាពយុត្តិធម៌ និងមិនបង្កគ្រោះថ្នាក់ដល់សង្គមមនុស្ស។ | ដូចជាការអប់រំក្មេងតូចម្នាក់ឱ្យចេះបែងចែកខុសនិងត្រូវ មុននឹងអនុញ្ញាតឱ្យគេទៅលេងជាមួយមិត្តភក្តិ ដើម្បីកុំឱ្យគេមានចរិតរើសអើងអ្នកដទៃ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖