Original Title: Organizational Responsibility in the Age of Artificial Intelligence: CSR and Algorithmic Ethics in Public-Trust Institutions
Source: doi.org/10.5604/01.3001.0055.5289
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការទទួលខុសត្រូវរបស់ស្ថាប័នក្នុងយុគសម័យបញ្ញាសិប្បនិម្មិត៖ ទំនួលខុសត្រូវសង្គមរបស់ក្រុមហ៊ុន (CSR) និងក្រមសីលធម៌ក្បួនដោះស្រាយ (Algorithmic Ethics) នៅក្នុងស្ថាប័នដែលទទួលបានទំនុកចិត្តពីសាធារណជន

ចំណងជើងដើម៖ Organizational Responsibility in the Age of Artificial Intelligence: CSR and Algorithmic Ethics in Public-Trust Institutions

អ្នកនិពន្ធ៖ Katarzyna Kwaśniewska (University of Economics in Katowice)

ឆ្នាំបោះពុម្ព៖ 2025 Studia Bobolanum

វិស័យសិក្សា៖ Technology Ethics / Management

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយពីបញ្ហាប្រឈមនៃការបែងចែកទំនួលខុសត្រូវផ្លូវច្បាប់ និងសីលធម៌នៅពេលដាក់ពង្រាយប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) ដែលមានហានិភ័យខ្ពស់នៅក្នុងស្ថាប័នដែលទទួលបានទំនុកចិត្តពីសាធារណជន (ដូចជាមន្ទីរពេទ្យ) ដោយសារម៉ូដែល CSR បែបប្រពៃណីមិនបានគ្របដណ្ដប់លើហានិភ័យនៃបច្ចេកវិទ្យាទាំងនេះទេ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់ការរចនាវិធីសាស្ត្រចម្រុះតាមលំដាប់លំដោយ (Explanatory sequential mixed-methods design) ដោយរួមបញ្ចូលការត្រួតពិនិត្យបទប្បញ្ញត្តិ និងការស្រាវជ្រាវផ្ទាល់នៅទីតាំងមន្ទីរពេទ្យ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Traditional CSR Model
ម៉ូដែលទំនួលខុសត្រូវសង្គមរបស់ក្រុមហ៊ុន (CSR) បែបប្រពៃណី
មានភាពចាស់ទុំក្នុងការអនុវត្ត និងគ្របដណ្ដប់បានល្អលើសសរស្តម្ភផ្នែកសេដ្ឋកិច្ច ច្បាប់ សីលធម៌ និងបរិស្ថានរបស់ស្ថាប័ន។ មិនបានដោះស្រាយហានិភ័យជាក់លាក់នៅក្នុងយុគសម័យក្បួនដោះស្រាយ (AI) ដូចជា ភាពលម្អៀងនៃទិន្នន័យ និងភាពស្រពិចស្រពិលនៃម៉ូដែល (Model Opacity) នោះទេ ដែលបណ្តាលឱ្យមានការរសាត់បាត់ទំនួលខុសត្រូវ។ បណ្តាលឱ្យមានចន្លោះប្រហោងក្នុងការគ្រប់គ្រងស្ថាប័នចំនួន ៥ ចំណុចធំៗ និងគ្មានយន្តការច្បាស់លាស់ក្នុងការជូនដំណឹងដល់អ្នកជំងឺ។
RACIAI Framework
ក្របខ័ណ្ឌការងារ RACIAI (អភិបាលកិច្ច AI)
បែងចែកតួនាទីច្បាស់លាស់ (អ្នកអនុវត្ត អ្នកទទួលខុសត្រូវ អ្នកផ្តល់ប្រឹក្សា អ្នកទទួលព័ត៌មាន) សម្រាប់គ្រប់ដំណាក់កាលនៃវដ្តជីវិត AI និងស្របតាមច្បាប់ EU AI Act និងស្តង់ដារ ISO 42001។ ទាមទារការផ្លាស់ប្តូរវប្បធម៌ស្ថាប័នយ៉ាងខ្លាំង ហើយអាចមានការព្រួយបារម្ភអំពីការថយចុះប្រសិទ្ធភាពការងារ (ឧទាហរណ៍ ការពន្យារពេលក្នុងការពិគ្រោះជំងឺដោយសារត្រូវពន្យល់ពី AI)។ ត្រូវបានរំពឹងថានឹងជួយកាត់បន្ថយពេលវេលាឆ្លើយតបទៅនឹងឧប្បត្តិហេតុ កាត់បន្ថយចំនួនសំណើរសុំការបំភ្លឺ និងពង្រឹងទំនុកចិត្តរបស់អ្នកជំងឺនិងសាធារណជន។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអនុវត្តក្របខ័ណ្ឌនេះមិនទាមទារធនធានហិរញ្ញវត្ថុធំដុំសម្រាប់ទិញបច្ចេកវិទ្យាថ្មីនោះទេ ប៉ុន្តែទាមទារការបណ្តុះបណ្តាលបុគ្គលិកយ៉ាងស៊ីជម្រៅ និងការរៀបចំរចនាសម្ព័ន្ធគ្រប់គ្រងពេលវេលា។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះត្រូវបានធ្វើឡើងនៅក្នុងមន្ទីរពេទ្យសាធារណៈធំៗចំនួន ៤ នាភាគខាងត្បូងប្រទេសប៉ូឡូញ ដោយមានអ្នកចូលរួមសម្ភាសន៍ត្រឹមតែ ២៣ នាក់ (គ្រូពេទ្យ វិស្វករ IT និងថ្នាក់ដឹកនាំ)។ ទិន្នន័យនេះឆ្លុះបញ្ចាំងពីបរិបទប្រទេសអឺរ៉ុបដែលមានច្បាប់តឹងរ៉ឹងរួចទៅហើយ។ សម្រាប់ប្រទេសកម្ពុជា ការខ្វះខាតច្បាប់គោលស្តីពី AI និងកម្រិតអក្ខរកម្មឌីជីថលទាប អាចធ្វើឱ្យបញ្ហាប្រឈមនៃ 'ភាពស្រពិចស្រពិលនៃម៉ូដែល AI' (Model Opacity) កាន់តែមានសភាពធ្ងន់ធ្ងរជាងនេះ។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ទោះបីជាកម្ពុជាកំពុងស្ថិតក្នុងដំណាក់កាលដំបូងនៃការប្រើប្រាស់ AI ក៏ដោយ ក៏ការរៀបចំក្របខ័ណ្ឌអភិបាលកិច្ច AI នេះមានសារៈសំខាន់ខ្លាំងណាស់ក្នុងការធានាទំនុកចិត្តសាធារណៈជាមុន។

ការអនុវត្តម៉ូដែល RACIAI នឹងជួយឱ្យស្ថាប័នរដ្ឋនិងឯកជននៅកម្ពុជាផ្លាស់ប្តូរពីការប្រើប្រាស់បច្ចេកវិទ្យាដោយប្រថុយប្រថាន ទៅជាការប្រើប្រាស់ដែលមានការទទួលខុសត្រូវ និងមានការចូលរួមពីភាគីពាក់ព័ន្ធយ៉ាងច្បាស់លាស់។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាស្វែងយល់ពីច្បាប់ និងស្តង់ដារអន្តរជាតិ: និស្សិតគួរអាននិងវិភាគលើឯកសារ EU AI Act និងស្តង់ដារ ISO/IEC 42001 ដើម្បីស្វែងយល់ពីតម្រូវការផ្លូវច្បាប់ និងប្រព័ន្ធគ្រប់គ្រងហានិភ័យ AI ក្នុងកម្រិតអន្តរជាតិ។
  2. សិក្សាពីក្របខ័ណ្ឌការងារបែងចែកការទទួលខុសត្រូវ: រៀនពីរបៀបប្រើប្រាស់ RACI Matrix (Responsible, Accountable, Consulted, Informed) និងសាកល្បងគូសវាសតួនាទីទាំងនេះសម្រាប់គម្រោង AI ណាមួយនៅក្នុងថ្នាក់រៀនរបស់អ្នក។
  3. ចុះស្រាវជ្រាវពីការប្រើប្រាស់ AI ក្នុងស្រុក: ធ្វើការសម្ភាសន៍ខ្នាតតូចជាមួយអ្នកជំនាញ IT ឬគ្រូពេទ្យនៅមន្ទីរពេទ្យឬគ្លីនិកក្នុងស្រុក ដើម្បីស្វែងយល់ពី Pain points ឬចន្លោះប្រហោងនៃការដាក់ពង្រាយបច្ចេកវិទ្យា AI ដូចជាបញ្ហា Model Opacity និងកម្រិតជំនាញឌីជីថល។
  4. បង្កើតសេចក្តីព្រាងគោលការណ៍ណែនាំ: ផ្អែកលើទិន្នន័យស្រាវជ្រាវ សូមបង្កើតសេចក្តីព្រាង Model Cards និងទម្រង់យល់ព្រមពីអ្នកជំងឺ (Consent Forms) ដែលមានបញ្ចូលលក្ខខណ្ឌប្រើប្រាស់ AI សាមញ្ញៗសម្រាប់អនុវត្តក្នុងបរិបទប្រទេសកម្ពុជា។
  5. លើកកម្ពស់អក្ខរកម្មឌីជីថល និងសីលធម៌ AI: រៀបចំសិក្ខាសាលា ឬយុទ្ធនាការយល់ដឹងអំពី Corporate Digital Responsibility (CDR) ដើម្បីជំរុញឱ្យស្ថាប័នសាធារណៈ និងក្រុមហ៊ុនងាកមកចាប់អារម្មណ៍លើតម្លាភាព និងសីលធម៌ក្បួនដោះស្រាយជំនួសឱ្យតែប្រាក់ចំណេញ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Model opacity ស្ថានភាពដែលដំណើរការខាងក្នុងនៃប្រព័ន្ធ AI ត្រូវបានលាក់បាំង ឬមិនអាចស្វែងយល់បាន ដែលធ្វើឱ្យអ្នកប្រើប្រាស់ (ដូចជាគ្រូពេទ្យ) មិនអាចដឹងពីមូលហេតុពិតប្រាកដដែលម៉ាស៊ីនសម្រេចចិត្ត ឬទាញសេចក្តីសន្និដ្ឋានបែបនេះ។ ដូចជាសិស្សដែលទទួលបានពិន្ទុ "A" ពីគ្រូដោយមិនដឹងថាគ្រូដាក់ពិន្ទុលើចំណុចណាខ្លះ (ឃើញតែលទ្ធផល តែមិនដឹងពីក្បួនគណនា)។
RACIAI គឺជាក្របខ័ណ្ឌការងារសម្រាប់កំណត់តួនាទីយ៉ាងច្បាស់លាស់ដល់បុគ្គលិកក្នុងការគ្រប់គ្រងប្រព័ន្ធ AI ក្នុងស្ថាប័ន ដោយបែងចែកជា៖ អ្នកអនុវត្តការងារ (Responsible) អ្នកទទួលខុសត្រូវចុងក្រោយ (Accountable) អ្នកផ្តល់ប្រឹក្សា (Consulted) និងអ្នកដែលត្រូវទទួលព័ត៌មាន (Informed) សម្រាប់គ្រប់វដ្តជីវិតរបស់ AI។ ដូចជាការបែងចែកភារកិច្ចក្នុងចង្ក្រានបាយ៖ ម្នាក់ជាអ្នកហាន់សាច់ ម្នាក់ជាមេចុងភៅធំ ម្នាក់ជាអ្នកភ្លក់ និងម្នាក់ទៀតជាអ្នកញ៉ាំដែលត្រូវដឹងពីគ្រឿងផ្សំ។
Responsibility drift គឺជាបាតុភូតដែលការទទួលខុសត្រូវត្រូវបានរសាត់បាត់ ឬបែកខ្ញែកនៅពេលមានកំហុសកើតឡើង ព្រោះការសម្រេចចិត្តពឹងផ្អែកលើម៉ាស៊ីន ហើយមានការចូលរួមពីភាគីច្រើន (អ្នកបង្កើត អ្នកប្រើ ថ្នាក់ដឹកនាំ) ដោយគ្មានអ្នកណាចេញមុខទទួលកំហុសផ្ទាល់។ ដូចជាការជិះឡានក្រុងដែលគ្មានអ្នកបើកបរផ្ទាល់ ពេលមានគ្រោះថ្នាក់ គ្មាននរណាម្នាក់ទទួលខុសត្រូវច្បាស់លាស់ ព្រោះម្នាក់ៗរុញទម្លាក់កំហុសដាក់គ្នា។
Corporate Digital Responsibility (CDR) ជាការការពង្រីកគោលការណ៍ទំនួលខុសត្រូវសង្គមរបស់ក្រុមហ៊ុន (CSR) ទៅក្នុងពិភពឌីជីថល ដោយតម្រូវឱ្យស្ថាប័នធានាលើសិទ្ធិទិន្នន័យ ភាពយុត្តិធម៌នៃក្បួនដោះស្រាយ និងតម្លាភាពក្នុងការប្រើប្រាស់បច្ចេកវិទ្យា។ ដូចជាច្បាប់វិន័យសាលាដែលពីមុនហាមតែការវាយតប់គ្នាផ្ទាល់ ឥឡូវត្រូវបន្ថែមច្បាប់ហាមមិនឱ្យគំរាមកំហែងគ្នាតាមបណ្តាញសង្គម (Cyberbullying) ទៀត។
Saliency maps ជាបច្ចេកទេសក្នុងប្រព័ន្ធបញ្ញាសិប្បនិម្មិតដែលជួយពន្យល់ពីការសម្រេចចិត្តរបស់វា ដោយការគូសបញ្ជាក់ ឬបង្ហាញពណ៌លើចំណុចសំខាន់ៗនៃទិន្នន័យ (ឧទាហរណ៍ លើរូបភាពកាំរស្មី X) ដែលម៉ាស៊ីនបានផ្តោតដើម្បីធ្វើរោគវិនិច្ឆ័យ។ ដូចជាការយកហ្វឺត (Highlighter) ទៅគូសចំណាំលើពាក្យគន្លឹះក្នុងសៀវភៅ ដើម្បីបង្ហាញប្រាប់ថាយើងបានចម្លើយនេះមកពីកន្លែងណា។
Counterfactual explanations ការពន្យល់ពីលទ្ធផលរបស់ប្រព័ន្ធ AI ដោយបង្ហាញប្រាប់ថាតើត្រូវផ្លាស់ប្តូរទិន្នន័យត្រង់ណាខ្លះ ទើបលទ្ធផលនោះអាចផ្លាស់ប្តូរទៅជាទម្រង់ផ្សេងមួយទៀត (ឧ. បើអាយុតិចជាងនេះ ៥ឆ្នាំ AI នឹងមិនចាត់ទុកថាមានជំងឺទេ)។ ដូចជាការប្រាប់សិស្សថា "បើអ្នកខំរៀនគណិតវិទ្យាថែម ១ម៉ោងទៀតក្នុងមួយថ្ងៃ អ្នកនឹងប្រឡងជាប់មិនខាន"។
Algorithmic Ethics សាខានៃក្រមសីលធម៌បច្ចេកវិទ្យាដែលសិក្សាអំពីការរចនា និងការប្រើប្រាស់ក្បួនដោះស្រាយ (Algorithms) ដើម្បីធានាថាពួកវាមិនមានភាពលម្អៀង ផ្តល់ភាពយុត្តិធម៌ និងមិនបង្កគ្រោះថ្នាក់ដល់សង្គមមនុស្ស។ ដូចជាការអប់រំក្មេងតូចម្នាក់ឱ្យចេះបែងចែកខុសនិងត្រូវ មុននឹងអនុញ្ញាតឱ្យគេទៅលេងជាមួយមិត្តភក្តិ ដើម្បីកុំឱ្យគេមានចរិតរើសអើងអ្នកដទៃ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖