បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយអំពីបញ្ហាប្រឈមផ្នែកសីលធម៌ និងតម្រូវការយន្តការអភិបាលកិច្ចដ៏រឹងមាំ នៅពេលដែលស្ថាប័ននានាបញ្ចូលបច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិត (AI) ទៅក្នុងដំណើរការសម្រេចចិត្តអាជីវកម្មសំខាន់ៗ ដែលអាចនាំឱ្យមានភាពលម្អៀង និងបញ្ហាសុវត្ថិភាព។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់វិធីសាស្ត្រស្រាវជ្រាវបែបគុណវិស័យ ដើម្បីពិនិត្យមើលអក្សរសិល្ប៍បច្ចុប្បន្ន ករណីសិក្សាជាក់ស្តែង និងវាយតម្លៃក្របខ័ណ្ឌបទប្បញ្ញត្តិ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| EU AI Act Framework ក្របខ័ណ្ឌច្បាប់ AI របស់សហភាពអឺរ៉ុប |
មានវិធីសាស្ត្រចាត់ថ្នាក់ហានិភ័យ (Risk-based approach) ច្បាស់លាស់ ដោយផ្តល់អាទិភាពលើសុវត្ថិភាព សុវត្ថិភាពទិន្នន័យ និងសិទ្ធិជាមូលដ្ឋាន។ | ទាមទារឱ្យមានការវាយតម្លៃហានិភ័យយ៉ាងតឹងរ៉ឹងជាប្រចាំ ដែលអាចបង្កើតជាបន្ទុក និងឧបសគ្គដល់ការច្នៃប្រឌិតរបស់អ្នកអភិវឌ្ឍន៍។ | បង្កើតបរិយាកាសអភិវឌ្ឍន៍ AI ដែលអាចទុកចិត្តបានបំផុត ជាមួយនឹងការត្រួតពិនិត្យ និងការរាយការណ៍កំហុសយ៉ាងតឹងរ៉ឹងពីអាជ្ញាធរ។ |
| Singapore National AI Strategy (AI Verify) យុទ្ធសាស្ត្រ AI ជាតិ និងក្របខ័ណ្ឌ AI Verify របស់សិង្ហបុរី |
ផ្តល់នូវក្របខ័ណ្ឌសាកល្បងគណនេយ្យភាពដែលអាចបត់បែនបាន និងលើកទឹកចិត្តឱ្យក្រុមហ៊ុនសហការដោយស្ម័គ្រចិត្តដោយមិនរារាំងការលូតលាស់អាជីវកម្ម។ | ដោយសារតែមានភាពស្ម័គ្រចិត្ត វាអាចធ្វើឱ្យការអនុវត្តស្តង់ដារមិនមានភាពស្មើគ្នានៅគ្រប់ស្ថាប័នទាំងអស់។ | ទទួលបានការគាំទ្រពីក្រុមហ៊ុនបច្ចេកវិទ្យាធំៗ (Google, Meta, Microsoft) ដើម្បីជំរុញឱ្យមានតម្លាភាព និងប្រតិបត្តិការប្រកបដោយសមធម៌។ |
| OECD AI Guidelines គោលការណ៍ណែនាំ AI របស់អង្គការ OECD |
ជាក្របខ័ណ្ឌស្តង់ដារសកលដែលអាចអនុវត្តបានទូលំទូលាយ ដោយផ្តោតលើតម្លៃប្រជាធិបតេយ្យ កំណើនប្រកបដោយបរិយាប័ន្ន និងសុវត្ថិភាពរឹងមាំ។ | ជាគោលការណ៍ណែនាំកម្រិតខ្ពស់ ដែលខ្វះយន្តការអនុវត្តច្បាប់ដាក់ទណ្ឌកម្មជាក់លាក់។ | បង្កើតស្តង់ដារសម្រាប់ការរាយការណ៍ដោយបើកចំហ ធ្វើឱ្យប្រព័ន្ធ AI អាចតាមដានបាន និងជំរុញការទទួលខុសត្រូវរាល់ដំណើរការទាំងអស់។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ទោះបីជាឯកសារនេះមិនមែនជាការសិក្សាផ្នែកបច្ចេកទេសកូដក៏ដោយ ការអនុវត្តអភិបាលកិច្ច AI តាមស្តង់ដារតម្រូវឱ្យមានការវិនិយោគលើប្រព័ន្ធសុវត្ថិភាពបច្ចេកវិទ្យា និងជំនាញឯកទេស។
ការសិក្សានេះផ្អែកលើការវិភាគអក្សរសិល្ប៍ និងក្របខ័ណ្ឌបទប្បញ្ញត្តិមកពីប្រទេស និងតំបន់អភិវឌ្ឍន៍ ដូចជា សហភាពអឺរ៉ុប សិង្ហបុរី និងសហរដ្ឋអាមេរិក។ វាមិនបានឆ្លុះបញ្ចាំងពីបរិបទវប្បធម៌ ឬបញ្ហាប្រឈមនៃធនធាននៅក្នុងប្រទេសកំពុងអភិវឌ្ឍន៍ឡើយ។ សម្រាប់កម្ពុជា វាជារឿងសំខាន់ក្នុងការសម្របក្របខ័ណ្ឌទាំងនេះទៅនឹងស្ថានភាពជាក់ស្តែង ដែលនៅមានកម្រិតផ្នែកច្បាប់បច្ចេកវិទ្យា និងកង្វះខាតហេដ្ឋារចនាសម្ព័ន្ធទិន្នន័យជាតិ។
ទោះបីជាមានភាពខុសគ្នានៃកម្រិតអភិវឌ្ឍន៍ក៏ដោយ គោលការណ៍សីលធម៌ និងអភិបាលកិច្ច AI ទាំងនេះមានសារៈសំខាន់យ៉ាងខ្លាំងសម្រាប់ប្រទេសកម្ពុជា ខណៈដែលការផ្លាស់ប្តូរឌីជីថលកំពុងកើនឡើងលឿនរហ័ស។
ការរៀបចំ និងអនុវត្តក្របខ័ណ្ឌអភិបាលកិច្ចសីលធម៌ AI តាំងពីដំណាក់កាលដំបូងនេះ នឹងធានាបានថា ការអភិវឌ្ឍបច្ចេកវិទ្យានៅកម្ពុជាប្រព្រឹត្តទៅប្រកបដោយសុវត្ថិភាព សមធម៌ និងមានការទទួលខុសត្រូវខ្ពស់។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Algorithmic biases | ភាពលម្អៀង ឬការរើសអើងដែលកើតមាននៅក្នុងប្រព័ន្ធកុំព្យូទ័រដោយសារតែទិន្នន័យដែលវាបានរៀនមានផ្ទុកនូវអគតិរបស់មនុស្ស ឬទិន្នន័យមិនតំណាងគ្រប់ជ្រុងជ្រោយ ដែលធ្វើឱ្យប្រព័ន្ធសម្រេចចិត្តលម្អៀងទៅរកក្រុមណាមួយ។ | ដូចជាការបង្រៀនកូនក្មេងដោយប្រើសៀវភៅដែលមានព័ត៌មានលម្អៀង កូននោះនឹងធំឡើងដោយធ្វើសកម្មភាពតាមព័ត៌មានមិនត្រឹមត្រូវនោះ។ |
| AI governance | ក្របខ័ណ្ឌច្បាប់ គោលការណ៍ នីតិវិធី និងការអនុវត្តដែលត្រូវបានបង្កើតឡើងដើម្បីធានាថាការអភិវឌ្ឍ និងការប្រើប្រាស់បញ្ញាសិប្បនិម្មិតប្រព្រឹត្តទៅដោយសុវត្ថិភាព សីលធម៌ មានគណនេយ្យភាព និងការពារផលប្រយោជន៍អ្នកពាក់ព័ន្ធទាំងអស់។ | ដូចជាការបង្កើតច្បាប់ចរាចរណ៍ដែលគ្រប់គ្រងការបើកបរ ដើម្បីធានាសុវត្ថិភាពដល់អ្នកប្រើប្រាស់ផ្លូវទាំងអស់កុំឱ្យមានគ្រោះថ្នាក់។ |
| Algorithmic transparency | សមត្ថភាពក្នុងការមើលឃើញ និងយល់ពីរបៀបដែលប្រព័ន្ធ AI ដំណើរការ តើវាប្រើទិន្នន័យអ្វីខ្លះ និងមានវិធីសាស្ត្រអ្វីក្នុងការធ្វើការសម្រេចចិត្ត ជាជាងការទុកវាជាប្រព័ន្ធបិទជិត។ | ដូចជាការសរសេរវិធីធ្វើម្ហូបដែលប្រាប់យ៉ាងច្បាស់ពីគ្រឿងផ្សំនិងរបៀបធ្វើ ជាជាងគ្រាន់តែហុចម្ហូបដែលឆ្អិនស្រាប់មកឱ្យញ៉ាំដោយមិនប្រាប់ពីប្រភព។ |
| black boxes | ការពិពណ៌នាអំពីប្រព័ន្ធ AI ឬក្បួនដោះស្រាយដែលផ្តល់លទ្ធផលដោយមិនបង្ហាញពីដំណើរការខាងក្នុង ឬមូលហេតុនៃការសម្រេចចិត្តរបស់វា ដែលធ្វើឱ្យមនុស្សពិបាកឬមិនអាចយល់ពីរបៀបដែលវាគិត។ | ដូចជាម៉ាស៊ីនវេទមន្តដែលយើងដាក់វត្ថុចូលទៅ ហើយវាបញ្ចេញវត្ថុថ្មីមកវិញ ប៉ុន្តែយើងមិនដឹងទាល់តែសោះថាតើម៉ាស៊ីននោះធ្វើការផ្លាស់ប្តូរដោយរបៀបណា។ |
| Risk-based approach | វិធីសាស្ត្រនៃការគ្រប់គ្រង ឬបង្កើតច្បាប់ (ដូចជានៅក្នុងច្បាប់ AI របស់សហភាពអឺរ៉ុប) ដោយផ្តោតលើការវាយតម្លៃកម្រិតហានិភ័យនៃប្រព័ន្ធនីមួយៗជាមុន ដើម្បីដាក់ចេញនូវកម្រិតនៃការរឹតបន្តឹងឱ្យបានសមស្របតាមទំហំហានិភ័យនោះ។ | ដូចជាគ្រូពេទ្យចាត់ថ្នាក់អ្នកជំងឺតាមកម្រិតធ្ងន់ធ្ងរ ដើម្បីសម្រេចថាអ្នកណាត្រូវសង្គ្រោះបន្ទាន់មុនគេ និងអ្នកណាអាចរង់ចាំបាន។ |
| Moral agency | សមត្ថភាព និងសិទ្ធិក្នុងការសម្រេចចិត្តប្រកបដោយសីលធម៌ និងការទទួលខុសត្រូវចំពោះទង្វើដែលបានធ្វើ ដែលនេះជាប្រធានបទដ៏ចម្រូងចម្រាសមួយថាតើ AI គួរមានភារកិច្ចទទួលខុសត្រូវតាមផ្លូវច្បាប់ដែរឬទេ នៅពេលវាបង្កើតកំហុសដោយស្វ័យប្រវត្តិ។ | ដូចជាការស្វែងរកអ្នកទទួលខុសត្រូវ នៅពេលដែលឡានបើកបរដោយខ្លួនឯងបុកមនុស្ស តើជាកំហុសរបស់អ្នកដំណើរ ក្រុមហ៊ុនផលិត ឬម៉ាស៊ីនផ្ទាល់? |
| Facial recognition technologies | ប្រព័ន្ធកុំព្យូទ័រដែលប្រើប្រាស់ក្បួនដោះស្រាយគណិតវិទ្យាដើម្បីចាប់យក វិភាគ និងផ្ទៀងផ្ទាត់ទម្រង់ផ្ទៃមុខរបស់មនុស្សតាមរយៈកាមេរ៉ា ឬរូបភាព ដែលជារឿយៗត្រូវបានប្រើសម្រាប់សុវត្ថិភាព ឬតាមដានសកម្មភាព។ | ដូចជាការផ្តល់ភ្នែកសិប្បនិម្មិត និងខួរក្បាលដល់កុំព្យូទ័រ ដើម្បីឱ្យវាអាចចំណាំមុខមនុស្សបានច្បាស់លាស់ដូចកែវភ្នែកមនុស្សពិតៗ។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖