បញ្ហា (The Problem)៖ ការសិក្សានេះពិភាក្សាអំពីបញ្ហាសីលធម៌ និងការទទួលខុសត្រូវតាមផ្លូវច្បាប់អន្តរជាតិ ដែលកើតឡើងពីការប្រើប្រាស់ប្រព័ន្ធអាវុធស្វ័យប្រវត្តិដែលមានសមត្ថភាពសម្លាប់ (Lethal Autonomous Weapons Systems) នៅក្នុងសង្គ្រាមនាពេលអនាគត។
វិធីសាស្ត្រ (The Methodology)៖ ការស្រាវជ្រាវនេះប្រើប្រាស់វិធីសាស្ត្រវិភាគលើការជជែកវែកញែកបច្ចុប្បន្នទាក់ទងនឹង AI និងបច្ចេកវិទ្យាយោធា ដោយផ្តោតយ៉ាងសំខាន់លើទស្សនាទាននៃភាពជាភ្នាក់ងារសីលធម៌របស់មនុស្សយន្ត។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Traditional Autonomous Weapons Systems (Cognitive-only AI) ប្រព័ន្ធអាវុធស្វ័យប្រវត្តិធម្មតា (ប្រើប្រាស់ AI ត្រឹមកម្រិតយល់ដឹងមូលដ្ឋាន) |
មានសមត្ថភាពកំណត់គោលដៅ និងវាយប្រហារបានលឿន កាត់បន្ថយការបាត់បង់អាយុជីវិតទាហានផ្ទាល់ និងមានប្រសិទ្ធភាពខ្ពស់ក្នុងការគ្រប់គ្រងធនធានសង្គ្រាម។ | គ្មានសមត្ថភាពវិភាគលើផ្នែកសីលធម៌ ងាយនឹងវាយប្រហារខុសគោលដៅលើជនស៊ីវិល និងខ្វះយន្តការទទួលខុសត្រូវស្របតាមច្បាប់អន្តរជាតិ។ | មិនអាចបំពេញតាមគោលការណ៍សមាមាត្រ និងគោលការណ៍បែងចែកនៃច្បាប់មនុស្សធម៌អន្តរជាតិ (International Humanitarian Law) បានទេ។ |
| AI with Metacognition & Moral Reasoning ប្រព័ន្ធ AI ដែលមានមុខងារ Metacognition និងបញ្ញាវិភាគសីលធម៌ (ការស្នើឡើង) |
អាចវិភាគ និងវាយតម្លៃស្ថានការណ៍សមរភូមិបានស៊ីជម្រៅ អាចបែងចែករវាងជនស៊ីវិល និងអ្នកប្រយុទ្ធយ៉ាងច្បាស់លាស់ និងដើរតួជាភ្នាក់ងារសីលធម៌ (Moral Agent) ដែលមានការទទួលខុសត្រូវ។ | ទាមទារការអភិវឌ្ឍក្បួនដោះស្រាយកម្រិតខ្ពស់បំផុត និងមានភាពស្មុគស្មាញក្នុងការបំប្លែងទស្សនវិជ្ជាសីលធម៌ទៅជាកូដកុំព្យូទ័រ។ | បង្កើតបានជាប្រព័ន្ធអាវុធដែលអាចធ្វើការសម្រេចចិត្តប្រកបដោយសីលធម៌ និងអនុលោមតាមបទដ្ឋានច្បាប់អន្តរជាតិយ៉ាងពេញលេញ។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ការអភិវឌ្ឍប្រព័ន្ធ AI ដែលមានសមត្ថភាពវិភាគសីលធម៌ទាមទារធនធានបច្ចេកវិទ្យា និងចំណេះដឹងកម្រិតខ្ពស់ ទោះបីជាឯកសារមិនបានបញ្ជាក់ពីទំហំថវិកាជាក់លាក់ក៏ដោយ។
ការសិក្សានេះផ្អែកលើទ្រឹស្តីច្បាប់អន្តរជាតិ និងយុទ្ធសាស្ត្រយោធារបស់ប្រទេសអភិវឌ្ឍន៍ (ដូចជាទស្សនាទានសង្គ្រាមអនាគតជាដើម) ដោយមិនបានឆ្លុះបញ្ចាំងពីបរិបទសង្គ្រាមមិនប្រក្រតីនៅតាមប្រទេសកំពុងអភិវឌ្ឍន៍ឡើយ។ សម្រាប់កម្ពុជាដែលមានប្រវត្តិរងគ្រោះយ៉ាងធ្ងន់ធ្ងរដោយសារសង្គ្រាម និងអាវុធយុទ្ធភណ្ឌមិនទាន់ផ្ទុះ (UXO) ការយល់ដឹងពីគ្រោះថ្នាក់ និងសីលធម៌នៃអាវុធស្វ័យប្រវត្តិ គឺជារឿងសំខាន់បំផុតក្នុងការជំរុញសន្តិភាព និងច្បាប់ការពារជនស៊ីវិល។
ទ្រឹស្តីនៃសីលធម៌ AI និងការពង្រីកមុខងារបញ្ញាវិភាគ គឺមានប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់កម្ពុជាក្នុងការត្រៀមខ្លួនរៀបចំគោលនយោបាយបច្ចេកវិទ្យា និងសន្តិសុខជាតិ។
ការរៀបចំក្របខណ្ឌសីលធម៌ និងការយល់ដឹងពី Metacognition របស់ AI គឺជាជំហានដ៏ចាំបាច់មួយ ដើម្បីធានាថាកម្ពុជាអាចគ្រប់គ្រង កែច្នៃ និងប្រើប្រាស់បច្ចេកវិទ្យាទំនើបប្រកបដោយសុវត្ថិភាព និងការទទួលខុសត្រូវខ្ពស់។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Lethal Autonomous Weapons System | ប្រព័ន្ធអាវុធយោធាដែលប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដើម្បីស្វែងរក កំណត់គោលដៅ និងវាយប្រហារសត្រូវដោយស្វ័យប្រវត្តិដោយមិនចាំបាច់មានការបញ្ជាឬការធ្វើអន្តរាគមន៍ផ្ទាល់ពីមនុស្សឡើយ។ | ដូចជាទាហានយន្ត ឬដ្រូនឆ្លាតវៃដែលអាចសម្រេចចិត្តបាញ់ប្រហារដោយខ្លួនឯង ដោយមិនចាំបាច់មានមនុស្សចុចបញ្ជា។ |
| Metacognition | សមត្ថភាពរបស់ប្រព័ន្ធ AI ក្នុងការគិតអំពីការគិតរបស់ខ្លួនឯង ពោលគឺការដឹង និងយល់ពីរបៀបដែលខ្លួនឯងធ្វើការវិភាគ និងសម្រេចចិត្ត ព្រមទាំងអាចវាយតម្លៃសកម្មភាពនោះឡើងវិញដើម្បីធានាភាពត្រឹមត្រូវ។ | ដូចជាមនុស្សម្នាក់ដែលកំពុងលេងអុក ហើយអាចដឹងខ្លួនឯងថាតើក្បួនដែលគាត់កំពុងប្រើត្រឹមត្រូវ ឬមានកំហុសត្រង់ណា។ |
| Moral Agency | សមត្ថភាពរបស់ប្រព័ន្ធ (ដូចជាម៉ាស៊ីន ឬ AI) ក្នុងការធ្វើសកម្មភាពដោយផ្អែកលើការវិនិច្ឆ័យខុសត្រូវ (សីលធម៌) និងការមានសមត្ថភាពទទួលខុសត្រូវចំពោះផលវិបាកដែលកើតចេញពីសកម្មភាពទាំងនោះ។ | ដូចជាមនុស្សពេញវ័យដែលដឹងថាអ្វីល្អ អ្វីអាក្រក់ ហើយហ៊ានទទួលខុសត្រូវរាល់ទង្វើដែលខ្លួនបានប្រព្រឹត្ត មិនមែនធ្វើតាមតែបញ្ជាដូចម៉ាស៊ីននោះទេ។ |
| Swarming strategy | យុទ្ធសាស្ត្រយោធាដែលប្រើប្រាស់បណ្តាញមនុស្សយន្ត ឬដ្រូនតូចៗជាច្រើនធ្វើការសហការគ្នាជាក្រុមដោយស្វ័យប្រវត្តិ ដើម្បីវាយប្រហារ ឬបំពេញបេសកកម្មដោយមិនចាំបាច់មានការគ្រប់គ្រងពីមជ្ឈមណ្ឌលកណ្តាលតែមួយ។ | ដូចជាហ្វូងឃ្មុំដែលហោះចេញមកវាយប្រហារសត្រូវព្រមៗគ្នាពីគ្រប់ទិសទី ដោយមានការប្រាស្រ័យទាក់ទងគ្នាយ៉ាងរលូន។ |
| OODA | វដ្តនៃការសម្រេចចិត្តដែលរួមមាន ៤ ដំណាក់កាល៖ ការសង្កេត (Observation) ការតម្រង់ទិសដៅ (Orient) ការសម្រេចចិត្ត (Decide) និងការអនុវត្ត (Act) ដែលត្រូវបានប្រើប្រាស់ជាមូលដ្ឋានសម្រាប់យន្តការនៃការធ្វើសកម្មភាពរបស់មនុស្សយន្តប្រយុទ្ធ។ | ដូចជាអ្នកបើកបរឡានដែលសម្លឹងមើលផ្លូវ (សង្កេត) ឃើញមានឧបសគ្គ (តម្រង់ទិស) គិតថាត្រូវជាន់ហ្វ្រាំង (សម្រេចចិត្ត) ហើយក៏ជាន់ហ្វ្រាំងភ្លាមៗ (អនុវត្ត)។ |
| Reasoning Intelligence | សមត្ថភាពរបស់ប្រព័ន្ធបញ្ញាសិប្បនិម្មិតក្នុងការទាញយកសេចក្តីសន្និដ្ឋាន ការស្មាន ឬដំណោះស្រាយថ្មីៗ ដោយប្រើប្រាស់ទិន្នន័យ និងចំណេះដឹងដែលវាមានស្រាប់តាមរយៈតក្កវិជ្ជាដ៏ស្មុគស្មាញ។ | ដូចជាអ្នកស៊ើបអង្កេតដែលប្រមូលភស្តុតាងផ្សេងៗមកផ្ដុំគ្នា ដើម្បីទាញរកការសន្និដ្ឋានថានរណាជាជនល្មើស។ |
| Principle of proportion | គោលការណ៍ក្នុងច្បាប់មនុស្សធម៌អន្តរជាតិដែលចែងថា ការវាយប្រហារយោធាត្រូវតែមានតុល្យភាពនឹងអត្ថប្រយោជន៍យោធាដែលរំពឹងទុក ពោលគឺមិនត្រូវប្រើវិធានការហួសហេតុដែលបង្កការខូចខាតដល់ជនស៊ីវិលលើសលប់នោះទេ។ | ដូចជាការមិនប្រើប្រាស់គ្រាប់បែកកម្ទេចផ្ទះទាំងមូល ត្រឹមតែដើម្បីចាប់ចោរម្នាក់ដែលលាក់ខ្លួននៅក្នុងនោះ។ |
| Untact | ទម្រង់នៃអន្តរកម្មសង្គម ឬការផ្តល់សេវាកម្មដែលមិនតម្រូវឱ្យមានការជួបប្រាស្រ័យទាក់ទងគ្នាដោយផ្ទាល់ (Face-to-face) ដែលត្រូវបានជំរុញយ៉ាងខ្លាំងដោយបច្ចេកវិទ្យា AI ក្នុងអំឡុងពេលនិងក្រោយជំងឺរាតត្បាតកូវីដ-១៩។ | ដូចជាការបញ្ជាទិញម្ហូបតាម App ហើយមានរ៉ូបូតយកមកឲ្យដល់មុខផ្ទះ ដោយមិនចាំបាច់ជួបមនុស្សផ្ទាល់។ |
អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖