Original Title: Ethical Issues on AI Equipped Combat ROBOTS
Source: dx.doi.org
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

បញ្ហាសីលធម៌លើមនុស្សយន្តប្រយុទ្ធដែលបំពាក់ដោយបច្ចេកវិទ្យា AI

ចំណងជើងដើម៖ Ethical Issues on AI Equipped Combat ROBOTS

អ្នកនិពន្ធ៖ Hyunsoo Kim (Pusan National University), Gyunyeol Park (Gyeongsang National University)

ឆ្នាំបោះពុម្ព៖ 2020, Robotics & AI Ethics

វិស័យសិក្សា៖ AI Ethics / Military Technology

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ការសិក្សានេះពិភាក្សាអំពីបញ្ហាសីលធម៌ និងការទទួលខុសត្រូវតាមផ្លូវច្បាប់អន្តរជាតិ ដែលកើតឡើងពីការប្រើប្រាស់ប្រព័ន្ធអាវុធស្វ័យប្រវត្តិដែលមានសមត្ថភាពសម្លាប់ (Lethal Autonomous Weapons Systems) នៅក្នុងសង្គ្រាមនាពេលអនាគត។

វិធីសាស្ត្រ (The Methodology)៖ ការស្រាវជ្រាវនេះប្រើប្រាស់វិធីសាស្ត្រវិភាគលើការជជែកវែកញែកបច្ចុប្បន្នទាក់ទងនឹង AI និងបច្ចេកវិទ្យាយោធា ដោយផ្តោតយ៉ាងសំខាន់លើទស្សនាទាននៃភាពជាភ្នាក់ងារសីលធម៌របស់មនុស្សយន្ត។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Traditional Autonomous Weapons Systems (Cognitive-only AI)
ប្រព័ន្ធអាវុធស្វ័យប្រវត្តិធម្មតា (ប្រើប្រាស់ AI ត្រឹមកម្រិតយល់ដឹងមូលដ្ឋាន)
មានសមត្ថភាពកំណត់គោលដៅ និងវាយប្រហារបានលឿន កាត់បន្ថយការបាត់បង់អាយុជីវិតទាហានផ្ទាល់ និងមានប្រសិទ្ធភាពខ្ពស់ក្នុងការគ្រប់គ្រងធនធានសង្គ្រាម។ គ្មានសមត្ថភាពវិភាគលើផ្នែកសីលធម៌ ងាយនឹងវាយប្រហារខុសគោលដៅលើជនស៊ីវិល និងខ្វះយន្តការទទួលខុសត្រូវស្របតាមច្បាប់អន្តរជាតិ។ មិនអាចបំពេញតាមគោលការណ៍សមាមាត្រ និងគោលការណ៍បែងចែកនៃច្បាប់មនុស្សធម៌អន្តរជាតិ (International Humanitarian Law) បានទេ។
AI with Metacognition & Moral Reasoning
ប្រព័ន្ធ AI ដែលមានមុខងារ Metacognition និងបញ្ញាវិភាគសីលធម៌ (ការស្នើឡើង)
អាចវិភាគ និងវាយតម្លៃស្ថានការណ៍សមរភូមិបានស៊ីជម្រៅ អាចបែងចែករវាងជនស៊ីវិល និងអ្នកប្រយុទ្ធយ៉ាងច្បាស់លាស់ និងដើរតួជាភ្នាក់ងារសីលធម៌ (Moral Agent) ដែលមានការទទួលខុសត្រូវ។ ទាមទារការអភិវឌ្ឍក្បួនដោះស្រាយកម្រិតខ្ពស់បំផុត និងមានភាពស្មុគស្មាញក្នុងការបំប្លែងទស្សនវិជ្ជាសីលធម៌ទៅជាកូដកុំព្យូទ័រ។ បង្កើតបានជាប្រព័ន្ធអាវុធដែលអាចធ្វើការសម្រេចចិត្តប្រកបដោយសីលធម៌ និងអនុលោមតាមបទដ្ឋានច្បាប់អន្តរជាតិយ៉ាងពេញលេញ។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអភិវឌ្ឍប្រព័ន្ធ AI ដែលមានសមត្ថភាពវិភាគសីលធម៌ទាមទារធនធានបច្ចេកវិទ្យា និងចំណេះដឹងកម្រិតខ្ពស់ ទោះបីជាឯកសារមិនបានបញ្ជាក់ពីទំហំថវិកាជាក់លាក់ក៏ដោយ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះផ្អែកលើទ្រឹស្តីច្បាប់អន្តរជាតិ និងយុទ្ធសាស្ត្រយោធារបស់ប្រទេសអភិវឌ្ឍន៍ (ដូចជាទស្សនាទានសង្គ្រាមអនាគតជាដើម) ដោយមិនបានឆ្លុះបញ្ចាំងពីបរិបទសង្គ្រាមមិនប្រក្រតីនៅតាមប្រទេសកំពុងអភិវឌ្ឍន៍ឡើយ។ សម្រាប់កម្ពុជាដែលមានប្រវត្តិរងគ្រោះយ៉ាងធ្ងន់ធ្ងរដោយសារសង្គ្រាម និងអាវុធយុទ្ធភណ្ឌមិនទាន់ផ្ទុះ (UXO) ការយល់ដឹងពីគ្រោះថ្នាក់ និងសីលធម៌នៃអាវុធស្វ័យប្រវត្តិ គឺជារឿងសំខាន់បំផុតក្នុងការជំរុញសន្តិភាព និងច្បាប់ការពារជនស៊ីវិល។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ទ្រឹស្តីនៃសីលធម៌ AI និងការពង្រីកមុខងារបញ្ញាវិភាគ គឺមានប្រយោជន៍យ៉ាងខ្លាំងសម្រាប់កម្ពុជាក្នុងការត្រៀមខ្លួនរៀបចំគោលនយោបាយបច្ចេកវិទ្យា និងសន្តិសុខជាតិ។

ការរៀបចំក្របខណ្ឌសីលធម៌ និងការយល់ដឹងពី Metacognition របស់ AI គឺជាជំហានដ៏ចាំបាច់មួយ ដើម្បីធានាថាកម្ពុជាអាចគ្រប់គ្រង កែច្នៃ និងប្រើប្រាស់បច្ចេកវិទ្យាទំនើបប្រកបដោយសុវត្ថិភាព និងការទទួលខុសត្រូវខ្ពស់។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាមូលដ្ឋានគ្រឹះនៃ AI និង Machine Learning: និស្សិតត្រូវចាប់ផ្តើមសិក្សាពីរបៀបដែលបណ្តាញសរសៃប្រសាទ (Neural Networks) ដំណើរការ និងវិធីសាស្ត្រនៃការបង្ហាត់ AI ដោយប្រើប្រាស់ TensorFlowPyTorch
  2. ស្រាវជ្រាវពីសីលធម៌ AI និងច្បាប់មនុស្សធម៌អន្តរជាតិ: ធ្វើការសិក្សាស្រាវជ្រាវស៊ីជម្រៅលើច្បាប់សង្គ្រាម (IHL) គោលការណ៍សមាមាត្រ និងភាពជាភ្នាក់ងារសីលធម៌របស់ម៉ាស៊ីន តាមរយៈឯកសាររបស់កាកបាទក្រហមអន្តរជាតិ (ICRC) ឬ Geneva Conventions
  3. រចនាក្បួនដោះស្រាយផ្អែកលើ Metacognition: ស្វែងយល់ និងសាកល្បងសរសេរកូដសម្រាប់ប្រព័ន្ធប្រកបដោយបញ្ញាវិភាគ (Reasoning Intelligence) ដែលអាចឲ្យ AI វាយតម្លៃសកម្មភាពខ្លួនឯងបាន ដោយប្រើប្រាស់ Reinforcement Learning ជាមួយរង្វាន់លើកទឹកចិត្តផ្អែកលើសីលធម៌។
  4. អនុវត្តលើគម្រោងជាក់ស្តែងបែបស៊ីវិល័យ (Dual-use Application): យកទ្រឹស្តីស្វ័យប្រវត្តិកម្មនេះ មកសាកល្បងក្នុងគម្រោងស្រាវជ្រាវជួយសង្គម ដូចជាមនុស្សយន្តរុករកជនរងគ្រោះក្នុងគ្រោះមហន្តរាយ ឬមនុស្សយន្តជំនួយការដោះមីន ជាមួយឧបករណ៍ ROS (Robot Operating System)
  5. ចូលរួមតាក់តែងគោលការណ៍ណែនាំ: ចងក្រងលទ្ធផលស្រាវជ្រាវ និងសហការជាមួយសាស្ត្រាចារ្យ ឬស្ថាប័នរដ្ឋ ដើម្បីផ្តល់ជាធាតុចូលសម្រាប់ការបង្កើតគោលការណ៍សីលធម៌ AI ប្រចាំសាកលវិទ្យាល័យ ឬថ្នាក់ជាតិ។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Lethal Autonomous Weapons System ប្រព័ន្ធអាវុធយោធាដែលប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដើម្បីស្វែងរក កំណត់គោលដៅ និងវាយប្រហារសត្រូវដោយស្វ័យប្រវត្តិដោយមិនចាំបាច់មានការបញ្ជាឬការធ្វើអន្តរាគមន៍ផ្ទាល់ពីមនុស្សឡើយ។ ដូចជាទាហានយន្ត ឬដ្រូនឆ្លាតវៃដែលអាចសម្រេចចិត្តបាញ់ប្រហារដោយខ្លួនឯង ដោយមិនចាំបាច់មានមនុស្សចុចបញ្ជា។
Metacognition សមត្ថភាពរបស់ប្រព័ន្ធ AI ក្នុងការគិតអំពីការគិតរបស់ខ្លួនឯង ពោលគឺការដឹង និងយល់ពីរបៀបដែលខ្លួនឯងធ្វើការវិភាគ និងសម្រេចចិត្ត ព្រមទាំងអាចវាយតម្លៃសកម្មភាពនោះឡើងវិញដើម្បីធានាភាពត្រឹមត្រូវ។ ដូចជាមនុស្សម្នាក់ដែលកំពុងលេងអុក ហើយអាចដឹងខ្លួនឯងថាតើក្បួនដែលគាត់កំពុងប្រើត្រឹមត្រូវ ឬមានកំហុសត្រង់ណា។
Moral Agency សមត្ថភាពរបស់ប្រព័ន្ធ (ដូចជាម៉ាស៊ីន ឬ AI) ក្នុងការធ្វើសកម្មភាពដោយផ្អែកលើការវិនិច្ឆ័យខុសត្រូវ (សីលធម៌) និងការមានសមត្ថភាពទទួលខុសត្រូវចំពោះផលវិបាកដែលកើតចេញពីសកម្មភាពទាំងនោះ។ ដូចជាមនុស្សពេញវ័យដែលដឹងថាអ្វីល្អ អ្វីអាក្រក់ ហើយហ៊ានទទួលខុសត្រូវរាល់ទង្វើដែលខ្លួនបានប្រព្រឹត្ត មិនមែនធ្វើតាមតែបញ្ជាដូចម៉ាស៊ីននោះទេ។
Swarming strategy យុទ្ធសាស្ត្រយោធាដែលប្រើប្រាស់បណ្តាញមនុស្សយន្ត ឬដ្រូនតូចៗជាច្រើនធ្វើការសហការគ្នាជាក្រុមដោយស្វ័យប្រវត្តិ ដើម្បីវាយប្រហារ ឬបំពេញបេសកកម្មដោយមិនចាំបាច់មានការគ្រប់គ្រងពីមជ្ឈមណ្ឌលកណ្តាលតែមួយ។ ដូចជាហ្វូងឃ្មុំដែលហោះចេញមកវាយប្រហារសត្រូវព្រមៗគ្នាពីគ្រប់ទិសទី ដោយមានការប្រាស្រ័យទាក់ទងគ្នាយ៉ាងរលូន។
OODA វដ្តនៃការសម្រេចចិត្តដែលរួមមាន ៤ ដំណាក់កាល៖ ការសង្កេត (Observation) ការតម្រង់ទិសដៅ (Orient) ការសម្រេចចិត្ត (Decide) និងការអនុវត្ត (Act) ដែលត្រូវបានប្រើប្រាស់ជាមូលដ្ឋានសម្រាប់យន្តការនៃការធ្វើសកម្មភាពរបស់មនុស្សយន្តប្រយុទ្ធ។ ដូចជាអ្នកបើកបរឡានដែលសម្លឹងមើលផ្លូវ (សង្កេត) ឃើញមានឧបសគ្គ (តម្រង់ទិស) គិតថាត្រូវជាន់ហ្វ្រាំង (សម្រេចចិត្ត) ហើយក៏ជាន់ហ្វ្រាំងភ្លាមៗ (អនុវត្ត)។
Reasoning Intelligence សមត្ថភាពរបស់ប្រព័ន្ធបញ្ញាសិប្បនិម្មិតក្នុងការទាញយកសេចក្តីសន្និដ្ឋាន ការស្មាន ឬដំណោះស្រាយថ្មីៗ ដោយប្រើប្រាស់ទិន្នន័យ និងចំណេះដឹងដែលវាមានស្រាប់តាមរយៈតក្កវិជ្ជាដ៏ស្មុគស្មាញ។ ដូចជាអ្នកស៊ើបអង្កេតដែលប្រមូលភស្តុតាងផ្សេងៗមកផ្ដុំគ្នា ដើម្បីទាញរកការសន្និដ្ឋានថានរណាជាជនល្មើស។
Principle of proportion គោលការណ៍ក្នុងច្បាប់មនុស្សធម៌អន្តរជាតិដែលចែងថា ការវាយប្រហារយោធាត្រូវតែមានតុល្យភាពនឹងអត្ថប្រយោជន៍យោធាដែលរំពឹងទុក ពោលគឺមិនត្រូវប្រើវិធានការហួសហេតុដែលបង្កការខូចខាតដល់ជនស៊ីវិលលើសលប់នោះទេ។ ដូចជាការមិនប្រើប្រាស់គ្រាប់បែកកម្ទេចផ្ទះទាំងមូល ត្រឹមតែដើម្បីចាប់ចោរម្នាក់ដែលលាក់ខ្លួននៅក្នុងនោះ។
Untact ទម្រង់នៃអន្តរកម្មសង្គម ឬការផ្តល់សេវាកម្មដែលមិនតម្រូវឱ្យមានការជួបប្រាស្រ័យទាក់ទងគ្នាដោយផ្ទាល់ (Face-to-face) ដែលត្រូវបានជំរុញយ៉ាងខ្លាំងដោយបច្ចេកវិទ្យា AI ក្នុងអំឡុងពេលនិងក្រោយជំងឺរាតត្បាតកូវីដ-១៩។ ដូចជាការបញ្ជាទិញម្ហូបតាម App ហើយមានរ៉ូបូតយកមកឲ្យដល់មុខផ្ទះ ដោយមិនចាំបាច់ជួបមនុស្សផ្ទាល់។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖