បញ្ហា (The Problem)៖ ឯកសារនេះពិនិត្យមើលពីរបៀបដែលបញ្ញាសិប្បនិម្មិត (AI) កំពុងផ្លាស់ប្តូរមូលដ្ឋានគ្រឹះនៃប្រតិបត្តិការ និងក្រមសីលធម៌របស់សេវាកម្មបណ្ណាល័យសហសម័យ ព្រមទាំងដោះស្រាយនូវបញ្ហាប្រឈមនិងហានិភ័យទាក់ទងនឹងភាពលម្អៀង និងឯកជនភាព។
វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់ក្របខ័ណ្ឌទ្រឹស្តីចម្រុះ ដើម្បីវិភាគការអនុម័តប្រើប្រាស់ AI អន្តរកម្មរវាងមនុស្សនិងប្រព័ន្ធ និងការគ្រប់គ្រងប្រកបដោយក្រមសីលធម៌នៅក្នុងបរិបទបណ្ណាល័យ។
លទ្ធផលសំខាន់ៗ (The Verdict)៖
| វិធីសាស្ត្រ (Method) | គុណសម្បត្តិ (Pros) | គុណវិបត្តិ (Cons) | លទ្ធផលគន្លឹះ (Key Result) |
|---|---|---|---|
| Technology Acceptance Model (TAM) & Diffusion of Innovations (DOI) គំរូទទួលយកបច្ចេកវិទ្យា និងការសាយភាយនវានុវត្តន៍ |
ជួយឱ្យការដាក់ពង្រាយបច្ចេកវិទ្យាអាចវាស់វែងបាន អាចទស្សន៍ទាយពីការទទួលយក និងគាំទ្រដល់ការវាយតម្លៃតាមដំណាក់កាល។ | អាចមើលរំលងឧបសគ្គរចនាសម្ព័ន្ធស៊ីជម្រៅ ដូចជាបញ្ហាហិរញ្ញវត្ថុ និងនីតិវិធីលទ្ធកម្ម ហើយផ្តោតតែលើបច្ចេកវិទ្យាពេក។ | ជួយវាយតម្លៃកម្រិតនៃភាពងាយស្រួល (PEOU) និងអត្ថប្រយោជន៍ (PU) ក្នុងការទាញយកឧបករណ៍ AI ទៅប្រើប្រាស់ជាក់ស្តែងដោយបុគ្គលិក និងអ្នកប្រើប្រាស់។ |
| Sociotechnical Systems Theory (STS) ទ្រឹស្តីប្រព័ន្ធបច្ចេកវិទ្យាសង្គម |
ធានាថាបច្ចេកវិទ្យា (AI) ត្រូវតម្រឹមស្របទៅនឹងការអនុវត្តការងារ និងតម្លៃសង្គមរបស់មនុស្ស ដើម្បីកាត់បន្ថយការរំខាន។ | ទាមទារការចូលរួមយ៉ាងសកម្មពីអ្នកប្រើប្រាស់ ការពិភាក្សាជាបន្តបន្ទាប់ និងតម្រូវឱ្យមានការរៀបចំរចនាសម្ព័ន្ធការងារឡើងវិញ ដែលចំណាយពេលវេលាច្រើន។ | បង្កើតភាពសុខដុមរវាងស្វ័យប្រវត្តិកម្ម និងការសម្រេចចិត្តរបស់មនុស្ស ដោយរក្សាតួនាទីបណ្ណារក្សជាស្នូលនៃការផ្តល់សេវាកម្ម។ |
| Critical Algorithm Studies / Algorithmic Accountability Framework (CAS/AAF) ការសិក្សាក្បួនដោះស្រាយបែបវិភាគ និងក្របខ័ណ្ឌគណនេយ្យភាព |
ផ្តល់យន្តការសវនកម្ម តម្លាភាព និងការពារប្រព័ន្ធពីការលម្អៀង ដែលជួយរក្សាសេចក្តីទុកចិត្ត និងកាត់បន្ថយហានិភ័យផ្លូវច្បាប់។ | ក្រុមហ៊ុនផ្គត់ផ្គង់ AI (Vendors) ភាគច្រើនមិនសូវផ្តល់ទិន្នន័យលម្អិតពីប្រព័ន្ធរបស់ខ្លួន ដែលធ្វើឱ្យបណ្ណាល័យខ្វះធនធានជួបការលំបាកក្នុងការធ្វើសវនកម្មឯករាជ្យ។ | កំណត់អត្តសញ្ញាណ និងកាត់បន្ថយហានិភ័យនៃភាពលម្អៀងក្នុងការរៀបចំទិន្នន័យ (Algorithmic bias) និងការពារសិទ្ធិឯកជនភាព។ |
ការចំណាយលើធនធាន (Resource Cost)៖ ឯកសារនេះបញ្ជាក់យ៉ាងច្បាស់ថា ការផ្លាស់ប្តូរទៅកាន់សេវាកម្មបណ្ណាល័យ AI ទាមទារការវិនិយោគយ៉ាងខ្លាំងទៅលើសមត្ថភាពធនធានមនុស្ស និងយន្តការអភិបាលកិច្ច ជាជាងផ្តោតតែលើផ្នែករឹង (Hardware) តែមួយមុខ។
ការសិក្សានេះជារបាយការណ៍សំយោគទ្រឹស្តីដែលសរសេរដោយអ្នកស្រាវជ្រាវនីហ្សេរីយ៉ា ផ្អែកលើការអនុវត្តសកល និងអក្សរសិល្ប៍លោកខាងលិច។ សម្រាប់ប្រទេសកម្ពុជា នេះជាបញ្ហាប្រឈមដ៏ធំមួយ ពីព្រោះប្រព័ន្ធ AI និងទិន្នន័យភាគច្រើនខ្វះខាតទិន្នន័យជាភាសាខ្មែរ (Low-resource language) និងបរិបទវប្បធម៌ក្នុងស្រុក ដែលអាចបណ្តាលឱ្យលទ្ធផលនៃការស្វែងរកឬការណែនាំឯកសារមានភាពលម្អៀង និងមិនចំគោលដៅពិតប្រាកដ។
ក្របខ័ណ្ឌអភិបាលកិច្ច និងការគិតគូរឡើងវិញលើសេវាកម្មបណ្ណាល័យនេះ មានសារៈសំខាន់ខ្លាំងសម្រាប់ការធ្វើទំនើបកម្មប្រព័ន្ធអប់រំនៅកម្ពុជា។
សរុបមក បណ្ណាល័យនិងស្ថាប័នស្រាវជ្រាវនៅកម្ពុជាគួរផ្តួចផ្តើមសាកល្បងប្រើប្រាស់ AI (Pilot testing) ដោយឈរលើគោលការណ៍រក្សាតម្លៃវិជ្ជាជីវៈមនុស្សជាស្នូល ការពារឯកជនភាព និងដោះស្រាយបញ្ហាទិន្នន័យភាសាខ្មែរឱ្យបានត្រឹមត្រូវ។
ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖
| ពាក្យបច្ចេកទេស | ការពន្យល់ជាខេមរភាសា (Khmer Explanation) | និយមន័យសាមញ្ញ (Simple Definition) |
|---|---|---|
| Large language models (LLMs) | វាគឺជាប្រព័ន្ធបញ្ញាសិប្បនិម្មិតកម្រិតខ្ពស់ដែលត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យអត្ថបទយ៉ាងច្រើនសន្ធឹកសន្ធាប់ ដើម្បីយល់ដឹង បង្កើត និងសង្ខេបភាសារបស់មនុស្សតាមរបៀបធម្មជាតិ និងអាចផ្តល់ចម្លើយឆ្លើយតបយ៉ាងមានន័យទៅនឹងសំណួរស្មុគស្មាញ។ | ដូចជាខួរក្បាលរបស់បណ្ណារក្សដ៏ពូកែម្នាក់ដែលបានអានសៀវភៅរាប់លានក្បាល ហើយអាចសរសេរឆ្លើយតបសំណួរអ្នកបានយ៉ាងរលូន។ |
| Sociotechnical Systems Theory | វាគឺជាទ្រឹស្តីដែលជួយស្ថាប័នរៀបចំប្រព័ន្ធការងារ ដោយធានាថាការយកបច្ចេកវិទ្យាថ្មីៗ (ដូចជា AI) មកប្រើ គឺត្រូវផ្សារភ្ជាប់ឱ្យស៊ីសង្វាក់គ្នាជាមួយមនុស្ស (បុគ្គលិក) និងនីតិវិធីការងារ ដើម្បីកុំឱ្យបច្ចេកវិទ្យាមកជំនួសឬធ្វើឱ្យខូចតម្លៃការងាររបស់មនុស្ស។ | ដូចជាការទិញត្រាក់ទ័រថ្មីមករាស់ដី ដែលទាមទារឱ្យមានការបង្រៀនកសិករពីរបៀបបើកបរ និងការបែងចែកការងារគ្នាឱ្យច្បាស់រវាងម៉ាស៊ីននិងមនុស្ស ជាងការទុកឱ្យត្រាក់ទ័ររត់ដោយឯកឯងលើវាលស្រែ។ |
| Algorithmic accountability | វាគឺជាគោលការណ៍ដែលទាមទារឱ្យមានយន្តការត្រួតពិនិត្យ និងតាមដានរាល់ការសម្រេចចិត្តដែលធ្វើឡើងដោយប្រព័ន្ធកុំព្យូទ័រ (AI) ដើម្បីឱ្យប្រាកដថាអ្នកបង្កើតនិងអ្នកប្រើប្រាស់មានការទទួលខុសត្រូវនៅពេលប្រព័ន្ធនោះបង្កើតកំហុស ឬផ្តល់លទ្ធផលរើសអើង។ | ដូចជាការតម្រូវឱ្យចុងភៅប្រាប់ពីគ្រឿងផ្សំទាំងអស់នៅក្នុងម្ហូបរបស់គាត់ដោយតម្លាភាព ដើម្បីឱ្យអតិថិជនដឹងថាមានជាតិគីមី ឬអ្វីដែលធ្វើឱ្យប្រតិកម្មរាងកាយដែរឬទេ។ |
| Retrieval-augmented generation | វាគឺជាបច្ចេកទេសដែលតម្រូវឱ្យប្រព័ន្ធ AI ទៅស្វែងរកនិងទាញយកឯកសារយោងពិតប្រាកដ (ឧទាហរណ៍៖ សៀវភៅឬអត្ថបទស្រាវជ្រាវក្នុងបណ្ណាល័យ) យកមកធ្វើជាមូលដ្ឋានសិន មុននឹងបង្កើតជាចម្លើយ ដើម្បីទប់ស្កាត់ការប្រឌិតព័ត៌មានដែលគ្មានប្រភពច្បាស់លាស់។ | ដូចជាសិស្សដែលត្រូវបានអនុញ្ញាតឱ្យបើកសៀវភៅរកមើលមេរៀនសិនទើបឆ្លើយសំណួរគ្រូ ដែលជួយឱ្យចម្លើយមានភាពត្រឹមត្រូវជាងការឆ្លើយតាមការទន្ទេញចាំមាត់។ |
| Semantic search | វាគឺជាប្រព័ន្ធស្វែងរកទិន្នន័យដែលមិនត្រឹមតែពឹងផ្អែកលើការផ្ទៀងផ្ទាត់ពាក្យគន្លឹះ (Keywords) ប៉ុណ្ណោះទេ ប៉ុន្តែម៉ាស៊ីនព្យាយាមយល់ពីអត្ថន័យ ទម្រង់ និងបរិបទនៃសំណួរ ដើម្បីទាញយកឯកសារដែលពាក់ព័ន្ធបំផុត ទោះបីជាឯកសារនោះមិនមានពាក្យដូចគ្នាបេះបិទនឹងសំណួរក៏ដោយ។ | ដូចជាការប្រាប់អ្នកលក់ថា "ខ្ញុំចង់បានអ្វីជូរៗញ៉ាំ" ហើយអ្នកលក់យកស្វាយខ្ចីមកឱ្យអ្នក ទោះបីជាអ្នកមិនបាននិយាយពាក្យថា "ស្វាយ" ចេញពីមាត់ក៏ដោយ។ |
| Algorithmic bias | វាគឺជាភាពលម្អៀង ឬភាពអយុត្តិធម៌ដែលកើតចេញពីការគណនារបស់ប្រព័ន្ធម៉ាស៊ីន ដោយសារតែទិន្នន័យដែលគេយកមកបង្រៀនវាមានភាពលម្អៀង ឬខ្វះភាពចម្រុះតាំងពីដើមមក ដែលធ្វើឱ្យការណែនាំឬលទ្ធផលរើសអើងដល់ក្រុមមនុស្សណាមួយ។ | ដូចជាកូនក្មេងដែលរៀនពាក្យអាក្រក់ពីចាស់ៗនៅជុំវិញខ្លួន រួចយកទៅនិយាយបន្តដោយមិនដឹងថាវាជារឿងខុសឆ្គង។ |
| Metadata enrichment | វាគឺជាការប្រើប្រាស់បច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិត ដើម្បីទាញយកនិងបន្ថែមព័ត៌មានលម្អិត (ដូចជា ប្រធានបទ អ្នកនិពន្ធ ឬសេចក្តីសង្ខេប) ទៅលើឯកសារឌីជីថលដោយស្វ័យប្រវត្តិ ដែលជួយឱ្យការចាត់ថ្នាក់ និងការស្វែងរកឯកសារនោះកាន់តែរហ័សនិងសុក្រឹតជាងមុន។ | ដូចជាការសរសេរបិទផ្លាកឈ្មោះ ថ្ងៃខែឆ្នាំ និងគ្រឿងផ្សំនៅខាងក្រៅកែវម្ហូប ដើម្បីឱ្យអ្នកកាត់ស្រវ៉ាដឹងច្បាស់ថាក្នុងកែវនោះមានអ្វីខ្លះដោយមិនបាច់បើកគម្របមើលរាល់ដង។ |
ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖