Original Title: The Algorithmic Hand: Investigating the Impact of Artificial Intelligence on Service Delivery, Customer Interactions, And Efficiency
Source: doi.org/10.51583/IJLTEMAS.2025.140600092
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ដៃក្បួនដោះស្រាយ៖ ការស៊ើបអង្កេតពីផលប៉ះពាល់នៃបញ្ញាសិប្បនិម្មិតទៅលើការផ្តល់សេវាកម្ម អន្តរកម្មអតិថិជន និងប្រសិទ្ធភាព

ចំណងជើងដើម៖ The Algorithmic Hand: Investigating the Impact of Artificial Intelligence on Service Delivery, Customer Interactions, And Efficiency

អ្នកនិពន្ធ៖ Simon Suwanzy Dzreke (Federal Aviation Administration, USA), Semefa Elikplim Dzreke (Federal Aviation Administration, USA)

ឆ្នាំបោះពុម្ព៖ 2025, International Journal of Latest Technology in Engineering, Management & Applied Science

វិស័យសិក្សា៖ Service Management and Artificial Intelligence

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាអំពីផលប៉ះពាល់ដ៏ស្មុគស្មាញនៃការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) នៅក្នុងប្រព័ន្ធផ្តល់សេវាកម្ម ដោយផ្តោតលើតុល្យភាពរវាងការកើនឡើងនូវប្រសិទ្ធភាពប្រតិបត្តិការ និងបញ្ហាប្រឈមផ្នែកសីលធម៌ ដូចជាការខ្វះការយល់ចិត្តពិតប្រាកដ និងភាពលម្អៀងនៃក្បួនដោះស្រាយ។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះប្រើប្រាស់វិធីសាស្ត្រចម្រុះ (Mixed-methods approach) ដែលចែកចេញជា៤ដំណាក់កាល ដើម្បីប្រមូលទិន្នន័យទាំងបរិមាណ និងគុណភាពពីអ្នកពាក់ព័ន្ធផ្សេងៗ។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
Pre-AI Human Service (Baseline)
សេវាកម្មដែលផ្តល់ដោយមនុស្សសុទ្ធសាធ (មុនពេលមាន AI)
មានសមត្ថភាពខ្ពស់ក្នុងការយល់ចិត្តអតិថិជន និងអាចដោះស្រាយបញ្ហាស្មុគស្មាញបានល្អប្រសើរ។ មិនសូវមានហានិភ័យទាក់ទងនឹងភាពលម្អៀងនៃក្បួនដោះស្រាយឡើយ។ ចំណាយពេលវេលាយូរក្នុងការឆ្លើយតប (ជាមធ្យម ៨.៥ ម៉ោង) និងមានតម្លៃប្រតិបត្តិការខ្ពស់ (១២.៣០ ដុល្លារ ក្នុងមួយអន្តរកម្ម)។ អត្រាជោគជ័យនៃការដោះស្រាយបញ្ហាស្មុគស្មាញតាំងពីការទាក់ទងលើកដំបូង (FCR - Complex Tasks) មានកម្រិត ៦៥% ខ្ពស់ជាងប្រព័ន្ធ AI។
AI Service with High Anthropomorphism
សេវាកម្ម AI ដែលមានទម្រង់ និងអត្តចរិតដូចមនុស្សកម្រិតខ្ពស់
បង្កើនការពេញចិត្តរបស់អតិថិជន និងកសាងទំនុកចិត្តបានយ៉ាងល្អ សម្រាប់កិច្ចការប្រតិបត្តិការទូទៅ និងសាមញ្ញ (ដូចជាការពិនិត្យសមតុល្យទឹកប្រាក់)។ បង្កើតឱ្យមានបញ្ហាខកចិត្តកាន់តែខ្លាំង (Uncanny Valley) នៅពេលប្រព័ន្ធ AI ព្យាយាមបង្ហាញការយល់ចិត្តក្លែងក្លាយក្នុងស្ថានភាពតានតឹង ឬពេលអតិថិជនមានពាក្យបណ្តឹង។ សម្រាប់កិច្ចការសាមញ្ញ ការពេញចិត្តកើនឡើងគួរឱ្យកត់សម្គាល់ (+0.42 β) ប៉ុន្តែសម្រាប់កិច្ចការស្មុគស្មាញ ការពេញចិត្តបែរជាធ្លាក់ចុះយ៉ាងខ្លាំង (-0.25 β)។
AI Service with Low/Minimal Anthropomorphism
សេវាកម្ម AI ដែលមានទម្រង់ស្ដង់ដារ (លក្ខណៈដូចមនុស្សកម្រិតទាប)
មិនធ្វើឱ្យមានការថយចុះទំនុកចិត្ត ឬការពេញចិត្តរបស់អតិថិជនឡើយនៅពេលជួបប្រទះបញ្ហាស្មុគស្មាញ ដោយសារវាបង្ហាញខ្លួនជាប្រព័ន្ធម៉ាស៊ីនយ៉ាងច្បាស់លាស់។ មិនសូវមានសមត្ថភាពក្នុងការទាក់ទាញអារម្មណ៍ ឬបង្កើតការពេញចិត្តខ្ពស់ពីអតិថិជន សម្រាប់កិច្ចការសាមញ្ញៗ ប្រៀបធៀបនឹង AI ដែលមានលក្ខណៈដូចមនុស្ស។ មានឥទ្ធិពលអព្យាក្រឹត (Neutral) នៅក្នុងស្ថានភាពស្មុគស្មាញ ដែលជាជម្រើសសុវត្ថិភាពបំផុតសម្រាប់សេវាកម្មដែលទាមទារការសម្របសម្រួលបណ្តឹង។

ការចំណាយលើធនធាន (Resource Cost)៖ ការសិក្សានេះទាមទារធនធានទិន្នន័យយ៉ាងច្រើន ការស្ទង់មតិក្នុងទ្រង់ទ្រាយធំ និងជំនាញវិភាគទិន្នន័យកម្រិតខ្ពស់ ដើម្បីវាស់ស្ទង់ពីផលប៉ះពាល់របស់ AI។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះប្រមូលទិន្នន័យពីប្រទេសលោកខាងលិច (ធនាគារ អ៊ីកូមឺស ទេសចរណ៍) ដោយបានរកឃើញថា AI មានភាពលម្អៀងធ្វើឱ្យប៉ះពាល់ដល់ការពេញចិត្តរបស់អ្នកមិននិយាយភាសាអង់គ្លេស និងអ្នករស់នៅតំបន់មានចំណូលទាប។ នេះជារឿងដ៏សំខាន់សម្រាប់ប្រទេសកម្ពុជា ដោយសារការអភិវឌ្ឍន៍ភាសាខ្មែរ (Khmer NLP) នៅក្នុងប្រព័ន្ធ AI នៅមានកម្រិតនៅឡើយ ដែលអាចបណ្តាលឱ្យអតិថិជនរងការរើសអើងដោយប្រព័ន្ធស្វ័យប្រវត្តិ។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ក្របខណ្ឌវាយតម្លៃ AI នេះមានអត្ថប្រយោជន៍ខ្លាំងណាស់សម្រាប់ស្ថាប័នសាធារណៈ និងឯកជននៅក្នុងប្រទេសកម្ពុជា ដែលកំពុងផ្លាស់ប្តូរទៅរកការប្រើប្រាស់សេវាកម្មឌីជីថល។

ការដាក់ពង្រាយប្រព័ន្ធ AI នៅក្នុងប្រទេសកម្ពុជាអាចកាត់បន្ថយចំណាយបានច្រើន ប៉ុន្តែស្ថាប័ននានាត្រូវតែវិនិយោគលើ 'ការសហការរវាងមនុស្សនិង AI' និងការត្រួតពិនិត្យភាពលម្អៀងនៃភាសា ដើម្បីចៀសវាងការខូចខាតកេរ្តិ៍ឈ្មោះ។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. វាយតម្លៃនិងបែងចែកភាពស្មុគស្មាញនៃកិច្ចការ: ធ្វើការវិភាគលើរាល់អន្តរកម្មសេវាកម្មរបស់អតិថិជន ដោយបែងចែករវាងកិច្ចការប្រតិបត្តិការសាមញ្ញ (Routine Tasks) និងកិច្ចការដែលទាមទារការយល់ចិត្ត (Complex/Emotional Tasks)។
  2. រចនាចំណុចប្រទាក់ AI តាមបរិបទ (Contextual AI Design): អនុវត្តការប្រើប្រាស់ទម្រង់ High Anthropomorphism (រូបតំណាងដែលមានចរិតដូចមនុស្ស) សម្រាប់តែកិច្ចការសាមញ្ញៗ ដើម្បីបង្កើនការពេញចិត្ត និងប្រើប្រាស់ទម្រង់ Minimalist Interfaces សាមញ្ញធម្មតា សម្រាប់កិច្ចការតានតឹង ដើម្បីជៀសវាងបញ្ហាការយល់ចិត្តក្លែងក្លាយ។
  3. បង្កើតប្រព័ន្ធផ្ទេរការងារ (Human-AI Handoff Protocol): រៀបចំប្រព័ន្ធ Dynamic Case-Routing ដែលអាចដឹងពីការមិនពេញចិត្តរបស់អតិថិជន ហើយផ្ទេរការសន្ទនាពី AI ទៅកាន់បុគ្គលិកមនុស្សដោយស្វ័យប្រវត្តិ ព្រមទាំងផ្តល់ទិន្នន័យប្រវត្តិសន្ទនាទៅបុគ្គលិកនោះផងដែរ។
  4. តាមដាន និងធ្វើសវនកម្មភាពលម្អៀងរបស់ AI: បង្កើតគណៈកម្មការវាយតម្លៃសីលធម៌ និងប្រើប្រាស់ឧបករណ៍ដូចជា IBM AI Fairness 360 ដើម្បីធ្វើសវនកម្មទិន្នន័យជាប្រចាំ ធានាថាប្រព័ន្ធមិនមានភាពលម្អៀងទៅលើក្រុមអតិថិជនណាមួយ ជាពិសេសអ្នកដែលមកពីតំបន់ជនបទ ឬអ្នកដែលមិនសូវចេះភាសាបរទេស។
  5. វាស់ស្ទង់បន្ទុកការងាររបស់បុគ្គលិកជាន់ខ្ពស់: ប្រើប្រាស់កម្មវិធី SPSSAMOS ដើម្បីតាមដានកម្រិតបន្ទុកការងារ (Cognitive Load) របស់បុគ្គលិកជាន់ខ្ពស់ ព្រោះក្រោយពេលមាន AI កិច្ចការដែលសេសសល់សម្រាប់ពួកគេសុទ្ធសឹងតែជាកិច្ចការស្មុគស្មាញ ដែលទាមទារការគាំទ្រផ្នែកស្មារតី និងការបណ្តុះបណ្តាលបន្ថែម។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Algorithmic Bias វាគឺជាបាតុភូតដែលប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) បង្កើតការសម្រេចចិត្តដែលមានភាពលម្អៀង ឬរើសអើងជាប្រព័ន្ធ ដោយសារវាត្រូវបានបង្វឹកដោយទិន្នន័យពីអតីតកាលដែលមានបង្កប់នូវភាពអយុត្តិធម៌សង្គមស្រាប់។ វាមិនមែនជាកំហុសផ្នែកកូដទេ ប៉ុន្តែជាកំហុសនៃការចម្លងទម្លាប់មិនល្អពីទិន្នន័យ។ ដូចជាក្មេងម្នាក់ដែលរៀនទម្លាប់និយាយពាក្យអាក្រក់ពីចាស់ទុំដោយមិនដឹងខ្លួន រួចយកទៅនិយាយបន្តទៅកាន់អ្នកដទៃ។
Anthropomorphism គឺជាការរចនាប្រព័ន្ធកុំព្យូទ័រ ឬ AI ឱ្យមានរូបរាង អត្តចរិត សំឡេង ឬរបៀបប្រាស្រ័យទាក់ទងដូចទៅនឹងមនុស្សពិតៗ ដើម្បីធ្វើឱ្យអន្តរកម្មរវាងមនុស្សនិងម៉ាស៊ីនមានភាពកក់ក្តៅ និងងាយស្រួលទទួលយក។ ដូចជាការគូររូបមុខញញឹមនៅលើម៉ាស៊ីនឆុងកាហ្វេ និងដាក់សំឡេងស្វាគមន៍ ដើម្បីឱ្យអ្នកទិញមានអារម្មណ៍ថាវាកំពុងរាក់ទាក់។
Cognitive Load គឺជាបរិមាណនៃការប្រឹងប្រែងប្រើប្រាស់ថាមពលខួរក្បាល ឬការគិតដែលទាមទារយ៉ាងខ្លាំង នៅពេលអតិថិជន ឬបុគ្គលិកកំពុងប្រើប្រាស់ប្រព័ន្ធ ឬដោះស្រាយបញ្ហាអ្វីមួយ។ បើកម្រិតនេះកាន់តែខ្ពស់ វានឹងធ្វើឱ្យមនុស្សកាន់តែឆាប់ហត់នឿយនិងតានតឹង។ ដូចជាការដែលយើងត្រូវតម្រូវឱ្យแบកបាវអង្ករដ៏ធ្ងន់ដើរឡើងជណ្តើរ ដែលធ្វើឱ្យយើងឆាប់ហត់ និងចង់បោះបង់ចោលកណ្តាលទី។
Uncanny Valley គឺជាអារម្មណ៍ភ័យខ្លាច រសើប ឬមិនស្រួលក្នុងចិត្ត នៅពេលដែលមនុស្សប្រាស្រ័យទាក់ទងជាមួយ AI ឬមនុស្សយន្តដែលមានមុខមាត់និងអាកប្បកិរិយាដូចមនុស្សខ្លាំងពេក ប៉ុន្តែនៅតែមានចំណុចខ្លះដែលមើលទៅរឹងៗមិនដូចមនុស្សធម្មតា១០០% ជាពិសេសពេលវាព្យាយាមបង្ហាញការយល់ចិត្តក្លែងក្លាយ។ ដូចជាពេលដែលយើងមើលរូបចម្លាក់ក្រមួននៅក្នុងសារមន្ទីរដែលមានមុខដូចមនុស្សពិតៗពេក ដែលធ្វើឱ្យយើងមានអារម្មណ៍ព្រឺសម្បុរជាជាងការចូលចិត្ត។
Attribution Theory គឺជាទ្រឹស្តីផ្លូវចិត្តដែលពន្យល់ពីរបៀបដែលមនុស្សស្វែងរកមូលហេតុ ឬទម្លាក់កំហុសនៅពេលមានអ្វីមួយកើតឡើង។ ក្នុងន័យសេវាកម្ម AI នៅពេលម៉ាស៊ីនធ្វើខុស អតិថិជនច្រើនបន្ទោសថាក្រុមហ៊ុនអន់ ប៉ុន្តែពេលម៉ាស៊ីនធ្វើបានល្អ គេបែរជាសរសើរភាពឆ្លាតវៃរបស់បច្ចេកវិទ្យាទៅវិញ។ ដូចជាពេលសិស្សប្រឡងធ្លាក់ គេបន្ទោសគ្រូថាបង្រៀនមិនល្អ ប៉ុន្តែពេលប្រឡងជាប់ គេសរសើរខ្លួនឯងថាជាមនុស្សឆ្លាតនិងខិតខំរៀន។
Surveillance Capitalism គឺជាប្រព័ន្ធសេដ្ឋកិច្ចដែលក្រុមហ៊ុនបច្ចេកវិទ្យាប្រមូលទិន្នន័យឯកជនភាព និងតាមដានអាកប្បកិរិយារបស់អ្នកប្រើប្រាស់ដោយលាក់កំបាំង ដើម្បីយកទៅវិភាគ ទស្សន៍ទាយតម្រូវការ រួចប្រើប្រាស់ទិន្នន័យទាំងនោះដើម្បីស្វែងរកប្រាក់ចំណេញ (ឧ. តាមរយៈការផ្សាយពាណិជ្ជកម្មចំគោលដៅ)។ ដូចជាការដែលមានមនុស្សលួចតាមដានមើលរាល់សកម្មភាពប្រចាំថ្ងៃរបស់អ្នក រួចយកព័ត៌មាននោះទៅលក់ឱ្យអ្នកលក់ទំនិញដើម្បីឱ្យគេអាចរៀបចំអីវ៉ាន់លក់ចំចំណូលចិត្តអ្នក។
Technology Acceptance Model (TAM) គឺជាក្របខណ្ឌទ្រឹស្តីដែលប្រើដើម្បីវាស់ស្ទង់ និងទស្សន៍ទាយថាតើមនុស្សម្នាក់នឹងព្រមទទួលយកបច្ចេកវិទ្យាថ្មីមួយមកប្រើប្រាស់ឬអត់ ដោយផ្អែកលើកត្តាជំរុញធំៗពីរគឺ តើបច្ចេកវិទ្យានោះមានប្រយោជន៍ឬទេ (Perceived Usefulness) និង តើវាងាយស្រួលប្រើឬទេ (Perceived Ease of Use)។ ដូចជាមុនពេលសម្រេចចិត្តទិញទូរស័ព្ទថ្មី អ្នកតែងតែសួរខ្លួនឯងថា តើវាថតរូបស្អាតទេ (មានប្រយោជន៍) និង តើវាងាយចុចទេ (ងាយស្រួលប្រើ)។
Federated learning គឺជាបច្ចេកទេសបង្វឹក AI ថ្មីមួយដែលជួយការពារឯកជនភាពយ៉ាងខ្ពស់ ដោយអនុញ្ញាតឱ្យក្បួនដោះស្រាយវិភាគទិន្នន័យផ្ទាល់នៅលើឧបករណ៍របស់អ្នកប្រើប្រាស់នីមួយៗ ជាជាងការបូមយកទិន្នន័យផ្ទាល់ខ្លួនទាំងអស់នោះទៅកាន់ម៉ាស៊ីនមេ (Server) របស់ក្រុមហ៊ុន។ ដូចជាគ្រូឱ្យសិស្សរៀនធ្វើលំហាត់នៅផ្ទះរៀងៗខ្លួន រួចប្រាប់តែចម្លើយសរុបមកគ្រូវិញ ដោយមិនបាច់យកសៀវភៅព្រាងផ្ទាល់ខ្លួនមកបង្ហាញគ្រូនោះទេ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖