Original Title: Sensing and Perception in Robotic Weeding: Innovations and Limitations for Digital Agriculture
Source: doi.org/10.3390/s24206743
Disclaimer: Summary generated by AI based on the provided document. Please refer to the original paper for full scientific accuracy.

ការចាប់សញ្ញា និងការយល់ដឹងនៅក្នុងការដកស្មៅដោយមនុស្សយន្ត៖ ការច្នៃប្រឌិត និងដែនកំណត់សម្រាប់កសិកម្មឌីជីថល

ចំណងជើងដើម៖ Sensing and Perception in Robotic Weeding: Innovations and Limitations for Digital Agriculture

អ្នកនិពន្ធ៖ Redmond R. Shamshiri, Abdullah Kaviani Rad, Maryam Behjati, Siva K. Balasundram

ឆ្នាំបោះពុម្ព៖ 2024, Sensors

វិស័យសិក្សា៖ Digital Agriculture / Agricultural Robotics

១. សេចក្តីសង្ខេបប្រតិបត្តិ (Executive Summary)

បញ្ហា (The Problem)៖ ឯកសារនេះដោះស្រាយបញ្ហាប្រឈមនៃការដកស្មៅដោយដៃ និងការប្រើប្រាស់ថ្នាំសម្លាប់ស្មៅ ដែលចំណាយពេលយូរ ខាតបង់ថវិកា និងបង្កការបំពុលបរិស្ថាន ដោយសិក្សាពីការផ្លាស់ប្តូរទៅរកការប្រើប្រាស់បច្ចេកវិទ្យាមនុស្សយន្តកម្ចាត់ស្មៅក្នុងកសិកម្មឌីជីថល (Digital Agriculture)។

វិធីសាស្ត្រ (The Methodology)៖ ការសិក្សានេះគឺជាអត្ថបទស្រាវជ្រាវបែបពិនិត្យឡើងវិញ (Review paper) ដែលវាយតម្លៃយ៉ាងទូលំទូលាយទៅលើប្រព័ន្ធបច្ចេកវិទ្យាចាប់សញ្ញា (Sensing technologies) ផ្សេងៗដែលបំពាក់នៅលើមនុស្សយន្តកម្ចាត់ស្មៅកសិកម្ម។

លទ្ធផលសំខាន់ៗ (The Verdict)៖

២. ការវិភាគលើប្រសិទ្ធភាព និងដែនកំណត់ (Performance & Constraints)

វិធីសាស្ត្រ (Method) គុណសម្បត្តិ (Pros) គុណវិបត្តិ (Cons) លទ្ធផលគន្លឹះ (Key Result)
RGB Cameras
កាមេរ៉ា RGB (ថតរូបភាពពណ៌ធម្មជាតិ)
មានតម្លៃថោក ងាយស្រួលរកនៅលើទីផ្សារ និងអាចចាប់យករូបភាពក្នុងកម្រិតច្បាស់ខ្ពស់សម្រាប់ការសម្គាល់រុក្ខជាតិ។ ងាយរងឥទ្ធិពលពីពន្លឺព្រះអាទិត្យ ស្រមោល និងមានការលំបាកក្នុងការបែងចែករុក្ខជាតិនៅពេលមានស្លឹកត្រួតស៊ីគ្នា។ ទទួលបានភាពត្រឹមត្រូវខ្ពស់ក្នុងការសម្គាល់ស្មៅក្នុងលក្ខខណ្ឌអំណោយផល ប៉ុន្តែប្រសិទ្ធភាពធ្លាក់ចុះនៅពេលមជ្ឈដ្ឋានជុំវិញប្រែប្រួល។
Multispectral & Hyperspectral Cameras
កាមេរ៉ា Multispectral និង Hyperspectral (ចាប់យករលកពន្លឺច្រើនពណ៌)
អាចចាប់យកទិន្នន័យលម្អិតបានស៊ីជម្រៅហួសពីអ្វីដែលភ្នែកមនុស្សមើលឃើញ ដែលជួយក្នុងការបែងចែកប្រភេទស្មៅបានយ៉ាងច្បាស់លាស់។ ឧបករណ៍មានតម្លៃថ្លៃខ្លាំង និងទាមទារសមត្ថភាពកុំព្យូទ័រខ្ពស់ក្នុងការវិភាគទិន្នន័យដ៏ធំមហិមា។ ម៉ូដែលទទួលបានភាពត្រឹមត្រូវពី ៨០% ទៅ ៩៣.៤៧% ក្នុងការកំណត់អត្តសញ្ញាណដំណាំធៀបនឹងស្មៅ។
LIDAR & ToF (Time-of-Flight)
ប្រព័ន្ធបញ្ចេញពន្លឺឡាស៊ែរ LIDAR និង ToF
មិនសូវរងឥទ្ធិពលពីការប្រែប្រួលពន្លឺថ្ងៃ និងអាចបង្កើតផែនទីរចនាសម្ព័ន្ធ 3D របស់រុក្ខជាតិបានយ៉ាងច្បាស់។ ពិបាកក្នុងការបែងចែករវាងដំណាំ និងស្មៅដែលមានកម្ពស់ឬរូបរាងស្រដៀងគ្នា ហើយឧបករណ៍ LIDAR មានតម្លៃថ្លៃ។ អាចកំណត់សម្គាល់ទីតាំងវត្ថុនិងរុក្ខជាតិពីដីបានក្នុងភាពត្រឹមត្រូវរហូតដល់ ៩៥% ប៉ុន្តែពិបាកបែងចែកប្រភេទរុក្ខជាតិ។
Ultrasonic Systems
ប្រព័ន្ធចាប់សញ្ញាអ៊ុលត្រាសោន (រលកសំឡេង)
មានតម្លៃសមរម្យ និងមានភាពងាយស្រួលក្នុងការវាស់កម្ពស់រុក្ខជាតិដើម្បីប៉ាន់ស្មានដង់ស៊ីតេនៃស្មៅ។ ងាយរងការរំខានពីសម្លេងខាងក្រៅ ខ្យល់ ភ្លៀង និងមានកម្រិតភាពច្បាស់ទាបក្នុងការបែងចែកប្រភេទស្មៅនីមួយៗ។ អាចបែងចែកតំបន់ដែលមានស្មៅ និងគ្មានស្មៅបានក្នុងអត្រាពី ៨១% ទៅ ៩៩% អាស្រ័យលើប្រភេទស្មៅ។

ការចំណាយលើធនធាន (Resource Cost)៖ ការអភិវឌ្ឍប្រព័ន្ធមនុស្សយន្តកម្ចាត់ស្មៅទាមទារទុនវិនិយោគដំបូងខ្ពស់ទៅលើឧបករណ៍ចាប់សញ្ញា ថាមពលកុំព្យូទ័រសម្រាប់ដំណើរការទិន្នន័យ និងអ្នកជំនាញដែលមានបច្ចេកទេសពហុជំនាញ។

៣. ការពិនិត្យសម្រាប់បរិបទកម្ពុជា/អាស៊ីអាគ្នេយ៍

ភាពលំអៀងនៃទិន្នន័យ (Data Bias)៖

ការសិក្សានេះគឺជាការពិនិត្យឡើងវិញ (Review) នៃគម្រោងស្រាវជ្រាវភាគច្រើនដែលធ្វើឡើងនៅប្រទេសអភិវឌ្ឍន៍ (ដូចជា អាមេរិក អឺរ៉ុប អូស្ត្រាលី) ដោយផ្តោតលើប្រភេទដំណាំនិងស្មៅនៅតំបន់ត្រជាក់ ឬអាកាសធាតុក្តៅបង្គួរ។ នេះជារឿងសំខាន់សម្រាប់កម្ពុជា ពីព្រោះអាកាសធាតុតំបន់ត្រូពិចរបស់យើងមានប្រភេទស្មៅ ដំណាំ (ដូចជា ស្រូវ ដំឡូងមី ស្វាយចន្ទី) និងលក្ខខណ្ឌពន្លឺព្រះអាទិត្យខុសប្លែកគ្នាទាំងស្រុង ដែលទាមទារឱ្យមានការប្រមូលទិន្នន័យក្នុងស្រុកបន្ថែម។

លទ្ធភាពនៃការអនុវត្ត (Applicability)៖

ថ្វីត្បិតតែបច្ចេកវិទ្យានេះមានភាពស្មុគស្មាញនិងចំណាយខ្ពស់ ប៉ុន្តែវាមានសក្តានុពលខ្លាំងសម្រាប់កសិកម្មកម្ពុជាក្នុងការដោះស្រាយបញ្ហាកង្វះកម្លាំងពលកម្ម និងកាត់បន្ថយការប្រើប្រាស់គីមី។

ការចាប់ផ្តើមប្រែក្លាយពីប្រព័ន្ធតម្លៃសមរម្យដូចជាកាមេរ៉ា RGB ផ្សំជាមួយ AI នឹងក្លាយជាជំហានដំបូងដ៏រឹងមាំក្នុងការជំរុញកសិកម្មឌីជីថល (Digital Agriculture) នៅកម្ពុជា។

៤. ផែនការសកម្មភាពសម្រាប់និស្សិត (Actionable Roadmap)

ដើម្បីអនុវត្តតាមការសិក្សានេះ និស្សិតគួរអនុវត្តតាមជំហានខាងក្រោម៖

  1. សិក្សាមូលដ្ឋានគ្រឹះស្តីពី Machine Vision: ចាប់ផ្តើមរៀនភាសាសរសេរកូដ Python និងប្រើប្រាស់បណ្ណាល័យដូចជា OpenCV ព្រមទាំង PyTorchTensorFlow ដើម្បីយល់ពីរបៀបដែលកុំព្យូទ័រអាចវិភាគ និងកំណត់អត្តសញ្ញាណវត្ថុក្នុងរូបភាព។
  2. ប្រមូលទិន្នន័យកសិកម្មក្នុងស្រុក: ចុះទៅកាន់ចម្ការឬស្រែជាក់ស្តែង ប្រើប្រាស់ស្មាតហ្វូន ឬកាមេរ៉ា RGB ធម្មតាដើម្បីថតរូបភាពដំណាំនិងប្រភេទស្មៅទូទៅនៅកម្ពុជា រួចបង្កើតជា Dataset ផ្ទាល់ខ្លួនសម្រាប់បម្រើដល់ការស្រាវជ្រាវ។
  3. អភិវឌ្ឍគំរូ AI សម្រាប់សម្គាល់រុក្ខជាតិ: សាកល្បងហ្វឹកហាត់ម៉ូដែល Deep Learning ប្រភេទទម្ងន់ស្រាល (ឧទាហរណ៍៖ YOLOv8) ដោយប្រើប្រាស់ទិន្នន័យដែលបានប្រមូល ដើម្បីឱ្យវាអាចបែងចែករវាងដំណាំ និងស្មៅក្នុងកម្រិតភាពត្រឹមត្រូវដែលអាចទទួលយកបាន។
  4. សាកល្បងជាមួយឧបករណ៍ Hardware ខ្នាតតូច: ទិញឧបករណ៍បញ្ជាខ្នាតតូចដូចជា Raspberry PiJetson Nano ភ្ជាប់ជាមួយកាមេរ៉ា Webcam ដើម្បីបង្កើតប្រព័ន្ធតាមដានស្មៅខ្នាតតូចដែលអាចធ្វើការងារក្នុងពេលវេលាជាក់ស្តែង (Real-time) មុននឹងបំពាក់លើរទេះឬរ៉ូបូតធំៗ។
  5. សហការធ្វើតេស្តផ្ទាល់នៅចម្ការ: សហការជាមួយសាកលវិទ្យាល័យកសិកម្ម (ដូចជា RUA ឬ RUPP) ដើម្បីយកគំរូប្រព័ន្ធដែលបានបង្កើតទៅធ្វើតេស្តផ្ទាល់នៅលើចម្ការជាក់ស្តែង ប្រមូលទិន្នន័យពីបញ្ហាប្រឈមនានា (ដូចជាបញ្ហាពន្លឺថ្ងៃខ្លាំងនៅកម្ពុជា) និងធ្វើការកែលម្អប្រព័ន្ធជាបន្តបន្ទាប់។

៥. វាក្យសព្ទបច្ចេកទេស (Technical Glossary)

ពាក្យបច្ចេកទេស ការពន្យល់ជាខេមរភាសា (Khmer Explanation) និយមន័យសាមញ្ញ (Simple Definition)
Hyperspectral imaging បច្ចេកវិទ្យាចាប់យករូបភាពដែលប្រមូលទិន្នន័យរលកពន្លឺរាប់រយតំបន់ពណ៌ (ទាំងពន្លឺដែលអាចមើលឃើញ និងមើលមិនឃើញ) ដើម្បីវិភាគលម្អិតពីសមាសធាតុគីមី ជាតិទឹក និងស្ថានភាពសុខភាពរបស់រុក្ខជាតិដែលភ្នែកមនុស្សមិនអាចមើលដឹង។ ដូចជាការប្រើម៉ាស៊ីនថតកាំរស្មីអ៊ិច (X-ray) ដែលអាចមើលធ្លុះដល់រចនាសម្ព័ន្ធខាងក្នុងរាងកាយ តែនេះគឺសម្រាប់មើលលក្ខណៈសម្បត្តិលាក់កំបាំងរបស់រុក្ខជាតិ។
LIDAR ប្រព័ន្ធចាប់សញ្ញាដែលបាញ់កាំរស្មីឡាស៊ែររាប់ពាន់ដងក្នុងមួយវិនាទីទៅកាន់វត្ថុ រួចវាស់ពេលដែលពន្លឺនោះចំណាយត្រលប់មកវិញ ដើម្បីបង្កើតជាផែនទីរចនាសម្ព័ន្ធត្រីមាត្រ (3D) នៃទីតាំង រូបរាង និងកម្ពស់របស់វត្ថុនោះយ៉ាងច្បាស់លាស់។ ដូចជាសត្វប្រចៀវដែលបញ្ចេញសម្លេងហើយស្តាប់អេកូត្រលប់មកវិញដើម្បីដឹងថាមានឧបសគ្គនៅទីណា គ្រាន់តែ LIDAR ប្រើប្រាស់ពន្លឺឡាស៊ែរជំនួសសម្លេង។
Sensor fusion វិធីសាស្ត្រក្នុងការប្រមូល និងបញ្ជូលទិន្នន័យពីឧបករណ៍ចាប់សញ្ញាខុសៗគ្នា (ឧទាហរណ៍៖ បញ្ចូលទិន្នន័យរូបភាពពីកាមេរ៉ា ជាមួយទិន្នន័យចម្ងាយពី LIDAR) ក្នុងពេលតែមួយ ដើម្បីប៉ះប៉ូវចំណុចខ្សោយរបស់ឧបករណ៍នីមួយៗ និងទទួលបានការសម្រេចចិត្តមួយដែលត្រឹមត្រូវបំផុត។ ដូចជាមនុស្សយើងដែលប្រើទាំងភ្នែកដើម្បីមើល និងត្រចៀកដើម្បីស្តាប់ក្នុងពេលតែមួយ ដើម្បីដឹងប្រាកដថានរណាម្នាក់កំពុងដើរមកជិតពីទិសខាងណា។
Time-of-Flight (ToF) បច្ចេកវិទ្យាកាមេរ៉ាដែលវាស់ជម្រៅ និងចម្ងាយរបស់វត្ថុ ដោយគណនាពេលវេលាជាក់លាក់ដែលពន្លឺត្រូវបញ្ចេញទៅប៉ះវត្ថុណាមួយ ហើយចំណាយពេលប៉ុន្មានដើម្បីចំណាំងផ្លាតត្រលប់មកសេនស័រវិញ។ ដូចជាការគប់បាល់ប៉ះជញ្ជាំង រួចចាប់ម៉ោងថាតើវាចាយពេលប៉ុន្មានដើម្បីលោតត្រលប់មកដល់ដៃយើងវិញ ដើម្បីដឹងថាជញ្ជាំងនោះនៅឆ្ងាយប៉ុនណា។
Machine vision ការបំពាក់កាមេរ៉ា និងកម្មវិធីកុំព្យូទ័រទៅឱ្យម៉ាស៊ីន ឬមនុស្សយន្ត ដើម្បីផ្តល់ឱ្យពួកវានូវសមត្ថភាពអាច "មើលឃើញ" ធ្វើការវិភាគ និងបកស្រាយរូបភាពដែលនៅពីមុខ ដើម្បីធ្វើសកម្មភាពដោយស្វ័យប្រវត្តិ (ឧទាហរណ៍៖ ការបែងចែកស្មៅពីដំណាំមុននឹងកាត់)។ ដូចជាការបង្រៀនក្មេងតូចម្នាក់ឱ្យចេះចំណាំមុខឪពុកម្តាយពីក្នុងចំណោមមនុស្សច្រើន តែទីនេះគឺយើងបង្រៀនកុំព្យូទ័រឱ្យស្គាល់រុក្ខជាតិ។
Real-time kinematic (RTK) GPS ប្រព័ន្ធកំណត់ទីតាំងភូមិសាស្ត្រ (GPS) កម្រិតខ្ពស់ដែលត្រូវបានកែតម្រូវទិន្នន័យទីតាំងភ្លាមៗ (Real-time) ដើម្បីផ្តល់នូវភាពត្រឹមត្រូវខ្ពស់បំផុតក្នុងកម្រិតសង់ទីម៉ែត្រ សម្រាប់កំណត់ទីតាំងគ្រាប់ពូជដែលបានដាំ ឬសម្រាប់ចង្អុលផ្លូវដល់រ៉ូបូត។ ដូចជាកម្មវិធី Google Maps នៅលើទូរសព្ទដៃដែរ ប៉ុន្តែវាមានភាពច្បាស់លាស់ខ្លាំងមែនទែនរហូតដល់ដឹងថាយើងកំពុងឈរនៅត្រង់ចំណុចសង់ទីម៉ែត្រណាមួយនៃដី។
Deep learning ក្បួនដោះស្រាយបញ្ញាសិប្បនិម្មិត (AI) ដែលយកគំរូតាមបណ្ដាញសរសៃប្រសាទខួរក្បាលមនុស្ស អនុញ្ញាតឱ្យកុំព្យូទ័ររៀនស្គាល់លំនាំដ៏ស្មុគស្មាញពីរូបភាពរាប់ពាន់សន្លឹកដោយខ្លួនឯង ដើម្បីបែងចែកប្រភេទវត្ថុផ្សេងៗគ្នាដោយមិនបាច់ឱ្យមនុស្សប្រាប់។ ដូចជាការឱ្យក្មេងមើលរូបថតសត្វឆ្កែរាប់ពាន់សន្លឹក រហូតដល់គេអាចស្គាល់សត្វឆ្កែគ្រប់ប្រភេទដោយស្វ័យប្រវត្តិទោះមិនដែលឃើញពូជមួយនោះពីមុនក៏ដោយ។

៦. ប្រធានបទពាក់ព័ន្ធ (Further Reading)

អត្ថបទដែលបានបោះពុម្ពនៅលើ KhmerResearch ដែលទាក់ទងនឹងប្រធានបទនេះ៖

ប្រធានបទ និងសំណួរស្រាវជ្រាវដែលទាក់ទងនឹងឯកសារនេះ ដែលអ្នកអាចស្វែងរកបន្ថែម៖