ប៉ូលិស និងតុលាការកំពុងងាកទៅរក AI ។ តើប្រព័ន្ធត្រៀមខ្លួនសម្រាប់វាហើយឬនៅ?

US-TRANSPORT-POLICE-ROBOT

(SeaPRwire) –   តើ AI អាចត្រូវបានប្រើដើម្បីធ្វើឱ្យប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌកាន់តែយុត្តិធម៌ និងមានប្រសិទ្ធភាព ឬតើវានឹងគ្រាន់តែពង្រឹងភាពលំអៀងដែលបង្កគ្រោះថ្នាក់? អ្នកជំនាញនិយាយថា រហូតមកដល់ពេលនេះវាត្រូវបានដាក់ពង្រាយក្នុងវិធីគួរឱ្យព្រួយបារម្ភ — ប៉ុន្តែមានសក្តានុពលសម្រាប់ផលប៉ះពាល់ជាវិជ្ជមាន។

សព្វថ្ងៃនេះ បច្ចេកវិទ្យា AI បានឈានដល់ស្ទើរតែគ្រប់ទិដ្ឋភាពនៃប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌ។ វាត្រូវបានគេប្រើនៅក្នុងប្រព័ន្ធស្គាល់ផ្ទៃមុខដើម្បីកំណត់អត្តសញ្ញាណជនសង្ស័យ; នៅក្នុងយុទ្ធសាស្រ្ត “ការទស្សន៍ទាយការ policing” ដើម្បីបង្កើតផ្លូវល្បាត; នៅក្នុងតុលាការដើម្បីជួយក្នុងការគ្រប់គ្រងសំណុំរឿង; និងដោយមេធាវីការពារក្តីសាធារណៈដើម្បី छानកាត់ភស្តុតាង។ ប៉ុន្តែខណៈពេលដែលអ្នកតស៊ូមតិចង្អុលបង្ហាញពីការកើនឡើងនូវប្រសិទ្ធភាព និងយុត្តិធម៌ អ្នករិះគន់លើកឡើងនូវសំណួរសំខាន់ៗជុំវិញភាពឯកជន និងគណនេយ្យភាព។

កាលពីខែមុន ក្រុមប្រឹក្សាអំពីយុត្តិធម៌ព្រហ្មទណ្ឌ (Council on Criminal Justice) បានចាប់ផ្តើមគម្រោងមិនបក្សពួកស្តីពី AI ដើម្បីសិក្សាពីរបៀបដែល AI អាចត្រូវបានប្រើប្រាស់នៅក្នុងប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌដោយសុវត្ថិភាព និងក្រមសីលធម៌។ ការងាររបស់ក្រុមនេះនឹងត្រូវបានគាំទ្រដោយអ្នកស្រាវជ្រាវនៅ RAND ហើយពួកគេនឹងយកលទ្ធផលស្រាវជ្រាវរបស់ពួកគេ ហើយធ្វើការណែនាំដល់អ្នកបង្កើតគោលនយោបាយ និងការអនុវត្តច្បាប់។

លោក Nathan Hecht ប្រធានក្រុមការងារ និងជាអតីតប្រធានចៅក្រមនៃតុលាការកំពូលរដ្ឋតិចសាស់បាននិយាយថា “គ្មានការសង្ស័យទេថា AI អាចផ្តល់លទ្ធផលអយុត្តិធម៌” ។ “ក្រុមការងារនេះចង់ប្រមូលផ្តុំអ្នកជំនាញខាងបច្ចេកវិទ្យា អ្នកជំនាញខាងយុត្តិធម៌ព្រហ្មទណ្ឌ ប្រជាជនក្នុងសហគមន៍ អ្នកជំនាញក្នុងវិស័យផ្សេងៗគ្នា ហើយពិតជាអង្គុយចុះដើម្បីមើលពីរបៀបដែលយើងអាចប្រើប្រាស់វាដើម្បីធ្វើឱ្យប្រព័ន្ធកាន់តែប្រសើរឡើង និងមិនបង្កគ្រោះថ្នាក់ដែលអាចកើតមាន”។

ហានិភ័យនៃ AI ក្នុងការអនុវត្តច្បាប់

តុលាការ និងប៉ូលីសជាច្រើនកំពុងប្រើប្រាស់ AI រួចហើយ លោក Hecht និយាយ។ “វាជាបំណែកតូចៗ: មនុស្សចង់ដឹងចង់ឃើញទៅ, ‘អូ, វ៉ោ​វ, មាន AI នៅទីនេះ, យើងអាចប្រើវានៅក្នុងតុលាការព្រហ្មទណ្ឌ”។

ប៉ុន្តែដោយសារតែមានស្តង់ដារតិចតួចសម្រាប់របៀបដាក់ពង្រាយ AI នោះ អ្នកឃ្លាំមើលសិទ្ធិស៊ីវិលកាន់តែមានការព្រួយបារម្ភថា ភ្នាក់ងារអនុវត្តច្បាប់កំពុងប្រើប្រាស់វាក្នុងវិធីដ៏គ្រោះថ្នាក់។ ទីភ្នាក់ងាររាប់ពាន់បានមកពឹងផ្អែកលើបច្ចេកវិទ្យាស្គាល់ផ្ទៃមុខដែលលក់ដោយក្រុមហ៊ុនដូចជា Clearview ដែលបង្ហោះមូលដ្ឋានទិន្នន័យរូបភាពរាប់ពាន់លានដែលត្រូវបានកោសចេញពីអ៊ីនធឺណិត។ នៅក្នុងមូលដ្ឋានទិន្នន័យជាច្រើន ជនជាតិស្បែកខ្មៅត្រូវបានតំណាងលើសលុប ដោយសារតែពួកគេរស់នៅក្នុងសហគមន៍ដែលត្រូវបានប៉ូលីសច្រើនពេក។ បច្ចេកវិទ្យា AI ក៏មិនល្អក្នុងការបែងចែកភាពខុសគ្នានៅក្នុងផ្ទៃមុខរបស់ជនជាតិស្បែកខ្មៅ ដែលអាចនាំឱ្យមានអត្រានៃការកំណត់អត្តសញ្ញាណខុសខ្ពស់ជាងមុន។

កាលពីឆ្នាំមុន គម្រោងភាពគ្មានទោស (Innocence Project) ដែលជាអង្គការមិនរកប្រាក់ចំណេញផ្នែកច្បាប់ បានរកឃើញថា មានការចាប់ខ្លួនខុសយ៉ាងហោចណាស់ចំនួន 7 នាក់ដែលមកពីបច្ចេកវិទ្យាស្គាល់ផ្ទៃមុខ ដែលក្នុងនោះ 6 នាក់ពាក់ព័ន្ធនឹងជនជាតិស្បែកខ្មៅដែលត្រូវបានចោទប្រកាន់ខុស។ លោក Walter Katz នាយកផ្នែកគោលនយោបាយរបស់អង្គការបាននិយាយថា ប៉ូលីសម្តងម្កាលធ្វើការចាប់ខ្លួនដោយផ្អែកលើលទ្ធផលនៃការស្គាល់ផ្ទៃមុខរបស់ AI តែមួយមុខ ជាជាងឱ្យ AI ដើរតួជាចំណុចចាប់ផ្តើមសម្រាប់ការស៊ើបអង្កេតធំជាងនេះ។ គាត់និយាយថា “មានការពឹងផ្អែកខ្លាំងពេកទៅលើលទ្ធផល AI” ។

លោក Katz បាននិយាយថា នៅពេលដែលគាត់បានទៅសន្និសីទ policing កាលពីរដូវស្លឹកឈើជ្រុះមុន “AI មាននៅគ្រប់ទីកន្លែង” ។ អ្នកលក់កំពុងលក់ឧបករណ៍បច្ចេកវិទ្យាយ៉ាងខ្លាំងដែលអះអាងថាអាចដោះស្រាយបញ្ហាពិតប្រាកដនៅក្នុងប៉ូលីស។ គាត់និយាយថា “ប៉ុន្តែក្នុងការធ្វើឱ្យការផ្សព្វផ្សាយនោះ មានការយកចិត្តទុកដាក់តិចតួចចំពោះការដោះដូរ ឬហានិភ័យណាមួយ” ។ ឧទាហរណ៍ អ្នករិះគន់បារម្ភថា ឧបករណ៍ AI ទាំងនេះជាច្រើននឹងបង្កើនការឃ្លាំមើលទីសាធារណៈ រួមទាំងការត្រួតពិនិត្យអ្នកតវ៉ាដោយសន្តិវិធី — ឬថាអ្វីដែលគេហៅថា hot spot policing នឹងពង្រឹងការបង្ក្រាបរបស់ភ្នាក់ងារអនុវត្តច្បាប់លើតំបន់ដែលត្រូវបានប៉ូលីសច្រើនពេក។

កន្លែងដែល AI អាចជួយ

ទោះជាយ៉ាងណាក៏ដោយ លោក Katz យល់ស្របថា AI ពិតជាមានកន្លែងមួយនៅក្នុងប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌ។ គាត់និយាយថា “វានឹងពិបាកក្នុងការបដិសេធ AI ចោល — ហើយមានកន្លែងដែល AI អាចមានប្រយោជន៍” ។ សម្រាប់ហេតុផលនោះ គាត់បានចូលរួមជាមួយក្រុមការងារ AI របស់ក្រុមប្រឹក្សាអំពីយុត្តិធម៌ព្រហ្មទណ្ឌ (Council on Criminal Justice) ។ “រឿងដំបូង និងសំខាន់បំផុតគឺការទទួលបានការចាប់អារម្មណ៍របស់យើងអំពីល្បឿននៃការអនុម័ត។ ហើយប្រសិនបើមនុស្សគ្រប់គ្នាបានមកពីការយល់ដឹងថា ការមិនមានគោលនយោបាយអ្វីទាំងអស់ ប្រហែលជាកន្លែងខុសក្នុងការឈរ នោះយើងនឹងកសាងពីទីនោះទៅ”។

លោក Hecht ប្រធានក្រុមការងារ មើលឃើញតំបន់ជាច្រើនដែល AI អាចមានប្រយោជន៍នៅក្នុងតុលាការ ឧទាហរណ៍ រួមទាំងការកែលម្អដំណើរការទទួលយកសម្រាប់អ្នកដែលត្រូវបានចាប់ខ្លួន ឬជួយកំណត់អត្តសញ្ញាណអ្នកដែលសាកសមសម្រាប់កម្មវិធីបង្វែរ ដែលអនុញ្ញាតឱ្យជនល្មើសជៀសវាងការកាត់ទោស។ គាត់ក៏សង្ឃឹមថា ក្រុមការងារនឹងផ្តល់អនុសាសន៍អំពីប្រភេទនៃការប្រើប្រាស់ AI ដែលមិនគួរត្រូវបានអនុម័តយ៉ាងច្បាស់លាស់នៅក្នុងយុត្តិធម៌ព្រហ្មទណ្ឌ និងជំហានដើម្បីរក្សាភាពឯកជនរបស់សាធារណជន។ គាត់និយាយថា “យើងចង់ព្យាយាមប្រមូលផ្តុំជំនាញដែលចាំបាច់ដើម្បីធានាដល់អ្នកប្រើប្រាស់ផលិតផល និងសាធារណជនថា វានឹងធ្វើឱ្យបទពិសោធន៍របស់អ្នកកាន់តែប្រសើរឡើងជាមួយនឹងប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌ — ហើយបន្ទាប់ពីនោះ វានឹងទុកឱ្យអ្នកនៅម្នាក់ឯង” ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងឯករាជ្យជាច្រើនផ្សេងទៀតកំពុងព្យាយាមប្រើប្រាស់ AI ដើម្បីកែលម្អដំណើរការយុត្តិធម៌។ ក្រុមហ៊ុន startup មួយគឺ JusticeText សង្ឃឹមថានឹងប្រើ AI ដើម្បីបង្រួមគម្លាតរវាងធនធានរបស់ព្រះរាជអាជ្ញា និងមេធាវីការពារក្តីសាធារណៈ ដែលក្រោយមកទៀតជាធម្មតាខ្វះបុគ្គលិក និងធនធានយ៉ាងធ្ងន់ធ្ងរ។ JusticeText បានបង្កើតឧបករណ៍មួយសម្រាប់មេធាវីការពារក្តីសាធារណៈ ដែលតម្រៀបតាមរយៈការហៅទូរស័ព្ទ 911 រាប់ម៉ោង វីដេអូកាមេរ៉ាលើដងខ្លួនប៉ូលីស និងការសួរចម្លើយដែលបានកត់ត្រាទុក ដើម្បីវិភាគវា និងកំណត់ថាតើយ៉ាងណាឧទាហរណ៍ ប៉ូលីសបានធ្វើសេចក្តីថ្លែងការណ៍មិនស៊ីសង្វាក់គ្នា ឬសួរសំណួរដែលនាំមុខ។

ស្ថាបនិក និងជានាយកប្រតិបត្តិ Devshi Mehrotra បាននិយាយថា “យើងពិតជាចង់មើលថាតើវាមានរូបរាងយ៉ាងណាជាមេធាវីការពារក្តីសាធារណៈជាដំបូង ហើយព្យាយាមកម្រិតលក្ខខណ្ឌដែលបច្ចេកវិទ្យាបានធ្វើឱ្យកាន់តែធ្ងន់ធ្ងរឡើងក្នុងប៉ុន្មានឆ្នាំកន្លងមកនេះ” ។ JusticeText កំពុងធ្វើការជាមួយទីភ្នាក់ងារមេធាវីការពារក្តីសាធារណៈប្រហែល 75 នៅទូទាំងប្រទេស។

Recidiviz ដែលជាអង្គការមិនរកប្រាក់ចំណេញសម្រាប់ការកែទម្រង់យុត្តិធម៌ព្រហ្មទណ្ឌ ក៏កំពុងធ្វើតេស្តវិធីជាច្រើនក្នុងការបញ្ចូល AI ទៅក្នុងលំហូរការងាររបស់ពួកគេ រួមទាំងការផ្តល់ឱ្យមន្ត្រី parole នូវសេចក្តីសង្ខេបដែលបង្កើតដោយ AI របស់អតិថិជន។ លោក Andrew Warren សហស្ថាបនិករបស់ Recidiviz បាននិយាយថា “អ្នកប្រហែលជាមានកំណត់ត្រាសំណុំរឿងចំនួន 80 ទំព័រត្រឡប់ទៅ 7 ឆ្នាំលើមនុស្សម្នាក់នេះ ដែលអ្នកនឹងមិនអានទេ ប្រសិនបើអ្នកមានបន្ទុកការងារ 150 នាក់ ហើយអ្នកត្រូវជួបពួកគេម្នាក់ៗរៀងរាល់ខែ” ។ “AI អាចផ្តល់នូវចំណុចសំខាន់ៗយ៉ាងខ្លីអំពីអ្វីដែលមនុស្សម្នាក់នេះសម្រេចបានរួចហើយ និងអ្វីដែលពួកគេអាចប្រើការគាំទ្រ”។

បញ្ហាប្រឈមសម្រាប់អ្នកបង្កើតគោលនយោបាយ និងក្រុមការងាររបស់ក្រុមប្រឹក្សាអំពីយុត្តិធម៌ព្រហ្មទណ្ឌ (Council on Criminal Justice) គឺការកំណត់ពីរបៀបបង្កើតស្តង់ដារ និងយន្តការត្រួតពិនិត្យ ដើម្បីឱ្យផលល្អពីការកើនឡើងប្រសិទ្ធភាពរបស់ AI លើសពីសមត្ថភាពរបស់ខ្លួនក្នុងការបង្កើនភាពលំអៀងដែលមានស្រាប់។ លោក Hecht នៅក្រុមការងារក៏សង្ឃឹមថានឹងការពារពីអនាគតដែល AI ប្រអប់ខ្មៅធ្វើការសម្រេចចិត្តផ្លាស់ប្តូរជីវិតដោយខ្លួនឯង។

តើយើងគួរធានាថាយើងការពារគំនិតប្រពៃណីរបស់យើងអំពីយុត្តិធម៌របស់មនុស្សដែរឬទេ? ជា​ប្រាកដ​ណាស់។ តើយើងគួរតែប្រាកដថា ចៅក្រមដែលមានសមត្ថភាព និងអ្នកគ្រប់គ្រងប្រព័ន្ធយុត្តិធម៌ព្រហ្មទណ្ឌគ្រប់គ្រងទាំងស្រុងដែរឬទេ? ជា​ប្រាកដ​ណាស់” គាត់និយាយ។ “ប៉ុន្តែការនិយាយថាយើងនឹងរក្សា AI ឱ្យនៅឆ្ងាយពីប្រព័ន្ធយុត្តិធម៌គឺអស់សង្ឃឹម។ ក្រុមហ៊ុនច្បាប់កំពុងប្រើប្រាស់វា។ ប្រព័ន្ធយុត្តិធម៌ស៊ីវិលកំពុងប្រើប្រាស់វា។ វា​នៅទីនេះ​ដើម្បី​ស្នាក់​នៅ”។

អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។

ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់

SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។

“`