ប្រទេសចិនកំពុងយកចិត្តទុកដាក់លើសុវត្ថិភាព AI ។ ដូច្នេះសហរដ្ឋអាមេរិកក៏ត្រូវតែយកចិត្តទុកដាក់ដែរ។

CHINA-SHANGHAI-XI JINPING-INSPECTION-AI INDUSTRY (CN)

(SeaPRwire) –   “ចិនមិនខ្វល់អំពីសុវត្ថិភាព AI ទេ ដូច្នេះហេតុអ្វីបានជាយើងគួរខ្វល់?” ហេតុផលខុសឆ្គងនេះរីករាលដាលដល់គោលនយោបាយអាមេរិក និងរង្វង់បច្ចេកវិទ្យា ដោយផ្តល់នូវការបិទបាំងសម្រាប់ការប្រណាំងប្រជែងដ៏កខ្វក់ ខណៈពេលដែលទីក្រុងវ៉ាស៊ីនតោនប្រញាប់ប្រញាល់ដើម្បីយកឈ្នះទីក្រុងប៉េកាំងក្នុងការអភិវឌ្ឍ AI ។

យោងតាមហេតុផលនេះ ការគ្រប់គ្រង AI នឹងប្រថុយនឹងការធ្លាក់ចុះនៅពីក្រោយអ្វីដែលគេហៅថា “។ ហើយចាប់តាំងពីប្រទេសចិនសន្មតថាមិនផ្តល់អាទិភាពដល់សុវត្ថិភាព ការប្រណាំងទៅមុខ—សូម្បីតែដោយមិនប្រុងប្រយ័ត្ន—គឺជាការភ្នាល់រយៈពេលវែងដែលសុវត្ថិភាពជាង។ ការនិទានរឿងនេះមិនត្រឹមតែ ; វាមានគ្រោះថ្នាក់។

គួរឱ្យអស់សំណើចណាស់ មេដឹកនាំចិនអាចមានមេរៀនសម្រាប់អ្នកលើកស្ទួយ AI របស់សហរដ្ឋអាមេរិក៖ តម្រូវឱ្យមានការគ្រប់គ្រងពិតប្រាកដ។ ដូចដែលមន្ត្រីបច្ចេកវិទ្យាកំពូលរបស់ចិន លោក Ding Xuexiang បានដាក់វានៅឯ Davos ក្នុងខែមករា ឆ្នាំ 2025 ថា៖ “ប្រសិនបើប្រព័ន្ធហ្វ្រាំងមិនស្ថិតក្រោមការគ្រប់គ្រងទេ អ្នកមិនអាចជាន់ឈ្នាន់បង្កើនល្បឿនដោយទំនុកចិត្តបានទេ។ សម្រាប់មេដឹកនាំចិន សុវត្ថិភាពមិនមែនជាការរឹតត្បិតទេ។ វាជាលក្ខខណ្ឌតម្រូវ។

សុវត្ថិភាព AI បានក្លាយជា នយោបាយមួយនៅក្នុងប្រទេសចិន។ កាលពីខែមេសា ប្រធានាធិបតី Xi Jinping បានដឹកនាំកិច្ចប្រជុំ Politburo ដ៏កម្រមួយស្តីពី AI ដោយព្រមានអំពីហានិភ័យ “ដែលមិនធ្លាប់មានពីមុនមក” ។ ឥឡូវនេះ រាយបញ្ជីសុវត្ថិភាព AI ស្របពេលនឹងការរាតត្បាត និងការវាយប្រហារតាមអ៊ីនធឺណិត។ អ្នកត្រួតពិនិត្យតម្រូវឱ្យមានការវាយតម្លៃសុវត្ថិភាពមុនពេលដាក់ឱ្យប្រើប្រាស់សម្រាប់ generative AI ហើយថ្មីៗនេះបានដកចេញ ផលិតផល AI ដែលមិនគោរពតាមស្តង់ដារពីទីផ្សារ។ ត្រឹមតែក្នុងរយៈពេលពាក់កណ្តាលដំបូងនៃឆ្នាំនេះ ប្រទេសចិនមាន ច្រើនជាងស្តង់ដារ AI ជាតិជាងរយៈពេលបីឆ្នាំមុនរួមបញ្ចូលគ្នា។ ទន្ទឹមនឹងនេះ បរិមាណនៃឯកសារបច្ចេកទេសដែលផ្តោតលើសុវត្ថិភាព AI ព្រំដែនមាន ច្រើនជាង ក្នុងរយៈពេលមួយឆ្នាំកន្លងមកនេះនៅក្នុងប្រទេសចិន។

ប៉ុន្តែលើកចុងក្រោយដែលមេដឹកនាំសហរដ្ឋអាមេរិក និងចិនបានជួបដើម្បីពិភាក្សាអំពីហានិភ័យរបស់ AI គឺនៅក្នុង ។ កាលពីខែកញ្ញា មន្ត្រីមកពីប្រទេសទាំងពីរបានណែនាំអំពី នៃការសន្ទនា “នៅពេលសមស្រប” ។ ប៉ុន្តែមិនមានកិច្ចប្រជុំណាមួយបានកើតឡើងក្រោមរដ្ឋបាល Biden ទេ ហើយមានភាពមិនច្បាស់លាស់កាន់តែខ្លាំងឡើងថាតើរដ្ឋបាល Trump នឹងទទួលយកដំបងនេះឬអត់។ នេះគឺជាឱកាសដែលខកខាន។

ប្រទេសចិនបើកចំហចំពោះកិច្ចសហការ។ នៅខែឧសភា ឆ្នាំ 2025 វា ធ្វើកិច្ចសន្ទនា AI ទ្វេភាគីជាមួយចក្រភពអង់គ្លេស។ ក្រុមអ្នកវិទ្យាសាស្ត្រចិនដែលគួរឱ្យគោរពបានចូលរួមចំណែកក្នុងកិច្ចខិតខំប្រឹងប្រែងអន្តរជាតិដ៏សំខាន់ៗ ដូចជា គាំទ្រដោយ 33 ប្រទេស និងអង្គការអន្តររដ្ឋាភិបាល (រួមទាំងសហរដ្ឋអាមេរិក និងចិន) និងស្តីពីអាទិភាពស្រាវជ្រាវសុវត្ថិភាព AI សកល។

ជំហានដំបូងដែលចាំបាច់គឺការរស់ឡើងវិញនូវកិច្ចសន្ទនារវាងសហរដ្ឋអាមេរិក និងចិនដែលនៅស្ងៀមអំពីហានិភ័យ AI ។ បើគ្មានបណ្តាញពីរដ្ឋាភិបាលទៅរដ្ឋាភិបាលដែលដំណើរការទេ ឱកាសសម្រាប់ការសម្របសម្រួលនៅតែមានតិចតួច។ ប្រទេសចិនបានចង្អុលបង្ហាញថាខ្លួនបើកចំហរក្នុងការបន្តការសន្ទនានៅចុងបញ្ចប់នៃរដ្ឋបាល Biden ។ វាបានផ្តល់កិច្ចព្រមព្រៀងដ៏សមរម្យមួយ ប៉ុន្តែមានសារៈសំខាន់ជានិមិត្តរូបរួចហើយ៖ បានអះអាងថាការសម្រេចចិត្តរបស់មនុស្សត្រូវតែស្ថិតក្នុងការគ្រប់គ្រងអាវុធនុយក្លេអ៊ែរ។ បណ្តាញនេះមានសក្តានុពលសម្រាប់វឌ្ឍនភាពបន្ថែមទៀត។

ឆ្ពោះទៅមុខ ការពិភាក្សាគួរតែផ្តោតលើការគំរាមកំហែងដែលរួមបញ្ចូលគ្នា និងមានហានិភ័យខ្ពស់។ សូមពិចារណាអំពី OpenAI ថ្មីៗនេះ នៃការធ្វើឱ្យទាន់សម័យចុងក្រោយរបស់ខ្លួន ChatGPT Agent ថាបានឆ្លងកាត់កម្រិត “សមត្ថភាពខ្ពស់” នៅក្នុងដែនជីវសាស្ត្រ ក្រោមរបស់ក្រុមហ៊ុនផ្ទាល់។ នេះមានន័យថា ភ្នាក់ងារនេះអាចផ្តល់ឱ្យអ្នកប្រើប្រាស់នូវការណែនាំដែលមានអត្ថន័យ ដែលអាចជួយសម្រួលដល់ការបង្កើតការគំរាមកំហែងខាងជីវសាស្ត្រដ៏គ្រោះថ្នាក់។ ទាំង និងទីក្រុងប៉េកាំងមាន ក្នុងការទប់ស្កាត់តួអង្គមិនមែនរដ្ឋពីការប្រើប្រាស់ឧបករណ៍បែបនេះជាអាវុធ។ ជំនួយ AI មួយ នឹងមិនគោរពតាមព្រំដែនជាតិទេ។ លើសពីនេះ អ្នកជំនាញឈានមុខគេ និងអ្នកឈ្នះរង្វាន់ Turing មកពីលោកខាងលិច និងចិន បង្ហាញការព្រួយបារម្ភថាប្រព័ន្ធ AI ទូទៅកម្រិតខ្ពស់អាចដំណើរការនៅខាងក្រៅការគ្រប់គ្រងរបស់មនុស្ស ដែលបង្កហានិភ័យមហន្តរាយ និងហានិភ័យអត្ថិភាព។

រដ្ឋាភិបាលទាំងពីរបានទទួលស្គាល់រួចហើយនូវហានិភ័យទាំងនេះមួយចំនួន។ ប្រធានាធិបតី Trump ព្រមានថា AI អាច “បង្កហានិភ័យសន្តិសុខជាតិថ្មីក្នុងពេលអនាគតដ៏ខ្លី” ជាពិសេសនៅក្នុងសន្តិសុខតាមអ៊ីនធឺណិត និងនៅក្នុងដែនគីមី ជីវសាស្ត្រ វិទ្យុសកម្ម និងនុយក្លេអ៊ែរ (CBRN) ។ ស្រដៀងគ្នានេះដែរ កាលពីខែកញ្ញាឆ្នាំមុន ស្ថាប័នស្តង់ដារសន្តិសុខ AI ចម្បងរបស់ប្រទេសចិន បានបញ្ជាក់ពីតម្រូវការសម្រាប់ស្តង់ដារសុវត្ថិភាព AI ដែលដោះស្រាយសន្តិសុខតាមអ៊ីនធឺណិត CBRN និងការបាត់បង់ហានិភ័យនៃការគ្រប់គ្រង។

ចាប់ពីពេលនោះមក ភាគីទាំងពីរអាចចាត់វិធានការជាក់ស្តែងដើម្បីកសាងទំនុកចិត្តផ្នែកបច្ចេកទេសរវាងអង្គការស្តង់ដារឈានមុខគេ ដូចជា គណៈកម្មាធិការបច្ចេកទេសស្តង់ដារព័ត៌មានជាតិរបស់ចិន () និង វិទ្យាស្ថានជាតិស្តង់ដារ និងបច្ចេកវិទ្យារបស់អាមេរិក ()

លើសពីនេះ អាជ្ញាធរឧស្សាហកម្ម ដូចជា AI Industry Alliance of China (AIIA) និង Frontier Model Forum នៅសហរដ្ឋអាមេរិក អាចចែករំលែកការអនុវត្តល្អបំផុតលើក្របខ័ណ្ឌនៃការគ្រប់គ្រងហានិភ័យ។ AIIA បានបង្កើត “” ដែលអ្នកអភិវឌ្ឍន៍ចិនឈានមុខគេភាគច្រើនបានចុះហត្ថលេខា។ ថ្មីមួយរបស់ចិន ដែលផ្តោតទាំងស្រុងលើហានិភ័យព្រំដែន រួមទាំងការប្រើប្រាស់ខុសតាមអ៊ីនធឺណិត ការប្រើប្រាស់ខុសជីវសាស្ត្រ ការបញ្ចុះបញ្ចូល និងការរៀបចំទ្រង់ទ្រាយធំ និងសេណារីយ៉ូបាត់បង់ការគ្រប់គ្រង ត្រូវបានបោះពុម្ពផ្សាយក្នុងអំឡុងពេល ហើយអាចជួយប្រទេសទាំងពីរឱ្យសម្រេចបាននូវកិច្ចព្រមព្រៀងគ្នា។

នៅពេលដែលទំនុកចិត្តកាន់តែស៊ីជម្រៅ រដ្ឋាភិបាល និងមន្ទីរពិសោធន៍ឈានមុខគេអាចចាប់ផ្តើមចែករំលែកវិធីសាស្ត្រវាយតម្លៃសុវត្ថិភាព និងលទ្ធផលសម្រាប់គំរូកម្រិតខ្ពស់បំផុត។ នេះ បានដាក់បង្ហាញនៅ WAIC អំពាវនាវយ៉ាងច្បាស់លាស់សម្រាប់ការបង្កើត “វេទិកាវាយតម្លៃសុវត្ថិភាពដែលទទួលស្គាល់គ្នាទៅវិញទៅមក”។ ក្នុងនាមជាសហស្ថាបនិក Anthropic មួយ ការវាយតម្លៃសុវត្ថិភាព AI របស់ចិនថ្មីៗនេះ មានការរកឃើញស្រដៀងគ្នាជាមួយលោកខាងលិច៖ ប្រព័ន្ធ AI ព្រំដែនបង្កហានិភ័យ CBRN មិនសំខាន់មួយចំនួន ហើយកំពុងចាប់ផ្តើមបង្ហាញសញ្ញាព្រមានដំបូងនៃការចម្លងខ្លួនឯងដោយស្វ័យប្រវត្តិ និងការបោកបញ្ឆោត។ ការយល់ដឹងរួមគ្នាអំពីភាពងាយរងគ្រោះនៃគំរូ—និងរបៀបដែលភាពងាយរងគ្រោះទាំងនោះកំពុងត្រូវបានសាកល្បង—នឹងដាក់មូលដ្ឋានគ្រឹះសម្រាប់កិច្ចសហប្រតិបត្តិការសុវត្ថិភាពកាន់តែទូលំទូលាយ។

ជាចុងក្រោយ ភាគីទាំងពីរអាចបង្កើតបណ្តាញរាយការណ៍ឧប្បត្តិហេតុ និងពិធីការឆ្លើយតបរហ័ស។ ក្នុងករណីមានគ្រោះថ្នាក់ ឬការប្រើប្រាស់ខុសទាក់ទងនឹង AI ការទំនាក់ទំនងរហ័ស និងតម្លាភាពនឹងមានសារៈសំខាន់។ ភាពទំនើបសមមូលទៅនឹង “hotlines” រវាងមន្ត្រី AI កំពូលនៅក្នុងប្រទេសទាំងពីរអាចធានាបាននូវការជូនដំណឹងតាមពេលវេលាជាក់ស្តែង នៅពេលដែលគំរូទាំងនោះបំពានលើកម្រិតសុវត្ថិភាព ឬមានឥរិយាបថដែលមិននឹកស្មានដល់។ កាលពីខែមេសា ប្រធានាធិបតី Xi Jinping បានបញ្ជាក់ពីតម្រូវការសម្រាប់ “ការត្រួតពិនិត្យ ការព្រមានអំពីហានិភ័យជាមុន និងការឆ្លើយតបរហ័ស” នៅក្នុង AI ។ បន្ទាប់ពីឧប្បត្តិហេតុដ៏គ្រោះថ្នាក់ណាមួយ គួរតែមានផែនការដែលបានព្រមព្រៀងទុកជាមុនអំពីរបៀបប្រតិកម្ម។

ការចូលរួមនឹងមិនងាយស្រួលនោះទេ—ឧបសគ្គផ្នែកនយោបាយ និងបច្ចេកទេសគឺជៀសមិនរួច។ ប៉ុន្តែហានិភ័យ AI គឺសកល—ដូច្នេះការឆ្លើយតបរដ្ឋបាលត្រូវតែមាន។ ជំនួសឱ្យការប្រើប្រាស់ប្រទេសចិនជាលេសសម្រាប់ការអសកម្មក្នុងស្រុកលើបទប្បញ្ញត្តិ AI អ្នកបង្កើតគោលនយោបាយអាមេរិក និងមេដឹកនាំឧស្សាហកម្មគួរតែចូលរួមដោយផ្ទាល់។ ហានិភ័យ AI នឹងមិនរង់ចាំទេ។

អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។

ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់

SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។

“`