(SeaPRwire) – “Tiongkok tidak peduli tentang keselamatan AI—jadi mengapa kita harus peduli?” Logika yang cacat ini merasuki kebijakan AS dan lingkaran teknologi, menawarkan perlindungan untuk perlombaan menuju titik terendah yang sembrono karena Washington bergegas untuk melampaui Beijing dalam pengembangan AI.
Menurut alasan ini, mengatur AI akan berisiko tertinggal dalam apa yang disebut “.” Dan karena Tiongkok konon tidak memprioritaskan keselamatan, berlomba maju—bahkan dengan sembrono—adalah taruhan jangka panjang yang lebih aman. Narasi ini bukan hanya ; itu berbahaya.
Ironisnya, para pemimpin Tiongkok mungkin memiliki pelajaran untuk para pendukung AI AS: sejati membutuhkan kontrol. Seperti yang dikatakan pejabat tinggi teknologi Tiongkok, Ding Xuexiang, di Davos pada Januari 2025: “Jika sistem pengereman tidak terkendali, Anda tidak dapat menginjak pedal gas dengan percaya diri.” Bagi para pemimpin Tiongkok, keselamatan bukanlah kendala; itu adalah prasyarat.
Keselamatan AI telah menjadi politik di Tiongkok. Pada bulan April, Presiden Xi Jinping memimpin Politbiro yang langka tentang AI yang memperingatkan tentang risiko “yang belum pernah terjadi sebelumnya”. Tiongkok sekarang mencantumkan keselamatan AI bersama dengan pandemi dan serangan siber. Regulator mengharuskan penilaian keselamatan pra-penyebaran untuk AI generatif dan baru-baru ini menghapus lebih dari produk AI yang tidak sesuai dari pasar. Hanya dalam paruh pertama tahun ini, Tiongkok telah lebih banyak standar AI nasional daripada dalam tiga tahun sebelumnya. Sementara itu, volume makalah teknis yang berfokus pada keselamatan AI frontier telah lebih dari selama setahun terakhir di Tiongkok.
Tetapi terakhir kali para pemimpin AS dan Tiongkok bertemu untuk membahas risiko AI adalah pada . Pada bulan September, para pejabat dari kedua negara mengisyaratkan percakapan “pada waktu yang tepat”. Tetapi tidak ada pertemuan yang terjadi di bawah Pemerintahan Biden, dan ada ketidakpastian yang lebih besar tentang apakah Pemerintahan Trump akan mengambil alih tongkat estafet. Ini adalah kesempatan yang terlewatkan.
Tiongkok terbuka untuk kolaborasi. Pada Mei 2025, mereka dialog bilateral AI dengan Inggris. Ilmuwan Tiongkok yang terhormat telah berkontribusi pada upaya internasional besar, seperti yang didukung oleh 33 negara dan organisasi antar pemerintah (termasuk AS dan Tiongkok) dan tentang Prioritas Penelitian Keselamatan AI Global.
Langkah pertama yang diperlukan adalah menghidupkan kembali dialog AS-Tiongkok yang tidak aktif tentang risiko AI. Tanpa saluran pemerintah-ke-pemerintah yang berfungsi, prospek koordinasi tetap tipis. Tiongkok mengindikasikan bahwa mereka terbuka untuk melanjutkan percakapan pada akhir Pemerintahan Biden. Itu sudah menghasilkan kesepakatan yang sederhana tetapi penting secara simbolis: menegaskan bahwa pengambilan keputusan manusia harus tetap memegang kendali atas senjata nuklir. Saluran ini memiliki potensi untuk kemajuan lebih lanjut.
Ke depan, diskusi harus fokus pada ancaman bersama yang memiliki taruhan tinggi. Pertimbangkan pengungkapan OpenAI baru-baru ini tentang ChatGPT Agent terbarunya sebagai telah melewati ambang “Kemampuan Tinggi” dalam domain biologis di bawah . Ini berarti agen tersebut dapat, setidaknya pada prinsipnya, memberikan pengguna panduan yang bermakna yang dapat memfasilitasi pembuatan ancaman biologis yang berbahaya. Baik dan Beijing memiliki dalam mencegah aktor non-negara mempersenjatai alat tersebut. yang dibantu AI tidak akan menghormati batas-batas nasional. Selain itu, para ahli terkemuka dan pemenang Turing Award dari Barat dan Tiongkok kekhawatiran bahwa sistem AI serba guna canggih dapat beroperasi di luar kendali manusia, yang menimbulkan risiko bencana dan eksistensial.
Kedua pemerintah telah mengakui beberapa risiko ini. Presiden Trump memperingatkan bahwa AI dapat “menimbulkan risiko keamanan nasional baru dalam waktu dekat,” khususnya dalam keamanan siber dan dalam domain kimia, biologi, radiologi, dan nuklir (CBRN). Demikian pula, pada bulan September tahun lalu, badan standar keamanan AI utama Tiongkok perlunya standar keselamatan AI yang membahas keamanan siber, CBRN, dan risiko kehilangan kendali.
Dari sana, kedua belah pihak dapat mengambil langkah-langkah praktis untuk membangun kepercayaan teknis antara organisasi standar terkemuka—seperti China’s National Information Security Standardization Technical Committee () dan America’s National Institute of Standards and Technology ()
Plus, otoritas industri, seperti AI Industry Alliance of China (AIIA) dan Frontier Model Forum di AS, dapat berbagi praktik terbaik tentang kerangka manajemen risiko. AIIA telah merumuskan “” yang telah ditandatangani oleh sebagian besar pengembang Tiongkok terkemuka. Tiongkok baru, yang berfokus penuh pada risiko frontier termasuk penyalahgunaan siber, penyalahgunaan biologis, persuasi dan manipulasi skala besar, dan skenario kehilangan kendali, diterbitkan selama dan dapat membantu kedua negara menyelaraskan diri.
Seiring kepercayaan semakin dalam, pemerintah dan laboratorium terkemuka dapat mulai berbagi metode dan hasil evaluasi keselamatan untuk model yang paling canggih. , yang diluncurkan di WAIC, secara eksplisit menyerukan pembentukan “platform evaluasi keselamatan yang diakui bersama.” Sebagai salah satu pendiri Anthropic , evaluasi keselamatan AI Tiongkok baru-baru ini memiliki temuan serupa dengan Barat: sistem AI frontier menimbulkan beberapa risiko CBRN yang tidak sepele, dan mulai menunjukkan tanda-tanda peringatan dini replikasi diri dan penipuan otonom. Pemahaman bersama tentang kerentanan model—dan tentang bagaimana kerentanan tersebut diuji—akan meletakkan dasar bagi kerja sama keselamatan yang lebih luas.
Akhirnya, kedua belah pihak dapat membuat saluran pelaporan insiden dan protokol respons darurat. Jika terjadi kecelakaan atau penyalahgunaan terkait AI, komunikasi yang cepat dan transparan akan sangat penting. Padanan modern dengan “hotline” antara pejabat tinggi AI di kedua negara dapat memastikan peringatan waktu nyata ketika model melanggar ambang batas keselamatan atau berperilaku tidak terduga. Pada bulan April, Presiden Xi Jinping perlunya “pemantauan, peringatan dini risiko, dan respons darurat” dalam AI. Setelah insiden berbahaya apa pun, harus ada rencana yang telah disepakati sebelumnya tentang cara bereaksi.
Keterlibatan tidak akan mudah—hambatan politik dan teknis tidak dapat dihindari. Tetapi risiko AI bersifat global—dan begitu juga respons tata kelola. Alih-alih menggunakan Tiongkok sebagai pembenaran untuk tidak bertindak dalam negeri mengenai regulasi AI, para pembuat kebijakan dan pemimpin industri Amerika harus terlibat secara langsung. Risiko AI tidak akan menunggu.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.
“`