
(SeaPRwire) – “Dunia berada dalam bahaya,” kata pemimpin Tim Penelitian Perlindungan Anthropic dalam surat pengunduran dirinya
Seorang peneliti keamanan kecerdasan buatan terkemuka, Mrinank Sharma, telah mengundurkan diri dari Anthropic dengan peringatan misterius tentang “krisis yang saling terkait” global, mengumumkan rencananya untuk menjadi “hilang dari pandangan selama beberapa waktu.”
Sharma, lulusan Oxford yang memimpin Tim Penelitian Perlindungan pembuat chatbot Claude, memposting surat pengunduran dirinya di X pada Senin, menggambarkan perjuangan pribadi yang berkembang terkait “keadaan kita.”
“Dunia berada dalam bahaya. Dan tidak hanya dari AI, atau senjata bio, tetapi dari serangkaian krisis yang saling terkait yang sedang terjadi pada saat ini,” tulis Sharma kepada rekan-rekannya.
Keluarnya ini terjadi di tengah tekanan yang meningkat seputar laboratorium AI berbasis San Francisco ini, yang secara bersamaan bergegas mengembangkan sistem yang semakin kuat sementara eksekutifnya sendiri memperingatkan bahwa teknologi yang sama dapat membahayakan umat manusia.
Hal ini juga menyusul laporan tentang perpecahan yang semakin lebar antara Anthropic dan Pentagon soal keinginan militer untuk mengerahkan AI untuk penargetan senjata otonom tanpa perlindungan yang perusahaan upayakan.
Pengunduran diri Sharma, yang terjadi beberapa hari setelah Anthropic merilis Opus 4.6 – iterasi yang lebih kuat dari alat andalannya, Claude – mengisyaratkan gesekan internal soal prioritas keamanan.
“Sepanjang waktu di sini, saya terus melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita,” tulisnya. “Saya melihat hal ini dalam diri saya sendiri, dalam organisasi, di mana kita terus menghadapi tekanan untuk mengesampingkan hal yang paling penting, dan juga di masyarakat luas.”
Tim peneliti ini didirikan baru lebih dari setahun lalu dengan mandat untuk menangani ancaman keamanan AI termasuk “pemakaian salah dan ketidaksesuaian model,” pencegahan bioterorisme, dan “pencegahan bencana.”
Sharma dengan bangga mencatat karyanya mengembangkan pertahanan terhadap senjata bio berbantuan AI dan “proyek terakhirnya untuk memahami bagaimana asisten AI dapat membuat kita kurang manusiawi atau mendistorsi kemanusiaan kita.” Sekarang ia berniat pindah kembali ke Inggris untuk “menjelajahi gelar sastra puisi” dan “menjadi hilang dari pandangan selama beberapa waktu.”
Chief executive Anthropic, Dario Amodei, telah berkali-kali memperingatkan bahaya dari teknologi yang perusahaannya komersialkan. Dalam esai hampir 20.000 kata bulan lalu, ia memperingatkan bahwa sistem AI dengan “kekuatan yang hampir tidak terbayangkan” “akan segera hadir” dan akan “menguji siapa kita sebagai spesies.”
Amodei memperingatkan tentang “risiko otonomi” di mana AI dapat “berubah jadi liar dan menguasai umat manusia,” dan menyarankan teknologi tersebut dapat memungkinkan “diktator totaliter global” melalui pengawasan berbasis AI dan senjata otonom.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.