Pemimpin Keamanan AI berkumpul di Washington sambil risiko meningkat—and Mythos menambah tekanan

(SeaPRwire) –   Selamat datang ke Eye on AI, bersama wartawan AI Sharon Goldman. Dalam edisi ini: Ahli Republikan terkemuka mendesak parti untuk menjauhi lobi AI bernilai $300 juta…Penipuan model AI menakutkan kerana terlalu bagus….Model AI baharu Anthropic mencetuskan amaran global.

Semasa Anthropic Mythos mendorong gelombang berita baharu minggu ini—menonjolkan kedua-dua keupayaan termajunya dan betapa mudahnya sistem sedemikian disalahgunakan—saya menuju ke sebuah bilik persidangan di luar Washington, D.C. Di sana, sekumpulan pengamal keselamatan AI, penetap piawaian, dan pakar dasar dari pelbagai sektor telah berkumpul untuk memikirkan rupa sebenar keselamatan AI.

Di luar industri, singkatan mereka—SANS, NIST, CoSAI, OWASP—mungkin tidak bermakna apa-apa. Namun dalam dunia keselamatan, mereka membantu menetapkan peraturan yang diikuti oleh organisasi di seluruh dunia. Tetapi buat masa ini, peraturan tersebut ketinggalan.

Saya telah dijemput untuk menyertai perbincangan tersebut ketika organisasi berlumba-lumba memasukkan AI ke dalam segala-galanya—menyerahkan data sensitif dan aliran kerja kritikal—walaupun sistem yang sama itu menjadi sasaran yang lebih menarik bagi musuh.

Mempengerusikan sesi tersebut ialah Rob van der Veer, ketua pegawai AI di platform perisian Software Improvement Group dan pengasas AI Exchange di komuniti keselamatan OWASP. Sistem seperti Mythos, katanya, mempercepatkan sejauh mana kerentanan dapat ditemui—dan mengalihkan keseimbangan kepada penyerang.

“Mereka menunjukkan bahawa kelemahan dalam sistem AI kini boleh ditemui dengan lebih pantas dan secara besar-besaran—sering kali sebelum pembangun menyedarinya,” katanya. “Ini mengalihkan keseimbangan kepada penyerang dan mengurangkan ruang untuk kesilapan.” Setakat ini, kebimbangan mengenai Mythos kebanyakannya tertumpu pada keupayaannya dan model yang serupa dalam mencari kerentanan yang dipanggil “zero-day” dalam perisian tradisional, tetapi mereka juga boleh menemui kerentanan dalam model dan sistem AI yang semakin banyak digunakan oleh perusahaan di seluruh organisasi mereka.

Masalahnya ialah kebanyakan organisasi tidak bersedia untuk menangani kebanyakan kebimbangan keselamatan AI yang sudah jelas dan yang baharu yang bakal tiba. Terdapat keperluan yang semakin meningkat untuk panduan praktikal—bagaimana untuk mengenal pasti ancaman khusus AI, dan apa yang perlu dilakukan mengenainya. Tetapi bidang ini masih terpecah-belah, dengan rangka kerja yang bertindih, cadangan yang bersaing, dan sedikit persetujuan tentang di mana untuk bermula.

Cara untuk mengamankan sistem AI masih belum mantap

Malah beberapa asas asas masih belum mantap. Apakah maksud mengukur sama ada sistem AI itu selamat? Bagaimanakah ia harus berbeza merentasi kes penggunaan, infrastruktur, atau alat pihak ketiga berbanding model asas? Patutkah panduan memberi tumpuan kepada keupayaan, atau hasil?

Gary McGraw, pengasas bersama Berryville Institute of Machine Learning, menunjuk kepada jurang teras: penanda aras hari ini cenderung untuk mengukur sejauh mana sistem AI dapat melaksanakan tugas keselamatan—bukan betapa selamatnya sistem itu sendiri. Syarikat perlu mengingati perbezaan itu ketika menilai alat dan pertahanan mereka.

McGraw memberi amaran seawal 2019 lagi bahawa mengamankan sistem pembelajaran mesin akan menjadi “salah satu perjuangan keselamatan siber yang menentukan bagi dekad seterusnya.” Detik itu kini telah tiba.

“Meskipun ini adalah cara untuk mengingatkan diri kita tentang asas-asas,” katanya, “sementara kita cuba mentakrifkan apa sebenarnya keselamatan pembelajaran mesin.”

Satu lagi kebimbangan penting ialah tiada set pagar pelindung yang terhad yang benar-benar kukuh terhadap prompt permusuhan, kata Apostol Vassilev, penyelia pasukan penyelidikan yang bekerja dalam keselamatan AI di National Institute of Standards and Technology (NIST), sebahagian daripada Jabatan Perdagangan A.S. “Ini bermakna keselamatan sistem AI bukanlah masalah statik—yang boleh diselesaikan sekali dan selesai,” katanya. Tidak seperti banyak kerentanan perisian tradisional yang boleh ditampal, keselamatan AI memerlukan pendekatan yang lebih dinamik: sentiasa mengemas kini pagar pelindung untuk menangani eksploitasi yang diketahui, menjalankan pasukan merah dalaman untuk mendedahkan prompt permusuhan baharu, menampal pertahanan sebelum penyerang menyerang, dan mengutamakan ketahanan supaya perusahaan dapat mengehadkan kesan—dan pulih dengan pantas daripada—eksploitasi yang tidak dapat dielakkan.

“Pada akhirnya, matlamatnya adalah untuk mencapai keseimbangan yang menyukarkan dan memerlukan kos tinggi bagi penyerang untuk mencari eksploitasi baharu,” tambahnya. “Tetapi itu hanya boleh berlaku jika perniagaan melabur dalam menerima pakai dan mengekalkan postur dinamik ini.”

Mirip dengan peralihan kepada pengamanan perisian

Namun, ramai peserta mesyuarat itu tetap optimis industri akan mengejar. McGraw menyatakan bahawa keselamatan telah melalui peralihan seperti ini sebelum ini, seperti ledakan perisian pada pertengahan 90-an. “Kita tidak perlu panik apabila perisian membanjiri dunia,” katanya. “Saya masih ingat apabila bank menyedari, ‘Ya Tuhan, kami adalah syarikat perisian.’”

Pada saat-saat seperti ini, naratif yang disampaikan oleh syarikat seperti Anthropic dan OpenAI boleh mendahului realiti, amarnya. “Keselamatan suka cerita yang baik dengan longgokan barang rosak yang terbakar dan pasukan bomba datang untuk menyelamatkan,” katanya. “Saya masih optimis bahawa kita sentiasa membuat kemajuan ke arah kejuruteraan keselamatan yang lebih baik. Kita boleh mengambil apa yang telah kita pelajari dan kita boleh mengaplikasikannya kepada pembelajaran mesin.”

Dan itulah sebabnya mesyuarat seumpama ini mengenai penyelarasan industri penting, kata van der Veer. “Menyelaraskan piawaian dan panduan merentasi inisiatif mengurangkan perpecahan, meningkatkan kejelasan, dan memberikan pengamal laluan yang koheren ke hadapan,” jelasnya. “Ia membolehkan organisasi bergerak pantas tanpa kehilangan kawalan.”

Dengan itu, berikut adalah lebih banyak berita AI.

Sharon Goldman
sharon.goldman@.com
@sharongoldman

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.