(SeaPRwire) – Sekumpulan rentas parti yang terdiri daripada 60 ahli parlimen U.K. telah menuduh Google DeepMind melanggar ikrar antarabangsa untuk membangunkan kecerdasan buatan (AI) dengan selamat, dalam surat yang dikongsikan secara eksklusif dengan TIME sebelum penerbitan. Surat itu, yang dikeluarkan pada 29 Ogos oleh kumpulan aktivis PauseAI U.K., menyatakan bahawa pelancaran Gemini 2.5 Pro oleh Google pada Mac tanpa butiran ujian keselamatan yang disertakan “menjadi preseden berbahaya.” Surat itu, yang ditandatangani oleh aktivis hak digital Baroness Beeban Kidron dan bekas Setiausaha Pertahanan Des Browne, menyeru Google untuk menjelaskan komitmennya.
Selama bertahun-tahun, pemimpin dalam AI, termasuk CEO Google DeepMind, telah memberi amaran bahawa AI boleh menimbulkan risiko bencana kepada keselamatan awam dan kehidupan awam—contohnya, dengan membantu bakal pengganas biologi dalam mereka bentuk patogen baharu atau penggodam dalam menumbangkan infrastruktur kritikal. Dalam usaha untuk mengurus risiko tersebut, pada sidang kemuncak AI antarabangsa yang dianjurkan bersama oleh kerajaan U.K. dan Korea Selatan pada Februari 2024, Google, OpenAI, dan syarikat lain telah menandatangani Komitmen Keselamatan AI Frontier. Para penandatangan berjanji untuk “melaporkan secara terbuka” keupayaan sistem dan penilaian risiko serta menjelaskan sama ada dan bagaimana pihak luar, seperti agensi kerajaan, terlibat dalam ujian. Tanpa peraturan yang mengikat, orang awam dan penggubal undang-undang banyak bergantung pada maklumat yang berasal daripada ikrar sukarela untuk memahami risiko AI yang muncul.
Namun, apabila Google melancarkan Gemini 2.5 Pro pada 25 Mac—yang menurutnya mengatasi sistem AI pesaing dalam penanda aras industri dengan “margin yang signifikan”—syarikat itu mengabaikan untuk menerbitkan maklumat terperinci mengenai ujian keselamatan selama lebih sebulan. Surat itu menyatakan bahawa ini bukan sahaja mencerminkan “kegagalan untuk menghormati” komitmen keselamatan antarabangsanya, tetapi juga mengancam norma rapuh yang mempromosikan pembangunan AI yang lebih selamat. “Jika syarikat-syarikat terkemuka seperti Google menganggap komitmen ini sebagai pilihan, kita berisiko untuk terlibat dalam perlumbaan berbahaya untuk menggunakan AI yang semakin kuat tanpa perlindungan yang sewajarnya,” tulis Browne dalam kenyataan yang mengiringi surat tersebut.
“Kami sedang memenuhi komitmen awam kami, termasuk Komitmen Keselamatan AI Frontier Seoul,” kata jurucakap Google DeepMind kepada TIME melalui kenyataan e-mel. “Sebagai sebahagian daripada proses pembangunan kami, model kami menjalani pemeriksaan keselamatan yang ketat, termasuk oleh UK AISI dan penguji pihak ketiga lain – dan Gemini 2.5 tidak terkecuali.”
Surat terbuka itu menyeru Google untuk menetapkan garis masa tertentu bilakah laporan penilaian keselamatan akan dikongsi untuk keluaran akan datang. Google mula-mula menerbitkan kad model Gemini 2.5 Pro—dokumen di mana ia biasanya berkongsi maklumat mengenai ujian keselamatan—22 hari selepas pelancaran model tersebut. Bagaimanapun, dokumen lapan muka surat itu hanya mengandungi bahagian ringkas mengenai ujian keselamatan. Hanya pada 28 April—lebih sebulan selepas model itu tersedia kepada umum—kad model itu dikemas kini dengan dokumen 17 muka surat yang mengandungi butiran penilaian khusus, menyimpulkan bahawa Gemini 2.5 Pro menunjukkan peningkatan “ketara” walaupun belum berbahaya dalam domain termasuk penggodaman. Kemas kini itu juga menyatakan penggunaan “penguji luaran pihak ketiga,” tetapi tidak mendedahkan yang mana satu atau sama ada Institut Keselamatan AI U.K. adalah antara mereka—yang surat itu juga nyatakan sebagai pelanggaran ikrar Google.
Setelah sebelum ini gagal menjawab permintaan untuk komen sama ada ia telah berkongsi Gemini 2.5 Pro dengan kerajaan untuk ujian keselamatan, jurucakap Google DeepMind memberitahu TIME bahawa syarikat itu memang berkongsi Gemini 2.5 Pro dengan Institut Keselamatan AI U.K., serta “sekumpulan pakar luaran yang pelbagai,” termasuk Apollo Research, Dreadnode, dan Vaultis. Bagaimanapun, Google menyatakan ia hanya berkongsi model itu dengan Institut Keselamatan AI U.K. selepas Gemini 2.5 Pro dilancarkan pada 25 Mac.
Pada 3 April, sejurus selepas pelancaran Gemini 2.5 Pro, pengarah kanan dan ketua produk Gemini Google, Tulsee Doshi, memberitahu TechCrunch bahawa sebab ia tidak mempunyai laporan keselamatan adalah kerana model itu merupakan keluaran “eksperimen,” sambil menambah bahawa ia telah pun menjalankan ujian keselamatan. Beliau berkata tujuan pelancaran eksperimen ini adalah untuk mengeluarkan model itu secara terhad, mengumpul maklum balas pengguna, dan memperbaikinya sebelum pelancaran pengeluaran, di mana syarikat itu akan menerbitkan kad model yang memperincikan ujian keselamatan yang telah dijalankan. Namun, beberapa hari sebelumnya, Google telah melancarkan model itu kepada semua jutaan pengguna percumanya, mengatakan “kami ingin mendapatkan model paling pintar kami ke tangan lebih ramai orang secepat mungkin,” dalam satu catatan di X.
Surat terbuka itu menyatakan bahawa “melabelkan model yang boleh diakses secara awam sebagai ‘eksperimen’ tidak melepaskan Google daripada kewajipan keselamatannya,” dan tambahan pula menyeru Google untuk menetapkan definisi penggunaan yang lebih masuk akal. “Syarikat mempunyai tanggungjawab awam yang besar untuk menguji teknologi baharu dan tidak melibatkan orang awam dalam eksperimen,” kata Bishop of Oxford, Steven Croft, yang menandatangani surat itu. “Bayangkan sahaja sebuah pengeluar kereta mengeluarkan kenderaan sambil berkata, ‘kami mahu orang ramai bereksperimen dan memberi maklum balas apabila mereka berlanggar atau apabila mereka melanggar pejalan kaki dan apabila brek tidak berfungsi,’” tambahnya.
Croft mempersoalkan kekangan dalam menyediakan laporan keselamatan pada masa pelancaran, merumuskan isu itu kepada soal keutamaan: “Berapa banyak pelaburan besar [Google] dalam AI disalurkan kepada keselamatan awam dan jaminan dan berapa banyak yang digunakan untuk kuasa pengkomputeran yang besar?”
Sesungguhnya, Google bukan satu-satunya syarikat gergasi industri yang kelihatan melanggar komitmen keselamatan. xAI masih belum mengeluarkan sebarang laporan keselamatan untuk Grok 4, sebuah model AI yang dilancarkan pada Julai. Tidak seperti GPT-5 dan pelancaran baru-baru ini yang lain, pelancaran alat Deep Research OpenAI pada Februari tidak mempunyai laporan keselamatan pada hari yang sama. Syarikat itu menyatakan ia telah melakukan “ujian keselamatan yang ketat,” tetapi tidak menerbitkan laporan itu sehingga 22 hari kemudian.
Joseph Miller, pengarah PauseAI U.K. berkata organisasi itu bimbang tentang insiden pelanggaran lain yang ketara, dan tumpuan kepada Google adalah disebabkan kedekatannya. DeepMind, makmal AI yang diambil alih Google pada 2014, kekal beribu pejabat di London. Setiausaha Negara U.K. bagi Sains, Inovasi dan Teknologi, , berkata dalam kempen pada 2024 bahawa beliau akan menggesa syarikat AI terkemuka untuk berkongsi ujian keselamatan, tetapi pada Februari ia telah dilaporkan bahawa rancangan U.K. untuk mengawal selia AI ditangguhkan kerana ia cuba menyelaraskan dengan pendekatan “tidak campur tangan” pentadbiran Trump. Miller berkata sudah tiba masanya untuk menukar ikrar syarikat dengan “peraturan sebenar,” sambil menambah bahawa “komitmen sukarela tidak berfungsi.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.