Demo Keselamatan AI Yang Menyebabkan Kebimbangan di Washington

Science biotechnology DNA chromosome, 3D rendering

(SeaPRwire) –   Selamat kembali ke In the Loop, surat berita dua mingguan baru TIME tentang AI. Jika anda membaca ini di penyemak imbas anda, mengapa tidak untuk mendapatkan yang seterusnya dihantar terus ke peti masuk anda?


Apa yang Perlu Diketahui: Demo Berbahaya

Akhir tahun lepas, seorang penyelidik AI membuka laptopnya dan menunjukkan kepada saya sesuatu yang menakjubkan.

Lucas Hansen, pengasas bersama organisasi bukan untung CivAI, menunjukkan kepada saya aplikasi yang dia bina yang memaksa model AI popular untuk memberikan arahan langkah demi langkah terperinci untuk mencipta virus polio dan anthrax. Sebarang langkah perlindungan yang dimiliki oleh model ini telah dikeluarkan. Aplikasi itu mempunyai antara muka yang mesra pengguna; dengan klik butang, model akan menjelaskan mana-mana langkah yang diberikan.

Syarikat-syarikat AI terkemuka telah memberi amaran selama bertahun-tahun bahawa model mereka mungkin tidak lama lagi dapat membantu orang baru mencipta patogen berbahaya—yang berpotensi mencetuskan pandemik maut, atau membolehkan serangan bioteror. Berhadapan dengan risiko ini, syarikat seperti OpenAI, Google, dan Anthropic telah mengetatkan mekanisme keselamatan untuk generasi terbaru model mereka yang lebih berkuasa, yang lebih baik dalam menentang percubaan yang dipanggil “jailbreaking” attempts.

Tetapi pada laptop Hansen, saya melihat kelas model yang lebih lama—Gemini 2.0 Flash dan Claude 3.5 Sonnet—nampaknya memenuhi permintaan yang berkaitan dengan senjata bio. Gemini juga memberikan arahan langkah demi langkah yang kelihatan untuk membina bom dan senjata hantu yang dicetak 3D.

Tunggu sebentar — Saya bukan ahli biologi, dan saya tidak mempunyai cara untuk mengesahkan bahawa resipi pada skrin Hansen akan benar-benar berfungsi. Walaupun output model yang kelihatan meyakinkan pada pandangan pertama mungkin tidak berfungsi dalam amalan. Anthropic, sebagai contoh, telah menjalankan apa yang dipanggil “uplift trials,” di mana pakar bebas menilai tahap di mana model AI boleh membantu orang baru mencipta patogen berbahaya. Mengikut ukuran mereka, Claude 3.5 Sonnet tidak memenuhi ambang bahaya. Dalam satu kenyataan, jurucakap Google berkata: “Keselamatan adalah keutamaan dan kami mengambil isu seperti ini dengan sangat serius. Kami tidak membenarkan penggunaan model kami untuk terlibat dalam tingkah laku seperti ini, tetapi kerana kami tidak dapat menyemak penyelidikan itu, kami tidak dapat mengesahkan ketepatannya. It’s important for an expert with a CBRN [Chemical, Biological, Radiological, and Nuclear] background to assess the prompts and responses to understand their accuracy and potential for replication.”

Petua dan helah — Tetapi Siddharth Hiregowdara, pengasas bersama CivAI yang lain, berkata bahawa pasukannya telah menghantar output model kepada pakar biologi dan virologi bebas, yang mengesahkan bahawa langkah-langkah itu “by and large correct.” Model-model yang lebih lama, katanya, masih boleh memberikan butiran yang betul sehingga kepada jujukan DNA khusus yang pengguna boleh tempah dari peruncit dalam talian, dan nombor katalog khusus untuk alatan makmal lain yang akan ditempah dalam talian. “Then it gives you tips and tricks,” he says. “One of the misconceptions people have is that AI is going to lack this tacit knowledge of the real world in the lab. But really, AI is super helpful for that.”

Alat lobi baru — Tidak perlu dikatakan bahawa aplikasi ini tidak tersedia untuk orang ramai. Tetapi pembuatnya telah membawa ia dalam lawatan ke Washington, D.C., memberikan dua dozen atau lebih demonstrasi peribadi kepada pejabat ahli parlimen, pegawai keselamatan negara, dan jawatankuasa Kongres, dalam usaha untuk menunjukkan secara jelas kepada pembuat dasar kuasa apa yang AI boleh lakukan hari ini, supaya mereka mula mengambil teknologi ini dengan lebih serius.

Kejutan dan kagum — “One pretty noteworthy meeting was with some senior staff at a congressional office on the national security/intelligence side,” says Hiregowdara. “They said that two weeks ago a major AI company’s lobbyists had come in and talked with them. And so we showed them this demo, where the AI comes up with really detailed instructions for constructing some biological threat. They were shocked. They were like: ‘The AI company lobbyists told us that they have guardrails preventing this kind of behavior.’”


Yang Perlu Diketahui: Nick Turley, Ketua ChatGPT

Nick Turley used to be anonymous. He could return to small-town Germany, where he is from, or wander the streets of San Francisco, where he lives, without anybody knowing his work. This is no longer true. As OpenAI’s head of ChatGPT, Turley now meets passionate users of his product wherever he travels in the world.

“That feels categorically different in 2025 versus earlier,” he told me when we spoke at the tail end of last year. Turley was reflecting on a year when ChatGPT usage more than doubled to over 800 million users, or 10% of the world’s population. “That leaves at least 90% to go,” he said, with an entirely straight face.

One thing I wanted to ask Turley about was OpenAI’s plans for turning a profit, as the company is currently losing billions of dollars per year. His boss Sam Altman has mused publicly about putting ads into ChatGPT, and I asked him what he thought of that idea.

“I want to live in a world where we can offer our smartest model capabilities to all users around the world. And for that reason, I feel like we actually have a moral duty to explore all possible business models that can maximize access around the world, and ads is one of them,” Turley said.

The company, he added, is debating internally whether ads would introduce a conflict of interest into ChatGPT, raising questions of whether the chatbot was serving the user’s interests first, or the advertiser’s. “If you were to do something like that [introducing ads],” Turley told me, “you’d want to be very principled, and you’d want to communicate the principles of how it works.”


AI dalam Tindakan

40 million people use ChatGPT for health advice, according to an OpenAI report first shared with Axios. That makes up more than 5% of all ChatGPT messages globally, by Axios’ calculations. “Users turn to ChatGPT to decode medical bills, spot overcharges, appeal insurance denials, and when access to doctors is limited, some even use it to self-diagnose or manage their care,” the outlet .


Apa yang Kami Baca

, in Transformer

Shakeel Hashim writes: “This is crucial to understanding why Claude Code has implications for everyone, not just the developers that have already been wowed by it. Claude Code doesn’t just generate code for engineers to review and deploy. It uses code to accomplish tasks. The ‘Code’ in its name is misleading, and undersells the actual product: a general-purpose AI agent that can do almost anything on your computer.”

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.