Illinois menjadi medan pertarungan terkini OpenAI dan Anthropic manakala negeri tersebut mencuba menilai tanggungjawab bagi bencana yang disebabkan oleh AI

(SeaPRwire) –   OpenAI dan Anthropic menyokong rang undang-undang AI yang bercanggah dalam Perhimpunan Agung Illinois yang cuba menjawab apa yang sepatutnya berlaku apabila AI menyebabkan sesuatu menjadi sangat teruk.

Ini adalah babak terkini dalam persengketaan berterusan syarikat-syarikat itu mengenai keselamatan dan peraturan AI, memandangkan Ketua Pegawai Eksekutif mereka telah bertukar-tukar kritikan dalaman dan awam mengenai pendekatan masing-masing.

OpenAI menyokong SB 3444, di mana pembangun AI terdepan tidak akan bertanggungjawab atas kematian atau kecederaan serius kepada 100 orang atau lebih atau menyebabkan kerosakan harta benda melebihi $1 bilion. Perlindungan ini termasuk kes di mana AI menyebabkan atau secara material membolehkan penciptaan atau penggunaan senjata kimia, biologi, radiologi, atau nuklear.

Minggu ini, Anthropic menyatakan ia menentang rang undang-undang tersebut, lapor Wired terlebih dahulu.

“Kami menentang rang undang-undang ini. Undang-undang ketelusan yang baik perlu memastikan keselamatan awam dan akauntabiliti untuk syarikat-syarikat yang membangunkan teknologi berkuasa ini, bukan memberikan kad ‘bebas-jail’ terhadap semua liabiliti,” kata Cesar Fernandez, ketua hubungan kerajaan negeri dan tempatan AS di Anthropic, dalam satu kenyataan kepada .

Sebaliknya, Anthropic menyokong rang undang-undang berasingan, SB 3261, yang akan mewajibkan pembangun AI menerbitkan pelan keselamatan awam dan perlindungan kanak-kanak di laman web mereka. Rang undang-undang itu juga mewujudkan sistem pelaporan insiden untuk memaklumkan kepada ahli perundangan dan awam tentang “risiko bencana,” atau insiden yang boleh mengakibatkan kematian atau kecederaan serius 50 orang atau lebih yang disebabkan oleh pembangunan, penyimpanan, penggunaan, atau pelaksanaan model terdepan oleh pembangun terdepan.

Rang undang-undang itu juga meliputi keselamatan kanak-kanak, aspek yang tiada dalam rang undang-undang yang disokong OpenAI. Di bawah SB 3261, pembangun AI akan dipertanggungjawabkan jika model mereka menyebabkan kesusahan emosi yang teruk, kematian, atau kecederaan badan kepada kanak-kanak, termasuk kecederaan diri.

Standard yang ‘sangat rendah’

Pakar memberitahu bahawa SB 3444 tidak mungkin diluluskan kerana ia merupakan pendekatan yang nyata lemah terhadap liabiliti korporat dalam kes bencana sedangkan Illinois telah menjadi peneraju dalam peraturan AI. Tahun lepas, negeri itu mengharamkan terapi AI sambil membenarkan penggunaannya dalam perkhidmatan pentadbiran dan sokongan untuk profesional berlesen.

SB 3444 mewajibkan syarikat mempunyai pelan keselamatan AI awam, tetapi tiada langkah penguatkuasaan. Jika pembangun tidak “secara sengaja atau cuai” menyebabkan insiden itu, mereka akan dilindungi daripada liabiliti.

Sengaja atau cuai bukanlah standard penjagaan undang-undang yang biasa untuk syarikat yang terlibat dalam aktiviti yang sangat berbahaya, kata Anat Lior, profesor madya undang-undang di Universiti Drexel, yang merupakan pakar dalam liabiliti dan tadbir urus AI.

“Biasanya, keadaan fikiran, atau kesalahan yang berkaitan dengan kemudaratan, tidak penting,” jelasnya. “Mereka menetapkan standard yang sangat rendah di sini. Keupayaan untuk membuktikan bahawa anda melakukan sesuatu dengan sengaja yang melibatkan AI akan menjadi sangat sukar.”

Profesor undang-undang Universiti Touro Gabriel Weil, yang telah bekerjasama dengan ahli perundangan di New York dan Rhode Island mengenai rang undang-undang yang akan meletakkan liabiliti yang lebih besar kepada pembangun AI, berkata pendekatan rang undang-undang yang disokong OpenAI itu “agak tidak boleh dipertahankan.”

“Itu nampaknya seperti keperluan yang sangat lemah, dan sebagai balasannya anda mendapat perlindungan hampir sepenuhnya daripada liabiliti, daripada peristiwa ekstrem ini,” Weil memberitahu . “Saya fikir itu adalah arah yang bertentangan dengan yang sepatutnya kita tuju.”

Seorang jurucakap OpenAI memberitahu Wired bahawa syarikat itu menyokong pendekatan SB 3444 kerana ia mengurangkan “risiko kemudaratan serius daripada sistem AI yang paling maju sambil masih membenarkan teknologi ini sampai ke tangan orang ramai dan perniagaan.”

Seorang jurucakap OpenAI memberitahu bahawa syarikat itu sangat menyokong usaha yang meningkatkan ketelusan dan pengurangan risiko dalam protokol keselamatan AI, dengan menyebut kerjasamanya dengan ahli perundangan di California dan New York untuk meluluskan rangka kerja keselamatan dan penalti ketidakpatuhan. Syarikat itu akan terus bekerjasama dengan negeri-negeri sekiranya tiada undang-undang persekutuan.

“Kami berharap undang-undang negeri ini akan memaklumkan rangka kerja kebangsaan yang akan membantu memastikan AS terus memimpin,” tulis jurucakap itu.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.