Dalam Surat Terbuka Baru, Pakar Memanggil Tindakan Dasar untuk Elakkan Risiko Ekstrim Dari AI

Pada Selasa, 24 pakar AI, termasuk pemenang Anugerah Turing Geoffrey Hinton dan Yoshua Bengio, menerbitkan surat terbuka memanggil kerajaan untuk mengambil tindakan untuk mengurusi risiko dari AI. Surat itu memberi tumpuan khusus kepada risiko ekstrem yang dibawa oleh sistem paling maju, seperti membolehkan aktiviti jenayah atau pengganas besar-besaran.

Surat terbuka itu membuat beberapa cadangan dasar konkrit, seperti memastikan bahawa syarikat teknologi besar dan pemberi dana awam menyumbangkan sekurang-kurangnya satu pertiga daripada bajet R & D AI mereka kepada projek yang menggalakkan penggunaan AI yang selamat dan beretika. Penulis juga memanggil penciptaan piawaian kebangsaan dan antarabangsa.

Bengio, pengarah saintifik di Institut Pembelajaran Algoritma Montreal, berkata bahawa surat terbuka itu bertujuan untuk membantu pembuat dasar, media, dan orang ramai “memahami risiko, dan beberapa perkara yang perlu kita lakukan untuk membuat sistem [AI] melakukan apa yang kita mahu.”

Cadangan-cadangan itu tidak memecahkan batu. Sebaliknya, penandatangan surat terbuka itu meletakkan nama mereka di belakang pandangan konsensus di kalangan penyelidik dasar AI yang bimbang dengan risiko ekstrem (mereka sangat menyerupai dasar paling popular yang dikenal pasti dalam tinjauan Mei pakar).

“Kami mahu menyajikan apa yang (kami rasa) pemikiran jelas tentang keselamatan AI, agak bebas dari pengaruh kepentingan berkepentingan,” Stuart Russell, profesor sains komputer di Universiti California, Berkeley, dan penulis bersama surat itu, berkata kepada TIME melalui e-mel.

Kenyataan minggu ini berbeza daripada surat terbuka pakar sebelum ini, kata Russell, kerana “Kerajaan telah memahami bahawa terdapat risiko sebenar. Mereka bertanya kepada komuniti AI, ‘Apa yang perlu dilakukan?’ Kenyataan ini adalah jawapan kepada soalan itu.”

Penulis lain termasuk sejarawan dan falsafah Yuval Noah Harari, dan penerima Anugerah “genius” MacArthur dan profesor sains komputer di Universiti California, Berkeley, Dawn Song, bersama-sama dengan beberapa akademik lain dari pelbagai negara dan bidang.

Surat terbuka ini adalah kenyataan ketiga yang menonjol ditandatangani oleh pakar AI tahun ini, dalam usaha meningkat untuk memberi amaran terhadap potensi risiko pembangunan AI yang tidak diatur. Pada bulan Mac, surat terbuka memanggil makmal AI untuk “segera menangguhkan selama sekurang-kurangnya 6 bulan latihan sistem AI yang lebih kuat daripada GPT-4” ditandatangani oleh puluhan ribu orang, termasuk Elon Musk, Bengio, dan Russell.

Pada Mei, satu kenyataan yang dianjurkan oleh Pusat Keselamatan AI menyatakan bahawa “mengurangkan risiko kepupusan dari AI harus menjadi keutamaan global bersama-sama dengan risiko berskala masyarakat lain seperti wabak dan perang nuklear.” Kenyataan itu ditandatangani oleh lebih 500 akademik dan pemimpin industri terkemuka, sekali lagi termasuk Hinton, Bengio, dan Russell, tetapi juga CEO tiga syarikat AI paling terkemuka: Sam Altman dari OpenAI, Demis Hassabis dari DeepMind, dan Dario Amodei dari Anthropic.

Pieter Abbeel, pengasas bersama, presiden dan ketua saintis syarikat robotik Covariant.ai, dan profesor kejuruteraan elektrik dan sains komputer di Universiti California, Berkeley, menandatangani surat terbuka minggu ini walaupun tidak menandatangani yang sebelumnya. Abbeel memberitahu TIME bahawa nada berhati-hati optimis dalam kenyataan terkini lebih sesuai dengan pandangannya berbanding nada lebih menakutkan dalam surat terbuka sebelumnya. “Jika kita lakukan perkara dengan betul – dan kita mempunyai banyak perkara untuk diperbaiki – kita boleh menjadi sangat optimis tentang masa depan,” katanya.

Penyelidik AI telah lama berusaha untuk menarik perhatian terhadap potensi risiko yang dibawa oleh teknologi yang mereka bantu kembangkan. Pada tahun 2016, Hinton, Bengio, dan Russell menandatangani surat dianjurkan oleh Institut Masa Depan Kehidupan, organisasi bukan untung yang bertujuan untuk mengurangkan risiko global yang membinasakan dan eksistensial, memanggil untuk “larangan senjata autonomi yang melampaui kawalan manusia yang bermakna.”

Secara sejarah, saintis telah memberi amaran dan menjadi penyokong awal untuk isu-isu berkaitan dengan penyelidikan mereka. Ahli sains iklim telah menarik perhatian kepada masalah pemanasan global sejak tahun 1980-an. Dan selepas beliau memimpin pembangunan bom atom, Robert Oppenheimer menjadi penyokong suara yang kuat untuk kawalan antarabangsa, dan bahkan pembubaran lengkap, senjata nuklear.

Bengio berkata bahawa advokasi dasar AI-nya telah berkembang seiring dengan “pemahaman saya tentang masalah itu, dan politik di sekelilingnya telah sangat dipertingkatkan.”

Salah satu dasar yang disarankan dalam surat terbuka baharu ini adalah memerlukan syarikat untuk mendapatkan lesen sebelum membangunkan “model masa depan yang luar biasa berupaya.” Beberapa pembangun AI dan pengulas, bagaimanapun, telah memperingatkan bahawa pelesenan akan memberi kelebihan kepada syarikat besar yang mampu memikul beban peraturan yang diperlukan untuk memperoleh lesen.

Bengio menyebut ini sebagai “hujah palsu sepenuhnya”, dengan menunjukkan bahawa beban yang dikenakan oleh pelesenan akan jatuh semata-mata kepada syarikat yang membangunkan model AI terbesar dan paling berupaya. Sebaliknya, Bengio mendakwa risiko sebenar penangkapan peraturan yang perlu berwaspada adalah jika syarikat dibenarkan mempengaruhi undang-undang supaya ia tidak cukup kukuh.

Russell berkata dakwaan bahawa syarikat AI besar secara licik mendorong peraturan untuk menutup pintu kepada syarikat kecil adalah “kebodohan yang tidak masuk akal”, dengan mendakwa walaupun terdapat lebih banyak peraturan ke atas kedai sandwich berbanding syarikat AI, berpuluh ribu kedai kopi dan restoran baru dibuka setiap tahun.

Surat terbuka ini datang pada masa yang kritikal, dengan peraturan di bidang kuasa pembangunan AI utama berada pada peringkat kematangan yang berbeza. China paling jauh ke depan – peraturannya yang mengawal selia bot percakapan AI, yang berasaskan pusingan peraturan AI sebelumnya, telah berkuat kuasa pada Ogos.

Negara-negara Barat lebih ketinggalan. Akta AI EU masih bergerak melalui proses peraturan EU. Di AS, Rumah Putih telah memperoleh komitmen sukarela daripada 15 pemaju AI terkemuka, tetapi Kongres masih jauh daripada meluluskan undang-undang AI.

Sementara itu, Perdana Menteri UK Rishi Sunak berusaha memainkan peranan utama dalam mempromosikan kerjasama antarabangsa dalam isu-isu AI, dan Setiausaha Agung PBB António Guterres dan utusannya tentang teknologi, Amandeep Gill, juga berusaha untuk maju rancangan tadbir urus AI global.