Pada 16 Julai 1945 dunia berubah selama-lamanya. Ujian ‘Trinity’ Projek Manhattan, yang diarahkan oleh Robert Oppenheimer, telah membekalkan manusia buat kali pertama dengan keupayaan untuk memusnahkan dirinya sendiri: bom atom telah berjaya diledakkan 210 batu di selatan Los Alamos, New Mexico.
Pada 6 Ogos 1945 bom itu dijatuhkan di Hiroshima dan tiga hari kemudian, Nagasaki – melepaskan kuasa pemusnahan yang belum pernah berlaku sebelum ini. Akhir Perang Dunia II membawa perdamaian yang rapuh, dibayangi oleh ancaman eksistensial yang baru ini.
Walaupun teknologi nuklear menjanjikan era tenaga yang melimpah, ia juga melancarkan kita ke dalam masa depan di mana perang nuklear boleh membawa kepada akhir tamadun kita. ‘Jejari letupan’ teknologi kita telah meningkat ke skala global. Ia semakin jelas bahawa mentadbir teknologi nuklear untuk mengelakkan malapetaka global memerlukan kerjasama antarabangsa. Masa adalah intipati untuk menubuhkan institusi yang kukuh untuk menangani ini.
Pada tahun 1952, 11 buah negara menubuhkan CERN dan menugaskannya dengan “kerjasama dalam penyelidikan saintifik [nuklear] yang semata-mata bersifat asas” – menjelaskan bahawa penyelidikan CERN akan digunakan untuk kebaikan awam. Agensi Tenaga Atom Antarabangsa (IAEA) juga ditubuhkan pada tahun 1957 untuk memantau stok uranium global dan mengehadkan penyebaran. Antara lain, institusi-institusi ini telah membantu kita terus hidup sejak 70 tahun yang lalu.
Kami percaya bahawa manusia sekali lagi menghadapi peningkatan ‘jejari letupan’ teknologi: perkembangan kecerdasan buatan maju. Teknologi berkuasa yang boleh memusnahkan umat manusia jika dibiarkan tanpa kawalan, tetapi, jika diselaraskan dengan selamat, boleh mengubah dunia menjadi lebih baik.
Hantu kecerdasan buatan am
Pakar telah membunyikan loceng bahaya mengenai pembangunan kecerdasan buatan am (AGI). Saintis AI dan pemimpin syarikat AI utama yang terkenal, termasuk Sam Altman dari OpenAI dan Demis Hassabis dari Google DeepMind, menandatangani kenyataan dari Pusat Keselamatan AI yang menyatakan: “Mengurangkan risiko kepupusan dari AI harus menjadi keutamaan global di samping risiko berskala masyarakat lain seperti wabak dan perang nuklear.” Beberapa bulan sebelum itu, surat lain yang menyeru jeda dalam eksperimen AI raksasa telah ditandatangani lebih 27,000 kali, termasuk oleh pemenang Hadiah Turing Yoshua Bengio dan Geoffrey Hinton.
Ini kerana sekumpulan kecil syarikat AI (OpenAI, Google Deepmind, Anthropic) bertujuan untuk mewujudkan AGI: bukan hanya chatbot seperti ChatGPT, tetapi AI yang ” berautonomi dan mengatasi manusia dalam kebanyakan aktiviti ekonomi”. Ian Hogarth, pelabur dan kini Pengerusi Jawatankuasa Tugas Model Asas UK, menyebut ini sebagai ‘AI seperti tuhan’ dan mendesak kerajaan untuk memperlahankan perlumbaan untuk membinanya. Malah pembangun teknologi itu sendiri menjangkakan bahaya yang besar daripadanya. Altman, CEO syarikat di sebalik ChatGPT, berkata bahawa “Pembangunan kecerdasan mesin supermanusia (SMI) mungkin merupakan ancaman terbesar kepada kelangsungan hidup manusia.”
Pemimpin dunia menyeru penubuhan institusi antarabangsa untuk menangani ancaman AGI: ‘CERN’ atau ‘IAEA untuk AI’. Pada bulan Jun, Presiden Biden dan Perdana Menteri UK Sunak membincangkan organisasi sedemikian. Setiausaha Agung PBB, Antonio Guterres berpendapat kita memerlukan satu juga. Memandangkan konsensus yang semakin meningkat untuk kerjasama antarabangsa bagi menangani risiko daripada AI, kita perlu menggariskan secara konkrit bagaimana institusi sedemikian boleh dibina.
Adakah ‘CERN untuk AI’ kelihatan seperti MAGIC?
MAGIC (Konsortium AGI Multilateral) akan menjadi satu-satunya kemudahan AI maju dan selamat di dunia yang memberi tumpuan kepada penyelidikan dan pembangunan AI maju yang mengutamakan keselamatan. Seperti CERN, MAGIC akan membolehkan umat manusia mengambil pembangunan AGI daripada tangan firma swasta dan meletakkannya ke tangan organisasi antarabangsa yang diamanahkan untuk pembangunan AI yang selamat.
MAGIC akan mempunyai eksklusiviti apabila datang kepada penyelidikan dan pembangunan AI maju berisiko tinggi. Adalah menyalahi undang-undang bagi entiti lain untuk secara bebas mengejar pembangunan AGI. Ini tidak akan menjejaskan majoriti penyelidikan dan pembangunan AI, dan hanya memberi tumpuan kepada penyelidikan yang relevan dengan AGI, sama seperti bagaimana kita sudah menangani R&D berbahaya dengan teknologi lain. Penyelidikan kejuruteraan patogen mematikan sama ada dilarang sama sekali atau terhad ke makmal tahap biokeselamatan yang sangat tinggi. Pada masa yang sama, majoriti penyelidikan dadah diawasi oleh agensi pengawalseliaan seperti FDA.
MAGIC hanya akan mengambil berat untuk mencegah pembangunan sistem AI frontier berisiko tinggi – AI seperti tuhan. Penemuan penyelidikan yang dilakukan di MAGIC hanya akan dikongsi dengan dunia luar sebaik sahaja terbukti selamat secara meyakinkan.
Untuk memastikan penyelidikan AI berisiko tinggi kekal selamat dan di bawah pengawasan ketat di MAGIC, moratorium global ke atas penciptaan AI menggunakan lebih daripada jumlah kuasa pengkomputeran tertentu akan dikuatkuasakan (di sini ada gambaran yang baik mengapa kuasa pengkomputeran penting). Ini serupa dengan bagaimana kita sudah menangani uranium secara antarabangsa, sumber utama yang digunakan untuk senjata dan tenaga nuklear.
Tanpa tekanan persaingan, MAGIC boleh memastikan keselamatan dan keamanan yang mencukupi yang diperlukan untuk teknologi transformatif ini, dan mengedarkan manfaatnya kepada semua pihak yang menandatangani. CERN wujud sebagai preseden bagaimana kita boleh berjaya dengan MAGIC.
Amerika Syarikat dan UK berada dalam kedudukan sempurna untuk memudahkan usaha multilateral ini, dan melancarkan permulaannya selepas Persidangan Kemuncak Global mengenai Kecerdasan Buatan yang akan datang pada bulan November tahun ini.
Mengelakkan risiko eksistensial daripada AGI mencabar, dan meninggalkan cabaran ini kepada syarikat swasta adalah pertaruhan yang sangat berbahaya. Kita tidak membenarkan individu atau syarikat membangunkan senjata nuklear untuk kegunaan persendirian, dan kita tidak sepatutnya membenarkan ini berlaku dengan AI berbahaya dan berkuasa. Kita berjaya tidak memusnahkan diri kita sendiri dengan senjata nuklear, dan kita boleh menjamin masa depan kita sekali lagi – tetapi tidak jika kita kekal diam. Kita mesti meletakkan pembangunan AI maju ke tangan institusi global baru yang dipercayai dan mewujudkan masa depan yang lebih selamat untuk semua.
Institusi pasca-WWII membantu kita mengelakkan perang nuklear dengan mengawal pembangunan nuklear. Ketika umat manusia berhadapan dengan ancaman global baru – kecerdasan buatan am (AGI) yang tidak terkawal – sekali lagi kita perlu bertindak untuk menjamin masa depan kita.