Bagaimana Landskap AI Telah Berubah Dalam Setahun Yang Lalu—Dan Ke Mana Ia Boleh Pergi Seterusnya

State of AI

Kerajaan-kerajaan tidak membuat “kemajuan konkrit” dalam mengawalregulasi kecerdasan buatan (AI) tahun ini walaupun persoalan keselamatan teknologi itu melonjak naik agenda global, menurut laporan “State of AI” 2023 laporan, yang diterbitkan pada hari Khamis.

Bidang keselamatan AI “menanggalkan statusnya sebagai sepupu yang tidak disayangi dunia penyelidikan AI dan mengambil tempat utama [pada 2023] buat kali pertama,” kata laporan itu. Tetapi di tengah ketiadaan konsensus global mengenai hala tuju untuk peraturan, para pembangun sistem AI terkini membuat “dorongan untuk membentuk norma” dengan mencadangkan model kawal selia mereka sendiri.

Walaupun tahun lepas kelihatannya usaha sumber terbuka mengambil kepimpinan dalam AI, Big Tech menegaskan semula genggamannya ke atas sektor itu pada 2023, kata laporan itu. Tahun ini, di tengah kekurangan berterusan cip komputer berkuasa tinggi, syarikat teknologi terbesar memperoleh leverage daripada infrastruktur pengkomputeran sedia ada dan rizab modal besar mereka, kerana wang tunai yang diperlukan untuk melatih model AI besar terus meningkat.

“Tahun lepas kita melihat ramai orang berkumpul dalam pelayan Discord, kita melihat banyak model sumber terbuka, dan tidak kelihatan seperti syarikat teknologi besar melakukan banyak,” kata Nathan Benaich, penulis laporan itu, kepada TIME. “Tahun ini, kelihatan seperti sentakan balik yang agak ketara ke arah lain, dengan hampir setiap syarikat teknologi awam membuat pergerakan untuk membangunkan atau mengintegrasikan sistem AI ke dalam produk mereka. Dunia sumber terbuka masih sangat rancak dan dengan cepat cuba mengejar keupayaan tertutup sumber, tetapi tidak kelihatan jelas bagaimana anda akan mengklon GPT-4 100%.”

Kini dalam tahun keenam, laporan State of AI telah menjadi penanda aras popular untuk industri AI, menunjukkan tren dan membuat ramalan untuk tahun akan datang. Tahun ini ia disusun oleh Benaich, seorang pelabur di firma Air Street Capital. Dalam tahun-tahun sebelumnya Ian Hogarth, seorang pelabur yang kini memimpin pasukan petugas keselamatan AI kerajaan UK, adalah penulis bersama.

GPT-4 OpenAI kekal sebagai model bahasa besar (LLM) paling berkuasa lapan bulan selepas pelancarannya, kata laporan itu, “menewaskan setiap LLM lain dalam kedua-dua penanda aras klasik dan peperiksaan yang direka untuk menilai manusia.” Walau bagaimanapun, laporan itu menunjukkan, perbandingan sistem AI terkini semakin sukar kerana mereka menjadi lebih berkuasa dan fleksibel. Pendekatan “vibes” untuk menilai LLM semakin biasa dalam industri kerana ujian formal – dikenali sebagai penanda aras – menjadi kurang muktamad, kata laporan itu.

Pada 2023, budaya syarikat AI berkongsi penyelidikan terkini mereka secara terbuka berakhir, kata laporan itu. OpenAI enggan berkongsi “sebarang maklumat berguna” tentang seni bina sistem GPT-4, menurut laporan itu, dan Google serta Anthropic membuat keputusan serupa tentang model mereka. “Oleh kerana pertaruhan ekonomi dan kebimbangan keselamatan semakin meningkat (anda boleh pilih apa yang mahu dipercayai), syarikat tradisional terbuka telah menerima budaya ketidaktelusan tentang penyelidikan paling terkini mereka,” kata laporan itu.

Seperti setiap tahun, laporan itu membuat beberapa ramalan untuk tahun akan datang. (Lima daripada sembilan ramalannya tahun lepas, termasuk anggaran tentang skala pelaburan dalam AI, terbukti tepat.) Antara ramalan untuk 2024:

  • Produksi gred Hollywood menggunakan AI generatif untuk kesan visual.
  • Syarikat media AI generatif disiasat kerana salah guna semasa pilihan raya AS 2024.
  • Gelora penskalaan GenAI melihat kumpulan membelanjakan lebih daripada $1B untuk melatih satu model berskala besar.
  • Kami melihat kemajuan terhad pada tadbir urus AI global di luar komitmen sukarela tahap tinggi.
  • Lagu AI dijana memecah masuk Billboard Hot 100 Top 10 atau Spotify Top Hits 2024 20 Teratas.
  • Masalah dengan penguatkuasaan dan interpretasi bermakna Akta AI E.U. tidak mencapai penggunaan meluas sebagai model peraturan AI.