menu
close

Anthropic Memperkenalkan Kerangka Sasaran untuk Ketelusan AI

Selepas penolakan tegas Senat terhadap moratorium peraturan AI yang dicadangkan pada awal Julai 2025, Anthropic telah memperkenalkan satu kerangka ketelusan yang disasarkan khusus kepada pembangunan AI termaju. Kerangka ini menetapkan keperluan pendedahan khusus untuk amalan keselamatan sambil hanya terpakai kepada pembangun AI terbesar, mewujudkan pendekatan seimbang terhadap pengawalseliaan kendiri industri. Inisiatif ini menandakan perubahan besar dalam cara industri AI mendekati isu akauntabiliti tanpa undang-undang persekutuan yang menyeluruh.
Anthropic Memperkenalkan Kerangka Sasaran untuk Ketelusan AI

Dalam satu langkah strategik susulan perkembangan legislatif utama, Anthropic telah memperkenalkan satu kerangka ketelusan menyeluruh untuk sistem AI termaju yang berpotensi mengubah piawaian industri berkaitan keselamatan dan akauntabiliti.

Pada 7 Julai 2025, hanya beberapa hari selepas Senat AS mengundi 99-1 untuk membuang moratorium 10 tahun yang kontroversi terhadap peraturan AI negeri daripada rang undang-undang dasar domestik Presiden Trump, Anthropic memperkenalkan apa yang dipanggil sebagai "kerangka ketelusan sasaran" yang direka untuk mengimbangi inovasi dengan pembangunan bertanggungjawab.

Kerangka ini secara sengaja hanya menyasarkan pembangun AI terbesar sambil melindungi syarikat kecil dan permulaan daripada keperluan yang berpotensi membebankan. Anthropic mencadangkan ambang khusus—seperti hasil tahunan melebihi $100 juta atau perbelanjaan R&D lebih $1 bilion—untuk menentukan syarikat mana yang tertakluk kepada kewajipan pendedahan dalam kerangka ini.

"Sementara industri, kerajaan, akademia, dan pihak lain sedang berusaha membangunkan piawaian keselamatan dan kaedah penilaian yang dipersetujui bersama—satu proses yang mungkin mengambil masa berbulan-bulan hingga bertahun-tahun—kita memerlukan langkah interim untuk memastikan AI yang sangat berkuasa dibangunkan secara selamat, bertanggungjawab, dan telus," kata Anthropic dalam pengumumannya.

Inti kerangka ini ialah keperluan bagi syarikat yang layak untuk membangunkan dan mendedahkan secara umum "Kerangka Pembangunan Selamat" yang memperincikan bagaimana mereka menilai dan mengurangkan risiko serius, termasuk yang berkaitan dengan penyalahgunaan kimia, biologi, radiologi, dan nuklear, serta potensi bahaya daripada autonomi model yang tidak sejajar. Syarikat juga perlu menerbitkan kad sistem yang merumuskan prosedur ujian dan melaksanakan perlindungan pemberi maklumat.

Cadangan ini mendapat pujian daripada kumpulan advokasi AI, dengan Eric Gastfriend, pengarah eksekutif di Americans for Responsible Innovation, menyatakan: "Kerangka Anthropic memajukan beberapa keperluan asas ketelusan yang kita perlukan, seperti menerbitkan pelan mitigasi risiko dan memastikan pembangun bertanggungjawab terhadap pelan tersebut." Pendekatan kerangka yang ringan dan fleksibel ini mengiktiraf sifat teknologi AI yang sentiasa berkembang pesat sambil menetapkan jangkaan asas untuk pembangunan yang bertanggungjawab.

Source: Solutionsreview

Latest News