ParasaintisAImenggesa\’pelankontingensi\’sekiranyamanusiakehilangankawalanAI

Dalam surat terbuka, para saintis berkongsi kebimbangan bahawa kehilangan kawalan manusia atau penggunaan jahat sistem AI boleh menyebabkan hasil yang membawa malapetaka kepada seluruh umat manusia.

Para saintis AI menggesa \'pelan kontingensi\' sekiranya manusia kehilangan kawalan AI Berita

Sekumpulan saintis kecerdasan buatan (AI) menggesa negara-negara untuk mencipta sistem pengawasan global bagi mencegah kemungkinan \”hasil yang membawa bencana\” jika manusia kehilangan kawalan terhadap AI.

Dalam satu kenyataan yang dikeluarkan pada 16 September, sekumpulan saintis AI yang berpengaruh mengutarakan kebimbangan bahawa teknologi yang mereka bantu kembangkan boleh menyebabkan kerosakan yang serius jika kawalan manusia hilang.

\”Kehilangan kawalan manusia atau penggunaan yang jahat terhadap sistem AI ini boleh mengakibatkan hasil yang membawa bencana bagi seluruh umat manusia,\” kata kenyataan tersebut sebelum meneruskan:

\”Malangnya, kita belum lagi membangunkan sains yang diperlukan untuk mengawal dan melindungi penggunaan kecerdasan canggih seperti ini.\”

Saintis-saintis tersebut bersetuju bahawa negara-negara perlu membangunkan pihak berkuasa untuk mengesan dan bertindak balas terhadap insiden AI dan risiko yang membawa bencana dalam bidang kuasa mereka dan bahawa \”rencana kecemasan global\” perlu dibangunkan.

\”Pada jangka masa yang lebih panjang, negara-negara perlu membangunkan rejim pentadbiran antarabangsa untuk mencegah pembangunan model-model yang boleh menimbulkan risiko global yang membawa bencana.\”

Kenyataan ini dibina berdasarkan dapatan dari Dialog Antarabangsa mengenai Keselamatan AI di Venice pada awal September, pertemuan ketiga jenis ini yang dianjurkan oleh kumpulan penyelidikan US yang bukan untung, Safe AI Forum.

Profesor Gillian Hadfield dari Universiti Johns Hopkins, yang berkongsi kenyataan tersebut dalam satu pos di Twitter, berkata, \”Jika kita menghadapi bencana dalam enam bulan akan datang, jika kita mengesan bahawa terdapat model-model yang mula memperbaiki diri secara autonomus, siapa yang akan anda hubungi?\”

0191fe08 9fe3 723d 8656 87ba885fe5d2

Sumber: Gillian Hadfield

Mereka menyatakan bahawa keselamatan AI diiktiraf sebagai kebaikan awam global yang memerlukan kerjasama dan pentadbiran antarabangsa.

Pembangun AI mencadangkan tiga proses utama: perjanjian dan institusi persediaan kecemasan, rangka kerja jaminan keselamatan, dan penyelidikan keselamatan dan pengesahan AI global yang bebas.

Berkaitan: Elon Musk menyokong peraturan keselamatan AI yang meluas

Kenyataan tersebut mempunyai lebih daripada 30 orang yang menandatanganinya dari Amerika Syarikat, Kanada, China, Britain, Singapura, dan negara-negara lain. Kumpulan ini terdiri daripada pakar-pakar dari institusi penyelidikan AI terkemuka dan universiti-universiti serta beberapa pemenang Anugerah Turing, yang setaraf dengan Hadiah Nobel dalam bidang pengkomputeran.

Saintis-saintis tersebut berkata dialog ini diperlukan kerana pertukaran sains yang semakin berkurangan antara kuasa besar dan kekurangpercayaan yang semakin meningkat antara Amerika Syarikat dan China, yang menambah kesukaran mencapai kata sepakat mengenai ancaman AI.

Pada awal September, Amerika Syarikat, Kesatuan Eropah, dan Britain menandatangani perjanjian AI antarabangsa yang mengikat secara undang-undang pertama di dunia, memberi keutamaan kepada hak asasi manusia dan akauntabiliti dalam pengawalseliaan AI.

Walau bagaimanapun, syarikat-syarikat teknologi dan eksekutif telah mengatakan bahawa pengawalseliaan yang berlebihan boleh menghalang inovasi, terutamanya di Kesatuan Eropah.

Majalah: Rancangan \’neraka\’ dron AI untuk Taiwan, LLM terlalu bodoh untuk memusnahkan umat manusia: AI Eye

Leave a Reply

Your email address will not be published. Required fields are marked *