SeranganAIdeepfakeakanmeluaskeluarvideodanaudio-Syarikatkeselamatan

Penipuan deepfake yang didayakan oleh AI yang menargetkan dompet kripto semakin meningkat, dengan para pakar memperingatkan ancaman yang berkembang dan mendesak pengguna untuk melindungi aset digital mereka.

Serangan AI deepfake akan meluas ke luar video dan audio - Syarikat keselamatan Berita

Apabila penipuan deepfake yang menggunakan kecerdasan buatan semakin meluas, firma keselamatan memberi amaran bahawa kaedah serangan ini boleh melibatkan bukan sahaja video dan audio.

Pada 4 September, firma perisian Gen Digital melaporkan bahawa pelaku jahat yang menggunakan penipuan deepfake bertenaga kecerdasan buatan untuk menipu pemegang kripto telah meningkatkan operasi mereka pada suku kedua tahun 2024.

Syarikat tersebut menyatakan bahawa kumpulan penipu yang dikenali sebagai \”CryptoCore\” telah menipu lebih daripada $5 juta dalam kripto menggunakan deepfake AI.

Walaupun jumlah ini kelihatan rendah berbanding kaedah serangan lain dalam ruang kripto, para profesional keselamatan percaya bahawa serangan deepfake AI boleh berkembang lagi dan mengancam keselamatan aset digital.

Deepfake AI mengancam keselamatan dompet

Firma keselamatan Web3, CertiK, percaya bahawa penipuan deepfake bertenaga kecerdasan buatan akan menjadi lebih canggih. Seorang jurucakap CertiK memberitahu Cointelegraph bahawa ia juga boleh meluas ke luar video dan rakaman audio pada masa depan.

Jurucakap tersebut menjelaskan bahawa vektor serangan ini boleh digunakan untuk menipu dompet yang menggunakan pengenalan wajah untuk memberikan akses kepada penjenayah:

\”Sebagai contoh, jika sebuah dompet bergantung pada pengenalan wajah untuk mengamankan maklumat penting, ia harus menilai kekuatan penyelesaiannya terhadap ancaman yang digerakkan oleh kecerdasan buatan.\”

Jurucakap tersebut berkata bahawa adalah penting bagi ahli komuniti kripto untuk semakin menyedari bagaimana serangan ini berfungsi.

Deepfake AI akan terus mengancam kripto

Luis Corrons, seorang pengkhotbah keselamatan untuk syarikat keselamatan siber Norton, percaya bahawa serangan bertenaga kecerdasan buatan akan terus menarget pemegang kripto. Corrons mencatatkan bahawa kripto memberikan ganjaran kewangan yang signifikan dan risiko yang lebih rendah kepada penjenayah. Beliau berkata:

\”Transaksi kripto sering kali bernilai tinggi dan boleh dilakukan secara anonim, menjadikannya sasaran yang lebih menarik bagi penjenayah siber, kerana serangan yang berjaya memberikan ganjaran kewangan yang lebih signifikan dan risiko penemuan yang lebih rendah.\”

Selain itu, Corrons berkata bahawa kripto masih kekurangan peraturan, memberikan penjenayah siber kurang akibat undang-undang dan lebih banyak peluang untuk menyerang.

Berkaitan: Warren Buffett membandingkan AI dengan nuklear selepas melihat wajah palsu deepfake

Cara mengesan serangan deepfake AI

Walaupun serangan bertenaga kecerdasan buatan boleh menjadi ancaman besar kepada pengguna kripto, para profesional keselamatan percaya bahawa terdapat cara bagi pengguna untuk melindungi diri daripada ancaman jenis ini. Menurut seorang jurucakap CertiK, pendidikan adalah tempat yang baik untuk memulakan.

Seorang jurutera CertiK menjelaskan bahawa mengetahui ancaman dan alat serta perkhidmatan yang tersedia untuk melawannya adalah penting. Selain itu, profesional tersebut juga menambah bahawa berhati-hati terhadap permintaan yang tidak diingini juga penting. Mereka berkata:

\”Menjadi skeptikal terhadap permintaan wang atau maklumat peribadi yang tidak diingini adalah penting, dan mengaktifkan pengesahan multifaktor untuk akaun sensitif dapat membantu menambah lapisan perlindungan tambahan terhadap penipuan seperti ini.\”

Sementara itu, Corrons percaya terdapat \”petanda merah\” yang dapat dikenal pasti oleh pengguna untuk mengelakkan penipuan deepfake AI. Ini termasuk pergerakan mata yang tidak wajar, ekspresi wajah, dan pergerakan badan yang tidak semulajadi.

Selain itu, kekurangan emosi juga boleh menjadi petunjuk yang besar. \”Anda juga boleh melihat perubahan bentuk wajah atau jahitan imej jika wajah seseorang tidak menunjukkan emosi yang sepatutnya seiring dengan apa yang mereka katakan,\” jelas Corrons.

Selain daripada itu, eksekutif tersebut berkata bahawa bentuk badan yang tidak wajar, ketidakselarasan, dan ketidaksempurnaan dalam audio harus membantu pengguna menentukan sama ada mereka melihat deepfake AI atau tidak.

Majalah: Pendedahan kegemaran Kumpulan Lazarus – Analisis penipuan kripto

Leave a Reply

Your email address will not be published. Required fields are marked *