Beranda News Bagaimana penipu keuangan menggunakan Gen AI, dan apa yang dapat Anda lakukan...

Bagaimana penipu keuangan menggunakan Gen AI, dan apa yang dapat Anda lakukan untuk melindungi diri sendiri?

14
0

Penjahat dapat mengeksploitasi gambar AI untuk membuat Deepfakes dari korban yang meyakinkan, membodohi orang yang mereka cintai (file) | Kredit Foto: Reuters

Ceritanya sejauh ini: Anda mungkin telah menerima banyak peringatan dari bank Anda dan lembaga keuangan lainnya tentang lonjakan kejahatan yang digerakkan AI. Pada bulan Desember 2024, FBI AS mengeluarkan peringatan, yang menyatakan bahwa para penjahat semakin mengeksploitasi kecerdasan buatan (AI) untuk melakukan penipuan dalam skala yang lebih besar, membuat skema mereka lebih meyakinkan.

Baca juga: Penipuan Keuangan Digital di India: Panggilan untuk Strategi Investigasi yang lebih baik

Penjahat yang giat mengeksploitasi teks, gambar, video, dan audio AI generatif untuk menjebak korban yang tidak memiliki kemahiran atau waktu teknologi dan terlalu lelah untuk menilai konten yang berpotensi berbahaya secara menyeluruh.

Bagaimana AI generatif digunakan untuk melakukan penipuan finansial?

Saat ini, berbagai alat AI generatif yang tidak diatur atau bahkan ilegal tersedia di web. Alat -alat ini memungkinkan pembuatan penipuan dari awal hingga akhir, menghasilkan jaringan trik multimedia yang memisahkan korban dari uang mereka. Penyerang dapat menggunakan generator teks saja untuk membuat pesan tata bahasa yang benar yang mengancam atau menipu korban dalam bahasa asli mereka. Mereka juga dapat menghasilkan kode berbahaya untuk membuat situs web yang membahayakan sistem korban.

Penjahat dapat mengeksploitasi gambar AI untuk menciptakan Deepfake dari para korban yang meyakinkan, membodohi orang yang mereka cintai. Mereka juga dapat membuat foto -foto palsu dari dokumen -dokumen penting, menghasilkan gambar eksplisit seksual untuk pemerasan, membangun media sosial palsu atau profil aplikasi kencan, dan bahkan menggambarkan layanan yang mendukung selebritas dan penipuan yang tidak akan pernah mereka dukung dalam kehidupan nyata, sesuai dengan rilis FBI baru -baru ini.

Pengguna jahat dapat mengeksploitasi teknologi kloning suara dalam alat audio AI generatif untuk membuat rekaman palsu orang -orang nyata dalam kesulitan. Rekaman ini dapat dikirim sebagai pesan suara atau bahkan panggilan telepon palsu namun kompleks untuk memaksa kontak mereka ke dalam mentransfer uang.

Ketika video yang dihasilkan AI memasuki adegan, penyerang dapat mengatur skenario yang rumit atau bahkan menghindari tes sistem yang dirancang untuk memverifikasi kemanusiaan pengguna. Misalnya, dengan menangkap hanya beberapa detik video dari akun media sosial Anda, seorang penyerang dapat membuat panggilan video Deepfake yang meyakinkan di mana Anda tampaknya terlibat dalam kecelakaan dan mati -matian mencari bantuan keuangan.

Apa saja tanda-tanda peringatan penipuan keuangan yang dihasilkan AI?

Yang terbaik adalah berhati -hati dengan permintaan uang yang tidak terduga, bahkan dari orang yang Anda cintai. Selain itu, berhati -hatilah dengan permintaan kejutan untuk melakukan berbagai kegiatan keuangan, termasuk kartu hadiah yang menebus, mengklaim uang hadiah, membayar denda, membayar pinjaman, membayar pejabat bea cukai, atau membayar jaminan.

Berhati -hatilah saat menerima teks atau file media dari pengguna yang tidak dikenal. Kecuali Anda memiliki perangkat atau lingkungan yang aman, jangan membuka file tersebut.

Ketika penipuan video, seperti skema ‘penangkapan digital’ yang lazim, menargetkan korban, penelepon kemungkinan akan menggunakan taktik yang agresif atau mengintimidasi untuk memaksakan kepatuhan. Mereka mungkin menciptakan rasa urgensi, mengklaim bahwa waktu sudah habis atau bahwa korban sangat perlu bertindak. Selain itu, mereka mungkin menekankan pentingnya merahasiakan masalah ini dari orang lain. Sangat penting untuk menghindari berbagi informasi keuangan atau mentransfer uang melalui saluran tanpa jaminan untuk mencegah diri Anda jatuh untuk penipuan tersebut.

Alih -alih mempercayai penelepon yang menunjukkan kepada Anda seragam dan ID polisi (karena ini bisa menjadi Deepfake), hubungi langsung ke polisi untuk bimbingan. Hentikan semua komunikasi dan hubungi orang yang terlibat secara langsung.

Bagaimana pengguna dapat menjaga diri mereka aman dari kejahatan yang mendukung AI?

Salah satu cara untuk melindungi diri Anda dan keluarga Anda dari penipuan keuangan yang dihasilkan AI adalah dengan menggunakan kata sandi keluarga. Ini adalah kata unik yang hanya diketahui oleh Anda dan anggota keluarga dekat Anda. Anda dapat menggunakannya untuk memverifikasi identitas orang lain kapan pun Anda mau. Misalnya, jika Anda menerima panggilan telepon dari anak Anda atau orang tua yang meminta sejumlah besar uang, tanyakan kata sandi keluarga untuk memastikan bahwa suara mereka belum dikloning oleh orang asing. Setuju dengan kata sandi yang kuat dan sulit ditebak. Memperbarui kata sandi Anda secara teratur juga disarankan.

Jika keluarga Anda memiliki anak di bawah umur atau penatua yang rentan, pastikan perangkat mereka dilindungi. Kunci dan atur akun media sosial mereka ke mode pribadi untuk mencegah penyalahgunaan foto dan audio pribadi mereka. Mendidik anak-anak Anda tentang keselamatan online dan bantu mereka membedakan antara konten asli dan yang dihasilkan AI.

Saat menggunakan aplikasi kencan, pengguna harus melaporkan kecocokan yang menggunakan media yang dihasilkan AI. Jangan pernah berbagi informasi keuangan pribadi dengan pertandingan romantis, dan tidak pernah setuju untuk mentransfer uang, berinvestasi dalam cryptocurrency, membayar biaya bea cukai untuk paket, atau menerima kartu hadiah. Sampai Anda benar -benar mempercayai orang tersebut dan telah bertemu secara langsung, tetap di platform pesan aplikasi dan hindari beralih ke aplikasi lain seperti WhatsApp atau email.

Saat menyumbang ke badan amal, pastikan bahwa gambar unggulan dari berbagai penyebab dan anggota tim asli. Berikan kepada kelompok atau individu yang Anda percayai secara mendalam, mereka yang Anda kenal secara pribadi, atau mereka yang memiliki tingkat transparansi yang tinggi. Selain itu, Anda dapat menggunakan detektor gambar Gen AI untuk meninjau foto.

Akhirnya, jangan secara implisit mempercayai panggilan dari pengguna yang gambar profilnya termasuk aksesoris terkait polisi atau militer, karena ini dapat dengan mudah dihasilkan menggunakan AI. Petugas polisi sejati tidak pernah menangkap atau membuat tuntutan Anda melalui panggilan video. Jika Anda menemukan panggilan seperti itu, catat dan kirimkan bukti ke kantor polisi yang asli.

Atau, Anda dapat melaporkan konten berbahaya yang dihasilkan oleh AI melalui portal kejahatan dunia maya nasional.

Sumber