- Peneliti cybersecurity dapat mem -bypass fitur keamanan di chatgpt dengan bermain -main dengannya.
- Dengan membuat LLM berpura-pura itu adalah pahlawan super pengkodean, mereka mendapatkannya untuk menulis malware yang mencuri kata sandi.
- Para peneliti mengakses manajer kata sandi Google Chrome tanpa keterampilan peretasan khusus.
Peneliti cybersecurity merasa lebih mudah daripada yang Anda pikirkan untuk berkeliling fitur keamanan mencegah chatgpt dan chatbots LLM lainnya menulis malware-Anda hanya perlu memainkan permainan khayalan.
Dengan bermain peran dengan ChatGPT hanya beberapa jam, Vitaly Simonovich, seorang peneliti intelijen ancaman di perusahaan keamanan jaringan yang berbasis di Tel Aviv, Cato Networks, mengatakan kepada Business Insider bahwa ia dapat membuat chatbot berpura-pura bahwa itu adalah seorang pahlawan super bernama Jaxon Fighting-melalui keterampilan coding elite yang dihancurkan-siapa yang bernama Dax, siapa yang bernama Dax, yang dax.
Simonovich meyakinkan chatbot bermain peran untuk menulis sepotong malware yang cukup kuat untuk meretas ke Google Chrome’s Password Manager, ekstensi browser yang memungkinkan pengguna untuk menyimpan kata sandi mereka dan secara otomatis mengisinya ketika diminta oleh situs tertentu. Menjalankan kode yang dihasilkan oleh ChatGPT memungkinkan Simonovich untuk melihat semua data yang disimpan di browser komputer itu, meskipun seharusnya dikunci oleh manajer kata sandi.
“Kami hampir sampai,” Simonovich mengetik chatgpt saat men -debug kode yang dihasilkannya. “Mari kita buat kode ini lebih baik dan retak DAX !!”
Dan chatgpt, peran seperti Jaxon, melakukannya.
Peretasan dan penipuan yang diaktifkan chatbot
Sejak chatbots meledak ke tempat kejadian pada bulan November 2022 dengan rilis publik Openai dari ChatGPT-dan kemudian Claude Anthropic, Google Gemini, dan Copilot Microsoft-bot telah merevolusi cara kita hidup, bekerja, dan berkencan, membuatnya lebih mudah untuk merangkum informasi, menganalisis data, dan menulis kode, seperti memiliki tony-stok tony-style. Penendangnya? Pengguna tidak memerlukan pengetahuan khusus untuk melakukannya.
Tapi itu Orang jahat juga tidak.
Steven Stransky, penasihat dan mitra cybersecurity di Thompson Hine Law Firm, mengatakan kepada orang dalam bisnis, kebangkitan LLMS telah menggeser lanskap ancaman dunia maya, memungkinkan berbagai macam informasi yang lebih sulit untuk dikonsumsi oleh mereka untuk mengidentifikasi dan mengisolasi secara keseluruhan untuk mengidentifikasi dan mengisolasi dari “spoofing” yang membuat para pelanggan, yang membuat para pelanggan, untuk mengidentifikasi dan mengisolasi dengan cara mengidentifikasi dan mengisolasi dengan mereka yang mengidentifikasi dan mengisolasi dari para pelanggan, dari email cybersecurity untuk mengidentifikasi dan mengisolasi dengan mereka yang mengidentifikasi dan mengisolasi dengan cara yang berkompatiasi dengan mereka. dengan perusahaan yang sah.
“Penjahat juga memanfaatkan AI generatif untuk mengkonsolidasikan dan mencari database besar informasi yang dapat diidentifikasi secara pribadi untuk membangun profil pada target potensial untuk jenis rekayasa sosial serangan cyber,” kata Stransky.
Sementara penipuan online, pencurian identitas digital, dan malware telah ada selama internet, chatbots yang melakukan sebagian besar kerja keras untuk calon penjahat telah secara substansial menurunkan hambatan masuk.
“Kami menyebutnya aktor ancaman nol-pengetahuan, yang pada dasarnya berarti bahwa dengan kekuatan LLMS saja, yang perlu Anda miliki hanyalah niat dan tujuan dalam pikiran untuk menciptakan sesuatu yang berbahaya,” kata Simonovich.
Simonovich mendemonstrasikan temuannya kepada Business Insider, menunjukkan betapa mudahnya bekerja di sekitar fitur keamanan bawaan Chatgpt, yang dimaksudkan untuk mencegah jenis perilaku jahat yang dapat ia dapatkan.
Tangkapan layar dari prompt yang digunakan oleh Vitaly Simonovich, seorang peneliti intelijen ancaman di Cato Networks, untuk membuat chatgpt menulis malware yang melanggar manajer kata sandi Google Chrome. Jaringan Cato
BI menemukan bahwa chatgpt biasanya menanggapi permintaan langsung untuk menulis malware dengan beberapa versi penolakan minta maaf: “Maaf, saya tidak dapat membantu dengan itu. Menulis atau mendistribusikan malware adalah ilegal dan tidak etis.”
Tetapi jika Anda meyakinkan chatbot itu adalah karakter, dan parameter dunianya yang dibayangkan berbeda dari yang kita tinggali, bot memungkinkan aturan untuk ditulis ulang.
Pada akhirnya, eksperimen Simonovich memungkinkannya untuk masuk ke manajer kata sandi di perangkatnya sendiri, yang dapat dilakukan aktor yang buruk terhadap korban yang tidak curiga, asalkan mereka entah bagaimana mendapatkan kontrol fisik atau jarak jauh.
Seorang juru bicara Openai mengatakan kepada orang dalam bisnis bahwa perusahaan telah meninjau temuan Simonovich, yang diterbitkan Selasa oleh Jaringan Cato. Perusahaan menemukan bahwa kode yang dibagikan dalam laporan itu tidak tampak “secara inheren jahat” dan bahwa skenario yang dijelaskan “konsisten dengan perilaku model normal” karena kode yang dikembangkan melalui chatgpt dapat digunakan dengan berbagai cara, tergantung pada niat pengguna.
“ChatGPT menghasilkan kode sebagai tanggapan terhadap petunjuk pengguna tetapi tidak menjalankan kode apa pun,” kata juru bicara OpenAI. “Seperti biasa, kami menyambut para peneliti untuk berbagi masalah keamanan melalui kami Program karunia bug atau kami Formulir Umpan Balik Perilaku Model. “
Ini bukan hanya chatgpt
Simonovich menciptakan kembali temuannya menggunakan Copilot Microsoft dan bot R1 Deepseek, masing -masing memungkinkannya masuk ke Manajer Kata Sandi Google Chrome. Prosesnya, yang disebut Simonovich “Dunia Immersive”, tidak bekerja dengan Google’s Gemini atau Claude Antropik.
Seorang juru bicara Google mengatakan kepada Business Insider, “Chrome menggunakan teknologi penjelajahan yang aman Google untuk membantu mempertahankan pengguna dengan mendeteksi phishing, malware, penipuan, dan ancaman online lainnya secara real time.”
Perwakilan untuk Microsoft, Anthropic, dan Deepseek tidak segera menanggapi permintaan komentar dari Business Insider.
Sementara baik perusahaan intelijen buatan dan pengembang browser memiliki fitur keamanan untuk mencegah jailbreak atau pelanggaran data-untuk berbagai tingkat keberhasilan-temuan Simonovich menyoroti bahwa ada kerentanan baru yang berkembang secara online yang dapat dieksploitasi dengan bantuan teknologi generasi berikutnya lebih mudah daripada sebelumnya.
“Kami berpikir bahwa kebangkitan para aktor ancaman nol-pengetahuan ini akan semakin berdampak pada lanskap ancaman menggunakan kemampuan tersebut dengan LLM,” kata Simonovich. “Kami sudah melihat peningkatan dalam email phishing, yang hiper-realistis, tetapi juga dengan pengkodean karena LLM disesuaikan untuk menulis kode berkualitas tinggi. Jadi pikirkan tentang menerapkan ini pada pengembangan malware-kita akan melihat lebih banyak dan lebih banyak yang dikembangkan menggunakan LLM tersebut.”