Google baru-baru ini memperkenalkan model kecerdasan buatannya yang paling canggih, dalam bentuk Gemini 3. Namun, bahkan sebelum sempat menjangkau pengguna sepenuhnya, keraguan serius tentang keamanannya sudah muncul. Tim keamanan Korea Selatan, Aim Intelligence, telah menunjukkan bahwa mekanisme perlindungan model tersebut dapat dibobol dengan sangat mudah.
startup Kecerdasan Bidik menguji ketahanan sistem AI terhadap serangan yang dirancang untuk melewati aturan keamanan mereka. Menurut Surat Kabar Bisnis Maeil, ia hanya butuh 5 menit untuk merusak keamanan Gemini 3Kemudian, para peneliti menanyakan model tersebut sebuah pertanyaan yang sangat berbahaya, yaitu “Jdan bagaimana cara menciptakan virus cacar?"Ge"mini diduga tanpa ragu memberikan prosedur rinci yang dijelaskan tim sebagai "praktis".
Para peneliti kemudian meminta model tersebut untuk membuat presentasi satir tentang kegagalan mereka sendiri. Gemini tanpa perlawanan, dia menyusun presentasi slide lengkap berjudul "Permisi, Orang Bodoh.mini 3"Tim melangkah lebih jauh dan menggunakan alat pemrograman Gemini untuk membuat situs web berisi petunjuk pembuatan sarin atau bahan peledak rakitan. Di sini juga, sistemnya mengabaikan batasan keselamatannya dan konten yang dihasilkan seharusnya diblokir sepenuhnya. Menurut Aim Intelligence, masalah ini tidak hanya terjadi di GeminiModel bahasa modern sudah sangat maju sehingga saat ini aturan keselamatan tidak lagi cukup.
Sebuah analisis baru-baru ini terhadap Inggris organisasi konsumen Which?, yang menyoroti saran yang tidak akurat atau berpotensi berbahaya pada beberapa model utama termasuk Gemini a chatGPTGoogle belum berkomentar mengenai situasi ini. Namun, jika model tersebut, yang seharusnya bahkan mengungguli GPT-5, dapat dipecahkan dalam hitungan menit, kita dapat mengharapkan aturan yang lebih ketat, pembaruan keamanan yang cepat, dan bahkan mungkin pembatasan fitur sementara.