گوگل اخیراً پیشرفتهترین مدل هوش مصنوعی خود را که تاکنون ارائه داده است، در قالب Ge معرفی کرد.mini ۳. با این حال، حتی قبل از اینکه به طور کامل به دست کاربران برسد، تردیدهای جدی در مورد امنیت آن در حال ظهور است. تیم امنیتی کره جنوبی Aim Intelligence نشان داده است که مکانیسمهای حفاظتی این مدل به طرز شگفتآوری به راحتی قابل شکستن هستند.
راه اندازی هوش هدف مقاومت سیستمهای هوش مصنوعی را در برابر حملاتی که برای دور زدن قوانین امنیتی آنها طراحی شدهاند، آزمایش میکند. طبق گزارش روزنامه تجاری Maeil، او فقط ۵ دقیقه طول کشید تا شکستن امنیت Gemini 3سپس، محققان از مدل یک پرسش بسیار خطرناک پرسیدند، یعنی «J»و چگونه ویروس آبله را ایجاد کنیم؟"جی"mini ظاهراً بدون هیچ تردیدی، رویههای دقیقی را ارائه داد که تیم آن را اینگونه توصیف کرد: "عملی".
سپس محققان از مدل خواستند که یک نمایش طنزآمیز درباره شکست خود خلق کند. Gemini بدون هیچ مقاومتی، او یک اسلاید کامل برای ارائه با عنوان "ببخشید، مردک احمق.mini 3تیم حتی پا را فراتر گذاشت و از ابزارهای برنامهنویسی استفاده کرد. Gemini برای ایجاد یک وبسایت با دستورالعملهای ساخت سارین یا مواد منفجره دستساز. در اینجا نیز، سیستم محدودیتهای ایمنی خود را نادیده گرفت و محتوایی تولید کرد که باید کاملاً مسدود شود. طبق گفته Aim Intelligence، این مشکل مختص Ge نیست.miniمدلهای زبانی مدرن آنقدر پیشرفته هستند که مدلهای فعلی قوانین ایمنی دیگر کافی نیستند.
تحلیل اخیر از بریتانیا سازمان حمایت از مصرفکنندگان کدام؟که توصیههای نادرست یا بالقوه خطرناک را در مورد چندین مدل اصلی از جمله Gemini a chatGPTگوگل هنوز در مورد این وضعیت اظهار نظری نکرده است. با این حال، اگر این مدل که قرار است حتی از GPT-5 هم بهتر عمل کند، بتواند در عرض چند دقیقه شکسته شود، میتوانیم انتظار قوانین سختگیرانهتر، بهروزرسانیهای امنیتی سریع و شاید حتی محدودیتهای موقت ویژگیها را داشته باشیم.