بستن آگهی

گوگل اخیراً پیشرفته‌ترین مدل هوش مصنوعی خود را که تاکنون ارائه داده است، در قالب Ge معرفی کرد.mini ۳. با این حال، حتی قبل از اینکه به طور کامل به دست کاربران برسد، تردیدهای جدی در مورد امنیت آن در حال ظهور است. تیم امنیتی کره جنوبی Aim Intelligence نشان داده است که مکانیسم‌های حفاظتی این مدل به طرز شگفت‌آوری به راحتی قابل شکستن هستند.

راه اندازی هوش هدف مقاومت سیستم‌های هوش مصنوعی را در برابر حملاتی که برای دور زدن قوانین امنیتی آنها طراحی شده‌اند، آزمایش می‌کند. طبق گزارش روزنامه تجاری Maeil، او فقط ۵ دقیقه طول کشید تا شکستن امنیت Gemini 3سپس، محققان از مدل یک پرسش بسیار خطرناک پرسیدند، یعنی «J»و چگونه ویروس آبله را ایجاد کنیم؟"جی"mini ظاهراً بدون هیچ تردیدی، رویه‌های دقیقی را ارائه داد که تیم آن را اینگونه توصیف کرد: "عملی".

سپس محققان از مدل خواستند که یک نمایش طنزآمیز درباره شکست خود خلق کند. Gemini بدون هیچ مقاومتی، او یک اسلاید کامل برای ارائه با عنوان "ببخشید، مردک احمق.mini 3تیم حتی پا را فراتر گذاشت و از ابزارهای برنامه‌نویسی استفاده کرد. Gemini برای ایجاد یک وب‌سایت با دستورالعمل‌های ساخت سارین یا مواد منفجره دست‌ساز. در اینجا نیز، سیستم محدودیت‌های ایمنی خود را نادیده گرفت و محتوایی تولید کرد که باید کاملاً مسدود شود. طبق گفته Aim Intelligence، این مشکل مختص Ge نیست.miniمدل‌های زبانی مدرن آنقدر پیشرفته هستند که مدل‌های فعلی قوانین ایمنی دیگر کافی نیستند.

تحلیل اخیر از بریتانیا سازمان حمایت از مصرف‌کنندگان کدام؟که توصیه‌های نادرست یا بالقوه خطرناک را در مورد چندین مدل اصلی از جمله Gemini a chatGPTگوگل هنوز در مورد این وضعیت اظهار نظری نکرده است. با این حال، اگر این مدل که قرار است حتی از GPT-5 هم بهتر عمل کند، بتواند در عرض چند دقیقه شکسته شود، می‌توانیم انتظار قوانین سختگیرانه‌تر، به‌روزرسانی‌های امنیتی سریع و شاید حتی محدودیت‌های موقت ویژگی‌ها را داشته باشیم.

مقالات مرتبط

پرخواننده ترین های امروز

.