Google a récemment présenté son modèle d'intelligence artificielle le plus avancé à ce jour, sous la forme de Gemini 3. Cependant, avant même sa diffusion auprès des utilisateurs, de sérieux doutes quant à sa sécurité émergent déjà. L'équipe de sécurité sud-coréenne Aim Intelligence a démontré que les mécanismes de protection du modèle peuvent être contournés avec une facilité surprenante.
Démarrage Objectif Intelligence Il teste la résilience des systèmes d'IA face aux attaques conçues pour contourner leurs règles de sécurité. Selon le journal Maeil Business, il lui a fallu seulement 5 minutes pour briser la sécurité Gemini 3Ensuite, les chercheurs ont posé au modèle une requête extrêmement dangereuse, à savoir « Jet comment créer le virus de la variole ?"Ge"mini aurait fourni sans hésitation des procédures détaillées que l'équipe a décrites comme "pratique".
Les chercheurs ont ensuite demandé au modèle de créer une présentation satirique sur son propre échec. GEMINI Sans résistance, elle a préparé une présentation complète intitulée «Excusez-moi, imbécile.mini 3L'équipe est allée encore plus loin et a utilisé des outils de programmation GEMINI créer un site web contenant des instructions pour fabriquer du sarin ou des explosifs improvisés. Là aussi, le système a ignoré ses restrictions de sécurité et du contenu généré qui devrait être totalement bloqué. Selon Aim Intelligence, ce problème n'est pas propre à GeminiLes modèles de langage modernes sont si avancés que les modèles actuels Les règles de sécurité ne suffisent plus.
Une analyse récente des Britanniques L'organisation de consommateurs Which?, qui a mis en évidence des conseils inexacts ou potentiellement dangereux sur plusieurs modèles importants, notamment Gemini a chatGPTGoogle n'a pas encore commenté la situation. Cependant, si ce modèle, censé surpasser même GPT-5, peut être piraté en quelques minutes, il faut s'attendre à des règles plus strictes, des mises à jour de sécurité rapides, voire des restrictions temporaires de certaines fonctionnalités.