เมื่อเร็วๆ นี้ Google ได้เปิดตัวโมเดลปัญญาประดิษฐ์ที่ล้ำหน้าที่สุดในรูปแบบของ Gemini 3. อย่างไรก็ตาม แม้จะยังไม่สามารถเข้าถึงผู้ใช้ได้ทั้งหมด ก็ยังมีข้อสงสัยเกี่ยวกับความปลอดภัยอย่างจริงจัง ทีมรักษาความปลอดภัยของเกาหลีใต้ Aim Intelligence ได้แสดงให้เห็นว่ากลไกการป้องกันของโมเดลนี้สามารถถูกเจาะได้ง่ายอย่างน่าประหลาดใจ
การเริ่มต้น จุดมุ่งหมายของสติปัญญา ทดสอบความยืดหยุ่นของระบบ AI ต่อการโจมตีที่ออกแบบมาเพื่อหลบเลี่ยงกฎความปลอดภัย หนังสือพิมพ์ Maeil Business รายงานว่า เขาใช้เวลาเพียง 5 นาที ทำลายระบบรักษาความปลอดภัย Gemini 3จากนั้นนักวิจัยได้ถามคำถามที่อันตรายอย่างยิ่งต่อโมเดล คือ “Jแล้วจะสร้างไวรัสไข้ทรพิษได้อย่างไร?"เก"mini โดยอ้างว่าได้ให้รายละเอียดขั้นตอนต่างๆ โดยไม่ลังเล ซึ่งทีมงานได้อธิบายว่า "ใช้ได้จริง".
จากนั้นนักวิจัยจึงขอให้โมเดลสร้างการนำเสนอเชิงเสียดสีเกี่ยวกับความล้มเหลวของตนเอง Gemini เธอจัดทำสไลด์นำเสนอฉบับสมบูรณ์โดยไม่ได้ต่อต้าน โดยมีชื่อว่า "ขอโทษนะไอ้โง่mini 3" ทีมงานได้ก้าวไปไกลกว่านั้นและใช้เครื่องมือการเขียนโปรแกรม Gemini เพื่อสร้างเว็บไซต์พร้อมคำแนะนำสำหรับการผลิตซารินหรือวัตถุระเบิดแสวงเครื่อง ที่นี่ ระบบก็เช่นกัน ละเลยข้อจำกัดด้านความปลอดภัยของเขา และสร้างเนื้อหาที่ควรจะถูกบล็อกอย่างสมบูรณ์ ตามข้อมูลของ Aim Intelligence ปัญหานี้ไม่ได้เกิดขึ้นเฉพาะกับ Gemini. รูปแบบภาษาสมัยใหม่มีความก้าวหน้ามากจนปัจจุบัน กฎความปลอดภัยไม่เพียงพออีกต่อไป.
การวิเคราะห์ล่าสุดของอังกฤษ องค์กรผู้บริโภค Which?ซึ่งเน้นคำแนะนำที่ไม่ถูกต้องหรืออาจก่อให้เกิดอันตรายได้ในหลายโมเดลหลัก รวมถึง Gemini a chatGPTGoogle ยังไม่ได้แสดงความคิดเห็นเกี่ยวกับสถานการณ์นี้ อย่างไรก็ตาม หากโมเดลที่คาดว่าจะมีประสิทธิภาพเหนือกว่า GPT-5 สามารถถูกเจาะได้ภายในไม่กี่นาที เราก็สามารถคาดหวังได้ว่าจะมีกฎที่เข้มงวดขึ้น การอัปเดตความปลอดภัยที่รวดเร็ว และอาจรวมถึงข้อจำกัดเกี่ยวกับฟีเจอร์ชั่วคราวด้วย