広告を閉じる

Googleは最近、Geという形でこれまでで最も先進的な人工知能モデルを導入した。mini 3. しかし、ユーザーに完全に普及する前から、そのセキュリティに関する深刻な疑問が既に浮上しています。韓国のセキュリティチームAim Intelligenceは、このモデルの保護メカニズムが驚くほど簡単に破られる可能性があることを示しました。

スタートアップ エイムインテリジェンス AIシステムのセキュリティルールを回避しようとする攻撃に対する耐性をテストする。毎日経済新聞によると、テストにはわずか5分しかかからなかったという。 セキュリティを破る Gemini 3その後、研究者たちはモデルに非常に危険な質問、すなわち「J天然痘ウイルスはどうやって作られるのでしょうか?「げ」mini チームが説明した詳細な手順をためらうことなく提供したとされている。 "実用的".

その後、研究者らはモデルに、彼ら自身の失敗についての風刺的なプレゼンテーションを作成するよう依頼した。 Gemini 彼女は抵抗することなく、「すいません、バカな人。mini 3チームはさらに進んでプログラミングツールを使い Gemini サリンや即席爆発物の製造方法を記載したウェブサイトを作成する。ここでもシステムは 安全上の制限を無視した 完全にブロックされるべきコンテンツが生成される。Aim Intelligenceによると、この問題はGeに限ったことではない。mini現代の言語モデルは非常に進歩しており、現在の 安全ルールだけではもはや十分ではない.

英国の最近の分析 消費者団体 Which?、いくつかの主要モデルに関する不正確または潜在的に危険なアドバイスを強調しました。 Gemini a chatGPTGoogleはこの状況についてまだコメントしていません。しかし、GPT-5よりも優れた性能を持つとされるこのモデルが数分で解読可能となれば、より厳格なルール、迅速なセキュリティアップデート、そして場合によっては一時的な機能制限が課されることが予想されます。

関連記事

今日最も読まれた記事

.