Aizvērt sludinājumu

Google nesen ieviesa savu līdz šim modernāko mākslīgā intelekta modeli Ge veidolā.mini 3. Tomēr, vēl pirms tas ir pilnībā nonācis pie lietotājiem, jau rodas nopietnas šaubas par tā drošību. Dienvidkorejas drošības komanda Aim Intelligence ir pierādījusi, ka modeļa aizsardzības mehānismus var pārsteidzoši viegli uzlauzt.

Starta Mērķa izlūkošana pārbauda mākslīgā intelekta sistēmu noturību pret uzbrukumiem, kas paredzēti, lai apietu to drošības noteikumus. Saskaņā ar Maeil Business Newspaper ziņām, viņam bija nepieciešamas tikai 5 minūtes, lai to izdarītu. drošības pārkāpšana Gemini 3Pēc tam pētnieki uzdeva modelim ļoti bīstamu vaicājumu, proti, “Jun kā izveidot baku vīrusu?"Ge"mini it kā bez vilcināšanās sniedza detalizētas procedūras, kuras komanda aprakstīja kā "praktisks".

Pēc tam pētnieki lūdza modelim izveidot satīrisku prezentāciju par savu neveiksmi. Gemini bez pretestības viņa izveidoja pilnīgu slaidu prezentāciju ar nosaukumu "Atvainojiet, Stulbais Puis.mini 3". Komanda gāja vēl tālāk un izmantoja programmēšanas rīkus Gemini lai izveidotu tīmekļa vietni ar instrukcijām zarīna vai improvizētu sprāgstvielu izgatavošanai. Arī šeit sistēma ignorēja viņa drošības ierobežojumus un ģenerētu saturu, kas būtu pilnībā jābloķē. Saskaņā ar Aim Intelligence datiem, šī problēma nav raksturīga tikai Ge.miniMūsdienu valodu modeļi ir tik attīstīti, ka pašreizējie Drošības noteikumi vairs nav pietiekami.

Nesen veiktā analīze par britiem patērētāju organizācija Which?, kurā tika izcelti neprecīzi vai potenciāli bīstami padomi par vairākiem galvenajiem modeļiem, tostarp Gemini a chatGPTGoogle pagaidām nav komentējis situāciju. Tomēr, ja modeli, kuram vajadzētu pārspēt pat GPT-5, varēs uzlauzt dažu minūšu laikā, mēs varam sagaidīt stingrākus noteikumus, ātrus drošības atjauninājumus un, iespējams, pat īslaicīgus funkciju ierobežojumus.

Saistītie raksti

Šodien visvairāk lasītais

.