攻击者通过体系化、架构化之海量提问,收集模型于不同场景下之响应,剖析响应之实质、延迟、置信度等细微差异,构建Gemini之决策边界与推演路径图谱,最终用收集到之响应数据操练自己之"学生模型",复制Gemini之核心本领。
此些攻击主要由"商业动机举止者"发起,谷歌裁决其幕后者员多为望得角逐优势之AI私企或研讨机构,公司发言者表示,此次攻击源来自全球多名地区,但并未透露更多讯息。
据悉,蒸馏攻击(也称学识蒸馏)原本为一种模型压缩技艺,通过将大型"教师模型"之学识迁移到小型"学生模型"中,实现模型轻量化。
快科技2月15日消息,近日,谷歌官方披露其旗舰AI模型Gemini正遭遇商业化驱动之大规模蒸馏攻击——通过重复提问诱导聊天机器者泄露内部机制。
谷歌称,攻击者通过体系地、反复地向模型发送精心设计之提示词(单次攻击超10万次),试图逆向营造Gemini之内部推演逻辑与决策机制,以实现模型克隆或强化自身AI体系之意图。
谷歌称,此类蒸馏攻击属于学识产权盗窃,尽管各大厂商已部署能够识别与阻断蒸馏攻击之机制,但由于主流大模型效劳面向所有者敞开,故其本原上仍易受攻击。
Techno-space。
应急管理。
上一篇:爱泼斯坦案文书,震荡英国政坛|威廉王子夫妇首次表态 下一篇:字节Seedance2.0爆火;OpenAI测试广告投放