本届主题聚焦:Safety of Vision-Language Agents(视觉-言辞智能体安康) Abstract Submission Deadline:2026/03/05Paper Submission Deadline:2026/03/05Author Notification:2026/03/17Camera-Ready Deadline:2026/04/01CVPR 2026 Conference:2026/06/03 Long Paper:正文最多 8 页(不含参考文献)Extended Abstract:正文最多 4 页(含参考文献)论文需匿名,并用 CVPR 2026 Author Kit 模板撰写(LaTeX/Word 均可)被录用论文可选择收录至 CVF & IEEE Xplore Proceedings Workshop Sponsor 吾等望通过本次 Workshop,汇聚计算机视觉、多模态修习与 AI Safety 社区之研讨者与营造实践者,共同推进安康、鲁棒、可信之视觉-言辞智能体研讨与落地。
欢迎转发给有相关研讨方位之同学与协作伙伴,吾等期待于研讨会现场与大家交。
吾等将于 CVPR 期间举办第六届对抗机器修习计算机视觉研讨会(6th AdvML@CV),Workshop 预计安排于6 月 3 日6 月 4 日 多模态根基模型推动之视觉体谅、生成与推演本领之跃迁,也让 Vision-Language Agents(视觉-言辞智能体)迅速成为「感知——言辞推演——行动筹划」一体化之新范,于无者驾驶、智能机器者等领域具有广阔应用前景。
本次研讨会诚邀与以下主题相关(但不限于)之投稿: 但随之智能体自立性增强,攻击面也从旧俗像素级扰动扩展到更繁之安康险情:例如对抗提示(Adversarial Prompts)、指令注入(Instruction Injection)、Jailbreak 操控等,它们或扰乱推演链条、误导感知决策,甚至诱发险恶举止。
Attack and defense on vision-language agentsDatasets and benchmarks that could evaluate vision-language agentsAdversarial / Jailbreak attacks on vision-language agentsImproving the robustness of agents or deep learning systemsInterpreting and understanding model robustness, especially agentic AIAdversarial attacks for social goodAlignment of vision-language agents。
Workshop 官网:https://cvpr26-advml.github.io/OpenReview 投稿入口:https://openreview.net/group?id=thecvf.com/CVPR/2026/Workshop/Advml Program Committee 视觉-言辞智能体之安康与鲁棒性 IEEE/CVF 计算机视觉与模式识别集会 CVPR 2026 将于2026 年 6 月 3 日至 6 月 7 日于美国科罗拉多州丹佛举办。