分享至
主讲人:丁熠 | Purdue University Incoming PhD
2025.05.29 20:00
100分钟
1人预约
直播将于05月29日 20:00开始
已有1人报名了此课程
随着大语言模型以及视觉语言模型在复杂任务上的能力涌现,如何提升模型安全能力使其行为符合人类偏好收到了很大关注。本次报告将聚焦于视觉语言模型遇到的安全性挑战和相对的攻击、防御方法,包括讲者团队的相关工作 (ETA, MIRage),对其中常用的实验设置、涉及到的技术路线进行详细讲解,并且总结目前阶段模型在安全领域的局限性和未来展望。
报名成功
添加助教,入群交流,领取课件
添加微信领取课件
一定记得备注【用户名+课程名称】