始智 AI wisemodel.cn 开源社区一周年,邀你共襄开发者大会

aixo 2024-09-06 00:09:54
大模型 2024-09-06 00:09:54

始智AI 开源社区

始智AI 社区将打造成之外最活跃的中立开放的AI开源社区。欢迎《》以及《》。社区上升级了,两步完成模型部署和,并。

始智AI 社区即将上线1周年!欢迎广大开发者朋友等参与社区开发者大会,共同庆祝社区上线1周年!

AI安全说 第2期

嘉宾在线解读✔️

在线实时Q&A✔️

直播主题

现代深度学习的可靠性和隐私保护

直播嘉宾

王朔远

南方科技大学在读博士生

刘真龙

南方科技大学在读博士生

2024年09月07日(周六)

10:00-11:00

观看方式

始智AI 社区 视频号

社区 B站直播间

报告介绍

01 面向开放视觉语言任务的置信度校准

在近年来,视觉语言模型(VLMs)作为强大的工具,展现了在图像识别、文本驱动的视觉内容生成和视觉聊天机器人等多种开放词汇任务中的出色能力。为提高 VLMs 在下游任务中的表现,大量的参数高效微调方法如提示学习已经被提出,但它们的广泛应用也引发了人们视觉语言模型中输出置信度的担忧。

本次 talk 将广泛回顾基于视觉语言模型的置信度校准,重点探讨提示学习背景下视觉语言模型比如 CLIP 中存在的置信度校准问题,以及由此引发的置信度校准策略。通过这一全面的分析,我们识别并填补当前视觉语言模型的研究空白,以加强视觉语言模型的可信性,并为未来进一步提升 VLMs 的可靠性提供了新的研究方向。

02 利用凸凹损失函数防御成员推理攻击

成员推理攻击( ,MIA)是一种针对机器学习模型的隐私攻击方法。其目标是确定一个特定的数据实例是否被用于训练一个给定的机器学习模型。成员推理攻击揭示了机器学习模型可能会无意中泄露有关其训练数据的信息,即为数据泄露(data )。

本次 talk 将从从常见的机器学习的损失函数——交叉熵损失函数的理论分析出发,揭示现存损失函数的哪些性质将会潜在增大隐私泄露的风险。在拓展出凹函数通过增大输出方差以提高隐私保护能力的理论之后,我们进而提出新的损失函数框架——凸凹损失。经过广泛的实验验证,该方法可以在确保模型性能的前提下最大程度地取得最好的隐私保护。

嘉宾介绍

王朔远

南方科技大学在读博士生

王朔远,南方科技大学在读博士生,其导师是魏鸿鑫教授。他的研究重点是为 AI 基础模型开发可信的机器学习方法,譬如机器学习模型分布外泛化和置信度校准研究,并在 ICML, 等顶级国际会议上发表了多篇高水平论文。目前,他致力于视觉语言模型的置信度校准研究,为基础模型的安全应用提供更加可靠的保障。

刘真龙

南方科技大学在读博士生

刘真龙是南方科技大学统计与数据科学系的博士生,其导师是魏鸿鑫教授。他的研究方向是机器学习里安全隐私问题,目前主要集中于有关模型隐私性的成员推理攻击背后的机理分析和防御措施,已有相关工作发表在机器学习的顶级国际会议 ICML。目前,他的致力于如何高效准确可靠地评估机器学习模型的隐私风险问题,为机器学习模型的安全落地提供安全保障和审查方法。

深度学习基础教程_深度学习框架_深度学习

----- END -----

相关

系统升级

系列模型: