实验室学生AAAI2021参会汇报

发布人:罗倩 系统审核人:罗倩 发布日期:2021-06-04
会议宣传

       2021年2月2日至9日,35th AAAI conference on Artificial Intelligence (AAAI2021,第35届人工智能大会)在线上举办。 本次会议由香港科技大学的杨强教授担任总主席。下图为杨强教授在会议上致辞。 AAAI会议的目的是促进人工智能研究的发展,以及推动研究人员、从业人员、科学家和工程师之间的交流。AAAI会议包含多个子领域,包括认知系统、机器学习、博弈论、数据挖掘等等。

杨强教授在会议上致辞

      AAAI2021会议共收到了9034份投稿,其中有不到1700篇文章被接收,录用率约为21%。所有被接受的文章都会进行poster展示,并且有15分钟的视频展示时间。由于受到新冠肺炎导致的疫情的影响,本次会议完全以线上的方式举行。下图为虚拟会议现场。

虚拟会议现场

     实验室2019级博士研究生于达的论文“How Does Data Augmentation Affect Privacy in Machine Learning?”被AAAI2021大会接收。于达同学在会上以第一作者身份完成了论文的展示与报告。本论文受到国家自然科学基金、广东省自然科学基金、广州珠江新星等项目的资助和广东省大数据分析实验室的支持。本论文的作者还有bat365官方网站登录的印鉴教授,以及微软亚洲研究院的张辉帅、陈薇、刘铁岩研究员。本论文的通讯作者是张辉帅研究员和印鉴教授。下图为于达同学在会上进行报告。

学生参会报告

      本文研究机器学习安全中的成员推理攻击(MI)问题。该领域内之前的一批工作观察到,数据增强可以显著减轻(MI)攻击的成功率。但是,本文通过提出新的 MI 攻击来利用增强数据的信息来挑战这一结论。 MI 攻击被广泛用于衡量模型对训练集的信息泄漏程度。当模型用增强后的数据训练时,我们建立了最优MI attack的理论结果。该结果启发我们将 MI 攻击表述为一个集合分类问题,即对一组增强实例而不是单个数据点进行分类。我们还设计了具有置换不变性的特征。我们的实验表明,当模型使用数据增强进行训练时,所提出的方法显著优于原始方法。更进一步,我们发现,所提出的方法可以在使用数据增强训练的模型上实现比没有使用数据增强训练的模型上更高的 MI 攻击成功率。值得注意的是,我们在 CIFAR10 上针对Wide ResNet实现了 70.1% 的 MI 攻击成功率,而之前的最佳方法仅达到 61.9%。我们的工作表明使用数据增强训练的模型的隐私风险在很大程度上被低估了。

 

来源:于达