一.论文信息

题目:Where Did You Learn That From? Surprising Effectiveness of Membership Inference Attacks Against Temporally Correlated Data in Deep Reinforcement Learning(成员推理攻击在深度强化学习中对时间相关数据的惊人有效性)
**发表年份:**2021
**会议:**Axriv
**论文链接:**https://arxiv.org/abs/2109.03975
**作者信息:**Maziar Gomrokchi,Susan Amin,Hossein Aboutalebi

二.论文结构

三.论文内容

摘要

While significant research advances have been made in the field of deep reinforcement learning, a major challenge to widespread industrial adoption of deep reinforcement learning that has recently surfaced but little explored is the potential vulnerability to privacy breaches. In particular, there have been no concrete adversarial attack strategies in literature tailored for studying the vulnerability of deep reinforcement learning algorithms to membership inference attacks.
To address this gap, we propose an adversarial attack framework tailored for testing the vulnerability of deep reinforcement learning algorithms to membership inference attacks. More specifically, we design a series of experiments to investigate the impact of temporal correlation, which naturally exists in reinforcement learning training data, on the probability of information leakage. Furthermore, we study the differences in the performance of collective and individual membership attacks against deep reinforcement learning algorithms. Experimental results show that the proposed adversarial attack framework is surprisingly effective at inferring the data used during deep reinforcement training with an accuracy exceeding 84% in individual and 97% in collective mode on two different control tasks in OpenAI Gym, which raises serious privacy concerns in the deployment of models resulting from deep reinforcement learning. Moreover, we show that the learning state of a reinforcement learning algorithm significantly influences the level of the privacy breach.

摘要中文版

虽然在深度强化学习领域取得了重大的研究进展,但最近浮出水面但很少探索的深度强化学习在工业上广泛采用的一个主要挑战是隐私泄露的潜在脆弱性。特别是,没有具体的对抗性攻击文献中针对研究深度强化学习算法对成员推理攻击的脆弱性而量身定制的策略。
为了解决这一差距,我们提出了一种对抗性攻击框架,专门用于测试深度强化学习算法对成员推理攻击的脆弱性。更具体地说,我们设计了一系列实验研究了强化学习训练数据中自然存在的时间相关性对信息泄露概率的影响。此外,我们研究了针对深度强化学习的集体和个人成员攻击的性能差异实验结果表明,所提出的对抗性攻击框架在推断深度强化训练期间使用的数据方面非常有效,在 OpenAI Gym 中的两个不同控制任务中,个人准确率超过 84%,集体模式下准确率超过 97%,这提高了严重的隐私性深度强化学习导致模型部署的担忧。此外,我们表明强化学习算法的学习状态显着影响隐私泄露的程度。

相关工作

  • 成员推理攻击

结论

1.与单个成员推理攻击相比,强化学习在集体环境中明显更容易受到成员推理攻击。
2.由环境设定的最大轨迹长度对深度强化学习模型中使用的训练数据是否容易受到成员推理攻击起着重要作用。
3.揭示了时间相关性在攻击训练中的作用,以及攻击者在多大程度上可以利用这些信息来设计针对深度强化学习的高精度成员推理攻击。

【论文阅读】Where Did You Learn That From? Surprising Effectiveness of Membership Inference Attacks Agains相关推荐

  1. 论文阅读:You Only Learn Once: Universal Anatomical Landmark Detection

    Y ou Only Learn Once: Universal Anatomical Landmark Detection 你只学习一次:通用解剖学标志点检测 单位:北大奇迹组 发表:2021MICC ...

  2. Membership Inference Attacks Against Recommender Systems论文解读

    0 摘要 推荐系统通常针对高度敏感的用户数据进行训练,因此推荐系统潜在的数据泄露可能会导致严重的隐私问题. 本文首次尝试通过成员推理的角度来量化推荐系统的隐私泄漏. 与针对机器学习分类器的传统成员推理 ...

  3. 差分隐私论文阅读笔记

    目录 前缀基础知识 论文笔记 Deep Learning with Differential Privacy - CCS'16 Differentially Private Distributed O ...

  4. 3D目标检测论文阅读多角度解析

    3D目标检测论文阅读多角度解析 一.前言 CNN(convolutional neural network)在目标检测中大放异彩,R-CNN系列,YOLO,SSD各类优秀的方法层出不穷在2D图像的目标 ...

  5. [论文阅读] (03) 清华张超老师 - GreyOne: Discover Vulnerabilities with Data Flow Sensitive Fuzzing

    数据流敏感的漏洞挖掘方法 Discover Vulnerabilities with Flow Sensitive Fuzzing Chao Zhang 清华大学 2nd International ...

  6. 【论文阅读】Learning Traffic as Images: A Deep Convolutional ... [将交通作为图像学习: 用于大规模交通网络速度预测的深度卷积神经网络](2)

    [论文阅读]Learning Traffic as Images: A Deep Convolutional Neural Network for Large-Scale Transportation ...

  7. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](7)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](7) Into the Weeds Other types of grap ...

  8. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](6)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](6) GNN playground Some empirical GNN ...

  9. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](5)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](5) Graph Neural Networks 图神经网络 Now th ...

最新文章

  1. html5 自动生成迷宫,HTML5 Canvas随机迷宫生成动画
  2. 鸿蒙系统用没有安卓的代码,套壳?不存在!纯鸿蒙系统不含任何安卓代码,其他手机厂商可使用...
  3. 面试官最常问的问题总结(一)
  4. nodejs pm2教程(转载)
  5. 《Java安全编码标准》一第 1 章 概  述
  6. SwiftUI 教程
  7. ssim算法计算图片_OpenCV 实现图像结构相似度算法 (SSIM 算法)
  8. 离散数学真值表(c语言编程实现)
  9. oracle 去除空值函数,Oracle学习笔记:删除数据空格(trim、ltrim、rtrim函数)
  10. 计算机一级exc除法函数,excel除法函数 excel除法如何表示
  11. 用免费建站系统做一个专业的企业网站才靠谱!
  12. 三星新旗舰手机 GALAXY S III正式发布
  13. 计算机组成原理-第三章-存储系统
  14. Socket网络编程面试题
  15. 博士申请 | 西交利物浦大学黄开竹教授组招收机器学习全奖博士生
  16. JDBC Statement RETURN_GENERATED_KEYS返回自动生成的ID
  17. 第四章 微信公众号开发之验证消息的确来自微信服务器
  18. 挑战30秒记住23种设计模式,顺口溜【一个连贯的故事】
  19. 如何让自己时刻冷静的方法_高三怎么让自己心静下来
  20. Teradata天睿公司将于5月举办国内最大规模大数据峰会

热门文章

  1. ❤️最全万字Python列表来袭,小伙伴们快学习起学❤️
  2. 全球首个“零碳”码头并网发电,天津港绿色港口建设迈出新步伐
  3. 使用Rational Rose创建BBS论坛用例图
  4. ElasticSearch系列 - SpringBoot整合ES:多个精确值查询 terms
  5. Arduino成长日记2 - Arduino编程基础
  6. Mysql原理知识全解
  7. 联想电池电量89%,不用充电器直接关机,使用充电器可正常开机
  8. 浏览器开发者工具用法
  9. Fritzing 创建自定义元件
  10. matlab initialize函数,未定义函数或变量 'initialization'。