人工智能模型安全
对抗攻击:在输入识别样本中人为故意添加若干人类无法察觉的细微干扰信息,导致模型以高置信度给出错误的识别结果,这一攻击人工智能模型的行为被称为对抗攻击
对抗样本生成:
FSGM:
数据投毒:
- 标签反转投毒
- 干净样本投毒攻击
- 后门攻击:增加后门触发器
防御:
- 测试阶段防御
- 训练阶段防御
隐私保护:
- 差分隐私
- 同态加密
- 安全多方计算
对抗攻击:在输入识别样本中人为故意添加若干人类无法察觉的细微干扰信息,导致模型以高置信度给出错误的识别结果,这一攻击人工智能模型的行为被称为对抗攻击
对抗样本生成:
FSGM:
数据投毒:
防御:
隐私保护: