人工智能可解释性
研究对象:
- 神经网络中层特征在语义层面的可解释性。即研究神经网络中层特征是否表达了明确的语义,是否可以将神经网络混乱的中层特征拆分解构为语义清晰的基本概念,是否可以端对端地自动学习语义清晰的中层特征
- 神经网络决策逻辑的可解释性。即为神经网络的决策结果给予语义逻辑上的解释,包括提取因果决策逻辑、线性加和逻辑等
- 基于可解释性的中层对端的模型学习。不同于传统端对端的模型学习需要大量的训练样本,基于可解释性的中层对端的模型学习利用网络中层特征的语义信息,直接在语义层面上迁移预训练特征来搭建新模型,修改预训练特征来优化模型,在语义层面诊断神经网络的潜在错误表达。基于可解释性的中层对端学习往往在弱监督条件下具有良好的泛化能力