报告题目:知识引导的可解释人工智能视觉推理模型
报告时间:6月22日 10:00-11:00
线下报告地点:理科楼B1002
主持人:张民 教授
报告摘要:
在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明性与可解释性是至关重要的。本报告介绍可解释人工智能计算机视觉模型的研究现状,并进一步提出基于人类常识知识的可解释视觉推理模型,借助知识图中的实体相关性来辅助提升模型的可解释性和泛化性。相关研究成果发表于CVPR,ICCV,TNNLS等人工智能和计算机领域顶级会议和期刊。
报告人简介:
朱艺,博士,华为诺亚方舟实验室研究员,2021年博士毕业于中国科学院大学,曾在鹏城国家实验室访问。其研究主要基于计算机视觉和深度学习技术,重点解决用于视觉识别、视觉推理与决策的人工智能模型的可解释性和泛化性问题。已在人工智能领域发表高水平论文20余篇,包括IEEE CVPR,ICCV,NeurIPS,TNNLS,TPAMI等CCF-A类国际会议与中科院一区期刊,相关研究成果论文他引1000余次。