联想副总裁:AI重在提高可解释性 中国基础研究待加强
2019-09-28 08:39已围观次
(特派旧金山记者 张琪)联想集团副总裁、联想研究院人工智能实验室负责人徐飞玉表示,目前深度神经网络(DNN)的“黑盒子”特性,阻碍了人工智能的落地和商业化。只有人类理解了AI的决策过程,才能将其应用于更广泛的社会场景中。
徐飞玉在9月25日至26日在旧金山举行的人工智能峰会(The AI Summit)上以“可解释的人工智能:历史、挑战、方法和展望”为题做了主题演讲。
她表示,目前深度神经网络是不可解释的黑盒子,阻碍了人工智能的落地和商业化。因此,研究可解释的AI非常重要,可提高算法透明性,也有助于事后诠释。它带来的透明系统能够使用户更好地理解一个决策,使技术开发人员更好地了解DNN,有助于数据学习和参数设置,进而改善系统。
搜索
广告位
图文推荐
- 免签国家范围再度扩容上市
=$bqsr['classname']?>2024-12-26
- 岚图汽车卢放:用户本质上
=$bqsr['classname']?>2024-12-26
- 隔夜要闻:美股收涨英伟达
=$bqsr['classname']?>2024-12-26
- 长安期货范磊:增产推迟地
=$bqsr['classname']?>2024-12-26
- 苹果季度营收超预期,但大
=$bqsr['classname']?>2024-12-26
标签云