近今年以后,人工智能的发展可谓突飞猛进,在图像识别,语音识别,自然语言交互等很多方面都取得了进展。
但是当前的人工智能存在的一个问题是不可解释性问题或者可解释性很差,意思就是AI的能力很强,但是缺少逻辑性,AI不能说明为什么是A结果而不是B结果,就是不可解释,人类不能理解其原因。
究其根本原因,主要是因为人工智能在训练过程中,采用了大量的非线性的计算,非线性计算以及大规模的参数使得人们无法理解为什么AI得出了正确的结论。就是无法说清楚输入与输出之间的逻辑关系。
可解释性可以说是人类理性的标志,人们做一件事情的时候,都是需要找到依据,就是可以为什么是这样不是那样。理性思考就是找到推进事物发展的原因, 如果一个事物不知道原因就去做,就容易引入风险,引入恐惧,而恐惧也是人类的天性,恐惧其实也是促进人类发展的一种属性。
因此,AI的不可解释性,实际上是加深了人类的恐惧心理。从这个角度看,AI的重要发展方向就是可解释性,也是目前AI科学家,工程师的发展发向,比如以人类为中心的AI,透明的AI等等。
访谈
更多做行业赋能者 HID迎接数字化浪潮新机遇 破解新挑战
今年3月份,全球可信身份解决方案提供商HID发布了最新的《安防行业现状报告》(以下简称“报告”),该报告…
数字化浪潮下,安防厂商如何满足行业客户的定制化需求?
回顾近两年,受疫情因素影响,包括安防在内的诸多行业领域都遭受了来自市场 “不确定性”因素的冲击,市场…
博思高邓绍昌:乘产品创新及客户服务之舟,在市场变革中逆风飞扬
11月24日,由慧聪物联网、慧聪安防网、慧聪电子网主办的2022(第十九届)中国物联网产业大会暨品牌盛会,在深…