算法的可解释性隐忧与TCAV技术的应用

新知榜官方账号

2023-10-03 00:40:21

一、算法的可解释性隐忧

人工智能作为一项新技术,正在改变着人类社会的原有规则和运作方式,人类也逐渐衍生出了害怕被AI支配的恐惧心理,在某种程度上来说,这种恐惧正是源于算法的不透明性。

难以想象,当人类把未来命运寄托于一项既不可知又不可控的技术会诱发怎样的后果。算法的可解释性隐忧已成为当下多方关注的焦点,也是算法及AI深化发展亟待解决的现实问题。

二、不可解释的算法带来歧视

许多人认为算法是单纯的技术,并没有什么价值观可言,但实际上算法也像它的人类缔造者一样,存在着各种偏见和歧视。究其本质,算法歧视属于社会结构性歧视的延伸,因为算法的有效性建基于大量数据材料分析,而这些材料大多都源自社会现实,所以究其本质,算法歧视其实是社会结构性歧视的延伸。

三、TCAV,让普通人理解算法的运作方式

TCAV是一种算法可解释性的方法,能够直观显示神经网络模型运算所依据的概念及其比重。正因为如此,TCAV也是一种算法歧视纠偏技术,因为它可以被用于观察其他AI模型中的算法歧视倾向。

四、结语

TCAV的重要意义在于,它不仅在技术层面以一种极为有效的方式解决了算法的可解释性问题,而且它以人类所使用的高阶语言为呈现形式,即便是没有技术背景的普通人也可窥见算法究竟以何种标准进行运作,是否有所偏倚,进而能够及时解决算法偏见和算法歧视问题。

本页网址:https://www.xinzhibang.net/article_detail-15046.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 算法可解释性 算法歧视 TCAV技术

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯