2.3 算法不透明

2.3 算法不透明

透明度问题不仅涉及数据和算法,还涉及任何基于人工智能的决策。[29]人工智能专家警告称,试图理解和预测人工智能系统的行为存在固有局限性,因为算法模型往往过于复杂而使大多数人根本无法理解。加州大学伯克利分校信息学院詹娜·伯雷尔(Jenna Burrell)给出了算法不透明的三种表现形式:①故意不予透明,例如政府或企业希望对某些专有算法保密;②技术文盲,即算法复杂性超出了公众理解能力;③应用程序规模庞大而复杂,既涉及“机器学习”算法,又涉及大量不同种类程序,抑或两者兼而有之,使得算法即使对程序员也不透明。因此,新的人工智能监控程序尚待开发以便人类易于理解并使系统遵循人类期望有序运行。[30]

我们承认人类思想是一个不可思议的黑匣子,但对于人工智能决策过程这种新型黑匣子,我们一直试图探究其内在机理。同样的悖论也存在于无人驾驶汽车,我们承认人类思维的局限性,接受全球每年有130万人死于交通事故而其中大部分是人为失误造成的,但我们本能地要求人工智能做到完美。[31]

试图从现代深度学习模型中获取一个可被理解的解释将注定要失败。比如,要想知道为什么人工智能驱动的搜索引擎决定显示哪个广告或建议播放哪个视频并非易事。搜索引擎公司应用人工智能解决这些问题时可以访问其相关用户的大量个人信息、浏览和搜索历史、年龄、性别、受教育程度以及他们知道或能轻易推断出来的更多个人特征,吸收并有效利用成千上万种变量以及从数百万人中提取数据获取的经验,建立人工智能模型,进而决定推荐什么。从这个意义上说,这个过程往往不再思路清晰,人类也不再能够审查清楚。我们无法用一种能让人类满意的方式解释一个从海量数据中学到的非常复杂的数学函数。这就是我们所面临的挑战。对解释必要性做出立法并不会化解这些矛盾。[32]