7.3 政治进程
国家政治议程给予人人拥有公平即不被歧视的权利。如果是故意歧视则需采取法律措施予以制裁。谷歌早期图像识别系统曾致使一个经过训练的人工智能系统将深色皮肤的人贴上了大猩猩的标签,因此招致一些与“歧视”有关的负面新闻报道。事实上,我们不排除有些歧视可能是出于意外,可能是由于训练集不够完整,但倘若不是一个有趣的智能系统来标记某人的照片,而是一个医疗智能系统,如皮肤科智能设备用于发现潜在的癌病变,如果大部分训练数据来自浅色皮肤的人,这个智能系统很可能将无法诊断出深色皮肤的人是否患癌。同样的事情也可能发生在皱纹非常严重的皮肤上,或者是患有罕见疾病的人的皮肤上,这种疾病将影响皮肤的“正常外观”,因此,训练数据集要包含尽可能广泛的皮肤类型样本是至关重要的。[101]
深度学习必须克服两个障碍:同质数据和认知偏差。使用同质数据训练模型将存在很多缺陷,如护照系统要求亚裔申请人睁大眼睛;使用人工智能进行选美的获胜者几乎都是白人等。即使我们获得了真正多样化的训练数据,也将存在认知偏差。每个人通过对接受事物的感知创造了他们自己的“主观世界”。认知偏差是指人们做出偏离规范或理性的判断。由于深度学习是建立在数据基础上的学习,如果学习模型有偏差,深度学习将放大这种偏差。谷歌广告算法在其他条件都一样的情况下给男性推送高管招聘广告的可能性高于女性,存在“高管多数是男性”的认知偏差,被认为存在性别歧视。
防止同质数据和认知偏差所带来歧视问题的主要方法是从错误中吸取教训。解决公平问题的最佳方法是获得更多样化的、更大的数据集,确保较小的群体得到公平对待,应尽早采取措施预防、检测、报告和消除同质数据和认知偏差隐患。科学技术政策办公室(Office of Science and Technology Policy,简称OSTP)发布的报告讨论了使用人工智能做出相应决策如何确保公正、公平、透明和责任明晰的问题。[102]深度学习的核心是学习,在发展的初级阶段,人工智能只是一个在人类监督下的学生,与育儿一样,我们有责任指导人工智能走向成熟。