8.4 其他利益相关者
2017年1月,人工智能界的精英在美国加州阿西洛马召开会议,制订了《阿西洛马人工智能原则》[131],包括23项原则。其中,人工智能研究者和政策制定者之间应该持续开展积极的建设性的交流,人工智能的研究人员和开发人员之间应该培养合作、信任和透明的文化氛围,人工智能系统开发团队之间应该积极合作以避免在达成安全标准上偷工减料等,涉及了人工智能的研究问题;人工智能系统的设计和运作应符合人类尊严、权利、自由和文化多样性的理念,应该避免一个使用致命自主武器的军备竞赛等,涉及了人工智能的道德标准和价值理念;此外,还涉及了一些长期问题,如对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险等。起草者希望通过这23项原则在一定程度上确保人工智能的研发能让所有人收益。
此外,“IEEE全球人工智能和自主系统伦理倡议”(简称“IEEE全球倡议”)的发布旨在为发展人工智能提供指导性方针,建议开发人工智能和自主系统时优先考虑符合伦理的设计,即利用人工智能和自主系统实现人类福祉的愿景,并采取措施解决工程设计中存在的伦理问题。为了让人工智能符合道德伦理,需要确保任何参与人工智能研究、设计、制造或使用的人都曾接受过良好的道德伦理教育和培训。IEEE全球倡议凝聚了来自学术界、科学界、政府部门和企业界的100多位在人工智能、法律与伦理、哲学和政策领域的全球领英人物在公开讨论人工智能对人类福祉的正面和负面影响之后的集体智慧。[132]工程师、设计师、企业界和政府监管机构都必须意识到人工智能不再是单纯的技术问题。必须向公众提供切实保证,即所有新开发的人工智能只对人类福祉有益而不会以任何方式对公众有害。为了将人工智能与公众社会价值观紧密结合,可以优先考虑将提高人类福祉作为未来先进算法的衡量指标。[133]
2016年6月,白宫科技政策办公室(OSTP)宣布了一项关于人工智能如何为未来做好准备的信息征询函(Request for Information,RFI)[134],共收到161份来自不同利益相关者的反馈,其中包括个人、学者和研究人员、非营利组织和产业界等。[135]政府应成立跨部门监管小组,决定如何协调和监管人工智能技术,负责征求包括学术界、产业界和政府官员在内的一系列利益攸关方的专家意见,以审议与人工智能治理的有关问题。专家应具体地针对社会影响、公众参与、投资水平、经济影响、国家安全、公众信任、安全保障、伦理道德以及其他法律和监管事项提出建议。[136]