极限的忽视和反省
2025年08月10日
一、极限的忽视和反省
从检索的文献来看,学术界、实务界多热衷于对司法人工智能的鼓吹、开发和应用,这固然有国家政策导向的影响,也有角色立场和思维方式的因素。如对司法人工智能开发企业来说,鼓吹司法人工智能的应用前景并据此“攻城略地”占领市场,就是其固有的商业思维所致,从而也就有意无意间忽略了“理论极限”的存在。又如,按照一般的类推思维,人工智能在其他商业领域的推广和取得的成功也会“冲动”地扩散到被动保守的司法场域,从而掩盖“理论极限”。
对上述问题,学术界已有不少担忧和提醒。如马长山较为系统、全面地论述了人工智能的社会风险和法律规制,这些风险包括伦理风险、极化风险、异化风险、规制风险和责任风险等,故需要塑造风险社会的法律理念,建立多元互动的风险规制体系,确立“过程—结果”的双重规制策略,从而促进人工智能的健康发展,构建智慧社会的法治秩序。[1]王禄生则敏锐地捕捉到了技术话语权与司法话语权的分离和技术权力对司法权力的介入限度问题[2],并呼吁司法大数据与人工智能开发需反思片面技术理性思潮[3],从而转向司法属性对技术的规训。季卫东针对电脑量刑这一具体应用提出,电脑法律实证主义的预设不恰当地排除了诸如自然法、权利保障、天理人情,又较少注重预防之类的思辨性要素,忽视了司法运行当中所必须考量的背景条件和地方性知识等。而在某种意义上说,上述思辨性要素、背景条件和地方性知识就标示出了计算机法律专家系统软件以及人工智能审判的疆界或者局限之所在。[4]