在已经提出的各种框架内,某些主题反复出现,围绕它们所达成的共识也越来越多。我在瑞典于默奥大学的同事维吉尼亚·迪格努姆(Virginia Dignum)将这些问题分为三个关键类别:解释义务、责任和透明度[109]。
解释义务主要是指,比如一个人工智能系统做了一个对某人有重大影响的决策,那么这个人有权要求系统对这个决策进行解释。但是怎么样才算是解释,这就是个难题了,在不同的环境下有不同的答案,而现在的机器学习程序无法提供解释。
责任则意味着应该明确对决策负责的智能体,而且,最重要的是,我们不应该试图声称人工智能系统本身要对决策“负责”,责任方应该是部署该系统的个人或者组织。这就指向了一个更深层次的哲学问题,一个与道德智能体有关的问题。
道德智能体通常被理解为一个实体,它能够分辨是非,并理解其行为所导致的后果。人们通常认为,人工智能系统可以承担道德智能体的责任,并且能够为它的决策和行为负责。而人工智能研究界的普遍观点恰好相反:软件是不能被追究责任的。更进一步说,人工智能研究中的责任并不意味着制造出有道德责任的机器人,而是以负责任的方式开发人工智能系统。例如,发布一个类似Siri的软件智能体,误导用户以为自己在跟另一个人交互,这就是软件智能体的开发者对人工智能不负责任的使用。软件在这里不是罪魁祸首,开发和部署它的人才是。负责任的设计在这里意味着人工智能将始终清晰地表明它的非人类身份。