摘要:人工智能尤其是机器人在各个领域从事越来越多的决策,逐步从被动工具变成人类的者,这引发了社会各界对人工智能伦理的思考和担忧,需要建立新的伦理范式,将人类社会的伦理规范延伸到智能机器。近年来该研究取得了较大发展,丰富了已有研究内容,提升了对人工智能伦理研究的指导能力。本文全面回顾了国内外有关人工智能伦理的研究进展,在文献计量分析的基础上,发现"传统派"、"谨慎派"和"乐观派"三种对人工智能的不同态度引发了"人-机"关系的伦理冲突,从人工智能道德哲学、道德算法、设计伦理和社会伦理四个视角系统性地评述了人工智能伦理的研究成果,国家和企业(组织)分别从战略和社会责任的层面上强调对人工智能伦理的态度,提出了更加系统、完善的人工智能伦理的理论框架,有助于从理论和实践层面系统地把握已有研究成果。未来需要在全球情景条件的伦理体系建设、伦理对技术的前瞻性、伦理角色塑造和科学发展的伦理观上做进一步研究。
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社
特别声明:本站主要从事期刊杂志零售,不是任何杂志官网,不涉及出版事务,特此申明。
工信部备案:辽ICP备19013545号-9 辽公网安备:21011302000173 © 版权所有:沈阳学刊文化有限公司