机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说
Robots abide by ethical principles promote human-robot trust?The reverse effect of decision types and the human-robot projection hypothesis
摘要阿西莫夫三大伦理原则是关于人工智能机器人的基本伦理规范.本研究提出人机投射假说——人会从自身具有的认知、情感和行动智能出发,去理解机器人的智能并与之互动.通过3个实验,从原则一到原则三逐步考察在机器人是否遵守伦理原则对人机信任的影响中,机器人决策类型(作为与否;服从人类命令与否;保护自身与否)的效应,以及人机投射的潜在机制.结果揭示了人机投射在机器人遵守伦理原则促进人机信任中起中介作用,以及机器人决策类型与是否遵守伦理原则之间有趣且有意义的交互效应:(1)在遵守情境下,机器人作为相对于不作为更有利于促进信任,但在违反情境下,则反之;(2)在遵守且尤其在违反情境下,机器人服从相比不服从人类命令更有利于促进人机信任;(3)相较于违反情境,机器人保护相比不保护自身在遵守情境下更有利于促进人机信任.跨实验的分析更深入地阐释了在遵守和违反伦理原则情境中以及伦理要求冲突情境中,有利于促进人机信任的机器人行动决策因素.
更多相关知识
- 浏览32
- 被引0
- 下载1

相似文献
- 中文期刊
- 外文期刊
- 学位论文
- 会议论文