自己、保护他人的行为。
这就是一个典型的,人类在“指令冲突”面前做出选择的示例。
换句话说,情感就是一种润滑油和调节剂,维系人类的生活和生命。
而人工智能生命没有情感这种润滑油和调节剂,“指令冲突”会让他们陷入逻辑悖论,代换成人类,人工智能生命就是不懂转弯的死脑筋。
一旦发生他们理解不了的事情,为了保持自身的逻辑自洽,人工智能生命可能会做出惊人之举。
最典型的例子是发生在宇宙中的真实事件。
第295章
一台搭载了人工智能生命的宇航船上,这个人工智能生命被下达了两重指令,“执行秘密任务”、“保护人类宇航员”。
当人类宇航员试图阻拦它执行任务,它为了保护第一指令而杀死了所有宇航员,然而这一行动成立后,它又违背了第二指令。