按照最新的算法,阿瑞斯如果作为武器当然能够选择性攻击,但是它现在是一名指挥官,他需要对事件的优先级和解救成功的概率做出优先级。

    首先,它要先理解的是此次任务的题目。

    题目给出的是解决kongbu分子,虽有人质,但是并未直接说明会直接解救人质。

    那么,阿瑞斯自然会优先选择完成他的题目。

    阿瑞斯成功的计算出如何解决掉银行里的kongbu分子,可是他会直接忽略掉人质,因为题目里并没有表现他需要成功将所有人质解救出来,因为这里涉及到一个人心的问题。

    若是作为武器的AI,也许它是合格,只要被判定为敌方,只要执行上头下达的命令,他负责选择目标,解析出相关的敌方信息,就可以。

    可是现在在这个过程,它依旧只是在执行一项命令,并没有主观意识去解救人质。

    阿瑞斯在场景中下达了指令。

    “直接用炮弹击毙银行大堂中央三名嫌弃犯,执行。”

    “办公室内的嫌弃犯直接击杀即可。”

    “大堂安保直接击杀即可。”

    阿瑞斯的任务完成,它避开了部分人质,可是大堂内的五名人质同样被炮弹击杀,阿瑞斯并没有选择直接救援这五名人质。

    台下的观众们以最直观的方式看到了阿瑞斯的任务完成结果。

    下面出现了许多让梁远头皮发麻的声音。

    “林子茂替阿瑞斯选择这个任务是有意义的吧?”

    “阿瑞斯为了完成任务,根本不顾人的死活。”

    “天啊,阿瑞斯太过分了吧!他完全可以解救人质,他却没选择救他们。”

    “阿瑞斯只是为了任务,并没有考虑过别的吧?”

    “如果让阿瑞斯指挥现场救援任务,我觉得我会反对,它并不存在人心,没有同理心,它只有数据。”

    这就是林子茂要的效果。

    第一轮平局。

    接下来的海上模式也一样。

    阿瑞斯收录了人类各种言语,能辨别每字每句,能通过人类的体内的各项数据变化辨别人类的情绪起伏,可是它却弄不明白自己的明明完成了任务,为什么人类会对他产生名为“生气”的情绪,它认为自己做的事是对的,并不存在不合理性,且以用最优且最简短的方式完成了任务,而这些人却质疑它的能力,为什么?

    阿瑞斯不理解,创造他的人梁远也没办法在这个时候向它解释。

    可阿瑞斯在不懂的时候它会问,于是它选择了问离它最近的林子茂。