AI的能力越接近人类,越能体现人性的价值

何凯明在过去的采访中曾谈到一个例子:

“你为什么信任人类司机呢?当你去打车的时候,其实司机知识一个陌生人,你根本不认识这个司机,你只知道司机是个人类,那你为什么还能相信这位司机呢?是因为你觉得他的大脑具有可解释性,还是因为你明白,正常来说,一个训练有素、经验丰富的人类司机,从经验主义的角度看是大概率能做好这件事的?”

对驾驶的能力这样进行评估是没有问题的,人也会因此相信AI具备一定水平的自主驾驶能力,然而我总觉得这样的逻辑并不能说服我选择AI来为我开车而不是坐一个陌生司机开的车

近些天来和pdd老师聊起人的认识和决策行为,人在决策问题的时候,其实并不是思考到底哪个更好的,而是通常依靠快速思考从各个维度上的认识带来的“直觉”。即使一些思考,也又可能是以这样的直觉为基石,或者只是为了这种直觉补足一个合理的过程。

那么为什么我依然会下意识选择人驾驶的车而不是AI驾驶的车呢?我想到了一个解释:

我知道且相信,人是贪生怕死的,但我不知道AI是不是这样

所以,在能力这个维度上,AI可以无限的比人类的司机高,但是在让我相信这方面,现有的AI是做不到的。因为我知道,人在主观意识上,是不愿意开车出事的,所以他可能开的慢一点,谨慎一点,在遇到紧急情况下,刻在基因里面的求生本能会让身体被激活快速作出避险的反映。但AI不同,我无法知道它在主观意识上开车是为了什么,速度,安全,舒适,还是表现的让人感觉到它很智能?

由此我想到,在过去AI的能力还不够强的时候,比如AlphaGo之前的时代,我们考虑的是AI的能力什么时候能够达到或者超越人类的水平,从而解放人类的生产力。而现在,在部分领域,AI在能力这个维度上,已经远超过了人类的平均水平,在一些领域上的能力可以表现出顶尖人类的水准。

在过去的时代中,我们更加在意AI能做到什么,而当AI能够做到一些事情的时候,我渐渐发现问题的重心变化了,变成了AI能够为我们做好什么。

AI能做到,不代表它能够为我们做好。我们可以相信陌生人为我们做好一些事情,是因为我们信任人性的趋利避害,贪生怕死,偏安一隅,而并非是因为相信他们的能力(有时候能力和能否做好事情可能是负相关的😀)

现在,我认为这个问题也到了AI的身上,AI的能力很强,它可以做到很多事情,但是,我们如何能够建立对于AI的信任,尤其是在涉及到我们的生命、自由和平等的时候。

所以,我如何才能相信AI不会和我同归于尽?