物种隔离、感知隔离、进化隔离这种未知令人细思极恐。
从电影《梅根》到chatGPT,这几天人工智能已经彻底出圈,不过其它学科谈人工智能的伦理危机,总是刨不到根上,刨祖坟这件事,还是要交给擅长开上帝视角的哲学,那么人工智能到底是人类孕育的一个怎样的新物种?请坚持看到最后。
一、人工智能为什么会导致伦理危机?
其实第一代传统机器也引发了伦理危机,工业革命初期的英国工人也会扛着锤子去砸机器,他们人为机器抢了他们的工作机会。还好,后来人们发现工业时代的机器虽然看着威猛,其实没什么脑子,他们只是人类的肢体延伸。
但是人工智能不一样,他们不仅是人类肢体的替代,还正准备替代你的大脑。如果说替代你的肢体的机器是工具的话,那么当一个机器试图取代你的大脑的时候,他会不会成为你的主人?这不仅是重大的伦理危机,更是形而上的危机,这个危机的本质是人类的主体性遭到了威胁。
在笛卡尔之后,人就是这个星球绝对的主体,一切的意志都是人的意志,一切的选择都是人的选择,无论机器如何强大,都不能替代人类做出思考和选择,选择是人类意志的体现,是人最核心的权利。现在当机器有可能涉及这个权利,那么,这成为人类历史上前所未有的考验。我们在人类历史上找不到任何ZJ上的、哲学上的支撑。
二、为什么只有人类才有选择权?
牛津大学的哲学教授博斯特罗姆对这个问题做了思考,他从“道德地位”的概念进行了解释,人们之所以不能接受机器具有选择权,因为机器在人类社会中没有道德地位,一块石头是不具备道德地位的,你可以随意地雕刻它、碾碎它、毁灭它,当你做这些事的时候,你根本不用考虑石头的感受。同样,一个机器你也可以随时地复制它、删除它、砸烂它,你根本不需要考虑机器的感受。
但是人就不一样,无论你在做任何事的时候,都要考虑人的感受,因为人是目的,他必须享有最高的道德地位,这也意味着只有人才有选择的权利,而一堆芯片是没有资格做选择的。
三、为什么认为人工智能没有道德地位?
根据博斯特罗姆教授的理论,“感受”决定了一个事物的道德地位,那么“感受”到底指的是什么?我们在这里要展开一个关键概念,我们是用什么区分主体和客体的,也就是说人与非人的本质区别到底是什么?人到底是因为具备了什么样的特性才被叫做人?是因为人具有碳基的血肉之躯这种形而下的思考,还是因为ZJ上人是“万物灵长”这种形人上的思考。
我们抛开这两种思路,从博斯特罗姆的“感受”这个角度分析,会发现,人与非人的本质区别就是——“感知能力”。一个机器之所以没有情绪,是因为它没有感知能力,感受不到歧视就不会愤怒,感受不到危险就不会恐惧,感受不到爱就不会欢愉。但是人不一样,人因为具备感知能力而产生情绪,而正是因为这种情绪人类才产生了“我”的概念,产生了自我意识,这就是人与非人最本质的区别,你是否具备感知能力,人类之所以具备感知能力,是亿万年进化的本能,是人和环境互动的结果,它内嵌于人的基因。而机器没有经历过这个过程,它的情绪只是一种算法的模拟,而不是基因生存的表达。
如果我们抛开感知能力,仅仅以智慧的高低,作为衡量人与非人的区别,那么当人工智能进化出超越人类的智慧,是不是它就可以享受到人类的道德位置?我们可以推演一下,你能接受一个克隆人具备人的道德地位吗?很多人会说能,但是你能否接受一个具备高级智慧的人工智能具备人的道德地位呢?如果不能,原因是什么?
一堆硅基的芯片和一堆碳基的有机物,都会产生高级智慧,那么你为什么总是对硅基的人工智能充满了担忧呢?这种担忧的根本在于那个人工智能可能仅仅具备高级的智慧,但是对人类却没有感知能力,他们的感知能力不过是算法的伪装,如果把这种人工智能给予人类的道德地位,我们很可能会创造出一个怪兽,那就是,一种没有感知能力,但是却拥有高级智慧的新物种,这个物种会带来人类文明的新生,还是毁灭,没有人知道。
人类的感知能力源于亿万年来生存驱动的生物进化,在漫长的进化过程中,人类远离危险,趋向繁殖,形成复杂的情绪。喜怒爱恨、悲悯、同理心,每一种情绪都源于对复杂环境的感知,但是人工智能不会真正理解。为什么有些人会害怕毛毛虫,为什么有些人会为了信仰而献出生命?他不理解人类行动背后的复杂含义,他就无法真正理解人类。当然,人类也不会真正理解人工智能。
还没有评论,来说两句吧...