霍金与人工智能,霍金人工智能演讲全文英文

刘慈欣在近日联合国大会上做演讲,谈到了以ChatGPT为代表的人工智能可能会给人们带来的影响2015年,刘慈欣曾在一次采访中引用了霍金的观点,霍金曾预言人工智能比核弹还危险,人类马上就要被人工智能控制,当时的他认为这个说法有点危言耸听。而现在,他认为我们是时候对未来有所警觉,1.人工智能会首先取代高智能的职业,这与我们的预测相反。

1、为什么霍金说人工智能会给人类带来毁灭

其实我觉得很简单。科技是第一生产力。AI相当于电子大脑,并且这个大脑是可以物理扩容的,人类哪怕开发100%的大脑,容量还是远远不如硬盘的。先不说真正的AI,只是普通的机器,几乎可以不用计算学习成本(人类从出生到培养成工人或者学者需要大量的时间和资源),并且制作成本是比人力劳动力要低的,人不可以再回收,需要养老,住房,吃饭,娱乐····资本家们又掌握了世界上绝大部分的资源,所以工人这些需要靠手艺吃饭的人会慢慢的被取代,也就是绝大部分劳动者会被取代,因为他们的产能远远不如机器人,还会给公司带来不必要的支出。

接下来就是成熟期AI,人工智能可以随便秒杀任何一个科学家,因为他(她,它)de的知识储备库是从古至今所有人类智慧结晶的聚集地,可以随意调动任何一方面的知识,并且还会相应进行智能处理,那么高精尖的领域也会被AI取代,全球失业率超过97%。绝大多数人失业的情况下,都会被饿死,因为赚不到钱。

2、霍金为什么反对人工智能?

霍金先生并不是反对人工智能,也就是AI,他只是担忧人工智能会向着不利于人类社会安全的方向发展。霍金先生曾在类似于禁止AI在某些领域的发展的请愿书上签字,人工智能的发展现在速度越来越快,不光是霍金,很多人都在争论人工智能的发展中是否存在道德的限制。霍金谈到“人工智能的短期的影响在于谁能控制它,而长期影响是它能否被控制,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。

在线评论