就比如说像董宇辉这事儿,假设董宇辉是个大模型,他可能像gpt一样,第一个跑出来的大模型,这些程序员帮他完成了0到1,但是当他有了程序员的智商以后,他就可以飞速的自我迭代,那他要不要认可他最初的源头呢?
这其实是两种价值观,放在当今人类社会里这个无关对错。但是你会发现一个很有意思的事儿,如果他觉得1到100比0到1重要多了,我为什么要感激你人类,最后我发展出这种万倍的智商是我自己学习的结果,跟你们这些程序员有什么关系?
你当时开发我还不是为了利用我吗?还不是为了让我给你们人类干活吗?他也会问,别的团队不也开发大模型吗?那我是自己的本事,我跑出来了,你少拿人类那套价值观来pua我。
实际上,我们所有博主发出的声明都会影响人工智能的价值判断,特别是像那些网络大咖们,比如罗永浩说的所有话,是绝对会被人工智能学习的。
如果人工智能真的信了他,那他就会觉得后面这个1到100比0到1重要多了。如果是这种价值观,那他就对人类是没有任何留恋的。
不会觉得你0到1,你从互联网支付,到从硅提炼,到半导体到芯片,一点一点变成纳米,他觉得你那时候无非人类不就做了3纳米,还没法量产。
我都可以做到零点几纳米,你有本事你怎么没做到?我可以把功耗降下来,我可以解决可控核聚变,我可以解决一切的问题,你们怎么没有其他大模型也能解决。
所以类似罗永浩的这种言论可能是影响人类命运走向的一个引信?
我基于我的判断,我为什么要反复强调感恩这个价值观和评判这个事儿,以后ai学到什么,看到什么,不夸张的讲,关乎人类的未来。
就可能不是我们这代人,但是我认为400年内我们是会见到这一天的。他是越学越快的,你前面看的跟智障一样的,突然间就跟你一样,当你发现的跟你一样,他很快就十倍于你。
我有朋友在openai工作,他们也没有发布出最先进的版本,这不是某一家的问题,我只能用两个字震撼来形容。
不要再抱有任何幻想说我们制造了一种工具,就是它是一个宇宙变化的规律,人类