2023-04-14
近期,生成式AI狂潮席卷全球,但也引起了一系列担忧。
恐惧制造者分为两个阵营:一是认为人工智能会将人类推向反乌托邦式的未来,二是人工智能威胁到人类的生存。上个月,包括马斯克和部分人工智能领域专家在内的科技公司高管们呼吁,将先进人工智能系统的开发暂停六个月,让该行业先建立对有害后果的防范机制,给AI恐惧又添了把火。但这一举动遭到了Meta首席人工智能科学家杨立昆的反对,他认为这一举动是大错特错。
(资料图片仅供参考)
杨立昆是人工智能领域最杰出的科学家之一,他对那些夸大ChatGPT等AI聊天机器人底层技术能力的人,向来都是直言不讳的批评。
杨立昆2013年加入facebook,与杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)一起获得了2018年ACM图灵奖(计算界的诺贝尔奖),在深度学习领域颇有建树,这三位科学家被誉为“AI教父”。
杨立昆指出,可以将大模型想象成一个无比强大、拥有预测能力的键盘。大型语言模型(LLM)首先接受大量词汇训练。我们会向模型展示词汇序列,并询问它下一个单词是什么,然后它会预测下一个词是什么,插入该单词,然后根据新词自行预测之后的词汇。它们对写作很有帮助,可以帮助人们用正确的语法进行表达。但需要明白的一点是,它们并不太擅长回答事实性问题。这些模型只能提取内存中的信息或是近似信息,都是各种训练数据中读取的组合或插值,这也意味着它可能存在事实上的错误,或者只是在一本正经地瞎编。
这样的系统基本上就是在一个一个地预测词汇,很难控制或操纵,因为产生的结果完全取决于训练时的统计数据和给定的提示。从数学上讲,偏差很可能呈指数式增加,也就是说,生成的答案越长,就越有可能产出一堆垃圾。
对于此前以马斯克为首的科技公司高管呼吁暂停人工智能开发,杨立昆持反对态度。他表示,
“人工智能确实是一项强大的技术,其开发也必须通过负责任且安全的方式进行。但暂停研发六个月解决不了问题,一点用都没有,也很幼稚,谁真的会这样做呢?”
他说,那封信上的第一条最离谱,认为AI是真正的末日预言家。
信上指出,
“我们正在建造的机器和人类一样聪明,一旦建成了,人类就完蛋了。”
对此,杨立昆认为,这愚蠢至极,绝对是错误的认知。
“他们是从人工智能系统难以控制的角度出发,认为使其符合人类价值观目标是非常困难的。但目标是可以设计的,AI实体可以根据目标正常运行。”
此外,对“有人担心AI会造成直接伤害”这种观点,他也认为完全没必要。
“大模型能够产生垃圾和误导性信息,有的人担心网络会充斥着机器生成的误导性内容,产生洗脑效果。我并不觉得这是需要担心的事,因为现实已经是这样了,人是有韧性的,能够学会运用和适应新媒体。”
还有人担心由少数科技公司创造的人工智能系统会对社会带来负面影响。
“我不敢苟同,部分原因在于,我就是Meta的员工,我清楚公司制造AI的内部动机。”他说道。
而与谷歌、Meta和其他初创公司的AI技术相比,OpenAI的技术有什么特别之处?对此杨立昆认为,OpenAI似乎稍微领先,他们开启大模型训练的时间更早,有更多时间根据用户反馈进行调整。但是ChatGPT或GPT4并没有什么惊天大秘密。自然语言理解并不是新技术,都源自谷歌的机器学习模型。Meta、谷歌和初创企业都有很多人从事这项技术的研究。很多科学家和工程师都知道如何制造这类模型和系统。杨立昆表示,之前谷歌和Meta之所以没有推出类似的系统,是因为对于大公司而言,推出一个不那么可靠、会生产垃圾的系统容易损坏声誉。
但关于机器是否很快可以取代人类,像人类一样思考,杨立昆也认为目前还为时尚早。
“有人认为,通过扩大LLM的规模,就可以实现人类水平的智能。我认为这是大错特错。这其中仍然有许多我们不理解的东西,尚不清楚如何用机器来复制,这就是一些人所说的AGI。”
他说,我们不能用ChatGPT或GPT4这样的技术来训练机器人,让它完成诸如擦桌子或将盘子放进洗碗机等动作,虽然这些看起来都很简单,小孩子都能完成,但我们还是没有能力这样做,自动驾驶都还没完全实现,这些不是只靠阅读大量文本就能学会的,需要的是一套完全不同的技能。未来五年可能会有明显进展,但如果说AI能达到人类的智能水平,杨立昆认为我们还是低估了这个过程的复杂性,AI真要达到那样的水平,可谓前路漫漫。
风险提示及免责条款:市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负