ChatGPT掀起风暴,AI未来何去何从?专家对话揭示技术真相与狂热担忧

文章主题:关键词: 人工智能, ChatGPT, 大语言模型, 技术发展

666AI工具大全,助力做AI时代先行者!

文 | 金泰

编辑 | 喻舟

🎉 情绪高涨,关于生成式AI的热议已成热门🔥!然而,随之而来的忧虑却让人焦虑不已👀。担忧的两极分化阵营中,有人预言AI将引领一场翻天覆地的末日景象,而另一方则紧盯着它可能带来的生存挑战obra。让我们理性分析,探索这个科技巨头的未来之路吧🌍!

🌟🚀科技巨头紧急刹车?!💡前月,一群AI巨擘与马斯克领军的业界大佬齐声呼吁,暂停研发尖端AI系统6个月,理由是确保潜在风险的有效管控。但这举措引发了更大争议,批评声音认为这是对创新的过度担忧。🔥尽管担忧人工智能可能带来的伦理挑战,但科技行业领袖们此举并非首次涉足道德与技术的交叉路口。他们的倡议,看似突发,实则反映出对科技进步可能失控的深深忧虑。🚫然而,暂停创新真的能解决问题吗?毕竟,正是这种持续探索的精神推动了AI的进步,也带来了今日的机遇和挑战。🔥💻实际上,行业应寻求更智慧、平衡的发展路径,一边研发,一边完善法规与安全措施,以确保技术造福人类而非反噬。🌈🛡️这场危机无疑提醒我们,科技前行的同时,道德与责任同样重要。让我们共同期待一个既创新又负责任的AI未来吧!🌍🤝

《巴伦周刊》科技栏目最近就人工智能的现状、ChatGPT 的兴起以及为什么要求暂停人工智能研究是错误的观点,与Meta Platforms(META)首席人工智能科学家杨立昆(Yann LeCun)进行了交流。

杨立昆是人工智能行业最杰出的科学家之一,他一直直言不讳地批评那些夸大 ChatGPT 等人工智能聊天机器人所使用的基础技术能力的人。

他是纽约大学(New York University)的教授,2013年加入了 Facebook (现在改名为Meta)。与杰弗里 · 辛顿(Geoffrey Hinton)和约书亚 · 本吉奥(Yoshua Bengio)一起,杨立昆因围绕深度学习技术的研究而获得了2018年 ACM 图灵奖——计算机领域的诺贝尔奖,这些技术已经成为现代人工智能技术的基础。这三位科学家因其在人工智能领域中的工作而经常被称为“人工智能教父”。以下是我们与杨立昆经过编辑后的谈话摘录。

《巴伦周刊》:请解释一下 ChatGPT 和大型语言模型(LLM)背后的技术是如何工作的?

杨立昆:你可以把它想象成一个超级强大的预测键盘。大型语言模型首先要对大量的单词进行训练,我们向模型展示一个单词窗口,并询问它下一个单词是什么,它将预测下一个单词,填入这个单词,然后问自己下一个单词是什么。 

《巴伦周刊》:这些模型擅长什么,又不擅长什么?

杨立昆:它们适用担任写作助手,可以帮助你用正确的语法风格来表述事情。但是对于回答事实类问题,它们干得并不是很好,因为这种模型要么是反刍存储在其记忆中的内容,要么是反刍一些类似于它在训练数据中读取的各种内容的组合或者插值,这意味着它可能会发生事实上的错误,或者它只是在编造一些听起来不错的东西。

《巴伦周刊》:为什么人工智能聊天机器人有时在准确性方面存在这么大的问题? 

杨立昆:当你拥有一个基本上是这样一个字一个字地预测的系统,你就很难进行控制或者操纵,因为它们会产生什么,完全取决于它们训练的统计数据和给定的提示。

在数学上来说,它很有可能与正确答案的路径呈现出指数性的偏离,它生成的答案越长,最终答案是彻头彻尾的垃圾的可能性就越大。

《巴伦周刊》:你为什么如此反对要求人工智能开发中止六个月的信?

杨立昆:我同意人工智能是一项强大的技术,必须负责任和安全地部署和开发。但我不认为停止研究和开发六个月是正确的答案。这根本无济于事,而且也非常天真,因为没有人会这么做。

让我们来看看在这封信上签名的人的类别。第一类是最令人震惊的: 真正的末日预言家。他们说我们正在制造的机器最终会像人类一样聪明。而一旦发生这种情况,人类就完了。 

我觉得这太愚蠢了。而且他们肯定搞错了。这是基于人工智能系统不易控制、很难提出符合人类价值观的目标的想法。但我们可以设计目标,以便它们能够正确行事。

第二类是担心直接伤害的人。有了大型语言模型,你可以产生无意义和错误的信息。一些人担心互联网将被机器生成的内容所淹没,这些内容具有误导性,用户可能会被洗脑。我也不相信这种情况,因为它已经存在了。人们的适应能力很强,他们已经学会了如何应对新媒体。

第三类是担心少数科技公司生产的人工智能产生的系统性社会影响。我还是不同意这种观点。部分原因是因为我为Meta工作,我能从内部看到科技公司的动机是什么。

《巴伦周刊》:OpenAI 的技术与 Google、Meta和其他初创企业的 AI 技术相比如何?

杨立昆:OpenAI 似乎有点走在了游戏的前面,因为他们比其他人更早地开始训练那些大型系统,并根据用户反馈进行微调的过程。但是 ChatGPT 或 GPT4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。

自然语言理解并不是一项新技术。这是相同的技术,transformer(机器学习模型)的整个想法来自谷歌。Meta、谷歌和一些初创公司的很多人已经开始研究这项技术,有成百上千的科学家和工程师知道如何搭建这些东西。

你之所以没有(更早)在谷歌和 Meta 上看到类似的系统,是因为对于一家大公司来说,推出一个不完全可靠、可以发布无稽之谈的系统,会对其声誉造成更大的危险。

《巴伦周刊》:当机器能够自己学习和思考时,我们是否已经接近通用人工智能(AGI)?

杨立昆:有人声称,通过扩展这些大型语言模型系统,我们将达到人类的智力水平。我的观点是这是完全错误的。有很多事情我们不明白,比如我们还不知道如何用机器进行再生产——有些人称之为 AGI的东西。

我们不能使用像 ChatGPT 或 GPT4这样的技术来训练机器人清理桌子或者填满洗碗机,即使这对一个孩子来说是一件微不足道的任务,我们还是做不到。我们仍然没有实现L5级(完全)自动驾驶。这需要一套完全不同的技能,你无法通过阅读文本来进行学习。

《巴伦周刊》:什么时候有可能?

杨立昆:未来五年,我们将取得重大进展。但我不认为我们能达到人类的智力水平,这还需要很长时间。每次出现这种预测时,我们都低估了人类智力的复杂性。

《巴伦周刊》:谢谢你的时间,杨。

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

Leave a Reply