OpenAI热潮下,萨姆·阿尔特曼的AI愿景是否危险?全球抗议者要求停止AGI开发

文章主题:ChatGPT, OpenAI, AI监管

666AI工具大全,助力做AI时代先行者!

抗议者呼吁OpenAI和像它这样的公司需要停止开发先进的AI系统。
打开凤凰新闻,查看更多高清图片

🚀ChatGPT旋风席卷,OpenAI掌舵人🌟萨姆·阿尔特曼变身科技界焦点,他正以全球巡讲的形式,深入浅出地探讨AI的革新与合规之道。然而,一场关于AI未来潜在风险的声音也开始悄然兴起,引发了部分人士对其愿景的担忧。🌍

阿尔特曼在伦敦大学学院演讲

🌟周三的伦敦大学学院,一场科技盛宴吸引了无数目光!当阿尔特曼的演讲热度飙升时,985席位的地下礼堂前排成了一道壮观的长龙——从台阶延伸至街头,甚至穿越了城市街区。人们聚精会神地讨论着OpenAI和ChatGPT的魅力,阳光下的人群仿佛在谈论未来的科技传奇。📚🔥 #科技讲座 #ChatGPT热浪 #伦敦大学学院

在礼堂内,阿尔特曼受到了摇滚明星般的接待。演讲结束后,他被仰慕者团团围住,让他摆出自拍的姿势,并就创业公司建造“护城河”的最佳方式征求意见。“这正常吗?”一位难以置信的记者站在拥挤的人群里向一位OpenAI新闻人处理人员问道,回答是:“我们这次旅行所到之处几乎都是这样。”

阿尔特曼备受追捧

在伦敦,阿尔特曼重复着熟悉的观点,他指出人们担心AI的影响是正确的,但在他看来,AI的潜在好处要大得多。他再次对潜在监管表示欢迎,但仅限于正确的监管。他说,他希望看到“介于传统欧洲方法和传统美国方法之间的东西”。也就是说,有一些监管,但不要太多。他强调,太多的规定可能会损害小公司和开源运动。

🌟他深思熟虑地提到,普遍观点认为,一旦突破性的技术诞生,构建出一款超越常规认知的超级智慧体(不论其定义为何),全球秩序的调整将是必然。他坚持主张,我们必须以对待核武器的态度来严肃对待这一潜在威胁——因为这类大规模系统具备产生超智能的巨大潜力。🌟

遭到抗议

但是与此同时,礼堂外,六个举着标语的年轻人呼吁OpenAI放弃开发通用人工智能(AGI,达到人类大脑同等智慧)的努力。一名抗议者拿着扩音器指责阿尔特曼有一种弥赛亚情结,为了自我而冒着毁灭人类的风险。弥赛亚情结也叫救世主情结,通过拯救他人使自己获救,通过扮演一种救世主的角色来体会到自己的价值

抗议者要求停止开发AGI

抗议者呼吁,OpenAI和像它这样的公司需要停止开发先进的AI系统,以免它们有机会伤害人类。

🌟【警惕潜在风险】💡一位热衷于太阳能地质工程的牛津学者,吉迪恩·富特曼(Gideon Futerman),以诚挚的声音表达着担忧——或许我们正面临一场骗局。虽然他祈祷事情并非如此,但他坚信任何有关现有危害系统的过度宣传都值得警惕。无论如何,我们必须行动起来防止可能发生的错误。如果他的预测成真,他所构想的通用人工智能系统将带来前所未有的危险级别。那么,真相何在?让我们共同探索并确保安全防范。🌍

OpenAI的批评者认为,这种关于监管超级智能(也被称为AGI)的言论是花言巧语,是阿尔特曼采用的一种方法,旨在转移人们对AI系统当前危害的注意力,让立法者和公众分心于科幻场景。

🌟【AI未来责任不应被忽视】🌟Sarah Myers West, AI Now研究所的掌舵人,上周犀利地指出,像Altmann这样的前瞻性思考者往往将责任的焦点置于未来技术的革新中。然而,我们当前更应关注AI系统已带来的现实挑战,如种族偏见明显的面部识别误判,以及信息传播中的误导现象。这些问题不容忽视,急需当下对话与解决。🌍💻

要求OpenAI停止开发AGI的传单

🌟阿利斯泰尔·斯图尔特,伦敦大学学院政经伦理硕士,对AI议题持有独特见解。他认为,尽管阿尔特曼的观点未能打动抗议者,暂停或审视先进系统(👩‍💻🤖)的必要性却日益凸显。他赞同那些科技巨头和知名人士如马斯克所表达的担忧,他们呼吁对AI进行冷静而深思的评估(📝签名信行动)。斯图尔特强调,面对AI带来的高度不确定性(📊),我们不能盲目乐观,而是需要采取行动以确保未来的安全与平衡(🌈)。

斯图尔特说,阿尔特曼在演讲完后出来和抗议者交谈,但这没能改变他的想法。他说,他们聊了大约一分钟,讨论了OpenAI的安全方法,包括同时开发AI系统及其护栏的能力。

“我聊完后比以前更担心了,”斯图尔特说,“我不知道他掌握了什么信息,让他认为这行得通。”凤凰网科技《AI前哨》对此将持续关注。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply