天价服务器成本背后,微软为何转向AI芯片?ChatGPT启示录与OpenAI的未来之争

文章主题:服务器, OpenAI, 微软, AI芯片

666AI工具大全,助力做AI时代先行者!

其中大部分开销来自于对昂贵服务器的需求。

站长之家(ChinaZ.com)4月24日 消息:根据研究公司 SemiAnalysis 的数据,ChatGPT 的巨大知名度和强大功能使其维护成本高得惊人,The Information报道称,维护OpenAI的ChatGPT等对话式人工智能引擎每天的开销高达70万美元。。

🌟【揭秘】AI成本飙升:分析师揭示服务器之谜🔍据行业资深分析师迪伦·帕特尔(Dylan Patel)深入剖析,高昂的技术开销已成为AI领域的一大挑战。他指出,”大部分成本背后的秘密在于那些高端服务器的巨额消耗”🌍。帕特尔透露,当前的成本曲线可能正面临上扬压力,原因就在于我们正参考GPT-4——OpenAI的最新力作,相较于前代的GPT-3,其运行效能显著提升,这无疑推高了整体运营成本💰。随着技术的进步和模型迭代,AI领域的基础设施升级已成为不争的事实。专家预测,未来的AI成本将继续与创新速度同步增长🌱。 若要了解更多关于AI成本结构的深度解析,敬请关注我们后续的专业分析报道,我们将持续为您揭示这个科技巨头背后的经济逻辑🔍💪

打开凤凰新闻,查看更多高清图片

🌟当然,ChatGPT的高昂运营成本并非独有现象。像它这样的对话AI引擎背后,OpenAI每日的运维费用高达数十万美元,主要源于对其庞大而精密的基础设施的持续投入。🔥服务器需求是关键环节,这方面的开支不容忽视。

这正是已向OpenAI投资数十亿美元的微软正在准备自己的专有 AI 芯片的原因。微软准备推出自有Athena芯片,有望将每颗芯片的成本降低三分之一。

“Athena”自2019年以来一直在开发中,现在可供少数微软和 OpenAI 员工使用。

在部署该芯片时,微软希望取代目前使用的 Nvidia 的GPU,转而使用更高效、运行成本更低的东西。“与 Nvidia 的产品相比,Athena 具有竞争力,可以将每个芯片的成本降低三分之一,”Patel 告诉The Information。

尽管这将标志着微软首次涉足 AI 硬件,但该公司可能并不打算全面取代 Nvidia 的 AI 芯片,因为两者各方最近同意进行为期数年的 AI 合作。

上周,OpenAI 首席执行官 Sam Altman表示,“我们正处于“巨型 AI 模型时代”的尾巴,因为像 ChatGPT 这样的大型语言模型似乎正在接近其庞大规模的收益递减点。根据OpenAI 自己的分析,OpenAI 最新的 GPT-4模型报告的参数大小超过一万亿,可能已经接近实际可扩展性的极限。

虽然更大的参数通常意味着人工智能的能力更强,但也会推高成本。

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

Leave a Reply