财经

openai 再次给大模型 “泡沫” 续命-九游会官方网站登录

openai今年最重要的产品o1模型如期发布。ai最大获利者英伟达的股价两天累计涨了10%。

消耗更多算力答题的o1,看到问题会先“思考”数十秒、甚至更久,再给出回复。openai称,它回答奥赛数学题或完成编程任务时,表现远超市场上已有的大模型。

但 openai ceo 山姆·阿尔特曼(sam altman)的好心情很快就被打断。在他宣布 o1 全量上线的推文下,排在第一的评论是:“到底什么时候能用上新的语音功能??” 他立刻反击:“能不能先花几个星期感谢感谢这魔法般的智能,然后再要新玩具?”

这位用户追着阿尔特曼要的不是什么新玩具,是openai在今年5月就允诺即将到来的gpt-4o端到端语音功能。在当时的现场演示中,这个新的ai声音自然、反应极快,还知道什么时候插话,让旁人难辨真假。按官方时间表,上千万chatgpt付费用户本将在几周内用上这功能,但一直被跳票到现在。

过去一年里,openai的产品都是类似的“期货”:gpt-4已上线一年多,openai的下一代模型gpt-5依然没有发布迹象。openai今年初发布的视频模型sora也没有大规模开放,到现在都只有少数被他们挑选的行业人士实际用过。

行业第一的跳票一次次磨损着资本市场对ai大模型的耐心。一些中国科技巨头和大模型公司今年年中暂缓训练基础模型,把更多资源投到应用开发,或把gpu算力租给外部客户。他们担心技术没多少进步空间,开始减少投入、争取回报。

本周之前,英伟达市值从6月的高点下跌超20%,微软市值也缩水了13%,各自蒸发了几千亿美元。微软cfo称,他们投在大模型领域的数百亿美元,得等15年或更久才能回本。

红杉的研究显示,去年ai领域的投入比收入多了1200多亿美元,今年可能会扩大到5000亿美元。但除了英伟达,没有几个公司见到大比例的收入增长。越来越多业内人开始讨论,如果大模型的能力就到此为止,ai泡沫会不会又一次破灭?

“泡沫”并不一定是坏事。新技术改变世界之前,都会出现愿景远超现实的阶段。区别在于愿景能不能兑现,什么时候兑现。如果长期不能兑现,就是泡沫破灭、公司破产,严重的泡沫破灭甚至可以击垮一个领域甚至多个经济体。如果愿景兑现了,一切不过是技术进步的注脚。

openai发布的o1,至少会暂时扭转大模型已经没有进步空间的犹疑,为大模型“泡沫”续命。

任何新技术都需要不断进步,才有可能改变这个世界。o1的独特之处不只是编程、数学、物理等领域的性能大幅提升,也在于给一众openai追随者和他们背后的投资者找到了前进的路径:以往算力更多用在“记忆知识”——用大量数据训练模型,o1则分配了更多算力在“答题时的思考”,即推理过程,逻辑能力大幅提升。

在此之前,大模型训练已经陷入原有 scaling laws 的瓶颈,模型参数规模扩大后,性能提升逐渐放缓。

专门针对数学、编程、科学问题优化的o1-mini还展现出了不小的应用潜力,它既可以直接帮科学家和开发者提升工作效率,也指示了在其它高价值垂直领域开发性能、安全性都更好的模型的方法。

像往常的数次发布一样,openai精心挑选了释放o1的时机。据媒体报道,o1发布前,openai正在以1500亿美元估值寻求70亿美元的新融资,潜在投资方包括苹果、英伟达、微软、阿联酋投资基金等。现在,这场资源投入竞赛又多了一个持续下去的理由。

从大语言模型到“推理模型”,o1理强文弱

此次openai发布了两个供用户使用的模型:o1-preview和o1-mini,并预告更多o1系列模型正在路上。

之所以将该系列命名为 o1,而非沿用 gpt,是因为二者的训练方式有明显变化。在 openai 介绍 o1 的博客文章里,多次称其为推理模型(reasoning model),而非此前称呼 gpt 时常用的大语言模型(large language model)。

gpt等传统大语言模型的整体训练逻辑是预训练(pre-training)加精调(fine-tuning):先在预训练阶段用海量数据教大模型学会预测下一个词,然后在精调阶段让大模型学习特定领域的知识,让人类写回答教大模型什么是人想要的答案,机器根据反馈来改进。

o1 的新关键词是强化学习(reinforcement learning)和思维链(chain of thought,cot)。

openai如此描述这个过程:“通过强化学习,o1学会如何磨练自己的思维链,并完善它所使用的策略。它学会了识别和纠正自己的错误;将复杂步骤分解为更简单的步骤;在当前方法不起作用时尝试不同的方法。这极大地提高了模型的推理能力。”

2016年击败围棋世界冠军的alphago和后续模型alphazero就使用了强化学习,让模型自我对弈(self-play),学习在不同状态(棋局)下,用什么策略可以提高胜率。模型还能在不断尝试中生成数据,用来训练模型。

openai o1 使用了类似的方法:给大模型提供一步步解题的数据,让模型学着自我纠偏,学习每个步骤应该怎么回答问题能得到最优答案。

“ai模型的能力还是来自数据,若数据里原本没有或不充分的东西,模型是学不会的,o1相当于实现了一个合成专业数据的办法。有了这些专业数据,o1就能学到专业能力了。”硅基流动创始人袁进辉说。

o1回答问题时也会把问题拆解成一系列小问题,逐步推理回答,这就是“思维链”。根据openai展示,o1回答问题的过程如下(用户使用的版本里,openai隐藏了思维链内容):

问题(原文为英语):

编写一个bash脚本,接收一个矩阵(用字符串表示,格式为'[1,2],[3,4],[5,6]'),并以相同的格式打印出该矩阵的转置。

o1-preview的解题思路(思维链):

用户请求编写一个bash脚本,该脚本可以接收表示矩阵的字符串,例如'[1,2],[3,4],[5,6]',并以相同的格式输出其转置。

我们首先来理解输入和输出的格式。

输入:'[1,2],[3,4],[5,6]',它对应的矩阵是:

因此,输入是一系列由方括号包裹并用逗号分隔的行。

该矩阵的转置为:

135

246

因此,要求的输出为'[1,3,5],[2,4,6]'。

总体任务:

编写一个bash脚本,该脚本接收一个参数(表示矩阵的字符串),并以相同的格式输出其转置。

好的,现在我们来考虑如何在bash中解析输入字符串,构建矩阵(可能使用数组),进行转置,然后输出转置后的矩阵,保持相同的格式。

约束条件:

-由于这是bash,我们必须小心处理字符串解析。

-脚本应接受输入字符串作为参数。

-解析输入字符串以提取矩阵元素。

-将矩阵构建为一个数组的数组。

-对矩阵进行转置。

-以相同格式输出转置后的矩阵。

实现步骤:

1.将输入字符串作为参数捕获。

2.移除所有空格(如果有的话)。

3.解析输入字符串,将数字提取到数组中。

-由于输入格式为'[1,2],[3,4],[5,6]',我们可以:

--如果需要,移除外部括号。

--通过'],'分割字符串以获取每一行。

--对每一行,移除'['和']',然后通过','分割获取元素。

4.在bash中构建二维数组(数组的数组)。

-由于bash数组是一维的,我们需要模拟二维数组。

5.对矩阵进行转置。

-进行转置时,我们需要将行与列交换。

6.以所需格式输出转置后的矩阵。

-重新构造输出字符串,格式为'[1,3,5],[2,4,6]'。

现在,逐步开始编写代码。

潜在问题:

-bash本身没有原生的多维数组,因此我们需要进行模拟。

-我们需要处理可能是多位数的数字。

接下来,我们可以一步步开始编写这个bash脚本的框架。

现在让我们使用示例输入'[1,2],[3,4],[5,6]'测试这个脚本。

让我试着模拟下,会发生什么。

我会将其写下来,作为一个答案。

不论是强化学习还是思维链,都不是openai最先提出的技术方向。

在 o1 上线前,google deepmind 就在 7 月发布了用类似方法训练的 alphageometry 模型更新版,能在国际奥数竞赛 imo 中拿银牌。

但openai再一次证明了他们可以在行业基础上,率先拿出效果更惊人的模型。据openai介绍,他们专为国际信息学奥赛训练的o1-ioi模型能拿到金牌。

凭借新的训练和推理方法,openai o1-preview 解决高难度数学题、处理编程任务方面大幅超过 gpt-4o。比如在竞赛数学数据集 aime 2024 上,o1-preview 得分是 gpt-4o 的 4 倍多;在编程竞赛数据集 codeforces 上,差距变成 5.6 倍。

openai 再次给大模型 “泡沫” 续命

在数学竞赛、编程竞赛、科学问答数据集测试中,o1-preview、o1大幅超过gpt-4o。

openai 称,目前限量上线的 openai o1-preview 和 openai o1-mini 只是早期版本,他们的下一个模型,在物理、化学、生物等有挑战的测试题中,表现与博士生类似,而此前的模型大多是本科生或硕士生水平。

把技术变成现实,openai提到的贡献者有212人,与gpt-4o的文本部分的贡献者相当(234人)。但训练o1需要的数据种类变多了。openai提到,o1预训练用到的数据来自公开数据集、九游会官方网站登录的合作伙伴的专有数据和内部开发的自定义数据集,而gpt-4o掌握文本能力时,只用了前两种数据。

偏向“推理模型”的o1系列并没有全面超过gpt-4o,语言能力是它的相对弱项。

那些gpt-4o解决不了的问题,o1-preview也会出现,比如它同样会“胡说八道”,认为9.11比9.2更大。

openai 再次给大模型 “泡沫” 续命

思维链带来的更长的响应时间(思考)可能是o1系列实际使用中的短板。在被要求“列出五个第三个字母是a的国家的名字”时,gpt-4o只用3秒,而o1-mini花了9秒,o1-preview花了32秒,是gpt-4o的十倍。对于简单问题基本不可用。

o1-preview和mini暂时也不像gpt-4o那样具备浏览网页、获取信息,和处理上传的文件、图片等功能。目前看起来能最快能用o1提升生产力的是软件开发者,但openai也限制了他们调用api的方式:每分钟只能调用20次,不包括函数调用、流式传输、系统消息支持等功能。

从训练scaling到推理scaling,算力竞赛仍将继续

在多位大模型研究者看来,o1最重要的变化是展现出了一种大幅提升大模型能力的新路径。

原来的 scaling laws 意味着,用更多数据和算力训练出参数更大的模型,性能就会更好。

而如下图, o1 展现出,让模型花更多时间、更多算力回答问题(test-time compute),性能也会持续提升。英伟达资深 ai 科学家 jim fan 在社交媒体上说,这可能是自 2022 年 deepmind 提出 chinchill scaling laws(原版 scaling laws 上的一个优化)以来,大模型研究中最重要的一张图。

openai 再次给大模型 “泡沫” 续命

jim fan 还提出了大模型未来演进的一种可能:未来的模型可能将推理与知识分离,有小的 “推理核心”,同时也用大量参数来记忆事实(知识),以便在琐事问答等测试中表现出色。

openai也在介绍o1的文章中特意提到,他们会继续开发gpt系列的模型。这可能预示,openai会把o1中使用的方法引入到下一代gpt模型中。

不管是o1成为新的主流方法,还是o1与gpt系列结合,演化出下一代大模型,算力需求应该都会进一步提升。

openai未公开o1系列的推理成本,但从o1模型回答问题的时长和openai对o1的使用限制可以推测,o1相比gpt系列需要庞大得多的推理算力资源。

每月花 20 美元的 chatgpt plus 付费用户,目前每周只能用 30 次 o1-preview 和 50 次 o1-mini。而目前 gpt-4o 的限制是每周 4480 次(每 3 小时 80 次),是 o1-mini 的 90 倍,o1-preview 的 150 倍。

o1-preview回答问题的时间从gpt系列模型的秒级增加到了数十秒、甚至更久。它回答问题时处理的文本量也大幅提升。以文中展示“思维链”过程时列举的编程问题为例,o1解答时,加上思维链,处理的字符有6632个,是gpt-4o的4.2倍。更长的计算时间和更长的输出都意味着更高的算力成本。

o1对ai前景和算力消费的刺激很快反映在资本市场。自本周初有媒体报道openai即将发布新模型后,英伟达股价累计回升10%,微软也一起上涨。

对于那些不确定技术演进方向或者一度放缓研究基础模型的公司,现在又有新工作可以做,有新方向可以卷了。o1的发布大概率意味着,在“推理模型”上,竞争差距再一次拉开,一轮加速追赶和投入即将发生。

“是时候正经干点正事了,要不真的就不在游戏里了。”一位中国大模型研究者说。

(责任编辑:zx0600)

推荐阅读

大模型的to b围城

“你们带技术拢共一百来号人的工资有八九千万,加上水电福利上亿,但你们一年只给我赚四五千万,你说我还有没有必要养你们?”

光子星球 2024-09-03 17:09:59

百度不相信大模型泡沫

在未来的两到三年,人工智能领域的竞争会非常激烈。

钛媒体 2024-08-23 17:50:06

被医疗把脉的大模型

6月,一家头部制药公司迎来了几位客人,他们手握基于某大厂模型能力打造的“半成品”系统,希望以该厂商提供的用户数据做敲门砖,达成初步合作。

光子星球 2024-07-09 16:21:48

小米申请注册两枚“小爱大模型”商标

近日,小米申请注册两枚“小爱大模型”商标,国际分类为科学仪器、教育娱乐,当前商标状态为等待实质审查。

中华网财经 2024-04-18 11:53:01

大模型降价,一场没有赢家的战争

6.18卷价格的风吹到了大模型圈。

光子星球 2024-05-23 10:37:18

讯飞大模型,还在投入期

今年,国内大模型进入到了商业化提速的新阶段。

光子星球 2024-08-28 14:13:30

大模型又想干掉一个行业

ai在创造还是毁掉音乐?

市界 2024-05-22 14:26:20

ai大模型行业的618,走上价格战的老路

何时杀鸡,何时“取卵”,都不再自己说了算。

陆玖商业评论 2024-05-29 10:27:22

通用大模型和垂直大模型的产品融合成行业趋势,“什么值得买”获讯飞星火推荐

通用大模型和垂直大模型的产品融合成行业趋势,“什么值得买”智能体成讯飞星火大模型官方推荐。

中华网财经 2024-07-02 17:00:32

大模型的 5 月:热闹的 30 天和鸿沟边缘

技术进化放缓引起的连锁反应。

晚点latepost 2024-05-30 10:24:18

降价!免费!圈地!大模型价格战卷到飞起

不止卷价格,更要卷技术。

锌财经 2024-05-28 11:42:32

易车、小米等19家企业大模型备案信息公示

5月15日,北京市新增19款已完成备案的生成式人工智能服务名单。

和讯 2024-05-17 15:30:45

字节跳动,阿里巴巴、百度同一天跟进大模型价格战

国内ai大模型行业如同竞争激烈的电商一样,打起了“全网最低价”战争。

蓝鲸新闻 2024-05-22 14:49:29

openai、百度、百川智能……大模型正在医疗领域火力全开

以openai为首的大模型企业们,正在全力开拓医疗市场。

动脉网 2024-08-09 11:07:29

最早的一批医疗大模型,已经走到了商业化时期

纵观整个医疗领域,医信行业汇聚了海量的数据与丰富的提效需求。

动脉网 2024-04-01 14:40:43

大模型会自己“盗图”?这些坑openai已经踩过了

ai文生图,是原创还是盗用?

锌财经 2024-06-19 14:48:15

今年全国“两会”,全国人大代表、科大讯飞董事长刘庆峰带来制定国家《通用人工智能发展规划》建议,系统性加快推动我国通用人工智能发展。

中华网财经 2024-03-05 17:54:59

抓住下一个诞生超级应用的风口。

华商韬略 2024-07-05 14:46:45

九游会官方网站登录的友情链接

融媒体

中华网财经公众号
中华网财经公众号

九游会官方网站登录的联系方式

中华网新媒体 财经频道
互动/投稿邮箱:

网上不良信息举报电话:010-56177181
财经频道联系电话:(010)56176102
网站地图