产品中心
电话:400-123-4657
传真:+86-123-4567
邮箱:admin@youweb.com
地址:广东省广州市天河区号
刚刚,GPT-5.4核心内幕炸裂剧透!或拥有永久记忆,极限推理狂飙_OpenAI_模型_mode
添加时间:2026-03-05 18:05:02 点击量:273
“内容为王”这句话在哪个时代都不会过时。随着消费升级,日益庞大的中国高端群体对高品质的生活方式与旅行体验的需求为高端出境旅游市场带来巨大市场机遇。现今的旅游产品也更向个性化、定制化、品质化靠拢,对内容创新提出更高的要求。内地的旅游内容市场仍有5-10倍的增长空间。最近36氪接触了一家做移动端旅游社区电商的团队——河马旅居指南。
河马旅居定位中等收入人群18-34岁的年轻群体,想通过碎片化的PGC或UGC内容培养用户粘性,由内容社区模式切入出境游市场。传统的旅游内容多是以长图文的游记形式呈现,河马旅居并不刻意强调旅游路线或整个游历过程的感受,在内容呈现上更加碎片化、个性化、移动化以及品质化,以小众或特色地点作为维度输出内容,建立内容社区,类似于旅游界的“小红书”或“什么值得买”。
河马旅居在部分海外旅游城市有一个4到5人的自媒体小团队定期生产PGC内容,每月更新一次内容,以优质的内容导流。目前河马的获客成本低至2-3元/人。
优质的内容利于培养高粘性度的用户,当累计到一定数量的优质内容生产者,达到一定的用户规模时,将由PGC内容带动UGC内容的自发产出,进而开始搭建旅游内容社区,最后完成向旅游社区电商的转型,形成交易闭环。
目前河马旅居的流量较为分散,微信公众号累计粉丝3万,MONO 5万,豆瓣 1万,C端获客主要来自微博、豆瓣,上周刚上线微信小程序。后期需考虑转化用户集中流量,现阶段团队正尝试跟移动WiFi租赁和签证业务团队资源置换,互相增加入口。
商业模式上,河马旅居打算分两步走,第一阶段,先帮助用户解决去哪里玩的问题。河马打算与当地的旅游局或航空公司合作,帮助他们做中国市场的整体营销,宣传当地旅游资源。第二阶段,解决用户怎么玩的问题。平台可通过用户的行为数据分析社区调性从而推荐相应的特色化旅游产品,例如在京都的寺院坐禅、学习茶道、参观日本酒的蒸馏厂等等。
此外,河马旅居也在尝试开拓知识付费的营收渠道。从体验、艺术、咖啡、酒吧、餐厅、酒店等六个维度切入,做成各旅游城市的PDF版官方性质PGC攻略。3月份售出800多本,每本单价15元。
河马旅居创始人余晓盼表示,河马旅居的核心竞争力还是个性化的内容表达。“传统旅游社区把内容做的太死气沉沉了。人美、景美但流水账似的内容很无趣。好的内容本身就是门槛。原创的有趣的才有生命力。”
内容+电商并不是一个新概念,如今传统OTA、头部电商平台以及媒体型电商都在加码内容,但要持续产出有价值的内容并非易事,需要足够规模的内容生产团队长时间的内容积累,而具有极强传播力的爆款内容更是可遇而不可求,营造内容社区所花费的精力也许正是其门槛所在。
河马旅居目前的管理团队为4人,内容产出团队20人。创始人余晓盼任河马主编兼运营,曾任职于私募、资管、律师事务所,为《美食侦探系列》旅行畅销书作者。团队目前正在寻求天使轮融资。
新智元报道
编辑:Aeneas
【新智元导读】GPT-5.4,马上就要来了!目前已经开启测试,一次能写6000行代码。外媒曝出它有极限推理模型,甚至还传闻拥有永久记忆。
如果你觉得最近AI圈有点安静,太不刺激,那可能只是暴风雨前的宁静。
据多方消息,GPT-5.4,已经箭在弦上了!
LMArena上,已经出现了GPT-5.4的身影。
就在刚刚,外媒The Information,剧透了不少关于GPT-5.4的核心内幕。
消息足够炸裂:它有更长的上下文,更极限的推理模型,甚至,可能出现永久记忆!
如果如传闻所言,这些都是真的,那这一代模型很可能不是简单的升级,而是一次能力形态的巨大跃迁。
GPT-5.4提前测试,代码炸裂曝光
最近,GPT-5.4简直在到处泄露。
从Codex错误日志、GitHub PR,到员工误发截图,短短几天时间,GPT-5.4已经被「曝光」了至少三次。
而且,这还都是OpenAI自己意外泄露出来的。
最早,是开发者Corey Noles在使用OpenAI Codex时触发了一次网络安全限制,系统返回的错误日志里出现了一串非常长的模型名称:
这串字符最关键的,就是前面三位——gpt-5.4。
总之,这串字符串可以认为是OpenAI的内部部署ID,翻译过来就是「一个真实部署、正在测试中的GPT-5.4实验版本。」
然后,在OpenAI官方Codex仓库里,出现了两个Pull Request:
一个PR写着:
另一个PR更直接:
看起来,OpenAI给GPT-5.4加了一个「Fast Mode」开关。几小时后,两个PR就被force push删除了。
接下来,更戏剧性的一幕出现:OpenAI Codex团队的一名员工Tibo在社交平台上发布了一张截图。图中,模型选择器里赫然写着GPT-5.4。
没多久,这条帖子就被删掉了。
随后,又有开发者报告,在Codex错误信息中看到类似的模型字符串。
这更加说明,GPT-5.4已经部署在内部服务器,正在进行真实的A/B测试了。
一次提示,生成6000行代码?
而且,目前已经有开发者报告了一个明显变化——速度!
一些测试者表示,模型的推理明显更快,代码生成更长,甚至一次提示可生成 6000+行代码!
这在以前几乎不可能。
一些人还发现一个新特征——Fast Mode。
这可能意味着,OpenAI正在尝试新的推理架构,例如多级latency pipeline,或不同速度档位模型。
另外,新模型界面特征也被发现了:部分用户表示,如果在推理摘要(Chain-of-Thought summary)旁边看到点赞或点踩按钮,可能意味着账户已经被分配到GPT-5.4的测试模型。
极限推理模式,性能拉爆
The Information的爆料,也跟以上信息完全对上了。
这次爆料中,最亮的就是这个极限推理模式——Extreme Reasoning Mode了。
传统模型的思考时间都很有限,但这个极限推理模式,直接让模型的性能拉到爆,在遇到困难问题时,能花费更多时间,调用更多计算***,进行更深层的推理。
有趣的是,根据调查,其实很多普通ChatGPT用户对于推理功能并不太热衷。
而且从商业应用的角度来说,这个功能也不很适用,因为企业要的是AI尽快给一个答案。
因此,OpenAI依然如此重视推理能力,倒是显得动机纯粹了不少。
不过,这个消息,对于科研领域和部分企业客户,倒是重大利好。
显然,在科学研究领域,许多用户很愿意让一个模型在有价值的研究问题上运行数小时,甚至数天。
同时,部分企业也会需要用到GPT-5.4更强的推理能力和长周期任务表现,来构建能够把更复杂业务流程自动化的AI智能体。
根据各方爆料,这个极限推理模式将会很疯狂,这也就把大家的期待拉满了。
上下文直接翻倍,达到1M tokens
对于GPT-5.4来说,这是另一个十分硬核的升级——上下文窗口从40万tokens,升到了一百万tokens。
这样一来,GPT-5.4的上下文窗口将超过当前GPT-5.2的两倍。(当然,也有一些OpenAI模型支持100万token,比如GPT-4.1,但5.2并不支持)
这下,GPT-5.4可以直接塞进去几十万字的文档,分析一整本书,或者长长的代码库和数据了。
这也让终于让这个模型在长上下文能力上,重新追平了谷歌的Gemini和Anthropic的Claude。
毕竟,其他家早就达到了100万token的上下文窗口,现在GPT-5.4终于补齐了这个短板。
而坊间爆料比The Information更夸张:上下文达到了2百万tokens!
GPT-5.4,开始擅长「长任务」
爆料中的另外一个点,就是GPT-5.4在需要持续数小时的任务上表现也更好。
也就是说,它在多个步骤中更能记住用户请求的细节,以及自己被允许或不允许执行的内容,同时也更不容易出错。
显然,这对于OpenAI的Codex编程工具会极有帮助,因为Codex正是使用AI来自动化复杂的长时间任务。
另外,这种长时间任务能力,对于AI Agent来说也非常关键。
Agent可以自己读取需求、查资料、写代码、修bug,并不是每一步都需要人重新提示了。
GPT-5.4,可能拥有永久记忆?
接下来,最疯狂的传闻来了——GPT 5.4,可能拥有永久记忆!
一位工程师在X上给出这个爆料后,立刻炸翻了AI社区,硅谷投资大佬、YC创始人Garry Tan也火速赶来转发。
在这篇帖子中,爆料人是这样介绍GPT-5.4的「持久状态」的。
Jeff Dean在参加latentspacepod播客时就提到了这一点,可以看出,如今各大AI实验室都在思考这个方向。
有人猜测,OpenAI内部很可能已经发现了,如何大规模地有效结合状态空间模型(SSM)和Transformer。
其中的关键,就是SSM的设计本身就是在每一步计算中持续传递隐藏状态(hidden state),而且它的计算复杂度是线性增长,不像Transformer那样随着上下文长度呈二次增长。
这也就和某个传闻相呼应了:据说,GPT-5.4可能拥有200万token的上下文窗口。
所谓持久化状态,本质上意味着AI模型会从电影 《记忆碎片》Guy Pearce的角色一夜之间变成《雨人》里Dustin Hoffman的角色,前者只能依赖短期记忆,而后者拥有稳定而持久的记忆。
换句话说,这将赋予AI模型真正的长期记忆能力。
如果真的能实现,这将会是一次非常巨大的技术突破!
压力山大,OpenAI被迫「月更」
显然,GPT-5之后,OpenAI做了一个明显改变,模型开始高频月更。
今年以来,我们已经迎来了GPT-5.1,GPT-5.2,马上5.4也要来了,更新节奏甚至接近了一个月一次。
显然,OpenAI也是被对手逼到墙角了。
目前,ChatGPT的周活跃用户已达9.1亿,虽然数字看似很惊人,但依然没能达到OpenAI 10亿WAU(活跃用户)的目标。
而谷歌和Anthropic这些竞争对手都在步步紧逼,在长上下文、Agent、推理能力上都在持续加码。
如果GPT-5.4真的拥有1百万长上下文、极限推理、持久状态,那AI形态很可能会变成持续工作的智能体。
而且,如果GPT-5.4真的能开始「记住事情」,这很可能就是大模型历史上的一个关键节点。
奇点已至,我们正在狂飙加速。你,准备好了吗?
参考资料:
***s://x***/marmaduke091/status/2028604854143176958
***s://***.theneurondaily***/p/openai-leaked-gpt-5-4-three-times
***s://x***/daniel_mac8/status/2028849150368862416返回搜狐,查看更多
下一篇:程序员需要用到内置kvm功能的显示器吗?或者是外置的kvm切换器吗?
返回
