项目施工装饰工程企业网站模板

咨询热线:

400-123-4657

产品中心

项目施工装饰工程企业网站模板
项目施工装饰工程企业网站模板
电话:400-123-4657
传真:+86-123-4567
邮箱:admin@youweb.com
地址:广东省广州市天河区号
公司动态

>> 当前位置: 首页 > 新闻动态 > 公司动态

笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?_Rakuten_Apache_config

添加时间:2026-03-18 16:20:02 点击量:273

“内容为王”这句话在哪个时代都不会过时。随着消费升级,日益庞大的中国高端群体对高品质的生活方式与旅行体验的需求为高端出境旅游市场带来巨大市场机遇。现今的旅游产品也更向个性化、定制化、品质化靠拢,对内容创新提出更高的要求。内地的旅游内容市场仍有5-10倍的增长空间。最近36氪接触了一家做移动端旅游社区电商的团队——河马旅居指南。

河马旅居定位中等收入人群18-34岁的年轻群体,想通过碎片化的PGC或UGC内容培养用户粘性,由内容社区模式切入出境游市场。传统的旅游内容多是以长图文的游记形式呈现,河马旅居并不刻意强调旅游路线或整个游历过程的感受,在内容呈现上更加碎片化、个性化、移动化以及品质化,以小众或特色地点作为维度输出内容,建立内容社区,类似于旅游界的“小红书”或“什么值得买”。

河马旅居在部分海外旅游城市有一个4到5人的自媒体小团队定期生产PGC内容,每月更新一次内容,以优质的内容导流。目前河马的获客成本低至2-3元/人。

优质的内容利于培养高粘性度的用户,当累计到一定数量的优质内容生产者,达到一定的用户规模时,将由PGC内容带动UGC内容的自发产出,进而开始搭建旅游内容社区,最后完成向旅游社区电商的转型,形成交易闭环。

目前河马旅居的流量较为分散,微信公众号累计粉丝3万,MONO 5万,豆瓣 1万,C端获客主要来自微博、豆瓣,上周刚上线微信小程序。后期需考虑转化用户集中流量,现阶段团队正尝试跟移动WiFi租赁和签证业务团队资源置换,互相增加入口。

商业模式上,河马旅居打算分两步走,第一阶段,先帮助用户解决去哪里玩的问题。河马打算与当地的旅游局或航空公司合作,帮助他们做中国市场的整体营销,宣传当地旅游资源。第二阶段,解决用户怎么玩的问题。平台可通过用户的行为数据分析社区调性从而推荐相应的特色化旅游产品,例如在京都的寺院坐禅、学习茶道、参观日本酒的蒸馏厂等等。

此外,河马旅居也在尝试开拓知识付费的营收渠道。从体验、艺术、咖啡、酒吧、餐厅、酒店等六个维度切入,做成各旅游城市的PDF版官方性质PGC攻略。3月份售出800多本,每本单价15元。

河马旅居创始人余晓盼表示,河马旅居的核心竞争力还是个性化的内容表达。“传统旅游社区把内容做的太死气沉沉了。人美、景美但流水账似的内容很无趣。好的内容本身就是门槛。原创的有趣的才有生命力。”

内容+电商并不是一个新概念,如今传统OTA、头部电商平台以及媒体型电商都在加码内容,但要持续产出有价值的内容并非易事,需要足够规模的内容生产团队长时间的内容积累,而具有极强传播力的爆款内容更是可遇而不可求,营造内容社区所花费的精力也许正是其门槛所在。

河马旅居目前的管理团队为4人,内容产出团队20人。创始人余晓盼任河马主编兼运营,曾任职于私募、资管、律师事务所,为《美食侦探系列》旅行畅销书作者。团队目前正在寻求天使轮融资。


文 | 字母AI

文 | 字母AI

好家伙……我真的是直接好家伙!

3月17日,楽天(乐天)集团正式发布了Rakuten AI 3.0模型,号称是“日本国内最大规模的高性能AI模型”。官方宣传的参数量为约7000亿,并且日语特化,Apache 2.0开源许可,还拿了日本经产省和NEDO的GENIAC项目补助。

然而就是这样一个日本国民级的AI模型,不到12小时,爆出惊天大雷。

当天下午,有人打开了Rakuten AI 3.0在Hugging Face上的config.json。

第一行配置,architectures(架构)字段,赫然写着一个在中国家喻户晓的模型:DeepseekV3ForCausalLM.

而model_type字段为deepseek_v3。

也就是说,这个日本“国内最大规模的高性能AI模型”,正是DeepSeek V3。

展开全文

01

事情的发现过程没有任何技术门槛。

Rakuten AI 3.0发布后,模型权重按惯例上传到了Hugging Face的楽天官方仓库。

任何人点进去,切到“Files and versions”标签页,打开config.json就能看到。

这个config.json是每个大模型都有的配置文件,记录着模型的架构信息。

architectures字段写的“DeepseekV3ForCausalLM”,意思是这个模型使用的是DeepSeek V3的因果语言模型架构。

不是“参考”,不是“借鉴”,是直接声明了模型类别。

往下看,hidden_size是7168,intermediate_size是18432,num_hidden_layers是61,n_routed_experts是256,vocab_size是129280。

这些数字和DeepSeek V3的原版配置一模一样。

说实话,真的是演都不演了。而且现在DeepSeek已经更新到V3.2了,V3幻觉太高,其实不怎么好用的。

难怪楽天的Rakuten AI 3.0号称“参数量约7000亿”,因为DeepSeek V3的参数量就是6810亿。

Hugging Face的模型页面上,标签栏里甚至直接挂着“deepseek_v3”的标签。这不是网友后加的,是模型上传时系统根据config自动生成的。

楽天自己的说法是基于开源社区最优秀的模型开发。

这句话写在官方新闻稿里,还写在Hugging Face的模型卡片里,也写在楽天集团的PR Times新闻通稿里。从技术角度讲,这句话没有说谎。

改了个名字确实也算是开发。

DeepSeek V3是开源模型,许可证也允许这么做。楽天在此基础上用自己的日语双语数据做了微调和优化,这个流程在业界很常见。

但问题在于,楽天在所有对外宣传中,从未提及“DeepSeek”这三个字。

新闻稿里没有,模型卡片的描述里没有,接受媒体***访时也没有。

所以当有人把config.json的截图贴到 X(原Twitter)上时,评论区的反应可想而知。

02

最先传播开来的是一张截图:Hugging Face上Rakuten AI 3.0的config.json 页面,architectures字段里的“DeepseekV3ForCausalLM”被蓝框高亮圈出。

截图下面,有人只写了两个词加一个问号:“deepseek V3?”

这条帖子被迅速转发到Impress Watch的报道推文下面。

Impress Watch是最早报道 Rakuten AI 3.0 的日本科技媒体之一,它的推文本来是一条普通的新闻转发,评论区却变成了另一番景象。

一个叫Ryu的用户写道:“日本终于到了用中国AI冒充日本产AI的时代了吗?”

底下的日语评论普遍都是骂街的,中文评论都是看乐子的,在这里我也就不放出来了,大家自行想象一下那个场景就好了。

诚然,严格来说,楽天没有违反任何规则。DeepSeek V3的开源许可允许商业使用和二次开发,在开源模型基础上做微调也是行业通行做法。

可是这事并没有那么体面。

2025年DeepSeek爆火的时候,日本媒体给它起了个名字,叫“AI界的黑船***”。

黑船是 1853 年美国海军准将佩里率舰队强行叩开日本国门的历史***,在日语里专门用来形容外来力量对日本造成的巨大冲击。

把一个中国的AI产品比作黑船,这个措辞本身就说明了很多。

日本***的反应很快。2025年2月初,日本数字大臣平将明公开表态,称在安全疑虑消除之前,日本公务员应避免使用DeepSeek,或者在使用时格外谨慎。

他特别提到了个人信息保护的问题。随后,日本***向各省厅发出警告,要求不要在***设备上使用DeepSeek。

企业层面的动作更直接。

丰田汽车明确禁止员工使用DeepSeek,官方理由是“出于信息安全的考虑”。三菱重工同样实施禁令,即便员工提交内部申请也不会被批准。

软银则限制了公司内部对 DeepSeek 的访问,并禁止员工在工作设备上下载和使用。

可是现在……你怎么让我忍得住不笑啊!返回搜狐,查看更多

笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?_Rakuten_Apache_config

上一篇: 为何说香港《稳定币条例》将改写未来世界比特币等数字货币市场格局,港币和人民币的国际化会受益于此么?

下一篇:PHP现在真的已经过时了吗?

返回