项目施工装饰工程企业网站模板

咨询热线:

400-123-4657

产品中心

项目施工装饰工程企业网站模板
项目施工装饰工程企业网站模板
电话:400-123-4657
传真:+86-123-4567
邮箱:admin@youweb.com
地址:广东省广州市天河区号
公司动态

>> 当前位置: 首页 > 新闻动态 > 公司动态

R1一周年,DeepSeek Model 1悄然现身_模型_架构_Sparse

添加时间:2026-01-21 11:45:02 点击量:273

“内容为王”这句话在哪个时代都不会过时。随着消费升级,日益庞大的中国高端群体对高品质的生活方式与旅行体验的需求为高端出境旅游市场带来巨大市场机遇。现今的旅游产品也更向个性化、定制化、品质化靠拢,对内容创新提出更高的要求。内地的旅游内容市场仍有5-10倍的增长空间。最近36氪接触了一家做移动端旅游社区电商的团队——河马旅居指南。

河马旅居定位中等收入人群18-34岁的年轻群体,想通过碎片化的PGC或UGC内容培养用户粘性,由内容社区模式切入出境游市场。传统的旅游内容多是以长图文的游记形式呈现,河马旅居并不刻意强调旅游路线或整个游历过程的感受,在内容呈现上更加碎片化、个性化、移动化以及品质化,以小众或特色地点作为维度输出内容,建立内容社区,类似于旅游界的“小红书”或“什么值得买”。

河马旅居在部分海外旅游城市有一个4到5人的自媒体小团队定期生产PGC内容,每月更新一次内容,以优质的内容导流。目前河马的获客成本低至2-3元/人。

优质的内容利于培养高粘性度的用户,当累计到一定数量的优质内容生产者,达到一定的用户规模时,将由PGC内容带动UGC内容的自发产出,进而开始搭建旅游内容社区,最后完成向旅游社区电商的转型,形成交易闭环。

目前河马旅居的流量较为分散,微信公众号累计粉丝3万,MONO 5万,豆瓣 1万,C端获客主要来自微博、豆瓣,上周刚上线微信小程序。后期需考虑转化用户集中流量,现阶段团队正尝试跟移动WiFi租赁和签证业务团队资源置换,互相增加入口。

商业模式上,河马旅居打算分两步走,第一阶段,先帮助用户解决去哪里玩的问题。河马打算与当地的旅游局或航空公司合作,帮助他们做中国市场的整体营销,宣传当地旅游资源。第二阶段,解决用户怎么玩的问题。平台可通过用户的行为数据分析社区调性从而推荐相应的特色化旅游产品,例如在京都的寺院坐禅、学习茶道、参观日本酒的蒸馏厂等等。

此外,河马旅居也在尝试开拓知识付费的营收渠道。从体验、艺术、咖啡、酒吧、餐厅、酒店等六个维度切入,做成各旅游城市的PDF版官方性质PGC攻略。3月份售出800多本,每本单价15元。

河马旅居创始人余晓盼表示,河马旅居的核心竞争力还是个性化的内容表达。“传统旅游社区把内容做的太死气沉沉了。人美、景美但流水账似的内容很无趣。好的内容本身就是门槛。原创的有趣的才有生命力。”

内容+电商并不是一个新概念,如今传统OTA、头部电商平台以及媒体型电商都在加码内容,但要持续产出有价值的内容并非易事,需要足够规模的内容生产团队长时间的内容积累,而具有极强传播力的爆款内容更是可遇而不可求,营造内容社区所花费的精力也许正是其门槛所在。

河马旅居目前的管理团队为4人,内容产出团队20人。创始人余晓盼任河马主编兼运营,曾任职于私募、资管、律师事务所,为《美食侦探系列》旅行畅销书作者。团队目前正在寻求天使轮融资。


编辑|Panda

2025 年 1 月 20 日,DeepSeek(深度求索)正式发布了 DeepSeek-R1 模型,并由此开启了新的开源 LLM 时代。在 Hugging Face 刚刚发布的《「DeepSeek 时刻」一周年记》博客中,DeepSeek-R1 也是该平台上获赞最多的模型。

***s://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment

如今,刚过一年时间,DeepSeek 的新模型又在 GitHub 悄然现身。

这些天,DeepSeek 给其 FlashMLA 代码库推送了不少更新,而在这些更新中,一个名为 Model1 的模型引起了广大网友的注意。

展开全文

如下截图所示,这个目前还很神秘的 Model1 不仅出现在了代码与注释中,甚至还有与 DeepSeek-V3.2 并驾齐驱的文件。

这也不禁让网友们开始猜测,这个 Model1 很可能就是传闻中 DeepSeek 即将在春节前后发布的新模型的代号。

我们也让 Gemini 帮忙分析了 DeepSeek 的这些 Commit,让其提取了其中的技术细节,结果如下:

根据 DeepSeek 在 2026 年 1 月提交的 flashmla 库代码变更,可以推断出 Model1 是 DeepSeek 下一代旗舰模型 DeepSeek-V4 的内部开发代号或首个工程版本。以下是根据代码 diff 提取的技术细节分析:

1. 核心架构:回归 512 维标准

在 csrc/api/common.h 的 DISPATCH_HEAD_DIM 宏中,可以看到 head_dim 的分支处理:

  • V32 (DeepSeek-V3.2):继续沿用 d_qk = 576 的配置。这是 DeepSeek-V3 引入的非对称 MLA 设计(128 维 RoPE + 448 维 Latent)。
  • Model1:切换到了 512 维。这表明 DeepSeek-V4 在 MLA 架构上进行了「标准化」回归,可能是为了更好地匹配 Blackwell (SM100) 架构的算力对齐,或者优化了 Latent 压缩比例。

2. 全面支持 Blackwell (SM100) 架构

代码库中出现了大量针对 NVIDIA 下一代 Blackwell GPU 的专门优化:

  • SM100 接口:api.cpp 中新增了 FMHACutlassSM100FwdRun。这直接指向了 Blackwell 架构的核心指令集优化。
  • CUDA 版本要求:README 提到在 B200 上运行需要 CUDA 12.9。
  • 性能表现:在 B200 上,目前尚未完全优化的 Sparse MLA 算子已能达到 350 TFlops。而在 H800 (SM90a) 上,Dense MLA 的计算吞吐量高达 660 TFlops。

3. 引入「Token-level Sparse MLA」

这是 Model1 相比 V3 系列最显著的算子演进:

  • Sparse & Dense 并行:测试脚本中出现了 test_flash_mla_sparse_decoding.py 和 test_flash_mla_dense_decoding.py。
  • FP8 KV Cache 混合精度:Sparse 算子使用 FP8 存储 KV Cache,但在计算矩阵乘法时使用 bfloat16 以保证精度。这说明 Model1 在极长上下文场景下,会通过「稀疏化推理」来降低显存压力和提升速度

4. 新机制:Value Vector Position Awareness (VVPA) 与 Engram

虽然 diff 主要是算子层面的,但结合 DISPATCH_MODEL_TYPE 的逻辑和社区披露,Model1 引入了以下新特性:

  • VVPA(数值向量位置感知):这可能解决了传统 MLA 在长文本下位置信息衰减的问题。
  • Engram 机制:这被认为是 DeepSeek 在分布式存储或 KV 压缩上的新突破,用于配合 Model1 的高吞吐需求

而 Gemini 之所以判断 Model1 是 DeepSeek 下一代旗舰模型 DeepSeek-V4 的内部开发代号或首个工程版本,是因为它认为在下面所示的代码中,MODEL1 的定位是一个与 V32 并列且独立的分支,「说明它不是 V3 系列的补丁,而是一个***用了不同架构参数的全新模型。按照 DeepSeek 的命名惯例,在 V3.2 之后的旗舰级架构跨越,逻辑上即为 V4。」

对此,你怎么看,你觉得 Model1 就是传说中的 DeepSeek V4 吗?返回搜狐,查看更多

R1一周年,DeepSeek Model 1悄然现身_模型_架构_Sparse

上一篇: 为什么百度搜索引擎越做越差?

下一篇:请问一下图中***的名字,谢啦?

返回