八哥电影网

展开菜单

DeepSeek-V3.2-Exp 发布,训练推理提效,API 同步降价

DeepSeek-V3.2-Exp 发布,训练推理提效,API 同步降价
深度求索正式推出 deepseek-v3.2-exp 模型,该版本为实验性(experimental)更新。 作为通向新一代架构的过渡性尝试,V3.2-Exp 在 V3.1-Terminus 的基础上集成了 DeepSeek Sparse Attention(DSA),引入了一种创新的稀疏注意力机制,重点针对长文本场景下的训练与推理效率进行了探索性优化与验证。 目前,官方 App、网页端及小程序均已全面升级至 DeepSeek-V3.2-Exp 版本,同时 API...

DeepSeek 更新线上模型,V3.2 版本发布在即

DeepSeek 更新线上模型,V3.2 版本发布在即
deepseek 官方今日下午发布了一则简短公告,宣布线上模型已顺利完成版本升级,并诚邀广大用户参与测试,积极提供反馈意见。 尽管官方未明确说明此次更新的具体型号,但结合其在 Hugging Face 平台的最新动态分析,业内普遍猜测这正是备受期待的 DeepSeek V3.2 版本。 据观察,今天下午约14时,Hugging Face 上悄然出现一个名为 “deepseek-v3.2” 的模型仓库。然而,该仓库最初仅包含一个.gitattributes 文件...

Omni-Infer v0.4.2 已经发布,超大规模 MoE 模型推理加速技术

Omni-Infer v0.4.2 已经发布,超大规模 MoE 模型推理加速技术
Omni-Infer v0.4.2 正式上线,带来面向超大规模 MoE 模型的高效推理加速方案 本次版本主要更新亮点如下: 核心功能升级 新增对 DeepSeek-v3.2-EXP with DSA 的全面支持 推出 Omni Proxy,实现高性能的 Prefill 与 Decode 分离调度(PD分离) 引入 KV offload 技术,结合主机内存扩展的 KVM 机制,使 MLA 场景下的 KV blocks 容量提升超过百倍,显著增强长上下文及多轮对话处...

DeepSeek V4被曝下月发布:100M上下文 全面用国产AI芯片训练

DeepSeek V4被曝下月发布:100M上下文 全面用国产AI芯片训练
9月29日,DeepSeek正式推出DeepSeek-V3.2-Exp大模型,距离此前发布DeepSeek-V3.1-Terminus仅过去不久,再次展现了其在重大节点前更新模型的节奏。此次发布的v3.2版本带有“Exp”(Experimental)后缀,表明其主要定位为技术探索性质,并非追求性能全面超越,而是为后续重大升级铺路。 本次更新的核心亮点在于引入了DeepSeek Sparse Attention(DSA),该机制首次实现细粒度稀疏注意力,在几乎不牺牲输...

在华为云上体验最新DeepSeek-V3.2-Exp

在华为云上体验最新DeepSeek-V3.2-Exp
2025年9月29日,deepseek-v3.2-exp模型正式发布并对外开放源代码。该模型采用了创新的稀疏attention架构,显著降低计算开销的同时,大幅提升了推理速度与效率。华为云迅速完成对该模型的全面适配,最高支持高达160k的长序列上下文处理能力。目前,deepseek-v3.2-exp已正式上线华为云大模型即服务(maas)平台,面向企业和开发者提供便捷的模型试用与api接入服务。 依托CloudMatrix384强大基础设施,华为云ModelArts...

强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码

强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码
2025 年 9 月 29 日,深度求索公司正式推出其新一代模型架构 deepseek-v3.2,迅速在行业内引发高度关注。尤为引人注目的是,寒武纪同日宣布完成对 deepseek-v3.2 的适配工作,并开源了大模型推理引擎 vllm 的源代码。 此次发布的 DeepSeek-V3.2-Exp 是一个实验性(Experimental)版本,作为通向全新架构的过渡性探索,该版本在前代 V3.1-Terminus 的基础上,首次引入了 DeepSeek Sparse At...

DeepSeek 拥抱国产 GPU 编程语言 TileLang

DeepSeek 拥抱国产 GPU 编程语言 TileLang
9 月 29 日,深度求索正式推出 deepseek v3.2-exp 模型(实验性版本),显著提升了长文本处理效率,并宣布 api 调用成本下降超过 50%。在此次发布的公告中,有这样一段值得关注的内容: 在新模型的研发过程中,需设计并实现大量全新的 GPU 算子。我们采用高级语言 TileLang 进行快速原型开发,以支持更深层次的技术探索。 据悉,TileLang 是一种轻量级的领域专用语言(DSL),专注于简化在 GPU 和 NPU 等加速器上的算子开发。其核心...

AI进化关键节点,曙光存储“超级隧道”提前布局

AI进化关键节点,曙光存储“超级隧道”提前布局
近日,deepseek正式开源了其deepseek-v3.2-exp实验版本模型,被官方定义为“通向新一代架构的重要过渡”。该模型在长文本的训练与推理效率方面实现了显著提升,标志着ai大模型发展进入新阶段。 在这一技术跃迁的关键时刻,曙光存储已率先完成AI存储架构的升级,依托自主研发的“超级隧道”技术,全面支持PCIe6.0标准,并为下一代国产芯片提供高效适配能力,显著降低AI推理延迟,缩短模型训练周期。 凭借卓越的“AI加速”性能,曙光存储已连续两年稳居中国AI存储...

张平安:5、7nm并非核心 华为算力能力已超英伟达芯片3倍

张平安:5、7nm并非核心 华为算力能力已超英伟达芯片3倍
10月4日,华为常务董事、华为云ceo张平安指出,芯片的制程工艺并不是决定性因素,用户真正关心的是高质量的计算输出。 近日,张平安对外透露,华为云在算力效率上取得显著进展,其实际生产效能已达到英伟达H20芯片水平的3倍。 “无论是5nm还是7nm制程,并非关键所在,客户最终追求的是高效、精准的计算结果。”张平安介绍称,通过持续的技术创新,华为云服务已在50毫秒延迟条件下,实现单卡每秒生成2400个token的处理能力。 当前,华为昇腾云服务不仅为自研的盘古大模型提供...

中网赛事AI活力迸发 ThinkPad见证冠军时刻

中网赛事AI活力迸发  ThinkPad见证冠军时刻
10月5日晚,阿尼西莫娃强势夺冠,加冕2025中国网球公开赛女单桂冠,标志着本届中网在北京国家网球中心圆满收官。赛事不仅刷新历史门票销售纪录,更集结了辛纳、高芙等多位大满贯得主,上演了一场场世界级的巅峰较量。中国金花郑钦文带伤奋战挺进第三轮,张帅逆境突围闯入32强,用坚韧不拔的拼搏精神诠释了竞技体育的真谛。作为本届中网的白金赞助商,thinkpad以领先ai科技赋能赛事全程,成为推动中网成功举办的强劲技术后盾。 在AI重塑各行各业的浪潮下,ThinkPad始终站在技...