新浪科技讯 2月11日晚间消息 ,更新多名用户反馈 ,新模型DeepSeek在网页端和APP端进行了版本更新 ,次性处理超长支持最高1M(百万)Token的文本推理上下文长度。而去年8月发布的更新DeepSeekV3.1上下文长度拓展至128K。
实测中发现,新模型端侧算力DeepSeek在问答中称自身支持上下文1M ,次性处理超长可以一次性处理超长文本。文本提交超过24万个token的更新《简爱》小说文档 ,DeepSeek可以支持识别文档内容。新模型
之前曾有知情人士称,次性处理超长DeepSeek 春节更可能推出的文本是针对V3系列模型的小幅更新 。但该人士同时透露,更新数据隐私与 AI真正的新模型重头戏仍在路上 。DeepSeek下一代旗舰模型预计将是次性处理超长一款万亿参数级别的基础模型,正因规模大幅跃升