正文内容 评论(0

DeepSeek V3.2与国外顶级AI有差距:算力受限 未来会解决
2025-12-02 20:42:16  出处:快科技 作者:宪瑞 编辑:宪瑞     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技12月2日消息,日前DeepSeek低调发布了DeepSeek V3.2正式版以及长思考加强版eepSeek-V3.2-Speciale,命名上继续小步快跑。

但DeepSeek V3.2整体表现不错,按照官方的说法,推理类Benchmark测试中达到GPT-5水平,仅略低于Gemini-3.0-Pro,并拿到了IMO国际数学奥赛、中国数学奥赛CMO等多个数学比赛的金牌水平。

这两天从各路大V及网友的评测体验来看,DeepSeek V3.2比之前的版本是有很大进步的,考虑到价格的关系,其综合表现还是让人惊喜的。

DeepSeek V3.2与国外顶级AI有差距:算力受限 未来会解决

但也要承认一点,DeepSeek V3.2这次没有达到当前顶级AI的水平,编程领域比肩Claude、Gemini-3.0-Pro不太行。

对于当前的情况,DeepSeek官方也是很清楚的,在这次的论文中他们承认了与Gemini-3.0-Pro等闭源大模型有一些局限性,首先是总训练FLOPS较少,导致世界知识广度不如领先的专有模型,预计在未来的迭代中通过扩展训练来解决这一差距。

其他因素还有标记效率要比Gemini-3.0-Pro差,以及解决复杂任务能力不如前沿模型,这些都需要改进基础模型及训练后处理方案。

从DeepSeek的表态靠近,V 3.2存在的问题说到底还是3.X版的基座大模型已经有点落后了,要想达到当前的顶级AI水平,需要投入更高的算力和数据。

对于这一点,相信DeepSeek是有准备的,V4及不一定存在的R2今年一直没发布,但DeepSeek绝对会在准备更强大的算力和数据资源了。

按照之前的惯例,估计今年春节前后DeepSeek V4/R2就要陆续发布了。

DeepSeek V3.2与国外顶级AI有差距:算力受限 未来会解决

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...