DeepSeek突然拥抱国产GPU语言!对标CUDA替代Triton,华为Day0适
你有没有想过,开发人工智能大模型可能就像搭乐高积木一样简单?最近DeepSeek发布的新模型V3.2里,藏着一个叫TileLang的秘密武器,它让编写GPU程序变得像拼积木一样容易。
这个新语言是由北京大学团队主导开发的,核心成员包括王磊、董宇骐和杨智副研究员。它的设计理念很特别,就是把复杂的硬件调度和开发者的算法逻辑分开处理。简单来说,就是你只需要关心你想让计算机做什么,而不必烦恼怎么让硬件乖乖听话。
TileLang用的是类似Python的语法,大大降低了NPU算子开发的门槛。想想看,以前要写几百行代码才能完成的工作,现在可能只需要几十行。有开发者发现,用TileLang写注意力实现,不到100行代码就能比原来的版本快百分之三十。这种效率提升可不是小数目!
对于初学者来说,TileLang提供了硬件无关的高层接口,你可以像写高级数学表达式一样编程。如果你是有经验的开发者,可以使用预定义好的各种操作。而对于那些追求极致性能的专家,TileLang还允许直接操作线程同步、内存合并等底层特性。这种分层设计真的很贴心,让不同水平的人都能找到适合自己的使用方式。
DeepSeek在开发V3.2模型时,早期就使用TileLang快速开发原型,之后再用更底层的方法进一步优化性能。这种合作证明了TileLang确实可以用来训练复杂的AI模型。而且它不仅支持英伟达的GPU,还与国产算力生态适配,连华为昇腾都在第一时间公告了对TileLang的支持。
在华为全联接大会2025的开发者日上,TileLang团队成员展示了用它实现FlashAttention算子开发,代码量从500多行减少到只有80行,而且性能保持在同一水平。代码量减少这么多,意味着开发和维护都会轻松很多。
现在TileLang已经在GitHub上开源,目前获得了近两千个标星。随着DeepSeek V3.2的成功应用,相信会有更多开发者开始关注和使用这个新兴的编程语言。
你觉得这种能让编程变得更简单的工具,会不会改变未来人工智能开发的格局呢?