大模型为啥先”攻陷”了程序员,却还没搞定芯片工程师?
写代码这件事已经被彻底改变了。GitHub Copilot、Cursor随便打几个字代码就出来了。但芯片设计那边呢EDA工具还是老样子工程师该熬夜还是熬夜。先说软件这边为什么这么顺软件代码本质上是文本。Python、JavaScript写出来就是一串字符。大模型训练吃的就是文本GitHub上几十亿行开源代码全部喂进去模型自然就学会了。软件的反馈周期极短。写错了运行一下报错信息马上出来大模型可以立刻改。这种”写→跑→改”的循环一分钟可以转好几圈。举个具体的例子让大模型写一个排序函数——def bubble_sort(arr): n len(arr) for i in range(n): for j in range(0, n-i-1): if arr[j] arr[j1]: arr[j], arr[j1] arr[j1], arr[j] return arr写完直接跑对不对一秒钟见分晓。这种即时反馈对大模型训练和推理都极度友好。芯片这边问题出在哪数字芯片设计表面上看也是在写代码——Verilog、VHDL也是文本。但这里有一个根本性的差异芯片代码描述的是硬件行为验证的代价完全不同。一个模块写完要跑仿真少则几小时复杂的跑几天。流片之后发现问题那就是几百万美元打水漂重新来过至少半年。芯片设计的正确性标准极其苛刻。时序收敛、功耗、面积、信号完整性每一项都是硬指标。大模型擅长”大概率正确”但芯片设计要求的是100%正确。99.9%不够用。还有一个问题芯片设计的高质量训练数据太少了。开源的RTL代码和GitHub上的软件代码相比量级差了好几个数量级。模型没见过足够多的例子自然学不好。软件错了能改芯片错了要命。这个根本差异决定了大模型进入两个领域的速度。不过这个局面不会一直持续。大模型在芯片领域最先突破的大概率会是验证和仿真用例生成而不是RTL设计本身。因为验证这块容错空间稍大一点也更适合大模型的工作方式。但要让大模型真正参与到RTL核心设计里还需要两件事更大规模的高质量芯片设计数据集以及能与EDA工具深度集成的推理-验证闭环。技术的扩散路径从来都是顺着阻力最小的方向走。程序领域阻力小所以先进去了。芯片领域阻力大但不代表进不去只是需要更多时间和更专门的工程投入。