这个思路其实在多个领域都有对应的研究工作。我找到了一些相关的论文PaperAuthorsSummaryCraftsMan3D: High-fidelity Mesh Generation with 3D Native Generation and Interactive Geometry RefinerTencent AI Lab et al.用迭代refiner来优化3D几何——生成初始mesh后通过多轮交互式修正逼近目标ReFit: Recurrent Fitting Network for 3D Human Recovery—用循环网络实现反馈-更新循环每轮输出参数化的3D人体meshOutline, Then Details: Syntactically Guided Coarse-To-Fine Code GenerationUT Austin代码生成的多轮策略先生成轮廓AST再逐步填充细节——本质是参数化的语法树迭代PICARD: Parsing Incrementally for Constrained Auto-Regressive Decoding from Language ModelsServiceNow, ElementAI约束解码的经典工作通过语法规则限制token选择保证输出始终是有效结构CRANE: Reasoning with constrained LLM generation—代码/symbolic math的约束生成用上下文无关文法强制输出符合语法ChopChop: a Programmable Framework for Semantically Constraining the Output of Language ModelsUC San Diego用类型系统和程序不变式来约束LM输出确保语义正确性关键的 insight 是把生成文本变成在参数空间搜索这通常通过以下方式实现约束解码Constrained Decoding—— 用语法/类型系统限制每一步的token选择保证输出始终是可解析的结构JSON、代码AST、mesh参数等迭代Refinement—— 像Diffusion模型或CraftsMan那样不是一次生成最终答案而是多轮逐步修正每轮输出完整的参数向量神经反馈循环—— ReFit那种结构当前参数 → 网络 → 修正后的完整参数你想深入了解哪个方向比如约束解码的具体实现或者3D参数化表示的论文