彼得斯坦伯格:如何让ai 生成可运行原型

彼得·斯坦伯格在一个小实验室里用简单的提示让AI生成可运行原型,几周后就成了全球现象,OpenClaw就这样诞生了。要是不读这篇文章,你可能没法搞懂为啥以后的团队里大家会越来越像产品设计师,而不是像以前那样整天敲代码。他把对AI和开源结合的好奇心变成了实实在在的项目,用Codex这种模型快速从想法变成了原型,还通过开源吸引了全球的人来帮忙。 其实这也不是特例,很多行业现在都在从手工写代码变成用提示来干活。提示这东西可不是偷懒的捷径,而是指挥AI干活的语言。一般的流程是:把问题说清楚,让AI写出草稿代码,在本地或者沙箱里跑跑看行不行,根据结果再改改提示词,最后合到主分支里去。像Codex这样的模型主要负责在原型阶段多造几个候选方案,这样开发者就能把精力花在琢磨架构、用户体验和边界条件这些关键问题上。 不过开源也带来了麻烦:一方面是大家热情高、迭代快;另一方面质量参差不齐、方向容易跑偏,甚至还得防着安全漏洞。为了管住风险,OpenClaw搞了结构化的贡献指南和严格的代码审查流程,用模块化的架构来缩小攻击面。还有就是把所有外部生成的代码都放进沙箱里跑,只给最小的权限执行。 关于技术上的难题,其实解决起来也简单。安全方面得把调用令牌和模型纳入审计链条里去,还得在CI流程里加上对AI产物的自动检查。想扩展得好就得在调用成本、控制并发和缓存策略之间找平衡,常见的做法是边缘缓存和请求批处理。要想让人能上手快,就得有完善的示例工程、分级别文档还有友好的UI界面。但这里面有个现实的权衡:隔离得越严实体验就越差;门槛降得越低治理成本就越高。 角色也变了:以前都是代码工匠的工作变成了现在的提示工程师、验证者还有系统设计师。要学的新技能也变多了:提示怎么设计、怎么审查AI的输出、安全意识以及怎么自动化测试AI搞出来的东西。合作节奏也快多了,大家都在维护一个共享的提示库和例子库。 项目能不能长久活下来不光是技术问题,还有模式问题:找赞助、企业支持或者弄个双许可证收钱都是办法。不过项目太依赖某个大模型平台也有风险——万一人家策略变了或者不给用了怎么办?所以得准备好几条路——分散模型供应并且保留本地的备用方案。 这里有10条立马就能用的建议:先在小范围试试提示生成代码再测试修正这套流程;建好提示库和模板还得做好版本控制;在CI里加AI产物的静态和运行时测试;给外面来的贡献设定个最低合入标准;给令牌用设定个额度并纳入审计流水线;所有外部生成的代码都放进沙箱最小权限执行;缓存模型的输出来省钱还能降低延迟;准备好几条模型供应的策略以防某条路不通;用分级别文档和示例工程降低新手上手难度;定期办点线下或者线上的活动来维持大家的热情。 总的来说就是把重复的活交给AI去干,把判断的活留给人类来做。虽然很多项目都会用这种提示驱动的工作流,但怎么管怎么教才是关键。千万别怕当那个第一个懂提示的人——他要么把你取代了,要么把你变成团队里最值钱的人。多试试、多学学、多贡献点才是现在最实在的生存法则。