Large language models (LLMs) are reshaping software engineering by enabling "vibe coding," in which developers build software primarily through prompts rather than writing code. Although widely publicized as a productivity breakthrough, little is known about how practitioners actually define and engage in these practices. To shed light on this emerging phenomenon, we conducted a grounded theory study of 20 vibe-coding videos, including 7 live-streamed coding sessions (about 16 hours, 254 prompts) and 13 opinion videos (about 5 hours), supported by additional analysis of activity durations and prompt intents. Our findings reveal a spectrum of behaviors: some vibe coders rely almost entirely on AI without inspecting code, while others examine and adapt generated outputs. Across approaches, all must contend with the stochastic nature of generation, with debugging and refinement often described as "rolling the dice." Further, divergent mental models, shaped by vibe coders' expertise and reliance on AI, influence prompting strategies, evaluation practices, and levels of trust. These findings open new directions for research on the future of software engineering and point to practical opportunities for tool design and education.


翻译:大型语言模型(LLMs)正在通过实现“氛围编码”重塑软件工程,在这种模式下,开发者主要通过提示而非编写代码来构建软件。尽管这一实践被广泛宣传为生产力突破,但从业者如何实际定义和参与这些实践却鲜为人知。为阐明这一新兴现象,我们对20个氛围编码视频进行了扎根理论研究,包括7场直播编码会话(约16小时,254条提示)和13个观点视频(约5小时),并辅以对活动时长和提示意图的补充分析。我们的研究发现了一系列行为谱系:一些氛围编码者几乎完全依赖AI而不检查代码,而另一些人则会审查并调整生成的输出。在所有方法中,开发者都必须应对生成过程的随机性,调试和优化常被描述为“掷骰子”。此外,由氛围编码者的专业知识和AI依赖程度所塑造的差异化心智模型,会影响其提示策略、评估实践和信任水平。这些发现为软件工程未来的研究开辟了新方向,并为工具设计和教育提供了实践机遇。

0
下载
关闭预览

相关内容

软件(中国大陆及香港用语,台湾作软体,英文:Software)是一系列按照特定顺序组织的计算机数据和指令的集合。一般来讲软件被划分为编程语言、系统软件、应用软件和介于这两者之间的中间件。软件就是程序加文档的集合体。
《LLMs遇见多模态生成与编辑》综述
专知会员服务
41+阅读 · 2024年6月3日
【2022新书】Python数学逻辑,285页pdf
专知
13+阅读 · 2022年11月24日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员