近年来,人工智能(AI)的编程能力一直在不断发展,但尚未达到完美状态。最近,BuzzFeed 的高级数据科学家 Max Woolf 通过实验发现,如果大型语言模型(LLMs)被持续提供“编写更好代码”的提示,AI 确实能够生成更高质量的代码。这一发现引起了广泛的关注,行业内的知名 AI 科学家对此表现出极大的兴趣,并强调了迭代和提示设计的重要性。
在 Woolf 的实验中,他使用 AI 模型 Claude 3.5 Sonnet 来执行一系列编程任务。最初,他向模型提出一个简单的编程问题:如何找到在一百万个随机整数中,数字之和为 30 的数中的最大值与最小值之差。收到任务后,Claude 生成了符合要求的代码,但 Woolf 认为还有优化的空间。
随后,Woolf 决定在每次代码生成后使用“编写更好代码”的提示进行迭代优化。在第一次迭代中,Claude 将代码重构为面向对象的 Python 类,并实现了两个重要的优化措施,运行速度提高了 2.7 倍。在第二次迭代中,Claude 添加了多线程和向量化计算,最终使运行速度比基线版本快了 5.1 倍。
然而,随着迭代次数的增加,代码质量的提升开始放缓。经过几轮优化后,尽管模型尝试使用更复杂的技巧如即时编译和异步编程等方法,在某些情况下反而导致性能下降。最终,Woolf 的实验揭示了迭代提示的潜力与局限性,并引发了对未来 AI 编程的新思考。
这项研究不仅展示了 AI 在编程中的应用潜力,还提醒我们,在通过持续迭代提高代码质量的同时,如何合理设计提示并平衡性能与复杂性仍然是值得深入探讨的话题。
总结:本文讨论了大型语言模型通过持续提供“编写更好代码”的提示来生成高质量代码的可能性及其局限性。研究结果表明,在不断优化的同时也需要合理设计提示,并平衡性能与复杂性。