加州大学两名华人学生发表论文《A Study on Robustness and Reliability of Large Language Model Code Generation》,研究了大模型 (LLM) 生成的代码的稳定性和可靠性。
论文提到,生成的代码中滥用 API 可能会导致严重的问题,例如资源泄漏、程序崩溃等。
更糟糕的是,使用 LLM 代码生成服务的用户实际上是最容易受到这些看似正确的代码影响的开发者——他们不熟悉 LLM 生成代码的 API。因此,他们很难分辨出 LLM 生成的代码中存在的误用,这进一步放大了错误代码在实际软件中的应用。
现有的代码评估基准和数据集主要集中在制作编码面试的编程问题等小任务上,但这与开发者向 LLM 寻求实际编码帮助的问题有所偏差。为了弥补这一缺失,研究者在这项工作中提出了一个数据集 RobustAPI,用于评估 LLM 生成的代码的可靠性和稳定性。
他们从 StackOverflow 收集了 1208 个具有代表性的编码问题,涉及到了 24 个常用 的Java API 。研究人员总结了这些 API 的常见误用模式,并在当前流行的 LLM 上对其进行了评估。评估结果表明,即使是 GPT-4,也有 62% 的生成代码包含 API 误用,如果将这些代码引入实际软件中,将会造成意想不到的后果。
论文地址:https://arxiv.org/pdf/2308.10335