研究生畢業論文
| 論文名稱 | 大型語言模型在自動化程式除錯的評估和驗證 |
|---|---|
| 年份 | 2024 |
| 作者 | 許家綸 |
| 碩博士論文網址 | https://hdl.handle.net/11296/6tp7ew |
| 摘要 | 大型語言模型(Large Language Models, LLM)透過深度學習訓練方法,從大量文本資料中學習結構和語義。近年來,越來越多的大型語言模型如GPT、Gemini被應用於自然語言處理領域,並在一些任務上超越了人類的成績。 大型語言模型不僅在自然語言處理領域有廣泛應用,在程式語言處理領域也得到相當關注。自動化程式除錯(Automated Program Repair, APR)是其中一個研究領域,傳統的除錯方法需要依賴專家介入以除錯不同類型的錯誤,且難以應用於不同程式語言。近年來,越來越多的研究者開始探索LLM如何應用於APR中。 基於LLM的APR方法具有高精度和效率,應用範圍廣泛。然而,對不同大型語言模型之間效果差異的評估和程式錯誤類別影響的研究較少。本研究旨在綜合評價和驗證大型語言模型在自動化程式除錯中的表現,以改進現有方法和指導未來研究,同時深入探討提示對不同程式錯誤的影響。這將有助於提升除錯方法的效果和可擴展性。 本研究探討了不同大型語言模型在自動程式修復任務中的效能,並分析了不同prompt設計對修復效果的影響和錯誤類別的影響。研究結果顯示,GPT-3.5和GPT-4模型在多數情況下表現優異,而Gemini和Claude模型在含有上下文資訊的prompt條件下表現顯著提升。這對提升自動程式修復技術和開發教學輔助工具具有重要意義。 |
© 2016 LEGASUSI All Rights Reserved