實(shí)時(shí)更新中芯匯金最新動(dòng)態(tài),了解中芯匯金
下一步是智能體?
隨著 ChatGPT、GPT-4、Sora 的陸續(xù)問世,人工智能的發(fā)展趨勢引起了廣泛關(guān)注,特別是 Sora 讓生成式 AI 模型在多模態(tài)方面取得顯著進(jìn)展。人們不禁會(huì)問:人工智能領(lǐng)域下一個(gè)突破方向?qū)?huì)是什么?
今天,人工智能著名學(xué)者、斯坦福大學(xué)教授吳恩達(dá)指出:AI 智能體工作流將在今年推動(dòng)人工智能取得巨大進(jìn)步,甚至可能超過下一代基礎(chǔ)模型。他呼吁所有從事人工智能工作的人都關(guān)注 AI 智能體工作流,并撰寫一篇博客簡單闡述了原因。
我們對博客內(nèi)容進(jìn)行了不改變原意的編譯、整理,以下是博客內(nèi)容:
當(dāng)前,我們主要在零樣本模式下使用 LLM,提供 prompt,逐個(gè) token 地生成最終輸出,沒有進(jìn)行調(diào)整。
這類似于要求某人從頭到尾寫一篇文章,直接打字,不允許退格,并期望得到高質(zhì)量的結(jié)果。盡管有困難,LLM 在這項(xiàng)任務(wù)上仍然表現(xiàn)得非常好!
然而,通過智能體工作流,我們可以要求 LLM 多次迭代文檔。例如,它可能需要執(zhí)行一系列步驟:
規(guī)劃大綱;
決定需要進(jìn)行哪些網(wǎng)絡(luò)搜索(如果需要),來收集更多信息;
寫初稿;
通讀初稿,找出不合理的論點(diǎn)或無關(guān)信息;
修改草稿;
......
這個(gè)迭代過程對于大多數(shù)人類作家寫出好的文本至關(guān)重要。對于人工智能來說,這種迭代工作流會(huì)比單次編寫產(chǎn)生更好的結(jié)果。
Cognition AI 團(tuán)隊(duì)發(fā)布的首個(gè) AI 軟件工程師 Devin 最近在社交媒體上引起了廣泛關(guān)注。吳恩達(dá)的團(tuán)隊(duì)一直密切關(guān)注 AI 編寫代碼的發(fā)展,并分析了多個(gè)研究團(tuán)隊(duì)的結(jié)果,重點(diǎn)關(guān)注算法在廣泛使用的 HumanEval 編碼基準(zhǔn)上的表現(xiàn)。
如下圖所示,吳恩達(dá)的團(tuán)隊(duì)發(fā)現(xiàn):GPT-3.5(零樣本)的正確率為 48.1%,GPT-4(零樣本)的表現(xiàn)更好,為 67.0%。然而,相比于迭代智能體工作流,從 GPT-3.5 到 GPT-4 的改進(jìn)不大。事實(shí)上,在智能體循環(huán)(agent loop)中,GPT-3.5 的正確率高達(dá) 95.1%。
開源智能體工具和有關(guān)智能體的學(xué)術(shù)文獻(xiàn)正在激增。這是一個(gè)令人興奮的時(shí)刻,也是一個(gè)令人困惑的時(shí)刻。為了幫助人們正確看待這項(xiàng)工作,吳恩達(dá)分享了一個(gè)對構(gòu)建智能體的設(shè)計(jì)模式進(jìn)行分類的框架。
簡單來說,這個(gè)框架包括:
反思:LLM 檢查自己的工作,以提出改進(jìn)方法。
工具使用:LLM 擁有網(wǎng)絡(luò)搜索、代碼執(zhí)行或任何其他功能來幫助其收集信息、采取行動(dòng)或處理數(shù)據(jù)。
規(guī)劃:LLM 提出并執(zhí)行一個(gè)多步驟計(jì)劃來實(shí)現(xiàn)目標(biāo)(例如,撰寫論文大綱,然后進(jìn)行在線研究,然后撰寫草稿......)。
多智能體協(xié)作:多個(gè) AI 智能體一起工作,分配任務(wù)并討論和辯論想法,以提出比單個(gè)智能體更好的解決方案。
吳恩達(dá)表示 AI Fund 已在許多應(yīng)用程序中成功使用這些模式,后續(xù)他將詳細(xì)闡述這些設(shè)計(jì)模式。