自治AI代理:Auto-GPT、BabyAGI、AgentGPT、JARVIS / HuggingGPT

ChatGPT和許多其它當前的基礎模型都很棒,可以回答無數的問題,生成與人類藝術作品幾乎沒有區別的AI藝術、分析照片等都表現得不輸人類。
只有一件事是它們做不到的,即完成由大量非常不同的獨立步驟組成的任務,這些步驟加在一起需要很長時間才能處理。
這些模型有點像還不是很獨立的練習生,必須始終保持聯系,以提高輸出,解釋需要完成的任務并采取下一步行動。
AI 代理可以自主地做到這一點,接受用戶輸入,在llm的幫助下將其分解為許多小的獨立任務并進行處理。它們存儲單獨的結果,在必要時進行檢查,然后將其用作后續步驟的輸入。這允許處理更復雜的任務并訪問不同的基礎模型(語言、代碼、視頻、語音等)和資源(搜索引擎、公共數據API、計算工具等)。
自治代理 AI
如何才能獲得一個模型來完成一項多步驟的工作,例如創建一副新的 52 張牌,其中包括武俠英雄形象,如郭靖或者
張無忌。
雖然語言模型可以編制風格和形象列表,但至少需要另一種類型的模型(AI 藝術模型)來生成視覺效果。可能需要額外的系統來搜索互聯網或存儲內容。
可以編寫一個批處理腳本來完成這一切。
或者代理 AI ,告訴想要做什么,然后代理編寫批處理腳本,執行它并監控結果。
通常,代理使用單個步驟(為單個卡片選擇藝術家)和框架任務(生成任務列表)外部模型,將思考步驟外包,只保留信息存儲、任務跟蹤、界面管理和編排。
代理或自主 AI 在最近幾周才出現,但它們正在以驚人的速度發展。現在,微軟已經加入了 Jarvis / HuggingGPT 的行列。
AgentGPT
在瀏覽器中組裝、配置和部署自主 AI 代理。無需安裝配置好 OpenAI 密鑰即可輕松使用。
特征:
- 基于瀏覽器
- 簡單易用的代理
- 基于 OpenAI 模型
- 測試使用不需要 OpenAI 密鑰
使用網站: https://agentgpt.reworkd.ai/
Auto-GPT
基于 GPT-4 的實驗性和開源代理庫,它將 LLM 的思想鏈接在一起,以自主實現設定的任何目標。作為 GPT-4 完全自主運行的首批示例之一,Auto-GPT 突破了 AI 的可能性界限。
特征:
- 支持通過 Internet 訪問搜索和收集信息
- 長期和短期內存管理
- 用于文本生成的 GPT-4 實例
- 訪問流行的網站和平臺
- 使用 GPT-3.5 進行文件存儲和匯總
GITHUB: https://github.com/Significant-Gravitas/Auto-GPT
Baby AGI
人工智能驅動的任務管理系統,該系統使用 OpenAI 和 Pinecone API 來創建任務、確定任務的優先級和執行任務。該系統背后的主要思想是它根據先前任務的結果和預定義的目標創建任務。
工作方式:
- 從任務列表中提取第一個任務。
- 將任務發送給執行代理,執行代理使用 OpenAI 的 API(和 Llama)根據上下文完成任務。
- 豐富結果并將其存儲在 Pinecone 中。
- 創建新任務并根據目標和先前任務的結果重新排列任務列表的優先級。
GITHUB: https://github.com/yoheinakajima/babyagi
JARVIS / HuggingGPT
一個協作系統,由作為控制器的 LLM 和作為協作執行者的眾多專家模型組成(來自 Hugging Face Hub)。代理可以使用 LLM 和其他模型。系統的工作流程包括四個階段:
- 任務規劃:使用ChatGPT分析用戶的請求,了解意圖,并將其拆解成可能解決的任務。
- 模型選擇:為解決計劃任務,ChatGPT 根據描述選擇托管在 Hugging Face 上的專家模型。
- 任務執行:調用并執行每個選定的模型并將結果返回給 ChatGPT。
- 響應生成 : 最后使用ChatGPT整合所有模型的預測,生成響應。
GITHUB:https://github.com/microsoft/JARVIS
總結
人工智能代理不僅僅是更好的基礎模型,還增加了一個新的維度。無法比經典基礎模型更好地執行一項小的單一任務,但能夠將一項更大的任務分解成許多更小的任務。如果未來基礎模型變得更好,它們不會取代 AI 代理,而是會讓它們變得更強大。
自治代理可以
- 集成不同類型的模型(語言、代碼、人工智能藝術、策略等等)
- 集成非基礎模型組件,如搜索引擎、計算引擎等。
- 分叉到任務子分支
- 通過另一個模型驗證/重寫一個模型的輸出
- 嘗試一些東西,檢查結果,接受它或嘗試不同的東西
- 連續運行并處理連續輸入(例如,可以隨時間控制正在運行的系統)
未來如果一個代理連接到互聯網,它可能會做它認為完成任務所必需的事情,但不是人類用戶想要做的,比如侵入云系統以獲取信息。如果代理能夠訓練模型或配置自身的未來實例以完成任務,則可能會演變出一個巨大的 AI 問題:可能會出現遠遠超出人類控制的系統。