91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

LangChain簡化ChatGPT工程復雜度使用的方法是什么

發布時間:2023-04-13 09:39:21 來源:億速云 閱讀:126 作者:iii 欄目:開發技術

這篇文章主要介紹了LangChain簡化ChatGPT工程復雜度使用的方法是什么的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇LangChain簡化ChatGPT工程復雜度使用的方法是什么文章都會有所收獲,下面我們一起來看看吧。

什么是LangChain?

使用ChatGPT大家可能都是知道prompt, 

(1)想像一下,如果我需要快速讀一本書,想通過本書作為prompt,使用ChatGPT根據書本中來回答問題,我們需要怎么做? 

(2)假設你需要一個問答任務用到prompt A,摘要任務要使用到prompt B,那如何管理這些prompt呢?因此需要用LangChain來管理這些prompt。

LangChain的出現,簡化了我們在使用ChatGPT的工程復雜度。

LangChain中的模塊,每個模塊如何使用?

前提:運行一下代碼,需要OPENAI_API_KEY(OpenAI申請的key),同時統一引入這些庫:

# 導入LLM包裝器
from langchain import OpenAI, ConversationChain
from langchain.agents import initialize_agent
from langchain.agents import load_tools
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

LLM:從語言模型中輸出預測結果,和直接使用OpenAI的接口一樣,輸入什么就返回什么。

llm = OpenAI(model_name="text-davinci-003", temperature=0.9) // 這些都是OpenAI的參數
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text)) 
// 以上就是打印調用OpenAI接口的返回值,相當于接口的封裝,實現的代碼可以看看github.com/hwchase17/langchain/llms/openai.py的OpenAIChat

以上代碼運行結果:

Cozy Colours Socks.

Prompt Templates:管理LLMs的Prompts,就像我們需要管理變量或者模板一樣。

prompt = PromptTemplate(
    input_variables=["product"],
    template="What is a good name for a company that makes {product}?",
)
// 以上是兩個參數,一個輸入變量,一個模板字符串,實現的代碼可以看看github.com/hwchase17/langchain/prompts
// PromptTemplate實際是基于StringPromptTemplate,可以支持字符串類型的模板,也可以支持文件類型的模板

以上代碼運行結果:

What is a good name for a company that makes colorful socks?

Chains:將LLMs和prompts結合起來,前面提到提供了OpenAI的封裝和你需要問的字符串模板,就可以執行獲得返回了。

from langchain.chains import LLMChain
chain = LLMChain(llm=llm, prompt=prompt) // 通過LLM的llm變量,Prompt Templates的prompt生成LLMChain
chain.run("colorful socks") // 實際這里就變成了實際問題:What is a good name for a company that makes colorful socks?

Agents:基于用戶輸入動態地調用chains,LangChani可以將問題拆分為幾個步驟,然后每個步驟可以根據提供個Agents做相關的事情。

# 導入一些tools,比如llm-math
# llm-math是langchain里面的能做數學計算的模塊
tools = load_tools(["llm-math"], llm=llm)
# 初始化tools,models 和使用的agent
agent = initialize_agent(
    tools, llm, agent="zero-shot-react-description", verbose=True)
text = "12 raised to the 3 power and result raised to 2 power?"
print("input text: ", text)
agent.run(text)

通過如上的代碼,運行結果(拆分為兩個部分):

> Entering new AgentExecutor chain...
 I need to use the calculator for this
Action: Calculator
Action Input: 12^3
Observation: Answer: 1728
Thought: I need to then raise the previous result to the second power
Action: Calculator
Action Input: 1728^2
Observation: Answer: 2985984
Thought: I now know the final answer
Final Answer: 2985984
> Finished chain.

Memory:就是提供對話的上下文存儲,可以使用Langchain的ConversationChain,在LLM交互中記錄交互的歷史狀態,并基于歷史狀態修正模型預測。

# ConversationChain用法
llm = OpenAI(temperature=0)
# 將verbose設置為True,以便我們可以看到提示
conversation = ConversationChain(llm=llm, verbose=True)
print("input text: conversation")
conversation.predict(input="Hi there!")
conversation.predict(
  input="I'm doing well! Just having a conversation with an AI.")

通過多輪運行以后,就會出現:

Prompt after formatting:
The following is a friendly conversation between a human and an AI. The AI is talkative and provides lots of specific details from its context. If the AI does not know the answer to a question, it truthfully says it does not know.
Current conversation:
Human: Hi there!
AI:  Hi there! It's nice to meet you. How can I help you today?
Human: I'm doing well! Just having a conversation with an AI.
AI:  That's great! It's always nice to have a conversation with someone new. What would you like to talk about?

具體代碼

如下:

# 導入LLM包裝器
from langchain import OpenAI, ConversationChain
from langchain.agents import initialize_agent
from langchain.agents import load_tools
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
# 初始化包裝器,temperature越高結果越隨機
llm = OpenAI(temperature=0.9)
# 進行調用
text = "What would be a good company name for a company that makes colorful socks?"
print("input text: ", text)
print(llm(text))
prompt = PromptTemplate(
  input_variables=["product"],
  template="What is a good name for a company that makes {product}?",
)
print("input text: product")
print(prompt.format(product="colorful socks"))
chain = LLMChain(llm=llm, prompt=prompt)
chain.run("colorful socks")
# 導入一些tools,比如llm-math
# llm-math是langchain里面的能做數學計算的模塊
tools = load_tools(["llm-math"], llm=llm)
# 初始化tools,models 和使用的agent
agent = initialize_agent(tools,
                         llm,
                         agent="zero-shot-react-description",
                         verbose=True)
text = "12 raised to the 3 power and result raised to 2 power?"
print("input text: ", text)
agent.run(text)
# ConversationChain用法
llm = OpenAI(temperature=0)
# 將verbose設置為True,以便我們可以看到提示
conversation = ConversationChain(llm=llm, verbose=True)
print("input text: conversation")
conversation.predict(input="Hi there!")
conversation.predict(
  input="I'm doing well! Just having a conversation with an AI.")

關于“LangChain簡化ChatGPT工程復雜度使用的方法是什么”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“LangChain簡化ChatGPT工程復雜度使用的方法是什么”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

金坛市| 巫山县| 达孜县| 来安县| 仪陇县| 潍坊市| 集贤县| 阳西县| 那曲县| 新安县| 浦东新区| 玉屏| 海阳市| 夏河县| 民乐县| 惠来县| 高密市| 沙田区| 林芝县| 福安市| 辛集市| 武陟县| 盐津县| 东丽区| 漯河市| 望都县| 尚志市| 永定县| 满城县| 永和县| 五河县| 宜城市| 定南县| 桦甸市| 银川市| 柳河县| 博客| 柯坪县| 盐池县| 遵义县| 林口县|