- LangChain官方示例教程(Build a Simple LLM Application):https://python.langchain.com/docs/tutorials/llm_chain/
- 將該官方示例教程適當調整及優(yōu)化
翻譯軟件流程圖.png
- 依賴
pip install langchain
# 接入ollama本地大模型
pip install langchian-ollama
# 接入兼容OpenAI接口的國產大模型
pip install langchain-openai
提示詞
輸入
- 提示詞主要有三種角色蒲讯,LangChain有相應的Message類
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
# 原始寫法
messages = [
{"role": "system", "content": "將下面的內容翻譯成 英語"},
{"role": "user", "content": "你好赫模,吃了嗎魁亦?"},
{"role": "assistant", "content": "Hello, have you eaten yet?"},
]
# 使用消息類
messages = [
SystemMessage(content="將下面的內容翻譯成 英語"),
HumanMessage(content="你好儡嘶,吃了嗎?"),
AIMessage(content="Hello, have you eaten yet?"),
]
# 另一種寫法
messages = [
("system", "將下面的內容翻譯成 英語"),
("human", "你好,吃了嗎膏执?"),
("ai", "Hello, have you eaten yet?"),
]
- Message類的常用方法
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
message = AIMessage(content="Hello, have you eaten yet?")
# 以下兩個方法,SystemMessage残揉、HumanMessage胧后、AIMessage均適用
# 打印輸出
message.pretty_print()
# Message繼承Pydantic,可以使用Pydantic方法
print(message.model_dump_json())
模板
- 使用"{xxx}"占位
from langchain_core.prompts import ChatPromptTemplate
# 輸入
inputs = {"language": "英語", "text": "你好抱环,吃了嗎壳快?"}
# 定義模板
template = ChatPromptTemplate(
[("system", "將下面的內容翻譯成 {language} "), ("human", "{text}")]
)
# 填充模板
result = template.invoke(inputs)
# result結果如下:
# messages = [
# SystemMessage(content="將下面的內容翻譯成 英語", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="你好,吃了嗎?", additional_kwargs={}, response_metadata={}),
# ]
接入大模型
實例化大模型
- 詳情看之前的文檔:LangChain接入本地/國產大模型
- ollama本地大模型
from langchain_ollama import ChatOllama
# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
- 兼容OpenAI接口的大模型
from langchain_openai import ChatOpenAI
# 兼容OpenAI接口的國產大模型(如:阿里云纸巷、火山、騰訊云等)
llm = ChatOpenAI(
openai_api_base="各個大平臺兼容OpenAI的地址",
openai_api_key="xxx-xxx",
model_name="模型名稱/endpoint等"
)
- 調用方式
from langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage
# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 提示詞
messages = [HumanMessage(content="你好眶痰,吃了嗎?")]
result = llm.invoke(messages)
主線(模板+大模型)
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
# 輸入
inputs = {"language": "英語", "text": "你好瘤旨,吃了嗎?"}
# 模板
template = ChatPromptTemplate(
[("system", "將下面的內容翻譯成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 調用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# LangChain寫法
chain = template | llm
result = chain.invoke(inputs)
輸出轉換
輸出轉換器
- 轉換成特定格式可以更好得進行業(yè)務串聯(lián)
from langchain_core.output_parsers import StrOutputParser, JsonOutputParser
from langchain_core.messages import AIMessage
# 模擬大模型返回的文本消息
message = AIMessage(content='{"name": "Alice", "age": 30}')
# 字符串輸出解析器
str_parser = StrOutputParser()
result = str_parser.invoke(message)
print(type(result)) # <class 'str'>
print(result) # {"name": "Alice", "age": 30}
# Json輸出解析器(代碼中呈現(xiàn)為字典)
json_parser = JsonOutputParser()
result = json_parser.invoke(message)
print(type(result)) # <class 'dict'>
print(result) # {'name': 'Alice', 'age': 30}
主線(模板+大模型+輸出)
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
# 輸入
inputs = {"language": "英語", "text": "你好竖伯,吃了嗎存哲?"}
# 模板
template = ChatPromptTemplate(
[("system", "將下面的內容翻譯成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 輸出轉換器
parser = StrOutputParser()
# 調用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# result = parser.invoke(result)
# LangChain寫法
chain = template | llm | parser
result = chain.invoke(inputs)
其他補充
模板
- "placeholder"可替換列表
from langchain_core.prompts import ChatPromptTemplate
template = ChatPromptTemplate(
[("system", "你是導游,回答用戶提出的問題"), ("placeholder", "{conversation}")]
)
inputs = {
"conversation": [
("human", "福州"),
("ai", "福州是一個....."),
("human", "什么季節(jié)去合適七婴?"),
],
}
# 填充模板
messages = template.invoke(inputs)
# messages = [
# SystemMessage(content="你是導游祟偷,回答用戶提出的問題", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="福州", additional_kwargs={}, response_metadata={}),
# AIMessage(content="福州是一個.....", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="什么季節(jié)去合適?", additional_kwargs={}, response_metadata={}),
# ]
- 多個占位符則使用字典一一對應即可
from langchain_core.prompts import ChatPromptTemplate
template = ChatPromptTemplate(
[("system", "你是{role}打厘,回答用戶提出的問題"), ("placeholder", "{conversation}")]
)
inputs = {
"role": "導游",
"conversation": [
("human", "福州"),
("ai", "福州是一個....."),
("human", "什么季節(jié)去合適修肠?"),
],
}
messages = template.invoke(inputs)