LangChain第二讲:不设置环境变量也能调用LLM大模型吗?(更简单地调用LLM)
不设置环境变量也能调用LLM大模型吗?
答案:可以的,直接把环境变量写在代码里,就不用每次运行都设置环境变量了
代码示例
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAIurl = "https://dashscope.aliyuncs.com/compatible-mode/v1"
api_key = "你的apikey"#初始化模型
llm = ChatOpenAI(openai_api_key=api_key,model="deepseek-v3",base_url=url)#根据message创建一个提示模版 system消息是告诉模型扮演什么角色,user消息是代表用户输入的问题
prompt = ChatPromptTemplate.from_messages([("system","你是一名Langchain使用专家"),("user","{input}")
])#基于LCEL表达式构建LLM链,该表达式类似于linux的pieline语法,从左到右按顺序执行
#首先执行prompt完成提示词模版填充,再将提示词去调用大模型
chain = prompt | llm#调用链
# invoke将调用参数传递到prompt提示模版,然后开始按照chain定义的步骤运行
response =chain.invoke({"input":"使用langchain,需要安装哪些包"})#大模型返回的结果
print(response)
与LangChain第一讲:如何调用LLM大模型进行对话?(超详细步骤,100%可执行)
中的代码不同的是,base_url
和api_key
是直接写在代码里的,移除os包,其余部分保持不动,方便修改和运行