当前位置: 首页 > news >正文

ollama API 本地调用

ollama API 本地调用

  • 前提条件,ollama 已经启动了模型,查看 ollama 中的 model 名称

    ollama list
    

    image-20250314230724978

  • 使用 openai 调用

    from openai import OpenAI
    import openai
    
    openai.api_key = 'ollama'
    openai.base_url = 'http://localhost:11434/v1/'
    
    def get_completion(prompt, model="qwq"):
        client = OpenAI(api_key=openai.api_key,
                        base_url=openai.base_url
                        )
        messages = [{"role": "user", "content": prompt}]
        response = client.chat.completions.create(
            model=model,
            messages=messages,
            stream=False
        )
        return response.choices[0].message.content
      
    prompt = '你好,请介绍下你自己'
    model = "qwq"
    get_completion(prompt, model=model)
    

    image-20250314230516157

    可以使用 fastapi将后端服务暴露出来

相关文章:

  • tsfresh:时间序列特征自动提取与应用
  • CCF CSP 第30次(2023.09)(2_坐标变换(其二)_C++)
  • rc4算法简单介绍及实现
  • 堆(Heap)和栈(Stack),这两者通常是指内存管理中两种不同的内存区域
  • Docker系列——从零开始打包FunASR的Http服务
  • PECL(Positive Emitter-Coupled Logic)电平详解
  • 我的世界1.20.1forge开发进阶教程——生物AI(1)
  • ctfshow-xxs-316-333-wp
  • 酒店宾馆IPTV数字电视系统:创新宾客体验,引领智慧服务新潮流
  • SpringCloud系列教程(十四):Sentinel持久化
  • 自动化测试:PO模式
  • DaVinci Resolve(达芬奇)快捷键大全
  • windows 启用linux子系统不必再装双系统
  • 剑指 Offer II 086. 分割回文子字符串
  • 力扣665. 非递减数列 475.供暖屋
  • Windows功能之FTP服务器搭建
  • orm bee/Orm bee/Orm Bee (CSDN还区分大小写)
  • IMX6ULL学习整理篇——Linux驱动开发的基础2 老框架的一次实战:LED驱动
  • IPoIB驱动中RSS与TSS技术的深度解析:多队列机制与性能优化
  • 用Python实现一个简单的猜数字游戏
  • 国家税务总局泰安市税务局:山东泰山啤酒公司欠税超536万元
  • 安徽六安原市长潘东旭,已任省市场监督管理局党组书记、局长
  • 太空摄影的发展
  • 古龙逝世四十周年|中国武侠文学学会与多所高校联合发起学术纪念活动
  • 央行:将支持资本市场两项货币政策工具的额度合并使用
  • 习近平致电祝贺默茨当选德国联邦总理