当前位置: 首页 > news >正文

C#对接Ollama,调用大模型禁用思考模式

当前很多大模型都支持思考模式,会在输出内容增加<think>标签,内容为大模型思考内容。
很多情况下,并不想要思考内容。就需要自己设置一下。

文章目录

      • 一、使用Ollama的Api设置
      • 二、使用`prompt`设置
      • 三、Ollama控制台中禁用

一、使用Ollama的Api设置

C# 类库使用OllamaSharp为例:

设置 Think属性为:false来禁用思考模式

var chatRequest = new ChatRequest
{Think = false,
};
var modelResponse = await ollama.ChatAsync(chatRequest).StreamToEndAsync();

二、使用prompt设置

通过在prompt结尾设置/no_think来禁用思考模式

            var promptBuilder = new StringBuilder();promptBuilder.AppendLine(@"你是一个知识检索系统,必须遵守以下规则:
1. 禁止行为:禁止联想、推测或添加任何外部知识
2. 免责声明:当参考内容不匹配时必须声明");promptBuilder.AppendLine($"/no_think");//禁止思考模式var chatRequest = new ChatRequest{Messages = new List<Message>(){new Message { Role = ChatRole.System, Content = promptBuilder.ToString() },new Message { Role = ChatRole.User, Content = query }}};var modelResponse = await ollama.ChatAsync(chatRequest).StreamToEndAsync();return modelResponse.Message.Content;

三、Ollama控制台中禁用

ollama run llama3.1:8b --think         #开启思考模式
ollama run llama3.1:8b --think=false   #禁用思考模式
http://www.dtcms.com/a/326985.html

相关文章:

  • 鸿蒙本地与云端数据双向同步实战:从原理到可运行 Demo 的全流程指南
  • HarmonyOS元服务开发系列教程(三):实现音乐播放和封面旋转
  • 智能家居Agent:物联网设备的统一控制与管理
  • Python函数篇:从零到精通
  • 间隙锁(Gap Lock)
  • 【YOLOV8】小目标困难场景优化
  • 计算机网络---默认网关(Default Gateway)
  • 通用同步/异步收发器USART串口
  • JavaScript的fetch函数的用法
  • C++11新增关键字和范围for循环
  • 【限时分享:Hadoop+Spark+Vue技术栈电信客服数据分析系统完整实现方案
  • 基于Python的《红楼梦》文本分析与机器学习应用
  • Uniapp物联网平台登录与温湿度监测系统
  • 【电子硬件】EMI中无源晶振的优势
  • 从原理到实践:一文掌握Kafka的消息生产与消费
  • Web前端小游戏轮盘。
  • 开发避坑指南(23):Tomcat高版本URL特殊字符限制问题解决方案(RFC 7230 RFC 3986)
  • Python Day28 HTML 与 CSS 核心知识点 及例题分析
  • @Rancher简介部署使用 - Docker Compose
  • 第五章 特征值与特征向量
  • vue3 实现web网页不同分辨率适配
  • 【狂热算法篇】探寻图论幽径之SPFA算法:图论迷宫里的闪电寻径者(通俗易懂版)
  • http网页部署
  • AI Agent——基于 LangGraph 的多智能体任务路由与执行系统实战
  • 微算法科技(NASDAQ:MLGO)开发经典增强量子优化算法(CBQOA):开创组合优化新时代
  • Git与CI/CD相关知识点总结
  • 【element树组件】el-tree实现连接线及hover编辑效果
  • 机器学习处理文本数据
  • Linux Ansible的安装与基本使用
  • 【C++】5. 内存管理