本人是windows电脑
方案选择
由于 Ollama 0.15.4 版本不支持 fine-tune 命令,推荐使用 llama.cpp 进行微调。
环境准备
提示
如果想自己编译就安装cmake,也可以通过第二步直接下载llama-b7917-bin-win-cpu-x64.zip,跳过camke
1. 安装 camake
如果已经安装可以跳过
2026/2/17大约 2 分钟
本人是windows电脑
由于 Ollama 0.15.4 版本不支持 fine-tune 命令,推荐使用 llama.cpp 进行微调。
提示
如果想自己编译就安装cmake,也可以通过第二步直接下载llama-b7917-bin-win-cpu-x64.zip,跳过camke
如果已经安装可以跳过
那个右下角的小图标是 Ollama 的守护进程,它只负责后台启动 Ollama 服务,但不会自动运行模型。咱们可以用 Windows 的任务计划程序来实现开机自动唤醒:
打开任务计划程序:按 Win+R 输入 taskschd.msc 回车。
创建任务:点击右侧 “创建任务”,在 “常规” 选项卡中设置任务名称,比如 “开机启动 Ollama 模型”。
设置触发器:切换到 “触发器” 选项卡,点击 “新建”,选择 “启动时”,确定。
设置操作:切换到 “操作” 选项卡,点击 “新建”,选择 “启动程序”,程序或脚本填 cmd,添加参数填:
plaintext
/c "ollama run 模型名称"
设置条件:切换到 “条件” 选项卡,取消勾选 “唤醒计算机运行此任务”,避免影响睡眠。
保存任务:点击确定,以后每次开机,系统就会自动运行 ollama run 模型名称,专属模型就会一直在后台
Ollama 的微调逻辑特别简单,核心就 3 步:准备专属训练数据 → 写微调配置文件 → 本地执行微调命令,全程不用敲复杂代码,重点把我们的专属对话、核心设定、互动语气做成训练集,微调后新窗口的模型会更懂自己
1先安装ollama,没装的话
提示
里面有安装教程