OpenManus本地ollama跑通教程+一些常见坑点
写一篇OpenManus的教程,本地ollama跑通教程+一些常见坑点。
我看很多人对于本地ollama来跑openmanus还经常踩坑,这里我做个简单的视频,加上本文图文版本来理清一些东西。
这是我上一篇文章,讲的是如何用网络供应商的api:
安装conda环境部分,请大家根据官网readme操作,不要不看文档然后一顿操作下来搞砸了。
**官方中文Readme:**https://github.com/mannaandpoem/OpenManus/blob/main/README_zh.md
安装完conda环境之后,我们需要拉ollama的模型,这里我的电脑因为之前设置的原因,我需要配置ollama并行处理和多模型启动,我的命令是:
set OLLAMA_NUM_PARALLEL=
set OLLAMA_MAX_LOADED_MODELS=
这个可以根据大家自己需要去配置或者不配置。
然后就可以拉模型了,语言模型我选的是qwen2.5-7b,视觉模型我选的是llava。
在选择语言模型这一块要选支持调用tools的,支持function call的,ollama官方的文档有写清楚哪些模型支持这个:
https://ollama.com/search?c=tools
拉模型命令:
ollama run qwen2.5:7b
ollama run llava
第一次拉模型的朋友可能会慢一些,因为它要从网上下载模型到本地。
看到这个"Send a message"的信息说明本地模型启动成功了。如果你之前没有做什么改动的话,那默认的端口就是本地的11434端口。
启动完ollama模型,我们就得修改openmanus的配置文件了,名称和base_url填进去,没修改其他东西就默认是 http://127.0.0.1:11434/v1,api_key随便填一个,但不能为空。
填写完之后记得保存,然后就可以开始启动openmanus了,我是在openmanus的项目文件夹启动:
python main.py
如果在其他路径启动的朋友记得把路径配置好,例如:
python xxx/xxx/main.py
最后就成功跑通了。
这里我来补充几个常见坑点:
1、为什么我在其他地方的模型配置就成功了,在openmanus就不行了?
答:要看你其他地方是不是调用openai兼容接口,不是的话那跑不通才正常,openmanus是调用openai兼容接口的,当然现在新版也出了azure的接口。
2、启动后输入对话报错,说模型不支持tools怎么办?
答:不管你调用硅基、deepseek、openai、ollama还是其他服务商的模型,他们官网都有文档写了支持tools的模型,每个服务商的不一样,自己去查。
3、保存文件为何保存不了?
答:这是现在项目还不稳定,建议等优化。
4、任务完成了但是停止不了,一直循环。
答:ctrl c直接停止,这个是因为模型没有调用停止的tool,也还是不稳定的原因,等官方优化。
5、ollama没api?
答:没api我怎么跑得起来的?还有人一直犟。
6、调用的google search没网络或者没法连上怎么办?
答:1、换bing 2、等官方修改
7、技术力不够或不会看文档怎么办?
答:建议放弃和等懒人包,别折腾自己