跳转到主要内容
Chal1ce blog

OpenManus本地ollama跑通教程+一些常见坑点

写一篇OpenManus的教程,本地ollama跑通教程+一些常见坑点。

我看很多人对于本地ollama来跑openmanus还经常踩坑,这里我做个简单的视频,加上本文图文版本来理清一些东西。

这是我上一篇文章,讲的是如何用网络供应商的api:

链接:OpenManus跑通教程,Manus开源替代

安装conda环境部分,请大家根据官网readme操作,不要不看文档然后一顿操作下来搞砸了

**官方中文Readme:**https://github.com/mannaandpoem/OpenManus/blob/main/README_zh.md

安装完conda环境之后,我们需要拉ollama的模型,这里我的电脑因为之前设置的原因,我需要配置ollama并行处理和多模型启动,我的命令是:

set OLLAMA_NUM_PARALLEL=
set OLLAMA_MAX_LOADED_MODELS=

这个可以根据大家自己需要去配置或者不配置。

然后就可以拉模型了,语言模型我选的是qwen2.5-7b,视觉模型我选的是llava。

在选择语言模型这一块要选支持调用tools的,支持function call的,ollama官方的文档有写清楚哪些模型支持这个

https://ollama.com/search?c=tools

拉模型命令:

ollama run qwen2.5:7b
ollama run llava

第一次拉模型的朋友可能会慢一些,因为它要从网上下载模型到本地。

图片

看到这个"Send a message"的信息说明本地模型启动成功了。如果你之前没有做什么改动的话,那默认的端口就是本地的11434端口。

启动完ollama模型,我们就得修改openmanus的配置文件了,名称和base_url填进去,没修改其他东西就默认是 http://127.0.0.1:11434/v1,api_key随便填一个,但不能为空。

图片

填写完之后记得保存,然后就可以开始启动openmanus了,我是在openmanus的项目文件夹启动:

python main.py

如果在其他路径启动的朋友记得把路径配置好,例如:

python xxx/xxx/main.py

图片

最后就成功跑通了。

这里我来补充几个常见坑点:

1、为什么我在其他地方的模型配置就成功了,在openmanus就不行了?

答:要看你其他地方是不是调用openai兼容接口,不是的话那跑不通才正常,openmanus是调用openai兼容接口的,当然现在新版也出了azure的接口。

2、启动后输入对话报错,说模型不支持tools怎么办?

答:不管你调用硅基、deepseek、openai、ollama还是其他服务商的模型,他们官网都有文档写了支持tools的模型,每个服务商的不一样,自己去查。

3、保存文件为何保存不了?

答:这是现在项目还不稳定,建议等优化。

4、任务完成了但是停止不了,一直循环。

答:ctrl c直接停止,这个是因为模型没有调用停止的tool,也还是不稳定的原因,等官方优化。

5、ollama没api?

答:没api我怎么跑得起来的?还有人一直犟。

6、调用的google search没网络或者没法连上怎么办?

答:1、换bing 2、等官方修改

7、技术力不够或不会看文档怎么办?

答:建议放弃和等懒人包,别折腾自己