欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > ollama调用千问2.5-vl视频图片UI界面小程序分享

ollama调用千问2.5-vl视频图片UI界面小程序分享

2025/5/19 11:30:54 来源:https://blog.csdn.net/tian0000hai/article/details/148034433  浏览:    关键词:ollama调用千问2.5-vl视频图片UI界面小程序分享

1、问题描述:

ollama调用千问2.5-vl视频图片内容,通常用命令行工具不方便,于是做了一个python UI界面与大家分享。需要提前安装ollama,并下载千问qwen2.5vl:7b 模型,在ollama官网即可下载。 (8G-6G 显卡可用),用于识别图片信息。之前还下载了 qwen3:8b版,发现也可以此程序调用,比图片识别更快,用qwen3:8b文字直接提问,随便输入张图片即可。图片不起作用。 不知为何qwen2.5vl:7b 默认只支持cpu预处理图片,所以,图片推理的过程非常慢。qwen3:8b 默认支持gpu,速度快100倍,反应迅速,机会秒回复。这就是gpu 与cpu,推理的天壤之别吧,哈哈。南无阿弥陀佛。

如下图:
在这里插入图片描述
使用方法:很简单,

2、图片推理:

模型管理列表栏,选择相应的qwen2.5vl:7b模型,点击选择模型按钮,之后,直接在最下面,点击选择图片按钮,支持三张,太多图片推理太慢了。单张最快,cpu推理就是这样,之后,在提示词栏,输入要对图片做的推理要求,默认是描述图片内容,也可以问图片里的特殊的人事物,等等。也可以指定要求推理输出的文字字数,1000字以内没啥问题。
在这里插入图片描述

3、文字推理:

同理,在模型管理列表栏,选择相应的qwen3:8b模型,点击选择模型按钮,之后,直接在最下面,点击选择图片按钮,随便选张图,如果之前已经选了,就忽略此步。之后,在提示词栏,输入要提问的提示词即可,几千字以内似乎没啥问题。南无阿弥陀佛。

4、程序免费下载地址:

程序下载地址:https://download.csdn.net/download/tian0000hai/90856287
南无阿弥陀佛。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词