欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 高考 > windows下xinference无法加载本地大模型问题解决

windows下xinference无法加载本地大模型问题解决

2025/5/2 11:21:21 来源:https://blog.csdn.net/wyh_111/article/details/142783488  浏览:    关键词:windows下xinference无法加载本地大模型问题解决

一、打开C盘权限

1 打开【开始】菜单

2 找到windows工具,打开

3 找到命令行

4 右键

5 以管理员身份运行

6 输入:icacls frpc_windows_amd64_v0.2 /grant Users:(RX)

7 等待几分钟

二、创建软链接

以管理员身份在命令行运行下面命令

mklink /d E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b E:\\glm_4_9b_chat

启动成功:

C:\Windows\System32>mklink /d E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b E:\\glm_4_9b_chat
为 E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b <<===>> E:\\glm_4_9b_chat 创建的三、命令方式启动模型

1 在E:\glm_4_9b_chat下创建一个custom-glm4-chat.json配置文件

内容为:

{
  "version": 1,
  "context_length": 131072,
  "model_name": "custom-glm4-chat",
  "model_lang": [
    "en",
    "zh"
  ],
  "model_ability": [
    "chat",
    "tools"
  ],
  "model_family": "glm4-chat",
  "model_specs": [
    {
      "model_format": "pytorch",
      "model_size_in_billions": 9,
      "quantizations": [
        "4-bit",
        "8-bit",
        "none"
      ],
      "model_id": "THUDM/glm-4-9b-chat",
      "model_uri": "E:\\glm_4_9b_chat"
    }
  ]
}

2 启动xinference,执行下面命令

 xinference-local --host 127.0.0.0 --port 9997


3 打开inference的命令行,切换到大模型路径下E:\glm_4_9b_chat

4 注册模型

xinference register --model-type LLM --file custom-glm4-chat.json --persist

5 开启模型

xinference launch --model-name custom-glm4-chat --model-format pytorch --model-engine Transformers

参考链接:

【Gradio-Windows-Linux】解决share=True无法创建共享链接,缺少frpc_windows_amd64_v0.2_gradio share=true-CSDN博客

无错误!xinference部署本地模型glm4-9b-chat、bge-large-zh-v1.5_xinference加载本地模型-CSDN博客

使用xinference下载大模型之后存储的位置

:"E:\XinferenceFiles\modelscope\hub\ZhipuAI\glm-4-9b-chat\modeling_chatglm.py"

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词