欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 能源 > 【MARK】Cline配合FreeAPI,再薅亿点点token

【MARK】Cline配合FreeAPI,再薅亿点点token

2025/5/3 5:33:38 来源:https://blog.csdn.net/qq_25262697/article/details/145309047  浏览:    关键词:【MARK】Cline配合FreeAPI,再薅亿点点token

说明

自从用了cline,token消耗的速度就开始起飞。各家免费的几百万Token,看起来挺多,实际用起来还是顶不住几天~
在这里插入图片描述
FreeAPI是个简单的替代,上下文长度还是不如官方API,所以还是推荐使用官方,这个只是玩具!!!

下载并安装 Cline

Cline 是一款功能丰富的工具,从文档信息来看,它支持通过编写代码进行交互操作。新手可以借助专门为新编码人员准备的入门指南快速上手 。用户能通过学习提示工程技巧,更高效地与 Cline 交流,充分发挥其作用。Cline 自身具备多种工具,可满足不同需求,相关功能在 Cline Tools Guide 中详细说明。此外,还能利用 MCP 服务器对 Cline 进行功能扩展,用户可参考 MCP 相关文档,从 GitHub 构建 MCP 服务器或自定义 MCP 服务器。其 GitHub 仓库为https://github.com/cline/cline。

若使用 VSCode,直接在扩展商店搜索 “Cline” 进行下载安装,建议直接使用cline,只有这个支持restore!

安装部署FreeAPI

LLM Red Team 意为 LLM大模型红队,提供了多种大模型平台的免费 API 工具,GITEE访问,当前具体包括如下:

  • Moonshot AI (Kimi.ai) 接口转API kimi-free-api,如果好用请使用稳定的官方API(Moonshot AI开放平台)
  • 阶跃星辰 (跃问StepChat) 接口转API step-free-api,如果好用请使用稳定的官方API(阶跃星辰开放平台)
  • 阿里通义 (Qwen) 接口转API qwen-free-api,如果好用请使用稳定的官方API(阿里云百炼平台)
  • ZhipuAI (智谱清言) 接口转API glm-free-api,如果好用请使用稳定的官方API(智谱AI开放平台)
  • 深度求索(DeepSeek)接口转API deepseek-free-api,如果好用请使用稳定的官方API(DeepSeek开放平台)
  • 字节跳动(豆包)接口转API doubao-free-api,如果好用请使用稳定的官方API(火山引擎)
  • 秘塔AI (metaso) 接口转API metaso-free-api,如果好用请使用稳定的官方API(秘塔AI)
  • 讯飞星火(spark)接口转API spark-free-api,如果好用请使用稳定的官方API(讯飞星火大模型API)
  • MiniMax(海螺AI)接口转API hailuo-free-api,如果好用请使用稳定的官方API(MiniMax开放平台)
  • 聆心智能 (Emohaa) 接口转API emohaa-free-api,如果好用请使用稳定的官方API(智谱AI开放平台)
    在这里插入图片描述

以下简答介绍使用git和docker两种部署方式,具体部署可以参考https://llm-red-team.github.io/free-api/。

使用 git 部署

以 deepseek-free-api 为例,
终端输入

git clone https://gh-proxy.com/https://github.com/LLM-Red-Team/deepseek-free-api.git

获取项目(正常拉取可能拉不到,可加上魔法前缀https://gh-proxy.com )。
进入项目目录
cd deepseek-free-api
安装依赖:执行npm i安装依赖,再执行npm run build安装项目。
启动服务:使用nohup node dist/index.js启动项目,确保电脑保持运行状态以维持服务在线。

使用 Docker 部署(推荐)

安装 Docker:依据你的操作系统,前往Docker 官方网站下载并安装 Docker。安装完成后,确保 Docker 服务已启动。
国内用户,可以直接使用下述命令安装启动docker,可自行配置端口,选择模型~

docker run -it -d --init --name deepseek-free-api -p 8000:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/deepseek-free-api:latest
docker run -it -d --init --name kimi-free-api -p 8000:8001 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/kimi-free-api:latest
docker run -it -d --init --name hailuo-free-api -p 8002:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/hailuo-free-api:latest
docker run -it -d --init --name step-free-api -p 8003:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/step-free-api:latest
docker run -it -d --init --name qwen-free-api -p 8004:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/qwen-free-api:latest
docker run -it -d --init --name glm-free-api -p 8005:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/glm-free-api:latest
docker run -it -d --init --name metaso-free-api -p 8006:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/metaso-free-api:latest
docker run -it -d --init --name spark-free-api -p 8007:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/spark-free-api:latest
docker run -it -d --init --name emohaa-free-api -p 8008:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/emohaa-free-api:latest

验证部署:打开浏览器,访问http://localhost:3000(若端口映射有变化,相应调整),若看到正确的响应信息,说明 FreeAPI 服务已成功部署在 Docker 容器中。
在这里插入图片描述
如果使用1panel面板,可以直接在面板中查看正在使用的容器
在这里插入图片描述

配置 Cline 与 FreeAPI

设置 Api Key

参考官网指南,打开浏览器进入开发者选项,查看对应大模型官网的cookie即可。如:
在这里插入图片描述

设置Cline

在 VSCode 中,点击 Cline 插件图标,进入设置页面。

  • 配置 API Provider
  • 选择 “OpenAI Compatible” 。
  • 设置 Base URL
  • 设置 Api Key,使用上一步获取到token即可
  • 设置 Model ID,可随意起一个名字,完成后点击 “Done” 按钮。
    在这里插入图片描述

参考链接

https://llm-red-team.github.io/free-api/

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词