几乎零成本体验Deepseek,Deepseek-R1模型云端部署全攻略!
最近发现腾讯的codeStudio竟然可以用ollama部署Deeepseek-R1大模型。关键是1个月10000分钟额度,简直是免费啊。
前置工作
Ollama是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于macOS、Linux和Windows。
大白话就是:他是一个贴心小助手,只需要通过一行命令就可以安装部署和运行大模型。
官方地址:https://ollama.com/
如果你要在自己电脑部署大模型,那么这个工具真的不能错过!
云部署的步骤
话不多说,现在开始!
官方地址:https://ide.cloud.tencent.com/dashboard/gpu-workspace
在“空间模板”选择“ollama”模板。
会提示,每个月10000分钟的免费时长,也就是166.7个小时。
然后就会出现一个ollama的列表。
这个时候就会出现一个vscode 的对话框。按照我截图的步骤操作,就会出现一个终端的区域。
直接输入代码:“ollama run deepseek-r1”,按“enter”键执行。
这时候就会去远程仓库拉取镜像了。默认会下载参数量为7B的云端大模型。
不一会工夫,就安装好了,会出现">>>"的标志,这里我们就可以和deepseek-r1对话了。
我们找到ollama服务启动的端口。发现是6399.
因为codeStudio自带vscode代码开发窗口,我们也可以借助腾讯自带的“AI代码助手”给我们生成一个调用“deepseek-r1”的程序。
具体的指令可以这样写:
我现在已经用ollama 本地部署了deepseek-r1的大模型,现在写一段测试代码,直接通过ollama 调用本地大模型环境,输入 “你好”,并生成结果,格式是这样的curl http://0.0.0.0:6399/api/chat -d '{
"model": "deepseek-r1",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
然后就可以轻松调用deepseek的API了,方便开发和调试。
tips:虽然每个月赠送1万分钟,但是24小时开机也只够嚯嚯一周多。如果用完之后,可以回到首页直接点击关机即可。
转自:https://mp.weixin.qq.com/s/94j9r5qs8VwNNmyVcaBGzw
共有 0 条评论