几乎零成本体验Deepseek,Deepseek-R1模型云端部署全攻略!

文章目录[隐藏]

最近发现腾讯的codeStudio竟然可以用ollama部署Deeepseek-R1大模型。关键是1个月10000分钟额度,简直是免费啊。

普通电脑承受不住的小伙伴可以注册个腾讯云,来亲自尝试一下部署一套大模型的快乐吧。

前置工作

Ollama是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于macOS、Linux和Windows。

大白话就是:他是一个贴心小助手,只需要通过一行命令就可以安装部署和运行大模型。

官方地址:https://ollama.com/

如果你要在自己电脑部署大模型,那么这个工具真的不能错过!

云部署的步骤

话不多说,现在开始!

官方地址:https://ide.cloud.tencent.com/dashboard/gpu-workspace

在“空间模板”选择“ollama”模板。

会提示,每个月10000分钟的免费时长,也就是166.7个小时。

然后就会出现一个ollama的列表。

这个时候就会出现一个vscode 的对话框。按照我截图的步骤操作,就会出现一个终端的区域。

直接输入代码:“ollama run deepseek-r1”,按“enter”键执行。

这时候就会去远程仓库拉取镜像了。默认会下载参数量为7B的云端大模型。

不一会工夫,就安装好了,会出现">>>"的标志,这里我们就可以和deepseek-r1对话了。

我们找到ollama服务启动的端口。发现是6399.

因为codeStudio自带vscode代码开发窗口,我们也可以借助腾讯自带的“AI代码助手”给我们生成一个调用“deepseek-r1”的程序。

具体的指令可以这样写:

我现在已经用ollama 本地部署了deepseek-r1的大模型,现在写一段测试代码,直接通过ollama 调用本地大模型环境,输入 “你好”,并生成结果,格式是这样的curl http://0.0.0.0:6399/api/chat -d '{
  "model": "deepseek-r1",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

 


然后就可以轻松调用deepseek的API了,方便开发和调试。

tips:虽然每个月赠送1万分钟,但是24小时开机也只够嚯嚯一周多。如果用完之后,可以回到首页直接点击关机即可。

转自:https://mp.weixin.qq.com/s/94j9r5qs8VwNNmyVcaBGzw

文章版权归原作者所有或来自互联网,未经允许请勿转载。如有侵权请联系我删除,谢谢!
THE END
分享
二维码
打赏
< <上一篇
下一篇>>
文章目录
关闭
目 录