昆明信息港讯 2月2日消息,腾讯云今日宣布在高性能应用服务HAI上支持一键部署Deepseek-R1模型,开发者可以在三分钟内完成模型的启动和配置,无需手动处理复杂的安装和调优过程。
同时,开发者还能将DeepSeek-R1与其他腾讯云Cloud Studio、对象存储等服务无缝集成,高效率构建基于DeepSeek R1的完整AI应用。
DeepSeek-R1拥有卓越的性能,在数学、代码、自然语言推理等任务上,测评性能与GPT-o1模型正式版接近。自发布以来,DeepSeek-R1以高性能、低成本等特点受到全球关注,其采用的大规模强化学习技术,仅需少量标注数据即可显著提升模型性能,为大模型训练提供了新思路。
腾讯云高性能服务HAI是一款面向开发者的GPU应用开发平台,旨在通过提供丰富的工具和服务,降低AI应用开发的门槛。HAI支持大语言模型、AI 绘图、数据科学等多种AI环境的一键部署,开发者无需关注底层基础设施的复杂性,即可快速将AI能力集成到自己的应用中。
附开发者使用Deepseek-R1教程:
第一步 - 创建Deepseek-R1应用
前往腾讯云HAI官网https://cloud.tencent.com/product/hai
点击"立即使用"进行控制台,点击"新建"按钮(首次使用请根据指引进行服务角色授权)
创建Deepseek-R1应用
第二步 - 开始使用Deepseek-R1
等待创建完成后,将在站内信中收到登录密码。此时,可通过 可视化界面(GUI) 或 命令行(Terminal) 使用Deepseek模型。
通过可视化界面使用
在HAI控制台选择“算力连接”->"ChatbotUI"
在新窗口中可根据页面指引,完成与模型的交互
通过命令行使用
在HAI控制台选择“算力连接”->"JupyterLab"
新建一个"Terminal"
输入以下命令加载默认的1.5b模型:
运行效果:
高级玩法 - 切换不同参数量级
若默认的1.5B蒸馏模型无法满足需求,还可通过以下命令自定义模型参数量级:
DeepSeek-R1-Distill-7B
DeepSeek-R1-Distill-8B
DeepSeek-R1-Distill-14B