满血版DeepSeek上线武大!还有高阶玩法
新学期作全新起点
新征程展无限可能
在这充满希望的初春时节
武大满血版DeepSeek大模型
全!新!上!线!
快让珞珞珈珈为你详细介绍吧!
新学期伊始
武汉大学信息中心成功完成
DeepSeek 全系大模型的部署调试
本地化服务将有效保障
科研数据隐私与信息安全
支持灵活的定制开发和算法优化
云端调用充分利用公有云强大的AI算力
支持更加复杂的推理任务和应用场景
大模型包括哪些?
DeepSeek-R1-14B
中型规模模型
适合一般性的自然语言处理任务
DeepSeek-R1-32B
大规模模型
提供更广泛和深入的对话与推理支持
DeepSeek-R1-671B和
DeepSeek-V3-671B
云端满血模型
适合需要深度推理的任务
Qwen-14B
高效的语言生成能力
适用于文本创作、代码编写等多种场景
如何使用?
网页端
访问https登录后即可使用
移动端
打开智慧珞珈APP
点击应用中心-公共服务-AI智能体平台
登录后即可使用
还有什么高阶用法?
除提供随手可用的智能体应用外
借助强大的算力底座
武汉大学超算中心还支持
用户自行部署并运行DeepSeek
等各类开源大模型
深度探索大模型的部署
训练和推理应用
以支持更加专业的科研需求
如果你已经开通了超算中心账号
并且具有GPU的计算权限
那么快来学习如何操作吧!
在超算集群上运行 DeepSeek
首先创建一个作业脚本
将以下文本粘贴到作业脚本中,然后保存文件
将此脚本作为作业进行提交
现在,检查您的作业是否正在运行
确定作业已启动后,通过 ssh 登录已分配的计算节点
SSH 登录计算节点后,加载 ollama
SSH 登录计算节点后,列出所有模型
SSH 登录计算节点后,运行 deepseek-r1:32b
特别提醒
模型路径:如果想使用自己的大模型,设置OLLAMA MODELS环境变量至自定义model的路径即可。
节点选择:对于 32B 以上的大模型,建议使用 A100 节点以获得更好的性能。
资源需求:根据具体需求调整作业脚本中的资源请求(如 GPU 数量、CPU 核心数等)。
近年来,武汉大学紧紧围绕以智慧校园为基座,系统式构建数智生态,加快推进智慧校园建设,打造特色数智教育人才培养体系,上线数智教育实践创新平台和珞珈在线AI智慧教学中心,创新教学科研范式,提升师生数智素养。
未来,武汉大学将深入推进智慧治理提升行动,夯实新型基础设施建设,加强以DeepSeek为代表的大模型等数智技术在教学、科研、管理、服务的场景化应用,完善数智管理模式,推进全过程数智评价,构建管理服务一网通办、校园治理一网统管、办公运行一网协同、数据资源一网共享的智慧校园新生态。
怎么样?
满血版DeepSeek是不是
功能强大、操作简单?
是否能在学习生活中
助你一臂之力?
心动不如行动
快来体验你的专属AI助手吧!
--RECOMMEND---
·推荐阅读·
给国宝打光的武大女孩,自己也在发光!
原标题:《满血版DeepSeek上线武大!还有高阶玩法》