专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
mixa3607/llama.cpp-gfx906 logo
mixa3607/llama.cpp-gfx906
mixa3607
llama.cpp for AMD gfx906 GPUs
2.3千+ 次下载2 天前更新
nalanzeyu/vllm-gfx906 logo
nalanzeyu/vllm-gfx906
nalanzeyu
vLLM是一款高性能大型语言模型服务库,适用于AMD gfx906系列显卡,例如镭龙VII(Radeon VII)、MI50及MI60等型号,能够为这些AMD显卡提供高效的大型语言模型部署与运行支持,助力用户在相关硬件平台上实现高性能的AI推理与服务。
6 次收藏1万+ 次下载26 天前更新
mixa3607/vllm-gfx906 logo
mixa3607/vllm-gfx906
mixa3607
VLLM for AMD gfx906 GPUs
1.5千+ 次下载2 天前更新
mixa3607/rocm-gfx906 logo
mixa3607/rocm-gfx906
mixa3607
Patched ROCm for AMD gfx906 GPUs
1 次收藏1.4千+ 次下载8 天前更新
mixa3607/pytorch-gfx906 logo
mixa3607/pytorch-gfx906
mixa3607
PyTorch for AMD gfx906 GPUs
1.2千+ 次下载2 天前更新
mixa3607/comfyui-gfx906 logo
mixa3607/comfyui-gfx906
mixa3607
ComfyUI for AMD gfx906 GPUs
1.3千+ 次下载2 天前更新
第 1 页

相关博客

OLLAMA Docker 容器化部署指南

OLLAMA是一款旨在简化本地大型语言模型(LLM)部署与运行的工具,它提供了直观的命令行界面和容器化部署方案,让用户能够轻松地在本地环境中运行如Llama 3、Gemini、Mistral等主流大语言模型。

Docker,OLLAMA2025/12/3
轩辕镜像
镜像搜索
...
llama.cpp-gfx906
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.