
llm_query是一个轻量级工具,旨在提供简单的方式查询LLM(大语言模型)API。通过该工具,用户可快速发送查询请求并获取模型响应,适用于需要便捷LLM交互的场景。
构建镜像
bashdocker build -t llm_query .
运行容器
bashdocker run -p 80:80 llm_query
通过浏览器访问
在浏览器中输入以下地址:
http://localhost/?prompt=what+is+the+largest+dog
通过curl命令
bashcurl http://server_address/?prompt=what+is+the+largest+dog > The Great Dane, also known as the German Great Dane or simply Grande Danoise outside of Germany.
git checkout -b my-new-feature)git commit -am 'Add some feature')git push origin my-new-feature)探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务