该镜像包含文档摘要示例应用,旨在演示如何使用LlamaIndex框架(一个用于构建大型语言模型应用的强大框架)从长文档中提取关键信息,生成简洁且信息丰富的摘要内容。
适用于需要快速获取长文档核心内容的场景,包括但不限于:
通过Docker运行容器,挂载文档目录并启动应用:
bashdocker run -v /本地文档目录:/app/documents [镜像名称]
(具体参数需根据实际镜像定义,以下为常见配置项示例)
INPUT_PATH: 指定待处理文档路径,默认为/app/documentsSUMMARY_LENGTH: 摘要长度控制参数,可设置为short/medium/longLLM_PROVIDER: 指定语言模型提供商(如openai、huggingface等)/app/summaries目录(可通过OUTPUT_PATH参数自定义)探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务