openeuler/docsumOPEA Docker镜像是基于openEuler构建的官方镜像,由openEuler CloudNative SIG维护。OPEA是一个开放平台项目,旨在帮助用户创建开放、多提供商、稳健且可组合的生成式AI解决方案,充分利用生态系统中的创新成果。该镜像可免费使用,且不受每用户速率限制。
可组合构建块框架:提供用于构建最先进生成式AI系统的详细框架,包括LLM、数据存储和提示引擎
架构蓝图:提供检索增强型生成式AI组件堆栈结构和端到端工作流的架构蓝图
四步评估体系:围绕性能、功能、可信度和企业级就绪度对生成式AI系统进行分级评估
每个DocSum Docker镜像的标签由DocSum版本和基础镜像版本组成组成,具体如下:
| 标签 | 说明 | 架构 |
|---|---|---|
| 1.0--oe2403lts | 基于openEuler 24.03-LTS的DocSum 1.0 | amd64 |
| 1.2-oe2403lts | 基于openEuler 24.03-LTS的DocSum 1.2 | amd64 |
DocSum服务可在Intel Gaudi2或Intel Xeon可扩展处理器上部署,适用于需要对文本、音频、视频等内容进行智能处理和生成摘要的场景,如文档分析、内容摘要生成、多模态数据处理等。
支持两种使用Docker Compose部署DocSum服务的方式:
```bash docker pull openeuler/docsum:latest
默认模型为"Intel/neural-chat-7b-v3-3",如需使用其他模型,可通过修改环境变量LLM_MODEL_ID进行配置。
设置必要环境变量:
bash# 示例:host_ip="192.168.1.1" export host_ip="外部公网IP" # 示例:no_proxy="localhost, 127.0.0.1, 192.168.1.1" export no_proxy="你的No_Proxy设置" export HUGGINGFACEHUB_API_TOKEN="你的Huggingface API令牌"
如在代理环境中,还需设置代理相关环境变量:
bashexport http_proxy="你的HTTP代理" export https_proxy="你的HTTPS代理"
设置其他环境变量:
获取
set_env.sh:set_env.sh
bashsource set_env.sh
获取
compose.yml:compose.yml
bashdocker compose -f compose.yml up -d
服务启动后将自动从Docker Hub拉取所需镜像:
bashdocker pull openeuler/docsum:latest docker pull openeuler/docsum-ui:latest
文本处理:
bashcurl -X POST [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: application/json" \ -d '{"type": "text", "messages": "Text Embeddings Inference (TEI)是一个用于部署和服务开源文本嵌入和序列分类模型的工具包。TEI支持对最流行的模型(包括FlagEmbedding、Ember、GTE和E5)进行高性能提取。"}' # 使用英文模式(默认) curl [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: multipart/form-data" \ -F "type=text" \ -F "messages=Text Embeddings Inference (TEI) is a toolkit for deploying and serving open source text embeddings and sequence classification models. TEI enables high-performance extraction for the most popular models, including FlagEmbedding, Ember, GTE and E5." \ -F "max_tokens=32" \ -F "language=en" \ -F "stream=true" # 使用中文模式 curl [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: multipart/form-data" \ -F "type=text" \ -F "messages=2024年9月26日,北京——今日,英特尔正式发布英特尔® 至强® 6性能核处理器(代号Granite Rapids),为AI、数据分析、科学计算等计算密集型业务提供卓越性能。" \ -F "max_tokens=32" \ -F "language=zh" \ -F "stream=true" # 上传文件(支持.txt、.docx、.pdf格式) curl [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: multipart/form-data" \ -F "type=text" \ -F "messages=" \ -F "files=@/你的文件路径(.txt, .docx, .pdf)" \ -F "max_tokens=32" \ -F "language=en" \ -F "stream=true"
注意:cURL请求不支持音频和视频文件上传,请使用Gradio-UI进行操作。
音频处理:
bashcurl -X POST [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: application/json" \ -d '{"type": "audio", "messages": "UklGRigAAABXQVZFZm10IBIAAAABAAEARKwAAIhYAQACABAAAABkYXRhAgAAAAEA"}' curl [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: multipart/form-data" \ -F "type=audio" \ -F "messages=UklGRigAAABXQVZFZm10IBIAAAABAAEARKwAAIhYAQACABAAAABkYXRhAgAAAAEA" \ -F "max_tokens=32" \ -F "language=en" \ -F "stream=true"
视频处理:
bashcurl -X POST [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: application/json" \ -d '{"type": "video", "messages": "将视频转换为base64数据类型"}' curl [***]{host_ip}:8888/v1/docsum \ -H "Content-Type: multipart/form-data" \ -F "type=video" \ -F "messages=将视频转换为base64数据类型" \ -F "max_tokens=32" \ -F "language=en" \ -F "stream=true"
在浏览器中打开以下URL访问前端界面:http://{host_ip}:5173。默认情况下,UI在内部端口5173上运行。
如需帮助,可通过以下渠道获取支持:
更多关于OPEA的信息,请访问opea.dev,技术文档请访问opea-project.github.io。

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务