
bytez/akaisora_sql-gen-join-optAkaisora/sql-gen-join-opt 是一个文本生成(text-generation)模型的Docker镜像,主要用于SQL生成与连接优化任务。该镜像支持本地部署,提供灵活的配置选项,包括GPU加速、权重本地缓存和多样化的生成参数调整,适用于需要隐私保护、自定义控制的文本生成场景。
bashdocker pull bytez/akaisora_sql-gen-join-opt
bashdocker run -it \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -e PORT=8000 \ -p 8000:8000 \ bytez/akaisora_sql-gen-join-opt
如需使用其他端口(如80端口):
bashdocker run -it \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -e PORT=80 \ -p 80:80 \ bytez/akaisora_sql-gen-join-opt
通过POST请求调用模型:
bashcurl --location '[***] \ --header 'Content-Type: application/json' \ --data-raw '{ "text": "Once upon a time there was a ", "stream": false, "params": { "max_new_tokens": 50, "temperature": 1.3, "top_p": 1.2 } }'
stream: true 可启用流式响应,响应格式为"text/event-stream; charset=utf-8"为避免重复下载大模型权重,可将权重保存至本地目录:
bashdocker run -it \ -v /PATH/TO/YOUR/CACHING/DIRECTORY:/server/model \ -e HF_HOME=/server/model \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -p 8000:8000 \ -e PORT=8000 \ bytez/akaisora_sql-gen-join-opt
示例(Linux系统):
bashdocker run -it \ -v /home/user/models:/server/model \ -e HF_HOME=/server/model \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -p 8000:8000 \ -e PORT=8000 \ bytez/akaisora_sql-gen-join-opt
需先安装Nvidia驱动和CUDA,运行时添加--gpus all参数:
bashdocker run -it \ --gpus all \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -p 8000:8000 \ -e PORT=8000 \ bytez/akaisora_sql-gen-join-opt
bashdocker run -it \ --gpus all \ -v /PATH/TO/YOUR/CACHING/DIRECTORY:/server/model \ -e HF_HOME=/server/model \ -e KEY=YOUR_BYTEZ_API_KEY_HERE \ -p 8000:8000 \ -e PORT=8000 \ bytez/akaisora_sql-gen-join-opt
| 环境变量 | 说明 | 默认值 | 可选值 |
|---|---|---|---|
| KEY | Bytez API密钥 | 无 | 从Bytez获取的API密钥 |
| PORT | 容器内部端口 | 8000 | 任意有效端口号 |
| DEVICE | 运行设备 | auto | auto/cuda/cpu |
| HF_HOME | 模型权重缓存目录 | 无 | 容器内路径,需配合-v挂载 |
DEVICE=auto:自动检测,优先使用GPU,内存不足时使用系统RAMDEVICE=cuda:强制使用GPUDEVICE=cpu:强制使用CPU| 参数 | 类型 | 可选 | 说明 | 默认值 |
|---|---|---|---|---|
| max_length | int | 是 | 生成 tokens 的最大长度 | 20 |
| max_new_tokens | int | 是 | 生成的新 tokens 最大数量(忽略输入长度) | - |
| min_length | int | 是 | 生成序列的最小长度 | 0 |
| min_new_tokens | int | 是 | 生成的新 tokens 最小数量(忽略输入长度) | - |
| early_stopping | bool/str | 是 | 束搜索的停止条件控制 | False |
| max_time | float | 是 | 计算的最大时间(秒) | - |
| 参数 | 类型 | 可选 | 说明 | 默认值 |
|---|---|---|---|---|
| do_sample | bool | 是 | 是否使用采样而非贪婪解码 | False |
| num_beams | int | 是 | 束搜索的束数量 | 1 |
| num_beam_groups | int | 是 | 束组数量(用于束多样性) | 1 |
| penalty_alpha | float | 是 | 模型置信度与退化惩罚的平衡参数 | - |
| use_cache | bool | 是 | 是否使用缓存加速解码 | True |
| 参数 | 类型 | 可选 | 说明 | 默认值 |
|---|---|---|---|---|
| temperature | float | 是 | 调整下一个 token 概率的温度参数 | 1 |
| top_k | int | 是 | top-k 过滤保留的最高概率 token 数量 | 50 |
| top_p | float | 是 | top-p 过滤的累积概率阈值 | 1 |
| typical_p | float | 是 | 局部典型性阈值 | 1 |
| repetition_penalty | float | 是 | 重复惩罚参数(1.0表示无惩罚) | 1 |
| length_penalty | float | 是 | 长度惩罚指数(>0促进长序列,<0促进短序列) | 1 |
| no_repeat_ngram_size | int | 是 | 禁止重复的 ngram 大小(>0生效) | 0 |
完整参数列表可参考Hugging Face文档
本地部署模型可增强隐私性、控制力和自定义能力,祝您使用愉快!



manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务