跳转到主要内容

ONNX Runtime generate() API

项目描述

ONNX Runtime generate() API

使用ONNX Runtime在设备上和云端运行SLMs/LLMs和多模态模型。

目前支持的模型架构(并将很快增加更多):Gemma, Llama, Mistral, Phi(语言和视觉)。

更多详情请参阅:文档 https://runtime.onnx.org.cn/docs/genai 和仓库: https://github.com/microsoft/onnxruntime-genai

项目详情


下载文件

下载适用于您的平台文件。如果您不确定选择哪个,请了解有关 安装包 的更多信息。

源代码分发

此版本没有可用的源代码分发文件。请参阅 生成分发存档的教程

构建分发

onnxruntime_genai_directml-0.4.0-cp312-cp312-win_amd64.whl (2.2 MB 查看哈希值)

上传时间 CPython 3.12 Windows x86-64

onnxruntime_genai_directml-0.4.0-cp311-cp311-win_amd64.whl (2.2 MB 查看哈希值)

上传时间 CPython 3.11 Windows x86-64

onnxruntime_genai_directml-0.4.0-cp310-cp310-win_amd64.whl (2.2 MB 查看哈希值)

上传时间 CPython 3.10 Windows x86-64

onnxruntime_genai_directml-0.4.0-cp39-cp39-win_amd64.whl (2.2 MB 查看哈希值)

上传时间 CPython 3.9 Windows x86-64

onnxruntime_genai_directml-0.4.0-cp38-cp38-win_amd64.whl (2.2 MB 查看哈希值)

上传时间 CPython 3.8 Windows x86-64

支持者

AWS AWS 云计算和安全赞助商 Datadog Datadog 监控 Fastly Fastly CDN Google Google 下载分析 Microsoft Microsoft PSF 赞助商 Pingdom Pingdom 监控 Sentry Sentry 错误记录 StatusPage StatusPage 状态页面