TorchServe是一个用于推理服务神经网络模型的工具
项目描述
TorchServe是一个灵活且易于使用的工具,用于在生产环境中部署PyTorch模型。
使用TorchServe CLI或预配置的Docker镜像来启动一个服务,该服务设置HTTP端点以处理模型推理请求。
安装
完整的安装说明位于项目仓库中:[项目仓库](https://github.com/pytorch/serve/blob/master/README.md)
源代码
您可以按照以下方式检查最新源代码
git clone https://github.com/pytorch/serve.git
引用
如果您在出版物或项目中使用了torchserve,请引用torchserve:[torchserve](https://github.com/pytorch/serve)
项目详情
下载文件
下载适用于您的平台文件。如果您不确定选择哪个,请了解有关安装包的更多信息。
源代码分发
此版本没有可用的源代码分发文件。请参阅生成分发存档的教程。
构建分发
torchserve-0.12.0-py3-none-any.whl (42.2 MB 查看哈希值)
关闭
torchserve-0.12.0-py3-none-any.whl的哈希值
算法 | 哈希摘要 | |
---|---|---|
SHA256 | db127160102d29f390964f758b7ecc5039d3d278fafc85bf9994c273b3ef6954 |
|
MD5 | e53b8fd90df66bddc7c9fe58ed98f257 |
|
BLAKE2b-256 | 07573e9d9579f6300c475c13e5cbaa38be93c8e44aecfb85dfd16825adb6e9c6 |