--- comments: true --- # PaddleX 3.0 产线部署教程 在使用本教程之前,您首先需要安装 PaddleX,安装方式请参考[ PaddleX 安装](../installation/installation.md)。 PaddleX 的三种部署方式详细说明如下: * 高性能推理:在实际生产环境中,许多应用对部署策略的性能指标(尤其是响应速度)有着较严苛的标准,以确保系统的高效运行与用户体验的流畅性。为此,PaddleX 提供高性能推理插件,旨在对模型推理及前后处理进行深度性能优化,实现端到端流程的显著提速,详细的高性能推理流程请参考 [PaddleX 高性能推理指南](../pipeline_deploy/high_performance_inference.md)。 * 服务化部署:服务化部署是实际生产环境中常见的一种部署形式。通过将推理功能封装为服务,客户端可以通过网络请求来访问这些服务,以获取推理结果。PaddleX 支持用户以低成本实现产线的服务化部署,详细的服务化部署流程请参考 [PaddleX 服务化部署指南](../pipeline_deploy/serving.md)。 * 端侧部署:端侧部署是一种将计算和数据处理功能放在用户设备本身上的方式,设备可以直接处理数据,而不需要依赖远程的服务器。PaddleX 支持将模型部署在 Android 等端侧设备上,详细的端侧部署流程请参考 [PaddleX端侧部署指南](../pipeline_deploy/on_device_deployment.md)。 本教程将举三个实际应用例子,来依次介绍 PaddleX 的三种部署方式。 ## 1 高性能推理示例 ### 1.1 安装高性能推理插件 根据设备类型,执行如下指令,安装高性能推理插件: 如果你的设备是 CPU,请使用以下命令安装 PaddleX 的 CPU 版本: ```bash paddlex --install hpi-cpu ``` 如果你的设备是 GPU,请使用以下命令安装 PaddleX 的 GPU 版本。请注意,GPU 版本包含了 CPU 版本的所有功能,因此无需单独安装 CPU 版本: ```bash paddlex --install hpi-gpu ``` 目前高性能推理支持的处理器架构、操作系统、设备类型和 Python 版本如下表所示:
处理器架构 | 操作系统 | 设备类型 | Python 版本 |
---|---|---|---|
x86-64 | Linux | CPU | |
3.8 | |||
3.9 | |||
3.10 | |||
GPU (CUDA 11.8 + cuDNN 8.6) | 3.8 | ||
3.9 | |||
3.10 |
名称 | 说明 |
---|---|
--pipeline |
产线名称或产线配置文件路径。 |
--device |
产线部署设备。默认为 cpu (如 GPU 不可用)或 gpu (如 GPU 可用)。 |
--host |
服务器绑定的主机名或 IP 地址。默认为0.0.0.0。 |
--port |
服务器监听的端口号。默认为8080。 |
--use_hpip |
如果指定,则启用高性能推理插件。 |
--serial_number |
高性能推理插件使用的序列号。只在启用高性能推理插件时生效。 请注意,并非所有产线、模型都支持使用高性能推理插件,详细的支持情况请参考PaddleX 高性能推理指南。 |
--update_license |
如果指定,则进行联网激活。只在启用高性能推理插件时生效。 |