用於 TF 2.0 SavedModels 的 TF-TRT 轉換的離線轉換器。
用法
tf.experimental.tensorrt.Converter(
input_saved_model_dir=None, input_saved_model_tags=None,
input_saved_model_signature_key=None, use_dynamic_shape=None,
dynamic_shape_profile_strategy=None,
max_workspace_size_bytes=DEFAULT_TRT_MAX_WORKSPACE_SIZE_BYTES,
precision_mode=TrtPrecisionMode.FP32, minimum_segment_size=3,
maximum_cached_engines=1, use_calibration=True, allow_build_at_runtime=True,
conversion_params=None
)
參數
-
input_saved_model_dir
加載 SavedModel 的目錄,其中包含要轉換的輸入圖。必需的。 -
input_saved_model_tags
加載 SavedModel 的標簽列表。 -
input_saved_model_signature_key
用於優化圖形的簽名鍵。 -
use_dynamic_shape
是否啟用動態形狀支持。在當前實現中,None 等同於 False。 -
dynamic_shape_profile_strategy
supported_profile_strategies() 中的字符串之一。 None 相當於當前實現中的 Range。 -
max_workspace_size_bytes
TRT 引擎在執行時可以使用的最大 GPU 臨時內存。這對應於 nvinfer1::IBuilder::setMaxWorkspaceSize() 的 'workspaceSize' 參數。 -
precision_mode
TrtPrecisionMode.supported_precision_modes() 中的字符串之一。 -
minimum_segment_size
由 TRTEngineOp 替換子圖所需的最小節點數。 -
maximum_cached_engines
動態 TRT 操作的最大緩存 TRT 引擎數。為動態維度創建的 TRT 引擎被緩存。如果緩存引擎的數量已經達到最大值,但它們都不支持輸入形狀,則 TRTEngineOp 將回退到運行與 TRTEngineOp 對應的原始 TF 子圖。 -
use_calibration
如果 precision_mode 不是 INT8,則忽略此參數。如果設置為 True,將創建校準圖以校準缺失的範圍。必須通過使用calibrate() 運行校準將校準圖轉換為推理圖。如果設置為 False,則圖中的每個張量都需要量化節點(不包括那些將被融合的)。如果缺少範圍,則會發生錯誤。請注意,如果 TRT 量化的張量與使用假量化訓練的張量不匹配,則準確性可能會受到負麵影響。 -
allow_build_at_runtime
是否允許在運行時構建 TensorRT 引擎,如果在運行時找不到可以處理給定輸入的預構建 TensorRT 引擎,則如果allow_build_at_runtime=True,則在運行時構建一個新的 TensorRT 引擎,否則使用原生 TF。 -
conversion_params
一個 TrtConversionParams 實例(已棄用)。
拋出
-
ValueError
如果參數組合無效。
目前這在 Windows 平台上不可用。
有幾種方法可以運行轉換:
FP32/FP16精度
params = tf.experimental.tensorrt.ConversionParams( precision_mode='FP16') converter = tf.experimental.tensorrt.Converter( input_saved_model_dir="my_dir", conversion_params=params) converter.convert() converter.save(output_saved_model_dir)
在這種情況下,不會在轉換後的 SavedModel 中構建或保存任何 TRT 引擎。但是如果在轉換過程中輸入數據可用,我們仍然可以構建和保存 TRT 引擎以降低推理過程中的成本(參見下麵的選項 2)。
FP32/FP16 精度與預建引擎
params = tf.experimental.tensorrt.ConversionParams( precision_mode='FP16', # Set this to a large enough number so it can cache all the engines. maximum_cached_engines=16) converter = tf.experimental.tensorrt.Converter( input_saved_model_dir="my_dir", conversion_params=params) converter.convert() # Define a generator function that yields input data, and use it to execute # the graph to build TRT engines. def my_input_fn(): for _ in range(num_runs): inp1, inp2 = ... yield inp1, inp2 converter.build(input_fn=my_input_fn) # Generate corresponding TRT engines converter.save(output_saved_model_dir) # Generated engines will be saved.
這樣,將為 TRTEngineOp 的每個唯一輸入形狀構建/保存一個引擎。這對於無法在推理期間構建引擎但可以訪問與生產中使用的數據相似的輸入數據(例如,具有相同輸入形狀)的應用程序很有用。此外,生成的 TRT 引擎依賴於平台,因此我們需要在與生產類似的環境中運行
build()
(例如,使用相同類型的 GPU)。INT8 精度和預置引擎校準
params = tf.experimental.tensorrt.ConversionParams( precision_mode='INT8', # Currently only one INT8 engine is supported in this mode. maximum_cached_engines=1, use_calibration=True) converter = tf.experimental.tensorrt.Converter( input_saved_model_dir="my_dir", conversion_params=params) # Define a generator function that yields input data, and run INT8 # calibration with the data. All input data should have the same shape. # At the end of convert(), the calibration stats (e.g. range information) # will be saved and can be used to generate more TRT engines with different # shapes. Also, one TRT engine will be generated (with the same shape as # the calibration data) for save later. def my_calibration_input_fn(): for _ in range(num_runs): inp1, inp2 = ... yield inp1, inp2 converter.convert(calibration_input_fn=my_calibration_input_fn) # (Optional) Generate more TRT engines offline (same as the previous # option), to avoid the cost of generating them during inference. def my_input_fn(): for _ in range(num_runs): inp1, inp2 = ... yield inp1, inp2 converter.build(input_fn=my_input_fn) # Save the TRT engine and the engines. converter.save(output_saved_model_dir)
要使用動態形狀,我們需要使用輸入函數調用 build 方法來生成配置文件。此步驟類似於上述 INT8 校準步驟。轉換器還需要使用 use_dynamic_shape=True 和以下 profile_strategies 之一創建,以便根據輸入函數產生的輸入創建配置文件:
Range
:創建一個適用於維度值在 [min_dims, max_dims] 範圍內的輸入的配置文件,其中 min_dims 和 max_dims 是從提供的輸入派生的。Optimal
:為每個輸入創建一個配置文件。該配置文件僅適用於與其創建的輸入具有相同維度的輸入。 GPU 引擎將以此類輸入的最佳性能運行。Range+Optimal
:為Range
和Optimal
創建配置文件。ImplicitBatchModeCompatible
:創建將產生與 implicit_batch_mode 將產生的 GPU 引擎相同的配置文件。
相關用法
- Python tf.experimental.dlpack.from_dlpack用法及代碼示例
- Python tf.experimental.numpy.iinfo用法及代碼示例
- Python tf.experimental.Optional.has_value用法及代碼示例
- Python tf.experimental.dispatch_for_unary_elementwise_apis用法及代碼示例
- Python tf.experimental.dispatch_for_api用法及代碼示例
- Python tf.experimental.unregister_dispatch_for用法及代碼示例
- Python tf.experimental.ExtensionType用法及代碼示例
- Python tf.experimental.Optional.get_value用法及代碼示例
- Python tf.experimental.numpy.issubdtype用法及代碼示例
- Python tf.experimental.numpy.unicode_用法及代碼示例
- Python tf.experimental.dlpack.to_dlpack用法及代碼示例
- Python tf.experimental.async_scope用法及代碼示例
- Python tf.experimental.Optional.empty用法及代碼示例
- Python tf.experimental.numpy.float16.as_integer_ratio用法及代碼示例
- Python tf.experimental.numpy.float64.as_integer_ratio用法及代碼示例
- Python tf.experimental.dispatch_for_binary_elementwise_apis用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.experimental.tensorrt.Converter。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。