Google のデバイス上の AI 向け高パフォーマンス ランタイムの新しい開発はすべて、LiteRT でのみ行われます。TensorFlow Lite パッケージを使用するアプリは引き続き機能しますが、新しいアップデートはすべて LiteRT パッケージにのみ含まれます。LiteRT API には TF Lite API と同じメソッド名が含まれているため、LiteRT に移行してもコードを詳細に変更する必要はありません。
パッケージ名の変更については、特定のプラットフォームの移行ガイドをご覧ください。
Android で移行する
Tensorflow Lite を使用している Android アプリを移行するには、依存関係を org.tensorflow:tensorflow-lite
から com.google.ai.edge.litert
に置き換えます。LiteRT Maven リポジトリには、次のパッケージが含まれています。
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
この変更は、build.gradle
の依存関係で行うことができます。
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play 開発者サービス
Google Play 開発者サービス ランタイムの LiteRT は、引き続き play-services-tflite
依存関係を使用します。アプリですでに TensorFlow Lite と Play 開発者サービスのランタイムを使用している場合は、コードを変更する必要はありません。
Play 開発者サービスで LiteRT を使用するには、build.gradle
の依存関係に次のものを追加します。
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Python を使用して移行する
Tensorflow Lite を使用して Python コードを移行するには、PIP パッケージを tflite-runtime
から ai-edge-litert
に置き換えます。
PIP を使用して LiteRT をインストールします。
$ python3 -m pip install ai-edge-litert
次のように LiteRT をインポートします。
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
その他のライブラリ
iOS 向けの Swift と Objective-C の SDK、C++ SDK、Task ライブラリ、Model Maker ライブラリは、TensorFlow Lite API に引き続き存在します。これらの SDK またはライブラリを使用しているアプリは、LiteRT に移行しないでください。