Tous les nouveaux développements pour l'environnement d'exécution hautes performances de Google pour l'IA sur l'appareil seront effectués exclusivement sur LiteRT. Les applications qui utilisent des packages TensorFlow Lite continueront de fonctionner, mais toutes les nouvelles mises à jour ne seront incluses que dans les packages LiteRT. Les API LiteRT contiennent les mêmes noms de méthode que les API TF Lite. La migration vers LiteRT ne nécessite donc pas de modifications de code détaillées.
Pour les modifications de nom de package, consultez les guides de migration suivants pour des plates-formes spécifiques.
Migrer avec Android
Pour migrer une application Android à l'aide de TensorFlow Lite, remplacez la dépendance de org.tensorflow:tensorflow-lite
par com.google.ai.edge.litert
. Le dépôt Maven de LiteRT inclut les packages suivants:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Vous pouvez effectuer cette modification dans vos dépendances build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Services Play
LiteRT dans l'environnement d'exécution des services Play continue d'utiliser la dépendance play-services-tflite
. Si votre application utilise déjà l'environnement d'exécution Play Services avec TensorFlow Lite, vous n'avez pas besoin d'apporter de modifications au code.
Pour utiliser LiteRT dans les services Play, ajoutez les éléments suivants à vos dépendances build.gradle
:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Migrer avec Python
Pour migrer du code Python à l'aide de TensorFlow Lite, remplacez le package PIP de tflite-runtime
par ai-edge-litert
.
Installez LiteRT avec PIP:
$ python3 -m pip install ai-edge-litert
Importez LiteRT avec les éléments suivants:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Autres bibliothèques
Les SDK Swift et Objective-C pour iOS, le SDK C++, la bibliothèque de tâches et la bibliothèque Model Maker restent disponibles dans les API TensorFlow Lite. Les applications qui utilisent ces SDK ou bibliothèques ne doivent pas migrer vers LiteRT.