1. Détecter le matériel GPU disponible et les backends pris en charge
2. Charger les modèles IA avec des chemins d'exécution compatibles GPU
3. Décharger les opérations gourmandes en calcul vers le GPU
4. Synchroniser les résultats vers les pipelines contrôlés par le CPU