1. Detectar hardware de GPU disponible y backends compatibles
2. Cargar modelos de IA con rutas de ejecución compatibles con GPU
3. Descargar operaciones intensivas en cómputo a la GPU
4. Sincronizar resultados de vuelta a tuberías controladas por CPU