Comment suivre les temps de compilation Rust dans le CI

Everett Pompeii

Everett Pompeii


Les temps de compilation peuvent représenter une partie importante de votre temps de build, surtout en Rust. Le Benchmarking Continu est la pratique qui consiste à exécuter des benchmarks sur chaque ensemble de modifications pour s’assurer que les modifications n’introduisent pas de régressions de performance. Vous pouvez traiter les temps de compilation comme un benchmark et les suivre dans la CI pour détecter les temps de compilation lents. La manière la plus simple de mettre en œuvre le Benchmarking Continu pour les temps de compilation de Rust est d’utiliser Bencher.

Qu’est-ce que Bencher ?

Bencher est une suite d’outils de benchmarking continu. Avez-vous déjà eu une régression de performance qui a impacté vos utilisateurs ? Bencher aurait pu empêcher cela de se produire. Bencher vous permet de détecter et de prévenir les régressions de performance avant qu’elles n’arrivent en production.

  • Exécuter: Exécutez vos benchmarks localement ou en CI en utilisant vos outils de benchmarking préférés. La CLI bencher enveloppe simplement votre harnais de benchmarking existant et stocke ses résultats.
  • Suivre: Suivez les résultats de vos benchmarks au fil du temps. Surveillez, interrogez et graphiquez les résultats à l’aide de la console web Bencher en fonction de la branche source, du banc d’essai et de la mesure.
  • Détecter: Détectez les régressions de performances en CI. Bencher utilise des analyses de pointe et personnalisables pour détecter les régressions de performances avant qu’elles n’arrivent en production.

Pour les mêmes raisons que les tests unitaires sont exécutés en CI pour prévenir les régressions de fonctionnalités, les benchmarks devraient être exécutés en CI avec Bencher pour prévenir les régressions de performance. Les bugs de performance sont des bugs !

Étapes pour Bencher Cloud

  1. Créez un compte Bencher Cloud.
  2. Créez un jeton API et ajoutez-le à votre CI en tant que secret.
  3. Créez un workflow pour votre CI, comme GitHub Actions ou GitLab CI/CD.
  4. Installez le Bencher CLI dans votre workflow CI.
  5. Compilez votre code Rust avec la sous-commande bencher run dans votre flux de travail CI en utilisant l'option --build-time avec l'adaptateur json.

Étapes pour Bencher Auto-hébergé

  1. Créez une instance Bencher Auto-hébergée.
  2. Créez un compte sur votre instance Bencher Auto-hébergée.
  3. Créez un jeton API et ajoutez-le à votre CI en tant que secret.
  4. Créez un workflow pour votre CI, comme GitHub Actions ou GitLab CI/CD.
  5. Installez le Bencher CLI dans votre workflow CI. Assurez-vous que la version du CLI correspond à la version de votre instance Bencher Auto-hébergée.
  6. Compilez votre code Rust avec la sous-commande bencher run dans votre flux de travail CI en utilisant l'option --build-time avec l'adaptateur json et en définissant l'option --host sur l'URL de votre instance Bencher Self-Hosted.

⏱️ Temps de Compilation

La sous-commande CLI bencher run peut être utilisée pour suivre le temps de compilation (c’est-à-dire le temps de construction) de vos livrables avec le drapeau --build-time. En coulisse, bencher run génère les résultats sous forme de JSON Bencher Metric Format (BMF). Il est donc conseillé d’utiliser explicitement l’adaptateur json. Pour plus de détails, voir comment suivre le temps de compilation.

La Mesure build-time (à savoir secondes (s)) est collectée. Seule la valeur du temps de compilation (c’est-à-dire value) est disponible. Ni lower_value ni upper_value ne sont collectés. La Mesure build-time n’est pas créée par défaut pour tous les Projets. Cependant, lorsque vous utilisez le drapeau --build-time, cette Mesure sera automatiquement créée pour votre Projet.

Terminal window
bencher run --build-time --adapter json "cargo build --release"

Track your benchmarks in CI

Have you ever had a performance regression impact your users? Bencher could have prevented that from happening with continuous benchmarking.

🤖 Ce document a été automatiquement généré par OpenAI GPT-4. Il peut ne pas être précis et peut contenir des erreurs. Si vous trouvez des erreurs, veuillez ouvrir une issue sur GitHub.