Le graphique Revues de code auto-évaluées affiche les revues de codes intégrées ayant outrepassé le processus de revue habituel, c'est-à-dire sans avoir été validées par un membre de l'équipe autre que l'auteur.
Vous pouvez afficher ces données par jour, par semaine ou par mois, selon votre préférence. Il est à noter que l'affichage des six derniers mois ou de la dernière année ne permet pas l'affichage par jour.
Psst! Ce graphique est particulièrement utile pour identifier les automatisations approuvant certaines revues tels que des bots.
Exemple d'utilisation
Pour le graphique suivant, la période affichée correspond aux derniers trois mois et le mode d'affichage est par semaine. Bien que le graphique indique une moyenne de 0.4 revues de code auto-évaluées et intégrées par semaine, nous pouvons voir une augmentation de ce nombre en mai, passant à trois revues de code auto-évaluées. La tendance (ligne pointillée rouge) est donc à la hausse pour la période en cours.
Comme ce graphique est interactif, le survoler à l'aide de votre souris permet d'afficher plus de détails pour une semaine donnée (selon le mode d'affichage sélectionné).
Les revues de code auto-évaluées augmentent le risque d'introduire des bogues ainsi que de la dette technique, comme elles n'ont pas été inspectées par d'autres membres de l'équipe. Les équipes devraient, autant que possible, tenter d'éviter d'intégrer des revues de code auto-évaluées. Maintenir un nombre réduit de revues de code auto-évaluées peut entraîner un meilleur flot de livraison ainsi que davantage de qualité et de collaboration d'équipe.
Pour en savoir plus sur les indicateurs de variation, référez-vous à cet article!