Le graphique Revues de code auto-évaluées affiche les revues de codes intégrées ayant outrepassé le processus de revue habituel, c'est-à-dire sans avoir été validées par un membre de l'équipe autre que l'auteur.
Vous pouvez afficher ces données par jour, semaine, mois ou par sprint, selon votre préférence. À titre informatif, si un tableau de type kanban a été lié à votre projet Axify, l'option "sprint" ne sera pas disponible dans les filtres situés au haut de la page. De plus, les périodes "6 derniers mois" et "dernière année" ne permettent pas l'affichage par jour.
Psst! Ce graphique est particulièrement utile pour identifier les automatisations (ou bots) approuvant certaines revues.
Lecture du graphique
Pour le graphique suivant, la période affichée correspond aux derniers trois mois et le mode d'affichage est par semaine. En moyenne, nous pouvons voir que 3,1 revues de code sont intégrées sans avoir été révisées par un 2e membre de l'équipe. La tendance (ligne pointillée rouge) est donc à la hausse pour la période en cours.
Dans le cas de cette équipe, l'indicateur de variation nous informe qu'il s'agit d'une augmentation de 49% pour la période en cours comparativement à la période précédente. Pour en savoir plus sur les indicateurs de variation, référez-vous à cet article!
Les revues de code auto-évaluées augmentent le risque d'introduire des bogues ainsi que de la dette technique, comme elles n'ont pas été inspectées par d'autres membres de l'équipe. Les équipes devraient, autant que possible, tenter d'éviter d'intégrer des revues de code auto-évaluées. Maintenir un nombre réduit de revues de code auto-évaluées peut entraîner un meilleur flot de livraison ainsi que davantage de qualité et de collaboration d'équipe.
Calcul de la métrique
Pour le calcul de cette métrique, les revues de code fusionnées à l'intérieur d'une itération qui n'ont reçu aucune révision ou qui ont été révisées par l'auteur de la PR sont considérées. Cela peut également inclure des automatisations ou bots, comme mentionné précédemment.
L'ensemble des revues de code fusionnées et correspondant aux critères précédents sont agrégées par semaine (mois, ou sprint, selon le mode sélectionné) et le nombre moyen par itération est évalué. Ensuite, une moyenne est calculée pour la période sélectionnée et affichée au haut du graphique.