Pourquoi les données CrUX sont-elles différentes de mes données RUM ?

Découvrez pourquoi les données RUM peuvent présenter des chiffres Core Web Vitals différents de ceux de l'expérience CrUX.

Barry Pollard
Barry Pollard

Le rapport sur l'expérience utilisateur Chrome fournit des métriques sur l'expérience utilisateur, qui montrent comment les utilisateurs réels de Chrome découvrent des destinations populaires sur le Web. Ces données sont automatiquement collectées par Chrome auprès des utilisateurs qui ont activé cette fonctionnalité. Elles sont mises à disposition selon les critères d'éligibilité de l'expérience utilisateur Chrome (CrUX).

Les données CrUX sont donc disponibles pour des millions de sites Web. De nombreux propriétaires de sites n'avaient pas accès aux données réelles auparavant, et le programme CrUX a permis à de nombreux sites de voir la valeur de cette fonctionnalité pour la première fois. En tant qu'ensemble de données public, l'expérience utilisateur CrUX peut également être utilisée pour l'analyse concurrentielle et l'analyse comparative des métriques d'expérience utilisateur.

La surveillance des utilisateurs réels est semblable à la méthode CrUX, mais au lieu de collecter automatiquement les métriques d'expérience utilisateur, du code est inclus sur les sites Web pour effectuer cette collecte et le transmettre à un fournisseur RUM ou à une solution d'analyse en vue d'une analyse plus approfondie.

Les deux solutions mesurant les métriques d'expérience utilisateur, il est naturel de supposer qu'elles doivent être équivalentes. Cela peut être déroutant quand nous observons des différences. Ce guide explique pourquoi cela peut se produire et propose des suggestions de mesures à prendre en cas de divergence entre les chiffres.

Avantages d'une solution RUM pour compléter l'expérience utilisateur Chrome (CrUX)

L'expérience utilisateur Chrome (CrUX) est un excellent outil pour obtenir une vue cohérente sur l'ensemble des sites. En tant qu'ensemble de données officiel du programme Core Web Vitals, les sites voudront probablement garder un œil sur ce qui s'affiche. L'expérience utilisateur Chrome (CrUX) vise à fournir un aperçu statistiquement pertinent de millions de sites Web à des fins de comparaison croisée.

Toutefois, si vous voulez en savoir plus sur pourquoi les données indiquent de tels chiffres, investir dans une solution RUM complète pour compléter l'expérience utilisateur CrUX peut vous donner accès à des informations plus détaillées qu'un ensemble de données pouvant être interrogé publiquement. Cela peut vous aider à expliquer et à améliorer vos métriques de plusieurs façons.

Analyse plus approfondie des problèmes

L'expérience utilisateur Chrome (CrUX) permet souvent de signaler si vous rencontrez un problème sur votre site, mais pas nécessairement l'emplacement exact du problème ni la raison de ce problème. Les solutions RUM, qu'elles aient été développées en interne par l'outil comme la bibliothèque web-vitals ou par certains des nombreux produits commerciaux, peuvent aider à combler ce fossé.

L'utilisation d'une solution RUM vous donne accès à des données beaucoup plus détaillées pour l'ensemble de vos pages et dans tous les navigateurs. Il vous permet également de segmenter et d'analyser ces données à la différence de l'expérience utilisateur Chrome (CrUX), ce qui vous permet d'examiner en détail les zones problématiques du site. Sont-ils affectés par un segment particulier d'utilisateurs ? Ou des utilisateurs qui effectuent certaines actions ? Quand exactement le problème a-t-il commencé ? Il est beaucoup plus facile de répondre à ces questions à l'aide des données supplémentaires fournies par un outil RUM.

établir une corrélation avec d'autres métriques métier ;

Le RUM vous permet également de comparer directement vos métriques de performances Web à n'importe quelle métrique métier, afin de déterminer l'importance des investissements dans les performances et les autres tâches à prioriser en termes de performances. Nous avons de nombreuses études de cas sur des entreprises établissant cette corrélation, par exemple Farfetch ou The Economic Times.

Collecter d'autres données de performances

Une solution RUM permet de collecter d'autres métriques personnalisées, directement liées à votre activité spécifique. "Time to first Tweet" est l'un des exemples les plus connus de Twitter. la métrique. Ces mesures spécifiques au site peuvent ensuite être mises en corrélation avec les améliorations des métriques Core Web Vitals et les métriques commerciales.

Différences entre deux ensembles de données de champ

Un homme avec une montre sait quelle heure il est. Un homme avec deux montres n'est jamais sûr.

Loi ségal

Lorsque vous disposez de deux sources de données, il peut souvent être déroutant et frustrant de comprendre pourquoi elles diffèrent. Tout comme il est important de comprendre la différence entre les métriques de laboratoire et de champ, il peut également y avoir des différences entre deux sources de données de champ. Bien que les données soient identiques dans un monde idéal, elles peuvent varier pour de nombreuses raisons.

Données de laboratoire et données réelles

Tout d'abord, vérifiez si vous vous intéressez à des métriques de laboratoire (synthétiques) ou de champs (RUM). Bien qu'il soit naturel de supposer que les produits RUM n'examinent que les données réelles, beaucoup proposent également un composant d'atelier.

Les données de laboratoire sont incroyablement utiles, précisément en raison des conditions fixes dans lesquelles elles se mesurent. Il peut être utilisé pour surveiller les modifications ou régressions inattendues dans un environnement de production sans le bruit d'une population de terrain changeante. Cependant, il est possible que les données de laboratoire ne soient pas représentatives de l'expérience utilisateur réelle, et les métriques de terrain peuvent donc donner des résultats très différents.

Populations

Les ensembles de données utilisés par les solutions CrUX et RUM peuvent varier, car les visites de pages ne sont pas mesurées de la même façon, selon les navigateurs, les utilisateurs, les sites et les appareils comparés.

Navigateurs inclus

Comme son nom l'indique, le rapport d'expérience utilisateur Chrome ne concerne que Chrome. Bien qu'il existe de nombreux navigateurs basés sur Chromium (Edge, Opera et Brave, pour n'en citer que quelques-uns) qui acceptent les mêmes métriques que Chrome étant donné le codebase central partagé, seuls les utilisateurs de Chrome fournissent des données à CrUX. Cette restriction signifie également que les utilisateurs de Chrome sur iOS ne sont pas inclus, car il utilise le moteur de navigateur WebKit sous-jacent. Les WebViews Android ne sont pas non plus comptabilisées en tant que "Chrome". Par conséquent, les données de ces utilisateurs ne sont pas incluses, bien que les onglets personnalisés Chrome le soient.

Bien que Chrome soit l'un des navigateurs les plus populaires au monde, et qu'il fournisse donc probablement une représentation large des performances de votre site dans la plupart des cas, mesurer ce navigateur n'est en aucun cas une mesure de tous vos utilisateurs. Cela peut expliquer l'une des principales différences entre le RUM et l'expérience utilisateur Chrome (CrUX). Cela est particulièrement vrai pour les techniques axées sur les performances qui reposent sur des API ou des formats d'image disponibles uniquement dans Chrome, par exemple.

Le manque de données iOS peut également entraîner des biais. Par exemple, car les utilisateurs iOS utilisent généralement des appareils plus performants ou se rendent dans un plus grand nombre de pays disposant d'une meilleure infrastructure réseau, vous pouvez obtenir des métriques de performances globales élevées. En revanche, si vous les excluez, comme le fait l'expérience utilisateur CrUX, les données risquent d'être faussées pour la catégorie inférieure des visiteurs du site (exemple d'étude de cas). Les utilisateurs Android couvrent généralement un plus grand nombre d'appareils, de fonctionnalités et de marchés.

Les solutions RUM peuvent obtenir des données pour les navigateurs autres que Chrome, en particulier depuis les navigateurs basés sur Chromium qui intègrent souvent les mêmes métriques (comme les Core Web Vitals). Les navigateurs non basés sur Chromium sont également mesurés par des solutions RUM, mais l'ensemble de métriques peut être plus limité. Par exemple, les paramètres CLS (Cumulative Layout Shift) et Interaction to Next Paint (INP) ne sont disponibles que dans les navigateurs Chromium. D'autres métriques, comme First Contentful Paint (FCP), peuvent être mesurées de façon très différente (voir plus loin).

Utilisateurs inscrits

En plus d'être limité aux utilisateurs de Chrome, l'expérience utilisateur Chrome est encore limitée par le fait de ne mesurer qu'un sous-ensemble d'utilisateurs de Chrome qui ont accepté de partager les données CrUX lors de l'installation du navigateur.

De plus, les fournisseurs de RUM ne tiennent compte que d'un sous-ensemble d'utilisateurs, généralement en raison des invites de bannières de cookies (qui demandent aux utilisateurs d'activer la collecte de données RUM) ou des blocages de suivi. Cela peut avoir un impact négatif sur certains chargements de page initiaux si la confirmation n'est donnée que pour la deuxième page ou les suivantes, lorsque certains éléments du site ont déjà été mis en cache à partir des pages précédentes. Si cela se produit fréquemment, les métriques peuvent sembler plus favorables pour le RUM qu'elles ne le sont en réalité si les chargements de page initiaux plus lents sont exclus dans un nombre suffisant de cas.

Sites inclus

L'expérience utilisateur Chrome (CrUX) n'est destinée qu'à générer des rapports sur des sites Web publics. D'autres critères d'éligibilité peuvent donc empêcher l'enregistrement de vos données dans ce rapport. Le plus notable de ces critères est que le site Web doit être accessible au public et suffisamment populaire pour garantir une taille d'échantillon minimale permettant de tirer des conclusions significatives. Dans la plupart des cas, aucune donnée ne sera disponible dans l'expérience utilisateur Chrome (CrUX). Il s’agit moins d’une différence déroutante par rapport aux données disponibles, mais différentes, mais cela explique pourquoi cela se produit.

Toutefois, si des pages spécifiques d'un site sont marquées comme indexables, mais que d'autres ne le sont pas, il est possible qu'un sous-ensemble d'URL ne s'affiche que dans l'expérience utilisateur Chrome (CrUX). Si l'origine est visible publiquement, toutes les pages vues au sein de cette origine seront incluses dans les données au niveau de l'origine. Toutefois, il est possible que les données au niveau de l'URL ne soient pas disponibles.

Appareils

L'expérience utilisateur Chrome (CrUX) segmente les données selon les mobiles, les ordinateurs et les tablettes. Toutefois, de nombreux outils se concentrent sur les deux premiers et peuvent ne pas présenter les données des tablettes, ou les inclure dans les données pour mobile ou pour ordinateur. Les caractéristiques de performances sur mobile et sur ordinateur peuvent être très différentes, tant en termes de contenu diffusé que de capacités des appareils qui le consultent.

Les données RUM permettent de segmenter le trafic de la même manière, mais affichent souvent des données consolidées par défaut. Il est possible que le RUM ne permette la segmentation que par type d'appareil (par exemple, mobile) ou par navigateur (par exemple, Chrome), mais pas les deux pour n'afficher que le trafic Chrome sur mobile. Lorsque vous comparez les données CrUX aux données CrUX, assurez-vous de les comparer exactement par type d'appareil et par navigateur Chrome.

Échantillonnage

Les solutions RUM permettent généralement d'ajuster le taux d'échantillonnage des visiteurs qui acceptent la collecte de données. Cela peut être utilisé pour réduire le volume de données à analyser et pour réduire les coûts des services commerciaux de RUM. Si cet échantillon est trop petit et qu'il n'est pas représentatif de la population au sens large, les métriques obtenues seront également biaisées de la même manière. Discutez avec votre fournisseur RUM de la taille d'échantillon appropriée pour votre site.

Agrégation des données

De par leur nature même, les données de terrain incluront de nombreux points de données présentant les mêmes métriques que les données de laboratoire, ce qui ne donnera qu'une seule valeur. Si ces données sont agrégées différemment pour la création de rapports, cela peut aussi expliquer les différences entre l'expérience utilisateur Chrome (CrUX) et le RUM.

Période

Les données CrUX sont basées sur une période de trafic glissante de 28 jours. Il n'est pas possible de modifier cette période. Toutefois, les données BigQuery CrUX sont stockées chaque mois, ce qui vous permet de voir les mois précédents, et l'API CrUX History fournit également des données historiques sur une période hebdomadaire. Les deux fournissent toujours des données basées sur la période glissante de 28 jours.

Les données RUM offrent généralement une plus grande précision pour permettre de voir l'impact des modifications beaucoup plus tôt. Toutefois, lorsque vous choisissez des périodes plus courtes, les données du RUM peuvent être indûment affectées par les fluctuations du trafic sur le site Web et des visiteurs. Lorsque vous comparez les données RUM aux données CrUX, veillez toujours à examiner les performances sur une période de 28 jours. Une fois que vous êtes satisfait que les données sont similaires, vous pouvez examiner d'autres périodes pour explorer les données RUM.

Agrégation de statistiques

Les métriques d'expérience utilisateur Chrome (CrUX) sont mesurées au 75e centile, c'est-à-dire en fonction de la valeur atteinte par 75% des pages vues. Vous constaterez des extrêmes dans les données réelles et, en supprimant les 25% d'expériences les moins satisfaisantes, l'objectif est d'attribuer une valeur à laquelle la majorité des visiteurs peut raisonnablement s'attendre.

Les produits RUM offrent souvent un plus grand nombre d'options pour agréger les métriques, y compris le 75e centile, la médiane et d'autres centiles. Si vous comparez les valeurs RUM aux données d'expérience utilisateur Chrome (CrUX), vous devez vous assurer que vous examinez les données du 75e centile pour effectuer des comparaisons similaires.

Les données de l'histogramme en termes d'expérience utilisateur Chrome (CrUX) incluent toutes les données disponibles (et pas seulement le 75e centile) et indiquent le nombre de pages vues pour chaque note. Toutefois, le score global est basé sur le 75e centile. Ces données CrUX sont disponibles dans des outils tels que PageSpeed Insights:

<ph type="x-smartling-placeholder">
</ph> Capture d&#39;écran de PageSpeed Insights montrant les histogrammes de chargement de la page d&#39;évaluation LCP
PageSpeed Insights affiche les données de l'histogramme et du 75e centile d'expérience utilisateur Chrome.

Différences au niveau des métriques

De nombreuses métriques sont utilisées pour mesurer les performances Web. Par conséquent, lorsque vous comparez deux ensembles de données différents, il est important de comprendre quelles métriques sont mesurées et comment elles sont utilisées.

Métriques mesurées

Les données CrUX constituent l'ensemble de données officiel de l'initiative Core Web Vitals. Elles mesurent principalement ces métriques (LCP, CLS et INP), accompagnées de quelques métriques supplémentaires.

Les outils RUM incluent généralement ces Core Web Vitals, mais incluent souvent de nombreuses autres métriques. Certains fournisseurs de RUM mesurent également l'expérience utilisateur à l'aide de leur propre combinaison de toutes ces métriques, peut-être pour donner un « indice de bonheur ». par exemple. Lorsque vous comparez des données RUM aux données CrUX, assurez-vous que vous effectuez une comparaison similaire.

Les outils qui évaluent l'état de réussite ou d'échec des Core Web Vitals doivent tenir compte de la réussite d'une page si elle répond aux cibles recommandées au 75e centile pour tous les Core Web Vitals. Si INP n'est pas présent pour les pages sans interactions, seuls le LCP et le CLS doivent être transmis.

Différences entre les métriques selon les navigateurs

L'expérience utilisateur Chrome ne mesure l'expérience utilisateur que dans les navigateurs Chrome. Vous pouvez consulter les journaux de modifications Web Vitals pour découvrir comment ces modifications s'appliquent à chaque version de Chrome.

Les solutions RUM, quant à elles, effectuent des mesures à partir d'un plus grand nombre de navigateurs. Les navigateurs basés sur Chromium (Edge, Opera, etc.) seront probablement semblables à Chrome, sauf si Chrome apporte de nouvelles modifications, comme indiqué dans le journal des modifications.

Pour les navigateurs autres que Chromium, les différences peuvent être plus marquées. First Contentful Paint (FCP), par exemple, est disponible dans Safari et Firefox, mais est mesuré différemment. Cela peut entraîner des écarts significatifs de la période couverte. Comme indiqué précédemment, si vous souhaitez comparer le RUM à l'expérience utilisateur Chrome (CrUX), il est préférable de filtrer uniquement les utilisateurs de Chrome pour permettre une comparaison similaire.

Chronologie des métriques

Les métriques Core Web Vitals sont fournies par des API de navigateur Web, mais cela ne signifie pas qu'il n'existe pas de divergence potentielle entre les valeurs rapportées à l'aide de ces métriques. Des écarts peuvent apparaître au moment exact la mesure des métriques est effectuée (lors du chargement de la page ou tout au long du cycle de vie de la page). Les outils RUM ne mesurent pas toujours les métriques de la même manière (même en utilisant les mêmes noms) et les mêmes API de navigateur pour obtenir les données, ce qui peut prêter à confusion.

Le LCP (Largest Contentful Paint) est une métrique de chargement de page. Un certain nombre d'éléments LCP peuvent être signalés par l'API Web si des éléments plus volumineux sont chargés ultérieurement après le rendu initial. Le dernier élément LCP se produit lorsque le chargement de la page se termine ou lorsque l'utilisateur interagit avec elle. Par conséquent, des différences peuvent survenir si l'élément LCP est signalé plus tôt que ces deux événements.

De plus, dans les données de champ, l'élément LCP peut varier en fonction du chargement de la page. Pour un chargement de page par défaut affichant le contenu en haut de la page, l'élément LCP dépend principalement de la taille de l'écran. Toutefois, si la page est ouverte avec un lien d'ancrage plus bas dans le document, ou si elle est également ouverte avec un lien profond dans une application monopage (nous y reviendrons plus tard), l'élément LCP peut être différent.

Ne partez pas du principe que les durées LCP fournies dans CrUX ou RUM sont basées sur le même élément que les outils de l'atelier. Bien que l'expérience utilisateur CrUX vous donne la valeur LCP globale par page ou par origine, RUM peut segmenter davantage cette donnée pour identifier les sessions individuelles liées à des problèmes liés au LCP.

La métrique CLS (Cumulative Layout Shift) est mesurée tout au long de la durée de vie de la page. Il est donc possible que le CLS de chargement initial ne soit pas représentatif des pages qui entraînent des décalages plus importants par la suite, après le chargement de la page et une interaction de l'utilisateur. Si vous prenez la valeur CLS uniquement après le chargement de la page (comme c'est le cas pour de nombreux produits RUM), vous obtiendrez un résultat différent de celui obtenu une fois que l'utilisateur aura terminé de consulter la page.

La métrique de réactivité Interaction to Next Paint (INP) nécessite la mesure d'une entrée et observe toutes les interactions (clics, appuis et clavier) tout au long de la page, comme le CLS. La valeur indiquée pour l'INP peut donc être très différente si elle est mesurée après que l'utilisateur a effectué un certain nombre d'interactions sur la page.

L'expérience utilisateur Chrome se base sur la documentation Core Web Vitals et les mesure tout au long de la durée de vie de la page. De nombreux fournisseurs de RUM choisissent de mesurer ces métriques après le chargement de la page ou à un autre moment (par exemple, lorsqu'un utilisateur clique sur une incitation à l'action clé) pour diverses raisons.

Lorsque vous constatez des écarts inexpliqués entre les deux sources de données, il est important de déterminer auprès de votre fournisseur RUM quand les Core Web Vitals sont mesurés.

Applications monopages

Les applications monopages fonctionnent en mettant à jour le contenu de la page active, plutôt qu'en effectuant de véritables navigations de page au niveau du navigateur. Cela signifie que le navigateur ne les considère pas comme des navigations de page, bien que les utilisateurs les voient comme tels. Les API Core Web Vitals fournies par le navigateur ne tiennent pas compte de ces éléments. Par conséquent, l'expérience utilisateur Chrome (CrUX) n'est pas compatible avec ces navigations sur les pages. Nous travaillons actuellement à la résolution de ce problème. Pour en savoir plus, consultez le post intitulé Tester la mesure des navigations logicielles.

Certains fournisseurs de RUM tentent de détecter les "navigations logicielles" dans les applications monopages, mais si elles attribuent aussi les métriques Core Web Vitals à ces "navigations logicielles" cela entraînera des différences avec l'expérience utilisateur Chrome, car les API sous-jacentes ne le prennent pas en charge pour de nombreuses métriques.

Différences entre CrUX et les API Web

Outre les différences concernant les types de pages vues mesurés et les éléments mesurés, il existe d'autres scénarios plus complexes à prendre en compte, qui peuvent entraîner des différences au niveau des données CrUX et RUM. Certaines d'entre elles sont dues aux limites des API Web utilisées pour mesurer les métriques, tandis que dans d'autres, les résultats renvoyés par l'API doivent être traités différemment dans certains cas. La documentation Core Web Vitals répertorie ces différences pour le LCP et le CLS, mais les principales différences sont également indiquées dans les sections suivantes.

Cache amélioré

L'expérience utilisateur CrUX considère les restaurations du cache amélioré (ou bfcache) comme des navigations de page, même si elles n'entraînent pas de chargement de page classique. Étant donné que les API Web ne les traitent pas comme un chargement de page, les solutions RUM doivent prendre des mesures supplémentaires pour que ces pages soient comptabilisées si elles souhaitent correspondre à l'expérience utilisateur Chrome (CrUX). Ces chargements de page considérablement plus rapides peuvent entraîner de meilleures performances globales pour un site. Par conséquent, si vous ne les incluez pas, les métriques de performances globales de la page risquent d'être moins bonnes. Consultez votre solution RUM pour savoir si elle gère les pages restaurées via le cache amélioré.

Cadres iFrame

Pour des raisons de sécurité et de confidentialité, les pages de premier niveau n'ont pas accès au contenu des iFrames (pas même des iFrame de même origine). Cela signifie que les métriques de performances du contenu dans ces cadres ne peuvent être mesurées que par l'iFrame lui-même, et non par le biais des API Web sur la page d'encadrement. Si le contenu de l'iFrame inclut l'élément LCP ou le contenu ayant un impact sur le CLS ou l'INP de l'utilisateur, les solutions RUM (y compris la bibliothèque JavaScript Google Web Vitals) n'y auront pas accès.

Toutefois, l'expérience utilisateur CrUX, mesurée par le navigateur Chrome lui-même plutôt que par JavaScript sur la page, ne présente pas ces limites. Elle mesure aussi les métriques au sein des iFrames lors de la création de rapports Core Web Vitals. Cela reflète plus précisément l'expérience de l'utilisateur, mais cela peut également expliquer des différences pour les sites utilisant des iFrames.

Un exemple concret de l'existence de différences entre les données LCP dans CrUX et RUM est l'intégration de <video>. Le premier cadre peint d'un élément <video> en lecture automatique peut être considéré comme un candidat LCP, mais les intégrations pour les services de streaming vidéo populaires peuvent placer ces éléments dans un élément <iframe>. CrUX peut en tenir compte, puisqu'il peut accéder au contenu <iframe>, mais pas les solutions RUM.

Ressources multi-origines

Les médias LCP diffusés à partir d'autres domaines ne donnent pas de délai d'affichage dans l'API PerformanceObserver, sauf si l'en-tête Timing-Allow-Origin (TAO) est fourni, en raison des restrictions de sécurité du navigateur visant à réduire la durée des attaques. Cette valeur repose sur le temps de chargement de la ressource, mais elle peut être très différente de la date à laquelle le contenu a été affiché.

Cela peut entraîner une situation apparemment impossible où le LCP est signalé par les API Web comme étant antérieur au FCP. Ce n'est pas le cas, mais cela est dû aux restrictions de sécurité qui s'appliquent.

Là encore, l'expérience utilisateur CrUX indique les données de délai d'affichage pour les métriques Core Web Vitals. Il est conseillé aux sites de limiter le contenu multi-origine ayant un impact sur les métriques Core Web Vitals et d'activer les données TAO dans la mesure du possible s'ils souhaitent mesurer cela plus précisément. D'autres ressources multi-origines peuvent être soumises à des restrictions similaires.

Onglets en arrière-plan

Lorsqu'une page n'est pas ouverte dans un onglet en arrière-plan, elle continue d'émettre des métriques à l'aide des API Web. Cependant, elles ne sont pas signalées par l'expérience utilisateur Chrome, car elles donnent des délais qui ne correspondent pas à l'expérience utilisateur. Les solutions RUM doivent également envisager de les ignorer ou, du moins, d'expliquer comment ces pages vues sont traitées.

Que pouvons-nous faire ?

Nous avons expliqué pourquoi il peut exister des différences entre les données CrUX et RUM, soit en raison des différences de méthodologie que chacune utilise, soit en raison des utilisateurs et des pages vues qui sont inclus ou exclus. Dans l'idéal, ces deux ensembles de données seront tout de même représentatifs des performances de votre site. Toutefois, les raisons invoquées doivent expliquer pourquoi il est très peu probable qu'ils obtiennent exactement les mêmes chiffres dans chacun d'eux.

En cas de légères différences (par exemple, un LCP de 2 secondes contre 2,2 secondes), les deux ensembles de données sont utiles et peuvent généralement être considérés comme étant à peu près synchronisés.

Lorsque des différences prononcées vous font remettre en question l'exactitude des données, vous devez essayer de les comprendre. Est-il possible de filtrer les données RUM pour être plus proches de l'expérience utilisateur Chrome (en considérant uniquement les utilisateurs de Chrome, pour ordinateur ou mobile, avec des valeurs du 75e centile sur 28 jours) afin de réduire ces différences ?

Si c’est le cas, et vous pouvez faire correspondre les données plus étroitement, vous devez quand même vous demander pourquoi vous constatez ces différences dans les données globales et ce que cela signifie. Les utilisateurs qui n'utilisent pas Chrome faussent-ils vos métriques de façon positive ou négative ? Ces informations vous aident-elles à identifier les problèmes de performances que vous pouvez prioriser ?

Si vos utilisateurs qui n'utilisent pas Chrome obtiennent des résultats différents, vous pouvez utiliser les informations précieuses fournies par RUM pour optimiser les résultats de manière différente. Par exemple, certaines API ne sont pas disponibles dans certains navigateurs, mais vous pouvez envisager des alternatives pour les navigateurs non compatibles afin d'améliorer également leur expérience. Vous pouvez également offrir une expérience différente, mais plus performante, aux utilisateurs qui utilisent des appareils ou des réseaux limités. L'expérience utilisateur Chrome (CrUX) est limitée aux données Chrome, mais vous devez prendre en compte expériences afin d’aider à hiérarchiser les améliorations. Les données RUM peuvent combler ce manque.

Une fois que vous avez compris les raisons des différences, ces deux outils peuvent s'avérer incroyablement utiles pour comprendre l'expérience utilisateur sur votre site Web et vous aider à améliorer ce résultat, même si les chiffres ne sont pas identiques. Utilisez vos données RUM pour compléter les données d'expérience utilisateur Chrome (CrUX) et vous permettre d'approfondir ce que l'expérience utilisateur Chrome vous indique à un niveau élevé. Pour cela, segmentez votre trafic afin de déterminer si certaines parties de votre site ou de votre base d'utilisateurs requièrent votre attention.

Il est souvent plus important d'examiner les tendances pour constater les améliorations qui ont les effets positifs attendus que d'avoir une correspondance exacte entre les deux sources de données. Comme mentionné précédemment, RUM vous permet d'examiner différentes périodes afin d'obtenir un aperçu anticipé de vos scores CrUX sur 28 jours. Toutefois, examiner des périodes trop courtes peut générer du bruit dans les données, d'où la raison pour laquelle CrUX utilise 28 jours.

Il n'y a souvent pas de "droit" ou "mauvaise" répondre à ces différentes métriques. Il s'agit simplement d'une autre perspective sur vos utilisateurs et sur la façon dont ils utilisent votre site. Tant que vous comprenez pourquoi ces différences se produisent et ce que cela peut faire pour orienter votre prise de décision, c'est ce qui est plus important pour mieux répondre aux besoins des visiteurs de votre site.

Remerciements

Vignette de Steven Lelham sur Unsplash