Website speed test

errorURL is not valid

validURL is valid!

Page Speed
Average
First contentful paint: 2.6s
DOM content loaded: 1.1s
Page Load Distributions

FCP

30%
40%
30%

DCL

0% 25% 50% 75%
30%
40%
30%

Fast

Average

Slow

Optimization Suggestions

Retrouvez tous les moyens pour augmenter la vitesse du chargement du site

page_watches 258667 page_stars
img-border

 

Chacun sait qu’un site lent c’est pénible. De graves problèmes dans la solution des tâches quotidiennes apparaissent en raison du site qui freine. Parfois c’est juste agassant. Parfois, le freinage est dû à une panne, un déni de service et les gens partent sans attendre le chargement. Ceci est significatif dans les cas du freinage important du site, par exemple, lorsqu’on voit apparaître le contenu de la page seulement 8-10 secondes après avoir cliqué sur le lien.

Mais même avec des conditions relativement favorables pour les sites (avec une bonne vitesse de chargement des données via une connexion internet par câble et un ordinateur moderne), les délais du chargement peuvent entrainer une perte d’audience et une diminution de taux de conversion. Amazon a mené une expérience dans laquelle il a découvert, que tous les délais de 100ms (0.1s) entrainaient une diminution des ventes de 1 %.

Mais plus de la moitié d’utilisateurs sur Internet utilisent les appareils mobiles pour accéder aux sites. Topiquement, les sites lents utilisent énormément de ressources du serveur, ce qui entraîne des coûts supplémentaires. Le freinage du serveur diminue la capacité de supporter les charges maximales du site.

La vitesse du site doit être abordée d’un point de vue technique et économique. Dans cet article nous allons nous focaliser sur le côté technique de la performance web.

 

La performance web : les composants essentiels

 

La vitesse du chargement du site concerne deux aspects : le client et le serveur. A ce jour, les deux parties sont réciproques dans l’aboutissement au résultat final. Mais chacune possède ses propres caractéristiques.

Afin de comprendre ce qui est le temps de chargement de la page web, observons le process. Au final, nous pourrions comprendre où se trouvent les capacités d’optimisation du serveur et du client.

Le process complet du chargement du site (première visite) est le suivant :

Dans ce process, certaines actions se font en même temps, certaines peuvent changer d’ordre, mais l’essence reste la même.

L’optimisation du serveur concerne les étapes du premier au quatrième inclus. Les étapes 5 à 12 concernent l’optimisation du parcours client. Le temps passé sur chacune de ces étapes est propre pour chaque site, alors vous devez obtenir les statistiques du site en question et identifier la source des problèmes. Regardons comment obtenir et interpréter ces statistiques.

 

Mesurez la performance web

 

La question principale est qu’est-ce qui doit être mesuré ? Il existe beaucoup de mesures de la vitesse des sites, mais seules quelques-unes sont essentielles.

Premièrement, c’est le temps de chargement du premier octet du site ( TTFB – time to first byte). C’est le temps depuis le début du chargement jusqu’à la réception des premiers donnés du serveur. C’est la mesure essentielle pour l’optimisation du serveur.

Deuxièmement, c’est le commencement de l’affichage de la page (début d’affichage, première image). Cette mesure montre le temps jusqu’à l’achèvement de la période « écran blanc » dans le navigateur, quand la page commence à s’afficher.

Troisièmement, c’est le chargement des éléments principaux de la page (le temps de chargement). Cela comprend le chargement et l’interprétation de toutes les ressources de la page. Après avoir obtenu ces caractéristiques, l’indicateur du chargement de la page achève son travail.

Quatrièmement, c’est le chargement complet de la page : le temps avant la fin de l’activité principale du navigateur, quand toutes les ressources principales et secondaires sont chargées.

Ces métriques basiques peuvent être mesurées en quelques secondes. Il est aussi utile de pouvoir mesurer le taux du trafic pour les mesures 3 et 4. Le Traffic doit être connu pour évaluer l’effet de la vitesse de la connexion sur le temps du chargement.

Nous devons comprendre aussi comment tester la vitesse. Il existe beaucoup de services et d’outils, les unes meilleures que les autres, pour évaluer la vitesse du chargement des sites.

L’un des outils le plus puissant est l’onglet de configuration du navigateur. Chrome est le navigateur qui possède les fonctionnalités de configuration les plus avancées. Dans l’onglet du réseau, vous pouvez obtenir toutes les mesures qui concernent le temps de chargement de tous les éléments, y compris le document HTML. Lorsque vous passez la souris sur un élément, vous pouvez voir combien de temps a fallu à chaque étape pour obtenir les données. Vous pouvez aussi aller dans l’onglet de la performance pour évaluer en intégralité le process de chargement de la page. Ici vous trouverez tous les détails jusqu’à le temps que met la page pour décoder les images.

Si vous avez besoin d’estimer la vitesse du chargement du site sans beaucoup de précision, il sera utile de commencer par faire son audit (L’onglet d’Audit). Il pourra être réalisé grâce au plug-in Lighthouse. Dans le rapport, on pourra trouver une estimation de vitesse pour les appareils mobiles et quelques autres rapports.

Pour évaluer rapidement l’optimisation du parcours client, vous pouvez utiliser Google PageSpeed Insights ou Sitechecker (nous utilisons une API de Google PageSpeed Insights). Finalement, il est utile d’analyser le temps de chargement du site par un utilisateur réel. Pour cela, il existe des rapports spécifiques dans le système d’analyse web de Yandex.Metrics et Google Analytics.

Les points de repère pour le temps du chargement du site sont les suivants : le début de l’affichage doit d’être 1 seconde environ, le chargement de la page se fait en 3-5 secondes. Dans un tel cadre, les utilisateurs ne vont pas se plaindre contre la vitesse et le temps de chargement du site et rien ne limitera sa performance. Ces chiffres devraient être atteints par des utilisateurs réels, même dans des conditions d’une mauvaise connexion mobile ou lors de l’utilisation des appareils obsolètes.

 

L’optimisation du serveur

 

Passons à l’accélération du site même. L’optimisation du serveur est la partie la plus compréhensible et évidente pour les développeurs web. Premièrement, il est très facile de surveiller et contrôler la partie du serveur par les administrateurs du système. Deuxièmement, s’il y a de sérieux problèmes avec le temps de réponse du serveur, tout le monde pourra facilement s’en apercevoir indépendamment de la vitesse de la connexion ou de l’appareil.

Alors que les raisons du freinage du côté du serveur peuvent être très différentes, il existe quand même des endroits typiques à regarder en premier.

 

Hébergeur web ( les ressources du serveur)

C’est la raison numéro un du freinage pour de petits sites. Il n’y a juste pas assez de ressources du serveur pour le chargement du site (de vitesse du processeur et du système de disque) . Si vous pouvez augmenter rapidement ces ressources, cela vaut la peine de le faire. Parfois, le problème pourra être résolu. Mais si le coût des ressources supplémentaires devient plus grand que le coût du travail d’optimisation, vous devez étudier les méthodes suivantes.

 

SGBD ( le serveur de la base des données)

Ici nous nous approchons vers la source du problème : la faible vitesse du code de programmation. Parfois l’application web passe la plupart de son temps dans les appels des bases de données. Cela semble logique, car l’application web est amenée à collecter les données et les convertir conformément aux certaines conditions.

Pour résoudre le problème des réponses lentes de la part des bases de données, il faut parfoi passer par deux étapes : régler le SGBD et optimiser les requêtes et les schémas des données. Le réglage de SGBD (par exemple, MySQL) peut forcer l’accélération plusieurs fois, à condition qu’aucun réglage n’a été effectué précédemment. Un réglage affiné pourra donner un effet impressionnant !

Un autre moyen d’accélérer le chargement des sites est l’optimisation des requêtes et des schémas des données. Cette optimisation permettra d’obtenir une accélération de plusieurs ordres de grandeur. Si le changement dans la structure de la base de données peut se faire sans l’intrusion dans le code de programmation du site, l’optimisation des requêtes nécessitera une telle intervention.

Pour identifier les problèmes qui causent le ralentissement, vous devez collecter dans la base des données les statistiques du chargement durant une prériode assez longue. Et ensuite, après l’analyse des données, on pourra identifier les segments à être optimisés.

 

L’effet du SGC et du code deprogrammation

Beaucoup de gens croient que la vitesse du site ne d épend que du système de gestion de contenu (SGC). Les propriétaires des sites essaient parfois de diviser les SGC en rapides et lents. Pourtant faire cela est une erreur.

Certes, le chargement du serveur dépend du code que comporte le SGC utilisé. Cependant, les systèmes les plus connus essaient d’optimiser au maximum la vitesse des sites et les problèmes fatales liés à cette vitesse ne devraient pas y avoir lieu.

Pourtant, le site peut contenir non seulement le SGC code principal, mais des modules complémentaires (plug-ins), des extensions et des modifications apportées par les développeurs du site. Et le code fourni par ces-derniers peut déjà influencer la performance du site.

De plus, des problèmes liés à la performance apparaissent lorsque le système est mal utilisé. Par exemple, la plateforme pour les blogs est utilisée pour créer un magasin. Ou encore le système pour de petits sites est utilisé pour développer un portail.

 

Le cache

Le moyen le plus puissant et universel pour augmenter la vitesse du serveur est traditionnellement le cache. Ici nous parlons de la mise des données dans le cache du côté serveur. Si le calcul du résultat (l’ensemble de la page, du bloc) exige des ressources significatives, mettez le résultat dans le cache et veillez à faire une mise à jour périodique. L’idée est simple et complexe : les systèmes cache sont intégrés dans les langues de programmation, les systèmes de gestion des sites et les serveurs web. La mise d’une page dans le cache réduit le temps d’affichage de celle-ci des dizaines de milliers de secondes. Naturellement, dans ce cas, le serveur peut résister facilement à des pics de fréquentation du site. Deux problèmes se présentent : non pas tout peut être mis dans le cache et il doit être désactivé (refusé). Si ces problèmes sont résolus, la mise en cache des données pourrait être recommandée comme l’un des moyens très efficaces de l’augmentation de la performance du serveur.

 

L’optimisation de TCP, TLS, http/2

Dans cette partie, nous avons combiné les moyens subtils d’optimisation du réseau qui font augmenter la performance du serveur. L’effet atteint ici n’est pas aussi important qu’avec les autres méthodes. Toutefois, il est obtenu exclusivement par le moyen de configuration, c’est-à-dire gratuitement.

L’optimisation du TCP aujourd’hui est requise pour des grands projets et les serveurs avec une connexion à partir de 10G. La chose à retenir : ça vaut la peine de mettre à jour le sous-système du réseau, car celui-ci est renouvelé régulièrement à chaque sortie du nouveau noyau de Linux. Un TLS (HTTPS) bien configuré vous permet d’obtenir un niveau de sécurité élevé et minimiser le temps nécessaire à l’établissement d’une connexion sécurisée. Mozilla a publié de bonnes recommandations à ce sujet.

La nouvelle version du protocole http – http/2 est conçue pour accélérer le téléchargement depuis des sites. Apparu récemment, ce protocole est à ce jour activement utilisé ( par 20% des sites web). En général, le protocole http/2 possède déjà des mécanismes d’accélération bien établis. Le mécanisme principal consiste en une réduction de l’impact des retards de la part du réseau sur le temps de chargement de la page (exige un multiplexage). Pourtant, l’accélération grâce à http/2 n’est pas toujours réussie et de ce fait, ne comptez pas trop sur ce protocole.

 

L’optimisation du parcours client

 

Contrairement à l’optimisation du serveur , le client est touché par tout ce qui se passe dans son navigateur. Pour cette raison, il est difficile de tout contrôler (différents appareils et navigateurs) et de choisir les bonnes techniques d’optimisation. Nous allons examiner les méthodes les plus efficaces et universelles qui pourront être utilisées dans la plupart des projets.

 

L’optimisation du chemin critique : CSS, JS

Le chemin critique du rendu est un ensemble de ressources qui permet le lancement de l’affichage de la page dans un navigateur. Ce procès inclue le HTML, le document même, les styles CSS, les polices et le code JS.

Notre but en tant qu’optimisateurs est de réduire le chemin en termes de temps (en tenant compte des délais du réseau) et de Traffic ( en tenant compte des connexions lentes).

Le moyen le plus facile pour déterminer le chemin critique est de lancer un audit dans Chrome ( dans le panneau de développeurs). Le plug-in Ligthouse déterminera sa composition et le temps de démarrage, tout en tenant compte de la connexion ralentie.

 

La technique principale consiste à réduire le chemin critique : nous enlevons tout ce qui n’est pas utile ou qui peut être reporté. Par exemple, la plupart du code JS peut être différé avant le chargement de la page. Pour effectuer cette manipulation, placez la ressource JS à la fin du document HTML ou utilisez l’attribut async.

Pour éviter le chargement long du CSS , il est possible d’utiliser une combinaison dynamique des styles via JS ( il faut attendre l’événement domContentLoaded).

 

L’optimisation des polices web

L’intégration des polices web dans la conception des sites est devenue presque la norme aujourd’hui. Mais malheureusement, cela influence négativement la vitesse de chargement de la page. Les polices web sont les ressources supplémentaires que vous devez avoir avant de commencer à écrire votre texte.

La situation s’aggrave, car parfois les indicateurs des polices se perdent dans le fichier CSS, le lancement duquel ne se fait pas non plus instantanément . De nombreux développeurs aiment utiliser les services des polices web publiques (par exemple, Google Fonts), qui provoquent encore plus de retards ( les connexions supplémentaires, le fichier CSS).

Les règles d’optimisation ici consistent à réduire la charge du trafic qu’occupent les polices web afin de les afficher le plus rapidement possible.

Pour réduire la charge du trafic, vous devez utiliser les formats modernes : WOFF2 pour les navigateurs récents, WOFF pour la compatibilité. Vous devez, en outre, inclure uniquement des caractères utilisés sur le site ( par exemple, latins ou cyrilliques).

Pour pousser l’affichage rapide des polices web, vous pouvez utiliser les spécifications du nouveau lien rel= « preload » et les propriétés des polices du CSS. Le pré chargement permettra d’informer le plus rapidement le navigateur sur la nécessité de télécharger le fichier des polices. Le font-display permettra de contrôler facilement le comportement du navigateur en cas du retard du fichier (attendre, créer une copie de sauvegarde, ne pas attendre le chargement des polices plus de 3 secondes) .

 

L’optimisation des images

Les images sont l’une des plus grosses charges d’un site moderne. Certes, ces ressources ne sont pas aussi critiques pour le chargement de la page que le CSS et le code JS. Mais pour beaucoup de sites, les images constituent une part important du contenu : c’est le cas, par exemple, des produits dans les boutiques en ligne.

La technique principale pour optimiser les images est de réduire leur taille. Pour le faire, il faut utiliser un format adapté et se servir des outils de compression :

A part ces formats, on a développé également des nouveaux : par exemple, WebP de Google. Ce format peut avoir la même zone d’utilisation que le PNG et le JPEG – il assure la compression avec ou sans perte, la transparence et même l’animation. Pour l’utiliser, il suffit de créer une copie des images en format WebP et les charger dans des navigateurs qui le supportent.

Pour les images en PNG, il y a beaucoup d’outils d’optimisation qui peuvent être utilisés pour réduire la taille, par exemple, PtiPNG, PNGout, ect et d’autres. Il est, par ailleurs, possible d’effectuer une optimisation interne de la compression des données en utilisant zopfliPNG. Le but principal de ce logiciel est de sélectionner les paramètres de compression optimaux en supprimant les données non nécessaires du fichier. Ici vous devez être prudents : dans les modes des certains outils il y des pertes de qualité, ce qui pourrait ne pas vous convenir (si vous vous attendez à ce que l’image ajustée soit conforme à l’original ).

Le processus d’optimisation des fichiers en JPEG est aussi divisé en deux types : avec et sans perte de qualité. En général, il est recommandé d’utiliser le JPEG package de Mozilla, qui est conçu spécialement pour la meilleure compression des images de ce format. Pour une optimisation sans perte, vous pouvez utiliser jpegtran, et avec pertes – cjpeg.

 

La mise en cache des titres

C’est la méthode la plus facile de l’optimisation du parcours client. Il consiste à mettre dans le cache du navigateur les ressources exceptionnels : les images, les fichiers CSS et JS, les polices, parfois même le document HTML. Par conséquent, la sollicitation de chaque ressource au serveur s’effectue qu’une seule fois. Si vous utilisez Nginx, rajoutez simplement une instruction : add_header Cache-Control “max-age=31536000, immutable”;

Dès maintenant, le navigateur est autorisé à mettre en cache les ressources pour une durée d’un an (ce qui correspond presque à une éternité). Le nouveau paramètre « immutable » indique que la ressource ne doit pas être changée.

Une autre question surgit : que faire si jamais on a besoin de changer la ressource mise en cache ? La réponse est simple : changez son adresse, l’URL). Par exemple, vous pouvez ajouter une version au nom du fichier. On peut utiliser cette méthode également pour les documents HTML, mais, en général, pour une durée de mise en cache plus courte ( par exemple, une minute ou une heure).

 

La compression des données

Il est obligatoire de compresser tout texte ou donnée lors de leur transfert depuis un serveur vers le navigateur. La plupart des serveurs web dispose d’un gzip-compresseur des résultats.

Toutefois, l’activation d’une simple compression n’est pas suffisant.

Premièrement, il faut ajuster le taux de compression afin qu’il soit le plus proche du maximum.

Deuxièmement, vous pouvez utiliser la compression statique, c’est-à-dire les fichiers préalablement compressés, et les mettre sur le disque. Le serveur web va ensuite chercher la version compressée et la rendra immédiatement une fois trouvé. Troisièmement, vous pouvez utiliser la compression des algorithmes encore plus efficace : zopfli ( compatible avec gzip) et brotli ( l’algorithme de compression récent). Brotli ne pourra fonctionner qu’avec HTTPS.

Comme la compression de ces algorithmes ( zopfli en particulier) est chère, nous les utilisons toujours dans la version statique.

Pour optimiser l’effet de la compression des fichiers, on applique d’abord le processus de minification : suppression des traductions inutiles des chaines, des espaces, et d’autres caractères superflus. Ce process est spécifique pour chaque format. Vous devez aussi veiller à compresser d’autres données de texte sur le site.

 

Utilisation du RDC

 

Une autre mesure très conseillée pour l’augmentation de la performance web est l’utilisation d’un RDC ( Réseau de diffusion de contenu) où de nombreuses stratégies de marketing visent l’essence de la technologie.

 

Théorie : pourquoi

Initialement, les RDC ont été conçus pour décharger les réseaux internet des diffusions diverses de la part des médias sociaux. Par exemple, lorsque plusieurs milliers de personnes regardent une vidéo en direct, cela crée une charge très importante sur la bande passante du serveur. De plus, il est extrêmement difficile d’assurer une communication de qualité et ininterrompue pour un grand nombre de clients ( à cause des délais et l’instabilité du réseau).

Pour résoudre ce problème, on a créé le RDC, c’est-à-dire un réseau de distribution auquel se connectaient les clients ( par exemple, les spectateurs) et rejoignaient les hôtes d’origine (les diffuseurs ) qui étaient déjà présents sur le serveur. Dans le même temps, le nombre de connexions au serveur était réduit à 1 (ou plusieurs), et le nombre de connexions au RDC pouvait atteindre des millions en raison de la mise en cache du contenu par le réseau.

Aujourd’hui, la plupart des RDC se positionnent comme le moyen d’augmentation de la performance web en réduisant la distance entre le contenu et le client (le visiteur du site).

 

Les effets possibles

Comment pourrais-je augmenter la performance du site en utilisant le RDC ?

Oui, en effet, en règle générale, l’utilisateur se connecte au serveur du réseau le plus proche. Les connexions TCP et TLS sont, ensuite, établies rapidement. Par ailleurs, si le contenu est sur le serveur CDN, l’utilisateur y a accès très vite. La charge sur notre propre serveur est réduite.

Deuxièmement, le RDC ne peut pas juste distribuer le contenu sans le faire changer. Il l’optimise de sa façon et le rend sous une forme plus compacte : les images, le test etc sont compressés. Grâce à ces optimisations, le temps de téléchargement du contenu est réduit.

 

Les désavantages de l’utilisation du RDC

A côté des avantages il y a toujours des inconvénients : il arrive que l’objet ne soit pas disponible dans le cache du nœud RDC . Par exemple, il n’a pas encore été demandé ou ne peut juste pas y être mis (document HTML). Dans ce cas, on fait face à des retards supplémentaires qui sont créés entre le nœud du RDC et notre serveur.

Les RDC sont conçus pour accélérer l’accès au site. Pourtant il y a des situations quand la route du réseau fonctionnerait mieux sans l’utilisation des RDC. Ceci se révèle particulièrement important pour des RDC mondiaux, pour lesquels le marché de la Russie n’est pas la plus grande priorité.

Finalement, les réseaux du contenu constituent des systèmes complexes instables, où très fréquents sont les accidents divers, peu importe le pays. En utilisant les RDC nous ajoutons une complication supplémentaire.

 

Maintenir le résultat

 

Supposons que vous avez réussi à obtenir une bonne performance du site. Les utilisateurs et les propriétaires de la ressource sont heureux. Après cela vous pouvez oublier les problèmes liés à la performance ? Bien sûr que non. Pour que votre site fonctionne bien de manière constante, vous devez tout le temps le surveiller et maintenir.

 

Le maintien de la performance

Tout projet web en ligne est régulièrement mis à jour. Les changements ont lieu dans des modèles courants (les thèmes, interfaces) et dans le contenu. De plus, le code de programmation (client et serveur) change de manière active.

Chaque changement peut affecter la vitesse du site. Pour surveiller cet impact, vous devez mettre en place un système de surveillance synthétique de la vitesse du site au stade du développement de celui-ci. Grâce à cela, les problèmes liés à la vitesse pourront être interceptés avant que les utilisateurs ne les remarquent.

Pour optimiser le contenu entrant, il est nécessaire d’intégrer les procédures d’optimisation dans le système de gestion de contenu. Premièrement, cela concerne le traitement d’image.

La performance des sites est un domaine très dynamique : de nouveaux standards apparaissent et leur support par les navigateurs change. Par conséquent, il est important de vérifier régulièrement les technologies du projet, des processus et logiciels utilisés.

 

La surveillance de la performance pour les utilisateurs réels

Les test synthétiques dans des conditions laboratoires idéales sont certes très utiles pour évaluer les changements dans le code du système, mais ce n’est pas suffisant. En fin de compte, nous voulons que le site soit performant pour des utilisateurs réels. Pour collecter ce genre d’information, il existe un outil de surveillance de la vitesse du site, telle que la perçoivent les utilisateurs (RUM – real user monitoring).

Pour mettre en place le RUM, il suffit de lancer l’un des systèmes d’analyse ( Yandex.Metrica, Google Analytics) et observer les rapports sur le temps de chargement du site.

 

Conclusions

Le sujet de la performance web, qui affecte de nombreux aspects de la conception et de la maintenance d’une application web : depuis le code serveur jusqu’à contenu, est assez vaste. Cela signifie, qu’il est impossible d’obtenir de bons résultats sans y impliquer une équipe qui veillera à son développement.

La chose la plus importante à retenir : pensez aux utilisateurs, tenez compte des conditions différentes dans lesquels ils utilisent le site. L’augmentation de la performance du site est un processus qui peut être plus ou moins réussi pendant les étapes différentes du projet.

1 Star2 Stars3 Stars4 Stars5 Stars (16 votes, average: 4.63 out of 5)
Loading...

Interesting now

Découvrez le PageRank Google et apprenez à vous en servir

Google et tous les autres moteurs de recherche ont pour objectif de présenter à leurs utilisateurs les résultats de recherche les plus pertinents. De nombreux facteurs sont utilisés pour évaluer

Explorez le rôle des meta mots-clés dans l’optimisation SEO

Découvrez des informations utiles sur le rôle actuel des meta mots-clés. Suivez les instructions pour travailler efficacement avec eux.

La clarification du SEO et son importance pour des petites entreprises

Dans le cas où vous n’avez pas d’expérience en SEO et n’avez personne pour vous aider, vous pouvez quand même entreprendre quelques mesures pour améliorer vous-même votre SEO. Ce n’est

Explorez la différence entre les liens Do Follow et No Follow pour le SEO

Que vous soyez expérimenté dans le domaine du SEO ou que vous découvriez cette discipline, la question de l’utilisation des liens « nofollow » se posera tôt ou tard. Si vous êtes débutant,

Les fausses idées reçues sur le sitemap XML

Le sitemap Google XML est un outil SEO puissant. Beaucoup d’experts l’utilisent au quotidien pour améliorer la popularité de leurs créations en ligne et attirer de nouveaux utilisateurs

De bonnes alternatives à Google pour ceux qui en ont marre

Cette statistique va vous choquer : 65%, c’est le pourcentage de la population mondiale qui utilise Google comme moteur de recherche principal. Les internautes entendent fréquemment parler des

Show more

sent-mail

The password link was sent to you by email

The password changed