Tout savoir sur l'entrepreunariat de la propreté

Technologie, technique, administratif, législation, fournisseur, bons plans...



 
Posté le

Lorsque quelqu'un tape "Entreprise de nettoyage" sur Google, comment ressortir en premier résultat ?


Comment est né le référencement internet ?

Avant de vous donner le secret de la réussite sur Google, il faut d'abord que vous compreniez comment on en est arrivé à devoir créer un site web pour être vu par nos prospects...



Internet n'est pas un disque dur sur lequel on dépose des fichiers mais un moyen d'accéder à des machines à distances.

Avant les noms de domaines

Au tout début d'internet, vous pouviez stocker des fichiers sur votre ordinateur ou votre serveur, puis communiquer l'adresse ip à quelqu'un pour qu'il puisse y accéder à distance.
Il lui fallait alors entrer une suite de chiffres, par exemple : 215.148.21.6 pour qu'il puisse voir ce que contenait votre appareil connecté à cette adresse ip.

Jusqu'ici c'est assez simple à comprendre (j'ai beaucoup simplifié, le but ici n'est pas de vous aider à paramétrer un serveur mais d'avoir quelques bases), si un plombier, un carreleur, une société de nettoyage voulait créer son site internet, il lui suffisait de l'héberger sur son serveur puis de communiquer l'adresse ip à ses clients.

On est d'accord, ce n'était pas pratique et pas très valorisant ! C'est pour cette raison que les noms de domaines ont été créés, (.com, .org, .net, .info, puis les noms de domaines par pays, .co.uk, .it, .fr, .de.... Puis les extensions de domaines .bnpparibas .paris encore peu utilisés à ce jour...).

Après les noms de domaines

N'importe qui peut donc déposer un nom de domaine auprès d'un bureau d'enreigstrement / registrar, puis le pointer vers l'adresse ip du serveur connecté à une ligne téléphonique (internet). Ainsi losqu'on entrera le nom de domaine dans la barre d'adresse d'un navigateur, le serveur correspondant chargera la page d'accueil du site web (DNS).

Nous avions désormais des machines sur lesquelles nous pouvions héberger des données (photo, vidéo, page web), et accessibles à distance grâce aux lignes téléphoniques / réseaux en écrivant facilement et simplement un nom de domaine (contrairement à une suite de chiffres que sont les adresses ip).

Des milliers de nouveaux sites web mais comment les trouver ?

Mais alors qu'il existait un annuaire pour les adresses postales (pages jaunes), ou des catalogues / annuaires locaux pour les entreprises (notamment dans les journaux papiers), il n'existait aucun annuaire pour les sites web. Et surtout, inimaginable d'imprimer la liste des sites web...

Rapidement beaucoup de sociétés ont cherchées un moyen de référencer ces centaines / milliers / millions de sites web qui se créaient tous les jours, et de plus en plus... pour pouvoir les proposer à ceux qui recherchaient un carreleur, un maçon, un plombier, un restaurant ou une société de nettoyage (bon à l'époque on cherchait plus des forums, des photos, des vidéos, du loisir, plutôt qu'un professionnel)...

Pour commencer des entreprises spécialisées dans l'informatique ont mis en place des machines / automatismes / robots (dans le jargon on appelle cela des crawlers), qui intérrogeaient h24 7jours sur 7 toutes les combinaisons d'adresses ip possibles... 215.261.0.1, 215.261.0.2,, 215.261.0.3, 215.261.0.4... pour les enregistrer dans leurs bases de données et pouvoir les faire ressortir plus tard lors d'éventuelles recherches.

Ils ne récupèraient pas juste le nom de domaine, mais l'ensemble des données contenues dans la page pour pouvoir les exploiter ensuite.

La naissance des moteurs de recherche

Lycos, Altavista, Yahoo, Google, AOL, Bing et bien d'autres naissent les uns après les autres pour proposer aux internautes de trouver des sites web en entrant des mots clés. Dès qu'ils entrent ces mots clés, leurs robots font des recherches dans leurs immenses bases de données pour leur donner une dizaine de résultats correspondant à ce qu'ils cherchent.

La qualité des résultats, le lingot d'or des moteurs de recherche

Rapidement, les éditeurs de site web ont commencé à abuser et à mettre tous les mots clés du dictionnaire dans leurs sites web, pour toujours ressortir dans les résultats de recherche. Quoi qu'on écrive...
Un enfer pour les moteurs de recherche... Car si les internautes ne trouvent pas ce qu'ils cherchent, ils arrêteront d'utiliser leurs services !

Les techniques des moteurs de recherche pour filtrer les sites web qui trichent

Les moteurs de recherche ont alors commencé à proposer des standards, des balises meta (à intégrer dans le code source des pages web) et autres, limitées en caractères pour que les éditeurs fassent un choix et tenter de limiter les abus. Si ils voulaient être référencés, ils devaient respecter les règles des moteurs de recherche. Mais plus le temps passait, et plus les éditeurs trichaient avec des supterfuges...

Les moteurs de recherche ont cherché d'autres moyens pour identifier les sites web "vrais et pertinents" des sites qui "trichaient" et qui voulaient juste tout le temps ressortir, même si leur site ne correspondaient pas, avec de la publicité partout et tentant de vendre des produits aux internautes qui avaient le malheur de cliquer sur leur site web....

Ils ont alors définit de nouvelles notions comme le pagerank (une sorte de note du site web) qui se transmet d'un site à un autre en faisant des liens. Ainsi les sites web qui avaient des liens vers leurs sites (backlinks) récupèraient du pagerank et étaient/sont considérés comme plus pertinents.
Mais c'est sans compter sur les éditeurs de sites web qui se sont adaptés en créant leurs propres annuaires pour faire ces fameux backlinks, puis à s'envoyer entre eux des liens partenaires entres leurs différents sites web... Les backlinks utilisés par les moteurs de recherche pour démasquer les sites qui abusaient sont devenus presque inutiles.

Et à chaque nouvel algorithme / filtre / technique pour essayer de distinguer les vrais sites web pertinents des autres, les éditeurs trouvaient une parade (ça continue aujourd'hui), si bien que les moteurs recherche se sont mis à mémoriser les adresses ip des serveurs sur lesquels étaient stockés les domaines, puis les adresses postales et emails d'enregistrement des noms de domaine et carrément à blacklister / pénaliser les éditeurs de sites web / serveur / adresses postales... et à l'inverse à récompenser les serveurs qui hébergeaient du contenu de qualité sans tricher.

De plus en plus de contraintes et de règles à respecter pour être référencé

Le référencement "naturel" est progressivement devenu un métier à part entière, puisque désormais de nombreux éléments sont pris en compte par les moteurs de recherche pour savoir si le site web est pertinent ou non : taille et orientation des photos, appareil photo utilisé, titres, textes, paragraphes, analyse syntaxique, analyse orthographique, backlinks, temps de chargement des pages, version mobile / mobile friendly, tout en gardant les vieux processus comme les balises meta / keywords (qui n'ont presque plus aucune utilité), sans parler des réseaux sociaux, protocole https...

Google en tête

Google a toujours été en tête dans cette course contre les abus de contenus et référencements naturels biaisés, ce qui lui a rapidement donné la première place du podium à laquelle ils sont encore aujourd'hui.

Aujourd'hui 93% des recherches sur internet sont effectuées sur Google. Si bien que sur 100 personnes qui cherchent "Entreprise de nettoyage Dijon", 93 le feront sur Google, 3 sur Bing et 2 sur Yahoo...
Et oui, si l'algorithme de Google est meilleur que ses concurrents, ses résultats seront meilleurs, ses utilisateurs tomberont sur des sites qui sont pertinents et qui répondent à leurs besoins ! Et ils reviendront quand ils auront d'autres recherches à faire !
A l'inverse si les internautes qui font cette recherche tombent sur un site vendant des produits pour blanchir les dents, ils fermeront la page et ne feront pas d'autres recherches. C'est ce qu'il s'est passé pour Bing, Yahoo, Aol dont les résultats n'étaient pas toujours satisfaisant, incitant les internautes à se tourner vers Google.

Votre site web est pertinent, mais l'est-il plus que votre concurrent ?

Lorsqu'un internaute va rechercher "Entreprise de ménage à Paris" sur Google, il verra 20 résultats :

  • 3 résultats sponsorisés en haut
  • 7 résultats sponsorisés à droite
  • et 10 résultats "naturels" au centre à gauche

Source image : moz.com


Pour Google c'est simple, il a des milliers de résultats à lui donner quand on recherche "Entreprise de ménage à Paris"... Mais il ne doit en afficher que 20, les 20 meilleurs selon lui pour cet internaute en particulier... Parce que oui, Google a appris à personnaliser les résultats. Google utilise votre position géographique, les sites web que vous avez visité par le passé, les recherches que vous avez déjà effectuées, etc... en plus de toutes les autres variables citées précédemment. Et c'est comme ça qu'il va afficher les 20 meilleurs sites web selon lui qui contiennent ce que vous recherchez.

Sponsorisés ?
Et oui, les résultats naturels existants depuis le début du moteur de recherche ont été complétés par des résultats payants. Les entreprises paient donc Google pour ressortir en tête de résultat.

N'oubliez pas, si les internautes ne trouvent pas ce qu'ils cherchent quand ils cliquent sur les résultats proposés, ils risquent d'arrêter d'utiliser Google. Pour cette raison, même si vous êtes près à payer très cher, si votre site web n'est pas pertinent, ou moins que vos concurrents, votre site web ne ressortira tout simplement pas.

Et il n'y a que 20 résultats de recherche, lorsque vous avez des centaines de concurrents.
Pour informations, la majorité des gens ne vont pas sur la 2ème page de résultats, ils s'arrêtent à la première. Et même pire, les résultats payants ont de plus en plus la côte ! Alors que par le passé les internautes préfèraient regarder sous les 3 premiers résultats sponsorisés, progressivement ils cliquent de plus en plus dessus, délaissant les résultats "naturels".

Voir un article plus complet (et plus technique) : CTR en baisse de 25% sur desktop, 55% sur mobile

Google gagne énormément d'argent grâce à la publicité (21 Milliards en 2016 Source), mais ces mêmes publicités lui permettent aussi d'améliorer la pertinence de ses résultats, puisque les éditeurs sont obligés de respecter leurs standards. La majorité des sites web ayant de mauvaises intentions ne sont pas près à payer pour ressortir dans les résultats, ce qui permet donc à Google de se débarasser d'eux.

En faisant parti d'un réseau connu auprès de Google, ayant un site web bien référencé sur le secteur du nettoyage et réalisant / hébergeant les sites web de nombreuses sociétés de nettoyage de qualité, vous aurez plus de chances que vos concurrents. Voir Econeto

Référencement naturel ou payant ?

Etant donné que référencer son site web naturellement est de plus en plus compliqué, chronophage et de moins en moins rentable (la preuve avec les statistiques de clics...) Il devient évident que si on veut être en tête de résultat et faire venir les internautes qui sont des prospects chauds, il faut payer Google pour ressortir en liens sponsorisés.

Mais cela ne change rien au contenu du site web qui doit être qualitatif, mobile friendly, charger vite et être hébergé par un prestataire reconnu et de qualité.

Voir des exemples de sites web optimisés pour société de nettoyage (propulsé par Econeto) :

Le programme payant de Google (Google Adwords)

Chez Econeto, nous réinjectons jusqu'à 10% des mensualités des adhérents pour sponsoriser localement leur site web sur Google (avec plus de 10 ans d'expérience sur le secteur de la propreté dans Adwords).
Certains adhérents du réseau Econeto optent pour réinjecter plusieurs centaines d'euros par mois avec un pack de gestion Google Adwords (via Econeto).

Nous déconseillons fortement aux amateurs de se lancer dans la gestion de campagnes adwords, sous risque de faire fondre leur budget comme neige au soleil, pour rien... C'est pour cette raison que nous offrons la gestion de campagne adwords avec un pack Econeto standard (logiciel de gestion commerciale + site web intégré et intelligent)

Plus d'informations au sujet de la publicité sur internet ? Lisez notre article :
Article 11 - Faire campagne sur internet

Plus d'informations au sujet d'un site web pertinent :
Article 19 - Le site web de votre entreprise


Auteur : Jonathan Poinas
Passionné par les nouvelles technologies, j'aime créer des projets et aider les autres dans les leurs.
Gérant de la SARL Alpes Techniques Nettoyages (nettoyage industriel à Annecy), j'ai commencé le développement d'un logiciel sur mesure en 2012, je le distribue depuis Avril 2014 à d'autres sociétés de nettoyage dans toute la France sous le nom d'Econeto.



Vous êtes une société de nettoyage ?


Découvrez le logiciel pour entreprises de nettoyage Econeto.
Développé par le gérant d'une société de nettoyage !





Vidéo - Karl, dirigeant d'une entreprise de nettoyage

Newsletter gratuite

   -   Une question ? Discutons en ligne !