Bienvenue sur JurisPedia! Vous êtes invités à créer un compte et à contribuer après avoir confirmé votre adresse de courriel. Dès lors, vous pouvez ajouter un article en commençant par lui donner un titre en renseignant ce champ:

Les lecteurs et contributeurs ne doivent pas oublier de consulter les avertissements juridiques. Il y a actuellement 3 533 articles en construction permanente...

Référencement éthique et spamdexing (fr)

Un article de JurisPedia, le droit partagé.
Aller à : Navigation, Rechercher

Le référencement web a pour but d'améliorer la position d'un site internet dans le classement des résultats des moteurs de recherche. Le terme spamdexing est un néologisme, une contraction des termes spam et indexing. On peut utiliser également le terme de engine spamming ou encore de référencement abusif. Ce terme désigne un ensemble de techniques de référencement abusives permettant de mieux positionner un site dans les pages de résultats d'un moteur de recherche. Les techniques sont nombreuses et visent à tromper le moteur de recherches sur la pertinence d'une page ou d'un site internet. Ces techniques peuvent être réprouvées par la loi et/ou ledit moteur. On oppose au spamdexing les techniques de référencement « éthique » obéissant à une charte déontologique. Cependant parfois la tentation est grande et le spamdexing est parfois employé sur des mots-clef très concurrentiels.

Techniques de référencement éthique

Définition et cadre

Il n'y a pas de définition claire de ce qu'est le référencement éthique. Mais la plupart des professionnelles le définissent en faisant référence aux consignes des moteurs de recherches mais aussi à la sécurité et à l'information du client possédant un site à référencer. Il ne semble pas exister d'uniformité au sein du référencement éthique. Pourtant une charte déontologique existe.


Charte de qualité et de déontologie sur le référencement de sites web

Cette charte a été mise en place par Olivier ANDRIEU sur le site abondance.com. Quelques référenceurs professionnels se disent signataires de cette charte. Ce document, écrit en 2000, résume la plupart des indications, au sein de l'association IPEA, qui semblent nécessaires dans le cadre d'une charte de qualité et de déontologie du métier de référenceur.

Le but de cette charte est de faire en sorte que les outils de recherche (dont l'objectif est de proposer des réponses pertinentes aux internautes) et les référenceurs (dont l'objectif est d'assurer à leurs clients - disposant la plupart du temps de sites web à fort contenu - une visibilité optimale sur le Web) travaillent ensemble pour bâtir de meilleurs outils de recherche et, par là-même, fournissent de meilleures réponses aux visiteurs des annuaires et moteurs.

Tous les signataires de cette charte doivent se plier à ses exigences. Toute société signataire ne suivant pas les prérogatives de la charte est immédiatement radiée de l'association.

Les signataires de la "Charte de Qualité et de Déontologie sur le référencement de sites web" devront accepter les conditions suivantes (O-R = Outils de Recherche)

  • Réalisme / Garanties

Les signataires s'engagent à une obligation de moyens à mettre en oeuvre et à ne pas promettre (garantir) de résultats de positionnement limités à une requête et un moteur, et plus généralement ne pas promettre de résultats qui ne pourront être tenus ou vérifiés par le client. Des garanties statistiques (X% de positionnements sur Y mots-clés et Z moteurs) pourront cependant être proposés.

  • Transparence

Les signataires s'engagent à tenir à disposition de leurs clients - et à leur faire connaître sa disponibilité - un document clair et précis présentant leur méthodologie de travail : technologies mises en œuvre, méthodes d'optimisation, procédures de référencement, etc.

  • Conseil

Les signataires s'engagent à aider leurs clients dans la réflexion sur les informations qui seront fournies aux O-R (descriptif, mots-clés, optimisation des titres et textes des pages, etc.) lors du référencement.

  • Méthodologie

Les signataires restent libres de la méthodologie mise en place pour référencer les sites de leurs clients, à partir du moment où elle respecte la présente charte, notamment en ce qui concerne la lutte contre le spam de la part des O-R (voir plus loin).

  • Loyauté

Les signataires s'engagent à suivre strictement les indications des O-R, publiées de façon spécifique sur leurs sites (et reprises ci-après dans la présente charte), dans le but d'effectuer une soumission efficace d'un site web dans leur index ou bases de données.

  • Suivi

Les signataires s'engagent à remettre à leurs clients de façon périodique des rapports clairs sur l'avancée des travaux de référencement de leur site web (suivi du positionnement, du trafic généré, du retour sur investissement, etc.), sous la forme qui leur semble la plus appropriée (tableaux Excel, extranet, outils en ligne, etc.).

  • Autonomie

Les signataires s'engagent à remettre tous les éléments relatifs aux travaux réalisés dans le cadre de la prestation de référencement de façon à permettre à leurs clients de changer de prestataire s'ils n'étaient pas satisfaits de la prestation effectuée. Comme pour toute prestation informatique ou de service, les travaux effectués appartiennent au client qui en a payé le montant.

  • Veille

Les signataires s'engagent à mettre en place des mécanismes de veille afin de se tenir au courant de l'évolution des outils de recherche et à en faire profiter leurs clients.

  • Qualité

Les signataires s'engagent auprès des O-R à ne soumettre à leur indexation que des sites dont le contenu et la pertinence sont suffisamment riches pour alimenter leur base de données en vue d'apporter une information utile au visiteur.

  • Mode de fonctionnement

Les signataires s'engagent à n'effectuer pour leurs clients que des prestations de référencement manuel, sans l'aide d'aucun logiciel de soumission automatique, sauf dans le cas où cette prestation est explicitement indiquée dans la proposition commerciale, et uniquement si l'utilisation de logiciels n'intervient qu'en complément d'une prestation manuelle majeure et ce aussi bien en phase de référencement qu'en phase de suivi et de veille.

  • Respect de la concurrence

Les signataires s'engagent à ne pas nuire au référencement d'un concurrent pour le compte d'un client et à ne pas utiliser la marque de concurrents pour le référencement de leurs clients. En règle générale, les signataires s'engagent à ne pas nuire au référencement d'un site pour lequel ils n'auraient pas été mandatés.

  • Combat contre le SPAM

Les signataires acceptent de ne pas réaliser d'action de spamdexing (fraude sur les O-R). Une annexe (voir ci-après) décrit de façon précise ce qui est considéré comme du spamdexing et ce qui n'en est pas dans le domaine du référencement de site web. Les signataires s'engagent notamment à ne cacher aux O-R aucun contenu destiné au référencement à l'intérieur du code HTML (balise Noscript, utilisation de zones invisibles - visibility-hidden, display:none, etc.) du site de leur client.

  • Information

Les signataires s'engagent à remettre à leurs clients et prospects, dans leurs propositions commerciales, un exemplaire de la Charte ici présente, accompagnée d'un document expliquant le fonctionnement des O-R, détaillant en quoi consiste un référencement de site Web, ainsi que ses contraintes.

  • Clarté

Les signataires s'engagent à expliciter de façon claire les actions effectuées sur les moteurs de recherche et notamment à ne pas entretenir de flou entre des prestations de référencement manuel et d'éventuelles actions d'achat de mots-clés dans le cadre de campagnes de liens sponsorisés. Les deux types d'actions, si elles cohabitent dans la prestation proposée au client, devront être clairement mentionnées et démarquées.

  • Blacklistage

Les signataires s'engagent à rembourser intégralement la prestation réalisée s'il est avéré que le site est exclu d'un moteur suite à une faute de leurs services.

  • Echanges de liens

Les signataires s'engagent à ne pas mettre en place de lien vers leur site depuis le site du client, de façon visible ou invisible, sauf si cela est stipulé clairement dans le contrat signé entre les deux parties.

Techniques de spamdexing

Les fermes de liens

Une ferme de liens (traduction littérale de l'anglais link farm) est une méthode utilisée pour augmenter artificiellement l'importance d'un site ou d'un groupe de sites dans les moteurs de recherche. Le principe est de créer un certain nombre de sites se renvoyant les uns vers les autres. Les fermes de liens peuvent être créées à la main ou de manière automatisée. Cette technique, inventée pour tirer parti du Pagerank de Google (et des moteurs de recherche fonctionnant sur le même principe) s'apparente à du spam. La société Google prévient d'ailleurs les webmestres qu'elle pénalise l'indexation des sites ayant recours à ce genre de système.


Les mots-clés invisibles

Les mots-clés invisibles sont des mots mis en place par l'auteur du site, qui sont lus par les moteurs de recherches mais qui sont invisibles pour l'internaute. Ainsi il s'agit d'une manière déloyale de référencer un site si les mots n'ont aucun rapport avec le thème du site.


Les métas-tags impertinents ou frauduleux

De la même manière, les méta-tags peuvent n'avoir aucun rapport ou aucune relation avec le site. Ils peuvent même violer les droits d'un tiers. le Tribunal de Grande Instance de Paris a notamment jugé que la reproduction de marques sous la forme de mots-clés dans le code source des fichiers d'un site web était constitutive de contrefaçon (TGI Paris, 4 août 1997, ordonnance de référé). De même la jurisprudence américaine semble aujourd'hui tendre vers la condamnation des méta-tags qui visent à utiliser la marque de concurrents et à profiter de leur notoriété à leur insu, créant de ce fait un risque de confusion pour le consommateur. Cependant, l'utilisation d'un tel méta-tag peut être considérée comme licite dans la mesure où elle constitue un "fair use".

La répétition de mots-clés

Si on cherche à faire référencer un site sur une requête précise, la présence de cette requête dans le contenu du site a tendance à améliorer le référencement de ce dernier dans la liste de résultats du moteurs de recherches. Pour un terme donné, le nombre d'occurrences au sein d'un contenu peut être vérifié grâce à des outils gratuits. La sur-optimisation d'un site autour d'un mot-clef peut être qualifiée d'abus et provoquer une sanction par le moteur de recherches.


Le détournement de pages web (pagejacking)

Technique qui vise à récupérer les méta-tags d'une page bien classée dans un moteur de rechercher pour les incorporer à son site.


L'utilisation abusive d'alias de domaine ou de sous-domaines

Cette technique permet d'obtenir plus de résultats en première page afin de référencer un seul site. Chaque page était considérée par le passé comme un site à part entière par le moteur de recherches. Ce fut sanctionné en raison des abus.


Le cloaking

Cette technique consiste en l'installation sur les serveurs web de pages invisibles aux yeux de l'internaute, cela permettant de délivrer aux robots, des pages spécifiquement réalisées pour les moteurs de recherche à des fins de positionnement. Concrètement un cloaking consiste à modifier le comportement du site en fonction d'un paramètre. Il est ainsi possible d'afficher des URL ou des contenus différents aux robots.


La copie de code HTML

Il s'agit de la reprise sur son propre site d'un code existant, il s'agit d'une violation de la propriété intellectuelle de l'auteur et/ou à défaut d'originalité du code, d'un acte de parasitisme.

L'augmentation artificielle du pagerank

Toute manœuvre visant à tenter d'augmenter l'indice de popularité (ou PageRank) d'une page de façon artificielle est sanctionnée par un « blacklistage » de la part d'un moteur de recherches comme Google.

Risques juridiques de la pratique du spamdexing

La légalité du spamdexing est impossible à apprécier d'une manière générale. Il convient de l'apprécier au cas par cas. Cependant trois pistes sont à privilégier.


Le spamdexing et la concurrence déloyale

Les techniques de spamdexing peuvent permettre de favoriser le référencement d'un site concurrent par rapport à un autre et cela de manière déloyale. La sanction d'un acte de concurrence déloyale repose sur le fondement de l'article 1382 du Code civil. La concurrence déloyale se définit comme l'ensemble de procédés concurrentiels contraires à la loi ou aux usages, constitutifs d'une faute intentionnelle ou non et de nature à causer un préjudice à un concurrent. La notion de concurrence déloyale a été conçue afin de sanctionner un abus de liberté de concurrence et n'intervient donc pas pour limiter l'exercice de la concurrence, comme une clause de non-concurrence, mais pour en éviter les abus. Les procédés de concurrence déloyales ont évolué et sont devenus plus subtils avec le temps. Le droit s'est adapté avec la création de la notion de parasitisme, le parasite étant celui qui se place dans le sillage d'autrui afin de profiter indument des efforts de création et/ou d'investissements de son concurrent, ou même de sa notoriété. Le parasitisme apparaît comme un fondement pertinent pour la victime de certaines techniques de spamdexing. Ainsi, un préjudice pourrait être estimé par rapport: au nombre de visites d'internautes captées par ces techniques et au taux de conversion en vente de chaque visite. Des dommages et intérêts pourraient être alloués à la "victime" de spamdexing.

Le spamdexing et les atteintes aux systèmes de traitement automatisé de données

Les moteurs de recherche constituent de véritables systèmes de traitement automatisé de données(STAD), c'est-à-dire, un équipement (de nature matérielle, logicielle, ou «firmware« ) permettant l’acquisition automatique, le stockage, la manipulation, le contrôle, l’affichage, la transmission, ou la réception de données. Le fait d'accéder ou de se maintenir, frauduleusement, dans tout ou partie d'un STAD dont découle soit la suppression ou la modification de données contenues dans le système, soit une altération du fonctionnement de ce système, est puni d'une peine de trois ans d'emprisonnement et de 45000 euros d'amende. Ainsi, les techniques de spamdexing pourraient être assimilées à une atteinte à un STAD (articles 323-1 et s. du Code Pénal ). Donc une société comme Google, qui s'intéresserait au référencement abusif pratiqué sur son moteur de recherches, dispose, en plus de son système de sanctions internes, d'un fondement juridique pour agir à l'encontre des "spamdexers".


Le spamdexing et le droit de la consommation

Le plus souvent, le référencement abusif sert à promouvoir un site marchand. En cela, il constitue un moyen de publicité. L'article L. 121-1 du Code de la consommation sanctionne les pratiques commerciales trompeuses. Au sens de l'article L. 121-1 du code de la consommation, est considérée comme déloyale, une pratique commerciale contraire aux exigences de la diligence professionnelle et qui altère ou est de nature à altérer de manière substantielle le comportement économique du consommateur. Il s'agit par exemple de pratiques trompeuses et agressives. Le spamdexing fausse les résultats des moteurs de recherches, fait croire qu'un site bien classé est pertinent et offre des produits ou services de qualité. Ainsi le spamdexing peut être qualifié de pratique commerciale déloyale. Le consommateur peut saisir l'unité départementale de la concurrence, de la consommation et de la répression des fraudes de la direction départementale de la protection des populations (DDPP) ou de la direction départementale de la cohésion sociale et de la protection des populations(DDCSPP). Il est également possible de saisir une association de consommateurs agréée. Il est aussi possible de saisir le juge de proximité compétent pour résoudre le litige par la voie contentieuse. Cela est puni de deux ans d'emprisonnement et d'une amende de 37 500 euros. L'amende peut être portée à 50 % des dépenses de la publicité ou de la pratique constituant le délit.

Liens externes

Ressources