Les dangers d’externaliser le développement de site Internet: des techniques black hat (cloaking) utilisées à l’insu du client

No Comments

Il est de plus en plus fréquent que des sites de petites et moyennes entreprises (PMEs) comptent sur les services d’un développeur externe pour la réalisation de leur site internet. Cela comporte son lot d’avantages (principalement un coût de réalisation très bas) et de désavantages (surtout lorsqu’il s’agit de modifier ou upgrader son site).

Dans certains cas extrêmes, la malveillance d’un développeur Web peut donner lieu à des cas comme celui-ci où l’on a clairement profité de l’inexpérience et du manque de connaissances techniques de la part du client. Le code en question dans ce post figurait sur le site du client depuis plusieurs années sans que personne ne s’en aperçoive.

Lorsque je conduisais un audit de 10 minutes avant de rencontrer un client potentiel, voici ce que j’ai trouvé sur toutes leurs pages. C’est marrant tant qu’il ne s’agit pas de votre site…

black hat code, cloaking

On peut voir, en position proéminente, (juste en dessous du tag “</head>” et quasiment à la première ligne après le tag “<body>”), un paragraphe consacré à une technique très commune des black hat, le cloaking: les moteurs de recherche liront ce code et verront ces liens mais les utilisateurs humains ne les verront pas en raison des instructions “hide” (surbrillance).

En résumé, le développeur a mis des liens vers des sites “douteux” (viagra, cyalis, agrandissement de pénis, casinos, etc.), à l’insu de son client. Ce comportement peut pénaliser de manière très grave le positionnement d’un site Internet en raison de l’usage d’une technique interdite par Google, le “cloaking”.

Ce site web avait d’autres soucis structurels dont notamment l’usage de frames (une seule url pour tout le site…) qui pénalisaient son référencement donc il n’est pas certain que ce code soit la cause de ses mauvais rankings.

Il est clair que tous les développeurs web de pays exotiques, qu’on appelle souvent “off-shore”, ne vont pas vous faire une entourloupe pareille. Chez Golden Speed SEO, nous avons un réseau de développeurs de sites internet au Vietnam et en Argentine qui vous permettront d’avoir le meilleur rapport qualité/prix sans courir le risque de découvrir un cadavre de ce type dans votre code.

Avez-vous eu des expériences de ce type ou avez-vous découvert ce type de codage malveillant à l’insu de vos clients? Partagez avec nous!

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)
No Comments

Leave a Comment

This Blog will give regular Commentators DoFollow Status. Implemented from IT Blögg

More from our blog

See all posts

Quelques publications récentes évoquent de lourdes suspicions quant aux «J’aime » (ou « Likes ») obtenus pour une page Facebook (FB) à travers des publicités payées sur ce même réseau social. C’est une manière très commune d’obtenir de nouveaux fans pour sa page (ou celle de ses clients) sur Facebook. S’il s’agissait véritablement d’une fraude, cela serait catastrophique pour FB mais nous pensons que bien évidemment, ce n’est pas le réseau social lui-même qui réalise cette fraude. Quoi qu’il en soit, si FB souhaite arrêter le flot de mauvaise presse depuis son entrée en bourse (Nasdaq), il ferait bien d’attaquer rapidement ce phénomène qui décrédibilise l’efficacité et la pertinence économique de souscrire des publicités sur Facebook.

Rappelons-le, une des principales raisons du flop de sa sortie en bourse récente provient des nombreuses questions autour de sa capacité à monétiser le trafic sur ce réseau social en publicités et autres formules payantes.

Un post intéressant nous relate l’expérience d’un journalist de la BBC dans l’achat de publicités pour promouvoir une page “virtuelle”: Facebook “likes” investigated.

Un autre post plus détaillé avec des conclusions fort cohérents peut se trouver au Search Engine Journal: Facebook Ads: What Are You Really Paying For?

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Au début de cette année, Google s’est fait prendre la main dans le sac en pratiquant la même technique qu’il proscrit et sanctionne avec autant de ferveur : l’ achat de liens sponsorisés pour Google Chrome, un scandal découvert par Aaron Wall.

Acheter des liens via des blog posts sponsorisés (l’auteur recevant un bon d’achat de 40 $ chez Amazon) est une pratique interdite par Google lui-même et qu’il ne doute pas de sanctionner sévèrement. Cette campagne d’achat de liens pour Google Chrome a contribué à de nombreux blog posts vantant les vertues de Google Chrome avec un lien en fin de post vers la page Google Chrome.

En complément, cette campagne a généré un tas de posts avec du contenu de faible valeur car totalement biasé, indexé par Google, un autre fléau qui fait l’objet de nombreuses mises au point de son algorithme.

Au final, Google s’est auto-infligé une sanction de 60 jours pour la page Google Chrome.

Il est tout à fait possible que cette campagne se soit fait à l’insu de Google (c’était une agence SEO tierce qui a réalisé la campagne) mais ce qui semble important c’est de noter qu’une entité de la taille de Google peut absorber une telle pénalité avec beaucoup plus de facilité qu’un petit entrepreneur dans la même situation devant passer par un long procéssus de validation de sa bonne foi auprès de Google pour faire lever une sanction de ce type.

Voici ce que pensent les SEOs consultés quant à cette auto-sanction de la part de Google. 50% d’entre eux considèrent la sanction suffisante.

Et vous, quel est votre avis ?

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Voici des informations intéressantes sur Google+ et comment il performe par rapport à d’autres réseaux sociaux. Source « Search Engine Journal ».

En créant des comptes de manière automatique pour tous les nouveaux utilisateurs de produits Google, celui-ci a été accusé d’avoir boosté artificiellement le nombre d’inscrits au réseau social Google+. L’éminent journal « The Wall Street Journal » a même qualifié ce réseau social de « ville fantôme virtuelle » !

Il suffit de comparer les minutes passées par chaque utilisateur en moyenne chaque mois sur les différents réseaux sociaux pour constater l’écart immense entre Google+ et les autres réseaux sociaux :

Facebook: 405 minutes
Pinterest/Tumblr: 98 minutes
Twitter: 21 minutes
LinkedIn: 17
MySpace: 8
Google+: 3

Ceci dit, on ne peut ignorer Google+, ne fut-ce que pour des raisons purement liées au SEO et au positionnement moteurs de recherche.

Pour plus d’informations sur le référencement moteurs de recherche, c’est par ici.

 

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Voici une excellente infographie présentant les principales étapes de Google Panda ainsi que les pas à suivre si vous avez été touchés par ces mises à jour à jour, publiée sur Single Grain – A Digital Marketing Agency

Google Panda infographics

VN:F [1.9.20_1166]
Rating: 4.0/5 (1 vote cast)

“Blackout Wednesday” ou “mercredi sans lumière” a frappe très fort les initiatives législatives SOPA (Stop Online Piracy Act) et PIPA (Protect Intellectual Property Act).

Ces deux projets de loi visant le piratage en ligne ont été perçus par beaucoup (du moins les entités établies aux USA et donc sujettes à leurs lois) comme un carcan rigide qui bloquerait la liberté et la créativité sur le net.

En raison du tollé généralisé et à la fermeture pendant 24h de nombreux sites, petits et grands (surtout les grands en termes d’impact médiatique, of course), il semblerait que les promoteurs originaux du PIPA bill sont désormais du côté de l’opposition.

Voici une infographie accéssible depuis Google.com, contre SOPA et PIPA auquel on pouvait accéder depuis la homepage de Google qui avait d’ailleurs noirci son logo comme protestation.

La homepage de Google.com d’ailleurs ressemblait à ça pendant 24h:
Google agains SOPA and PIPA

La homepage de Wikipedia montrait ainsi son désaccord avec les initiatives SOPA et PIPA :
Wikipedia against SOPA and PIPA

Et finalement Facebook, publia une page d’information contre SOPA/PIPA

Source: Search Engine Journal

On peut noter quelques exemples pour mesurer les conséquences attendues si ces projets de loi entrereraient en vigueur:

* criminalisation des propriétaires de blogs et de sites pour toute violation de copyright, y compris si cela provient d’un commentaire à un post.

* un frein à l’innovation, il est probable qu’avec ces lois en vigueur, il serait impossible de voir apparaître des sociétés innovantes comme Facebook, YouTube, MediaFire, SoundCloud, Twitter, DropBox, etc.

* moins d’enfants chantant ou jouant des instruments sur Youtube qui risquerait gros mais aussi la famille de l’enfant chantant une chanson sans en avoir le droit…

Source: 1webdesigner.com, graphic and web design blog

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Voici une compilation intéressante de vidéos venant de Google, sur le sujet des rich snippets (en anglais).

Cette nouvelle fonctionnalité propose par Google est une manière de se démarquer de la concurrence dans cette phase de démarrage de cette fonctionnalité, avant que tout le monde ne l’applique. Les possibilités offertes par les rich snippets évolue rapidement et vous permet de présenter un lien dans les SERPs beaucoup plus attrayant et avec plus d’informations utiles.

Dans des marchés ou secteurs hyper-compétitifs, les rich snippets sont certainement une opportunité de prendre de l’avance sur ses concurrents ayant un référencement similaire (ranking sur les SERPs) aux votre.

Il pourrait bien s’avérer que les internautes cliqueront plus facilement sur un lien apparaissant dans les SERPs avec un rich snippet que sur un lien placé un petit peu au-dessus en termes de rankings.
Rich Snippets

VN:F [1.9.20_1166]
Rating: 4.7/5 (3 votes cast)

Une infographie expliquant le fonctionnement de Google Adwords qui étonnera plus d’un. Sympa et didactique, c’est un excellent outil de travail pour transmettre à nos clients la logique derrière Google Adwords. Nous ne manquerons pas de l’utiliser avec nos clients lors du démarrage d’une campagne CPC Google Adwords.

Remarquez l’importance du CTR qui permet de payer moins pour un clic que ses concurrents pour le même mot-clé. On voit immédiatement l’avantage d’avoir des annonces en concurrence afin d’améliorer le CTR et donc réduire le coût moyen par clic.

adwords google

Adwords infographic

Source: How Does the AdWords Auction Work? [Infographic] | Search Engine Journal

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Un fil de discussion très intéressant, démarré sur WebmasterWorld par quelqu’un ayant rencontré Matt Cutts et discuté au sujet de l’algo Panda lors du récent Pubcon (novembre 2011) aux Etat-Unis.

C’est juste un algorithme, tout site peut donc (hypothétiquement) s’en sortir….il suffirait d’améliorer son ‘quality score’, nous restons légèrement sceptiques quant au délais et la facilité présumée de cette affirmation.
On émet l’hypothèse que les ‘bounce rates’, nombre de pages vues et temps passé sur le site sont désormais intégrés dans l’algorithme. Si c’était vrai, je vois là une raison de plus d’associer votre site à un compte Google Analytics, même si vous utilisez un outil différent pour analyser vos visites.
Le scope initial qui visait les fermes à contenu (d’où le nom original Farmer Update) a évidemment été élargi, il suffit de voir le nombre de pénalités pour des sites ayant du contenu dupliqué, sans qu’ils soient des fermes à contenu (e-commerce par exemple).

Source: SEOroundtable.com

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Des bonnes nouvelles pour les community managers et SEOs qui utilisent les réseaux sociaux comme Facebook. Depuis peu, le googlebot est capable de lire et d’indexer les commentaires des fans.
Google indexing Facebook comments
Cela démontre qu’il est bien plus important d’avoir une communauté qui interagit (commentaires, « likes » et « shares »)avec votre page Facebook que de s’obstiner à avoir un nombre de fans toujours plus élevé mais qui n’interagissent pas.

VN:F [1.9.20_1166]
Rating: 5.0/5 (1 vote cast)

Voici un article intéressant sur comment choisir le meilleur soft « analytics » pour suivre les statistiques de votre site internet.

Lequel est le meilleur web analytiques pour vous….et pourquoi?:
Which Web Analytics Is Best for You… and Why?

Il y a un large spectre de produits parmi lesquels choisir pour suivre les statistiques de votre site internet. Il est impossible de choisir un produit qui soit LE MEILLEUR. Pour nous, il convient toujours de démarrer avec Google analytics (GA) car il comporte de nombreux avantages :

1) Gratuit et facile à utiliser (attention à la prochaine sortie d’une version payante, très chère mais qui offre des données en temps réel).

2) Les rapports standards et ceux que vous pourrez definer pourront couvrir une grande majorité de vos besoins. D’autres softs offrent ces mêmes rapports de manière payante.

3) Intégration avec les interactions sociales (boutons medias sociaux sur votre site) dans leur dernière version.

4) Suivi facile de vos campagnes Adwords et une intégration avec un outil essentiel, Google Webmaster Tools.

5) Le fait d’installer le tracking code GA sur votre site permet également à Google (qui héberge vos statistiques) d’avoir plus d’informations sur votre site. Si vous n’avez rien à vous reprocher, cela ne peut qu’aider vos rankings. Certains ne seront pas d’accord avec ceci et préfèreront éviter l’accès à leurs statistiques web à Google.

L’inconvénient majeur est qu’il n’existe pas de support à vrai dire, il faut se débrouiller avec l’aide de la communauté sur leur forum ou faire appel à un partenaire certifié ou une société de consulting SEO.

« L’obtention de données analytiques de votre site internet ne doit pas être une tâche qui vous pose des soucis. L’important est de savoir ce que vous devez mesurer, les délais et la fréquence avec laquelle vous avez besoin de rapports statistiques et connaître votre budget. A partir de là, vous pourrez choisir les produits qui vous aideront à améliorer le succès de votre site, après tout, c’est bien de cela dont il s’agit. » (Neil Patel, 31/10/2011)

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Un post intéressant sur Google Webmaster Help nous rappelle que, malgré l’utilité certaine d’avoir ses mots-clés inclus de manière exacte dans son nom de domaine, cela ne suffit pas pour obtenir un bon référencement sur les moteurs de recherché. Cela est d’autant plus vrai s’il s’agit d’un domaine existant qui a été racheté.
Ceci dit, sur le long terme, cette correspondance parfaite est un avantage de poids sur sa concurrence si vous le combinez avec une bonne campagne SEO.

Source: Seroundtable.com
Google: Exact Match Keyword Domain Does Not Mean Rankings

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Matt Cutts nous livre la position officielle de Google quant au SEO (référencement des moteurs de recherché)

Nous sommes tombés sur ce post dans Search Engine Journal qui répond avec une vidéo à la question “Est-ce que Google considère le SEO comme étant du spam ”?

Bien évidemment, nous voulons tous connaître cette réponse donc nous nous sommes précipités sur la vidéo. La voici.

Si la video ne s’affiche pas correctement, cliquez ici : YouTube

Principales informations obtenues en visionnant cette video:

Matt Cutts nous dit que le SEO est bénéfique aux moteurs de recherche car cette pratique facilite aux moteurs de recherche l’identification des sites de qualité et des résultats les plus pertinents pour les utilisateurs.

Il fait bien sûr allusion aux methodes “white-hat” et plus spécifiquement à la partie « on-page » SEO dont les méthodes visent à améliorer la visite d’un internaute (vitesse de chargement, ergonomie de navigation, optimisation des mots clés afin de faciliter la compréhension d’un sujet, etc.).

Il ne parle pas du tout de l’optimisation off-page et vire de bord en parlant ensuite du “black-hat” SEO, l’opposé du « white-hat », en citant des pratiques proscrites comme le « keyword stuffing » ou le « cloaking ».

Bref, au final, nous restons sur notre faim car les affirmations sont plutôt fades et on n’a pas vraiment appris grande chose (leur vision sur le « off-page » faisant défaut).
Ceci dit, une fois de plus, cela démontre l’importance pour tout client d’un SEO, d’être informé quant aux méthodes utilisées par son consultant en référencement internet.

La transparence reste de mise lorsque vous chercherez un consultant en référencement internet, ne faites jamais de compromis là-dessus. C’est là le message le plus clair et utile de cette vidéo.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Nous connaissons tous l’importance d’un “anchor text” (texte cliquable d’un lien hypertexte) dans un lien qui pointe vers une page que nous souhaitons optimiser pour un mot clé donné.

Il est très commun de penser que, plus on a de liens entrants avec nos mots clés dans le « anchor text » et qui pointent vers notre page cible, mieux c’est pour notre SEO (référencement moteurs de recherche). Cela a donné lieu a un immense business dans la création de liens entrants et nombreux sont les experts SEO et leurs clients qui considèrent que la quantité prime sur la qualité.

Les experts SEO plus chevronnés savent que c’est bien sûr la qualité des liens qui compte dans la pondération accordée à chaque lien par les moteurs de recherche. Mais savez-vous ce qui suit ? Il s’agit d’un rappel que l’évolution permanente des moteurs de recherche et de leurs algorithmes, rend rapidement obsolètes de nombreuses pratiques courantes de SEO (référencement moteurs de recherche). Merci à Bill Slawski et son grandissime blog,  SEO by the SEA, véritable bijou pour les experts SEO. Attention, anglais et ténacité obligatoire, les articles ne sont pas pour les débutants ou les impatients.

Des brevets déposes récemment par Microsoft (propriétaire de Bing) et antérieurement par Google (source, Bill Slawski, “How a Search Engine might Weigh the Relevance of Anchor Text Differently“) impliquent que la pertinence d’un lien entrant pourra être pondéré différemment par les moteurs de recherché en function de la relation entre les pages ou les sites où se trouvent ces liens entrants ainsi qu’en fonction des sites vers lesquels ils pointent.

Dans le cas de sites miroirs il semble logique que les moteurs de recherché réduisent à néant la pondération de liens sortants identiques.

Ce qui devient intéressant c’est d’apprendre l’effort investi dans la détection de relation entre deux sites différents qui présentent tous les deux des liens vers votre site. Il s’agit de détecter si ces deux sites externes ont un nombre significatif de liens sortants qui pointent vers la même destination.

A retenir: Il faut toujours varier son “anchor text” afin de non seulement laisser une trace humaine (“human footprint” ) mais aussi afin de réduire les signes que deux pages externes puissent être réliées ou dépendantes.

Une autre situation décrite dans ces brevets correspond à des liens sortants crées avec la seule intention de booster le référencement dans les moteurs de recherche de la page de destination. Qu’un moteur de recherche puisse identifier cela signifie qu’il puisse établir s’il existe des relations d’intérêt ou de dépendance entre les différents sites présentant des liens entrants et donc déterminer si ces sites ou pages sont contrôlées par la même personne/entité. Le poids des liens entrants dans une configuration de ce type, sera fortement réduit aux yeux des moteurs de recherche.

De la même manière, deux pages appartenant à deux sites différents et ayant chacune un lien sortant vers votre page, pourraient faire l’objet d’une comparaison afin de déterminer si elles présentent d’autres liens vers des pages similaires et il y aurait donc une « dépendance probable » ou une relation entre les deux.

A retenir: variez les liens sortants afin qu’il y ait des différences entre deux pages externes qui pointent chez vous, au niveau de l’ « anchor text » du lien vous concernant mais également en variant les autres liens sortants (et leur « anchor text ») de ces deux pages externes. Spinner des articles afin d’éviter du contenu dupliqué sans spinner les anchor text ou varier les destinations des liens sortants n’est plus une très bonne idée.

D’autres pages dans les mêmes deux sites ayant des liens pointant chez vous, pourraient également être examinées afin de déterminer si ces autres pages pointent vers le même site. Cela reflèterait une relation entre les deux sites et pourrait réduire le poids (valeur) de ces liens entrants chez vous.

A retenir: avoir son propre réseau de blogs et de sites (agences de press) peut être très utile mais ne les utilisez pas exclusivement pour pointer sur un nombre réduit de sites pour lesquels vous êtes en train d’optimiser le référencement. Soyez généreux avec des liens sortants afin de créer une diversité entre chaque site de votre réseau. Nous conseillons de faire des liens vers des sites d’autorité (.edu, journaux nationaux, Wikipedia, etc.).

Les implications des ces brevets récents sont énormes car ceux-ci confirment ce que nous avons déjà anticipé mais dont il n’y avait pas de preuves matérielles encore : les moyens techniques pour identifier les réseaux de blogs ou de sites servant à passer leur jus au service des autres (money sites, sites des clients) sont en train de se construire. Cela passe d’abord par un brevet déposé, d’où l’intérêt de suivre le site SEO by the SEA.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Cet article sur la puissance des mots clés vous donne une manière simple et rapide d’évaluer la valeur d’un ranking parmi les trois premiers résultats de Google pour un mot clé.

Le site SEObook.com propose un article fort intéressant sur le sujet.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Voici une nouvelle qui a dû semer la panique dans les bureaux de Dropbox: Google drive sera bientôt une réalité.

Nous sommes fans de dropbox et l’utilisons dans nos bureaux, nous y resterons donc fidèles car il ne nous a jamais déçus. Ceci dit, les prix de Google Drive, en version payante, s’annonçent très compétitifs, au final, c’est le “bottom line” qui décidera :-)

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Vous vous souvenez de l’affiche “Uncle Sam wants you”? Eh bien, on pourait en dire de même de Google qui “recrute” activement via leur homepage afin d’étoffer son réseau et faire face à facebook.

Lisez l’article complet ici: seroundtable.com

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

On peut dire que Facebook ne s’est pas endormi sur ses lauriers depuis que Google+ a été lancé le 28 juin 2011. En effet, le numéro 1 des réseaux sociaux se défend avec vigueur et a introduit une série de changements de taille dans ses services et les options accessibles aux utilisateurs. Ceci afin de contrer toute innovation apportée par Google+.

Un bel exemple de comment la concurrence permet de s’améliorer sans cesse.

Voici quelques exemples de changements mis en place ces derniers mois :

Facebook chat, on peut désormais se contacter en vidéo via Skype.

Configurations de sécurité, des changements de taille quant aux possibilités de contrôler les informations que l’on partage.

En incluant un service abonnements, on peut désormais suivre les news feeds de personnes sans être pour autant leurs amis.

L’abandon de App Directory, Facebook Deals et Facebook Places, malgré les investissements récents dans ces applications.

 Lisez l’article complet ici : Google+, une aubaine pour Facebook ?

VN:F [1.9.20_1166]
Rating: 4.0/5 (1 vote cast)

Voici quelques statistiques récentes sur la répartition du marché des moteurs de recherché. Google continue à régner sur le reste mais nous ne pouvons pas ignorer les progrès récents de Yahoo et de Bing.

Google finit à 64.8%, en baisse par rapport à 65.1% en juillet 2011. Pendant que Google a connu cette légère baisse, Yahoo et Bing rattrapent les pertes récentes. Yahoo voit sa part grandir de 0.2% jusqu’à 16.3% et Bing augmente de 0.3%, à 14.7%.

Consultez l’article complet ici : zdnet.com

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

La réponse est LES DEUX.

Un expert du SEO doit constamment mettre à jour ses connaissances et améliorer ses compétences techniques. Ce n’est qu’à travers l’expérience, la créativité et des essais qu’un professionnel du SEO peut aboutir à la combinaison de paramètres valides pour obtenir les meilleurs résultats pour ses clients.

SEO Periodic Table

Table Périodique des Facteurs du Positionnement Internet (SEO)

La table périodique des facteurs du positionnement internet (SEO) est une référence utile qui nous montre les éléments les plus déterminants du SEO pour obtenir un bon référencement par les moteurs de recherche, présenté dans le format de la table des éléments périodiques. Vous y trouverez également (en anglais of course) une explication sommaire de chaque élément et pourquoi il est important.
Cliquez sur ce lien pour voir la version complète de la table périodique des facteurs du positionnement internet (SEO).

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Dès le départ d’un projet online et, surtout au moment de concevoir un site Internet, les priorités sont habituellement la charte graphique, le design, l’expérience de l’utilisateur ainsi que le taux de conversion de visiteurs en clients.

Prendre en compte, dès le départ, des considérations spécifiques au SEO n’est pas une pratique commune et parfois elles ne figurent même pas dans le business plan.

 Afin d’éviter des changements lourds à l’avenir, que ce soient des changements de la structure du site ou de mise à niveau d’un vaste contenu existant, il est crucial de prendre en compte l’aspect SEO dès le début d’un projet online.

Voici quelques éléments qu’il convient de considérer d’emblée lors de la conception d’un site Internet:

1)      Le contenu : on ne le répètera jamais assez, l’importance du contenu est crucial en SEO. Il faut un contenu original, unique et pertinent avec la thématique du site internet. Une erreur très fréquente consiste à créer un site web en l’inondant d’images et autres graphismes sans prendre le temps nécessaire à la rédaction d’un contenu de qualité apprécié par les moteurs de recherche.

Un outil très intéressant est la création d’un blog d’entreprise ou une page de nouvelles et d’évènements. De cette manière, vous pourrez ajouter facilement et régulièrement du contenu nouveau, fortement apprécié par les moteurs de recherche.

2)      L’encodage : la programmation d’un site internet représente un élément très important car celle-ci affectera le temps de chargement des pages ainsi que la lisibilité du contenu de chaque page. Ce sont deux éléments vitaux en termes de SEO.

3)      L’usage des metatags : qu’ils soient « title » ou « description », ils sont vitaux et cela vaut la peine de se pencher dessus dès la rédaction de la première page de contenu. Eviter des metatags dupliqués mais aussi éviter de devoir les compléter ou corriger sur une base vaste sont des considérations qu’il faut avoir dès le départ de la création d’un site internet.

4)      Les URLs : elles doivent être adaptées aux besoins SEO, votre développeur web doit le savoir.

5)      La structure interne du site et un sitemap XML à jour sont des éléments très lourds à changer postérieurement et cela paye de les considérer au départ de votre analyse technique et fonctionnelle.

 Pouvoir disposer d’une interface permettant, à l’avenir, une mise à jour et un ajout rapide de votre contenu tout en pouvant intégrer les éléments nécessaires au SEO (headers, titles, description, url, keywords, alt desc, etc.) est une priorité également. Votre développeur doit intégrer ce besoin dès le départ de votre projet.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Le dogme que “le contenu est roi” n’a jamais cessé de prouver son utilité  dans le domaine du SEO. Après les mises à jour Panda, ce principe de base s’est vu confirmer une fois de plus. Le contenu, unique, original et pertinent constitue la clé de voûte de toute stratégie SEO digne de ce nom.

Ceci dit, nombreux sont ceux qui génèrent du contenu en pensant exclusivement à ce qu’en diront les moteurs de recherche plutôt que de penser à la réaction des internautes qui le liront.

Ce post du blog SearchEngineLand nous rappelle qu’avant tout, c’est l’utilisateur qui règne en maître.

Toute activité de recherche commence et finit par l’utilisateur:

  • L’internaute saisit les mots clés dans un moteur de recherche
  • Le moteur de recherche lui affiche les pages de résultats pertinents
  • L’internaute décide sur quels résultats il cliquera

Il est certain que les moteurs de recherche veulent fournir des résultats de qualité aux internautes et que les webmasters souhaitent avoir leurs sites placés aux premiers rangs des SERPs. L’utilisateur recherche avant tout du contenu pertinent à son besoin.

Il est donc évident que l’utilisateur est le pivot de chacune des étapes de l’activité de recherche.

Lisez l’article complet “Content is King but the User is Emperor” ici.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)

Voici des informations intéressantes sous formes de graphiques (source SearchEngineJournal) sur la croissance des réseaux sociaux. Une partie des statistiques est relative aux Etats-Unis mais cela reste un benchmark intéressant et annonce des tendances qui ne manqueront pas de se reproduire à travers le monde.

Quelques points à retenir:

1)      53% des employeurs aux Etats-Unis font des recherches sur les réseaux sociaux

au sujet des candidats postulant à un poste de travail.

Plus d’un tiers disent qu’un profil de réseau social leur a permis de détecter des informations fausses quant aux compétences ou l’expérience des candidats sur leurs CVs.

13% disent avoir trouvé des remarques discriminatoires sur les comptes de réseaux sociaux des candidats.

9% affirment avoir vu des photos provocatrices ou indécentes sur les comptes de réseaux sociaux des candidats.

2)      Le nombre d’entreprises utilisant les réseaux sociaux (Facebook, Twitter, Youtube) et des blogs dans leur stratégie de marketing en ligne augmente de façon exponentielle.

71% des entreprises aux Etats-Unis ont un compte Facebook.

3)      Le réseau social le plus important au Vietnam n’est pas Facebook mais Zing.
croissance de l'utilisation des médias sociaux en 2011
Source: The Growth of Social Media: An Infographic.

VN:F [1.9.20_1166]
Rating: 0.0/5 (0 votes cast)