Get Adobe Flash player

Netlinking

Voici le seul résultat

Une réponse à Netlinking

  • Referencement dit :

    Merci pour cet article. d’autre part l’expérience du référencement on-site permet de discuter quelques proposition sur l’optimisation.

    Par exemple , la triplette du bourrin à savoir, title, h1 et mot clé dans l’url de la page fonctionne très bien et permet une bonne intelligibilité du thème et de ses mots clefs associés par les robots associés aux moteurs de recherche. Cette stratégie d’écriture est donc toujours a recommander.

    D’autre par « la répétition systématique du mot clé visé par la page dans les balises Hn » si elle entretient un rapport avec la thématique de chaque partie introduite par la balise H est à appliquer. Par exemple dans le site de depannage informatique suivant, chaque balise H incorpore la mention dépannage informatique. c’est ce qui fait la performance on-site de la page

    Finalement , « le keywordstuffing en général » peut être utilisé à condition d’être réalisé avec malice. ainsi ajouter à la fois un title= »… » et un alt= »… » sur chaque balise IMG; ou/et d’atteindre un pourcentage pour un mot clef de 10-20% dans la page apporte une force SEO. Ce qui semble plus primordiale c’est la taille en texte de la page elle même. Si une page dépasse les 3000 mots, le keyword stuffing peut être assez poussé.

    Par contre il est évident qu’un référencement sur un ou deux seuls mots clefs ou le contenu dupliqué eux peuvent être pénalisant, c’est même sans doute là, la seule nouvelle sanction apportée par Pingouin. Panda 1 lui avait des effets plus complets et plus complexes.

    Quant aux critères off-page, si il semble tout à fait justifié de proposer comme vous le faites hétérogénéiser la provenance des liens vous pouvez néanmoins en conserver de forte proportion en provenance d’un type de plateformes. Par exemple 80% de leins en provenance d’annuaire Freeglobes ou Arfoo ne vous pénalisera pas si les 20 autres % sont diversifiés.

    Quand à la recommandation de faire naturel; celle-ci peut faire sourire car Google sait (et de réprouve pas) que les sites font appel à des SEO et ne sont pas linkés par des internautes innocents… ainsi le concept de linking peut faire débat suivant le regard qu’on lui porte! ex. http://forum.webmaster-rank.info/referencement/la-place-des-echanges-de-liens-sur-notre-referencement-t4209.html#p46063

    A bientôt et bon REF

    • Johnny dit :

      Attention, j’ai bien signalé que mon étude n’était qu’une étude des généralités de pingouin. Il faut ensuite juger au cas par cas. Chaque site est différent. Le trustrank rentre plus que certainement en ligne de compte pour la prise de décision sur la mise en place de la sanction ou pas. Du coup, là ou un léger abus d’optimisation pourra être source de sanction sur un site, pourra ne pas inquiéter l’autre. En cas de sanction il faut auditer le site pour trouver les causes et les solutions.

  • Tchat dit :

    Remarquable analyse dans lequel je retrouve mes pensées. Maintenant, si je prend le cas de la triplette du bourrin, je suis arrivé ici avec un lien contenant pingouin dans un topic lui même parlant de pingouin et j’arrive via une URL contenant Pingouin, le H1 et H2 contiennent Pingouin, la title, la meta-desc et keywords également, de plus le mot pingouin est présent 12 fois dans les textes (j’ai compter à la va-vite). Pense tu que cet article sera pénalisé pour abus de quelque chose ? A bientôt et merci pour ses explications en tout cas.

    • Johnny dit :

      Ahah, on verra bien. Le blog est la partie visible et accessible du laboratoire de référencement de CR-DSI donc il faut bien faire des tests. Plus sérieusement, comme je le disais dans l’article, l’aspect on-page n’a qu’un facteur aggravant à mon avis. Donc, si le linking vers cette page n’est pas mauvais, le contenu de la page ne changera rien.

      • Tchat dit :

        Effectivement, c’est un facteur aggravant comme je le lis un peu partout, pour le moment Google mets ce blog en 1er résultat sur « penalité pingouin » et « pénalité pingouin », donc il suffira je pense de voir si il disparait dans les lymbes de Google… (en prenant en compte le netlinking qui ne sera pas forcément suivit sur cet article comme critère de recul…). Maybe, de toute façon tout reste encore à prouver avec mister GG…

        • Johnny dit :

          Attention à la prime de fraicheur aussi. Une chute dans les résultats ne signifiera pas sanction. Par contre je vois que tu suis plus mon référencement que moi lol, c’est sympas 😉

          • Tchat gratuit dit :

            Un petit commentaire pour le suivit 🙂

            Don pour info tu est toujours numéro 1 sur les deux binôme énnoncé plus haut ! Avec une page qui est donc très (sur)-optimisé, je reste perplexe maintenant dans l’hatitude à avoir avec ce manchot, sans pour autant remettre en doute tes explications…

            J’attends encore une semaine pour voir… (je vais pas suivre tous le temps ton référencement 🙂

  • Beaucoup d’incertitude sur les effets de ces changements d’algo que GG ne semble pas maîtriser lui même, trop de modifs ayant été faites en même temps ou presque.
    Bref, c’est loin d’être fini……

    • Johnny dit :

      Oui c’est certain, il reste des incertitudes. Je n’ai pas la prétention de tout savoir sur pingouin. Par contre, ce que je cite j’en suis convaincu. Les modifs rapprochées de pingouin et panda ont été volontaire, elle n’ont eu que pour effet de brouiller les pistes pour les pro du SEO, et du coup, google à gagné un point sur ce coup. La preuve, on commence à avoir quelques pseudo certitude qu’un mois après sa sortie. C’est du jamais vu !! Habituellement une mise à jour pareille est décrypté en quelques jours seulement.
      Il est vrai par contre que cette mise à jour ne semble pas si productive quand on regarde les effets sur de gros sites comme wikipedia. Il y a forcement matière à corriger.

  • imajean dit :

    il est clair que l’algo n’est pas au point! outre le fait de pénaliser certains sites, google a perdu en pertinence dans ses résultats de recherche. il va falloir surement s’attendre a d’autres mises a jour

    • Johnny dit :

      Il y a manifestement de faiblesse oui, et, il y aura des mises à jours, comme toujours. Espérons simplement que les prochaines mises à jours ne soient pas aussi difficile à décrypter que celle là.

  • donc on est condamné par GG à perdre son temps en linking permanent et incessant au détriment du business de base…
    je continue à ne pas comprendre pourquoi un algo aussi puissant ne prend comme base principale que l’échange de liens qui sont forcement artificiel !! les créateurs de GG n’ont ils pas détournée eux même le but principal de leur travail …… le fameux « naturel »

  • Johnny dit :

    Ce n’est pas une question de perte de temps. C’est un travail ! Tout comme la sécurité dans une entreprise est un travail, improductif soit, mais nécessaire. De cette même manière le SEO est vital pour une entreprise. Si google prend en base principale l’ancre des liens c’est tout simplement parce que c’est ce qu’il y a de plus fiable. Google ne pouvait choisir qu’en l’optimisation off-site et on-site. L’on-site est bien plus facile à manipuler que le off-site, donc, google à fair le meilleur choix. Mais ensuite, google fait la chasse au liens non naturel avec pingouin par exemple. La guerre n’est pas fini entre les « artisans du web » et google, et pour l’instant c’est google qui cogne fort.

    Maintenant pour se décharger du travail de référencement il est toujours possible de faire appel à une société spécialisé en externe. Pour ne pas prendre de risque vous pouvez faire appel à une société comme la notre qui ne serra payée qu’aux résultats. Vous pouvez consulter notre tarif de référencement si vous le souhaitez.

  • Yann dit :

    « Autre différence entre pingouin et panda, quand panda ne va réévaluer le site pénalisé qu’environ une fois par mois, pingouin le fait en temps réel. »
    Ca reste à confirmer également.

  • Johnny dit :

    La dernière déclaration de Matt Cutts après la mise à jour à pingouin 1.1 laisse à croire effectivement que finalement pingouin serait un filtre comme panda. Il ne reste plus qu’à attendre une prochaine déclaration pour le savoir, ou pas 😉

  • Bon article ! Attention, il te manque un mot au troisième point du 3). La H1 peut être la même que la title ou non, peu importe (source : Réussir son référencement Web).

    Il aurait peut-être fallut parler des et ?

  • Johnny dit :

    Oups, merci d’avoir soulevé l’erreur. Pour la possibilité d’être identique avec la balise title je préfère ne pas en parler pour l’instant à cause de pingouin qui a changé la donne. Je préfère attendre la fin de mes tests.

  • Bon article !

    Cependant les balises les balises gras et italiques n’ont pas été abordées.

  • Johnny dit :

    JE dois avouer que j’ai préféré dans un premier temps ne pas en parler, de peur de pousser à la suroptimisation. Mais après tout, chacun est grand, je préciserais juste qu’il ne faut pas en abuser. Je vais les ajouter.

  • Johnny dit :

    Allez, soyons fou. Après tout, on est dans le labo. Donc testons, voilà le rapport de densité :

    Mots clés uniques : 747 (1728 avant dédoublonnage)
    49 pingouin 2.84%
    32 pas 1.85%
    24 google 1.39%
    24 site 1.39%
    23 page 1.33%
    20 2012 1.16%
    20 panda 1.16%
    16 référencement 0.93%
    15 mai 0.87%
    15 trop 0.87%
    15 bien 0.87%
    14 dit 0.81%
    13 comme 0.75%
    13 liens 0.75%
    Expressions de 2 mots-clé : 1471 (1727 avant dédoublonnage)
    15 mai 2012 0.87%
    13 2012 min 0.75%
    12 dit mai 0.69%
    8 forte proportion 0.46%
    8 pénalité pingouin 0.46%
    7 référencement cr-dsi 0.41%
    7 mot clé 0.41%
    7 trop forte 0.41%
    6 sortir pénalité 0.35%
    6 répondre johnny 0.35%
    Expressions de 3 mots-clé : 1590 (1726 avant dédoublonnage)
    12 mai 2012 min 0.70%
    12 dit mai 2012 0.70%
    7 trop forte proportion 0.41%
    6 johnny dit mai 0.35%
    6 répondre johnny dit 0.35%
    6 forte proportion liens 0.35%
    5 pénalité pingouin identifiez 0.29%
    5 comment bien structurer 0.29%
    5 page web comment 0.29%
    5 optimisation page web 0.29%

    Donc, on voit que pénalité pingouin ne représente que 0.46% du texte. Ensuite, oui il est présent dans les balises Hn, mais uniquement dans 2 des 6 balises Hn de la page. Ceci pouvant déjà expliqué qu’il n’y aura pas de pénalité. Enfin, même si c’était encore trop pour pingouin, ça pourrait conforter mon analyse quand je dit que la sur-optimisation on-page ne serait qu’un facteur aggravant ne permettant pas à elle seule de déclencher une sanction. Ca conforterais aussi mon analyse visant à ne pas depasser 2% de densité sur le MC visé que j’expose sur la page dédié à la bonne structuration d’une page pour le seo : optimisation de page web pour le référencement

  • Merci pour cet article complet sur les campagnes de nelinking. L’idéal est de trouver son rythme de croisière, en créant quelques liens par semaine.

    Il faut impérativement éviter les services de référencement automatique qui vont produire des liens en masse sur de petites périodes. Dans ce cas, on risque de se prendre une bonne claque de cow-boy par nos chers et tendres pingouins.

  • Concernant les critères pénalisants on-page, on peut citer les listes de liens internes dans le footer ou dans les sidebars.

    Concernant les critères off-page, la diversification des sources de traffic est un élément qui permet d’améliorer son référencement

  • Johnny dit :

    Pas du tout. Les liens internes ne sont pas pénalisants parce qu’ils sont dans le footer. D’ailleurs, une liste de liens externes ne l’ai pas non plus, en tout cas, pas dans mes tests. Elle l’est uniquement si il y a une trop forte proportion de ses liens qui sortent vers des sites de mauvais qualités. La diversification des sources de liens est déjà évoquée dans l’article.

  • Il me semble pourtant que les liens dans le footer qui utilisent « le dictionnaire » (façon année 2000) pour positionner des pages sont pénalisants.

    Par exemple si on bourre le footer de lien type mot1 lieu, mot1 adjectif1, mot1 adjectif2 et que l’on met des liens sur ces expressions vers une même page pour favoriser son positionnement, je pense que la ménagerie Google ne va pas aimer et avoir un malin plaisir à lancer l’assaut.

  • Johnny dit :

    De toute façon il n’y a que la première ancre vers une même page qui est prise en compte. J’ai donc du mal à comprendre que quelqu’un utilise la technique citée. Mais de toute façon, si sanction il y a, ce ne sera pas pingouin, donc hors sujet je dirais.

  • Bon récap d’une structure optimisée, toutefois j’ai l’impression qu’avec Pingouin, il vaut mieux eviter de faire un contenu trop parfait ou, du moins, éviter de placer son KW dans la triplette…

  • Totalement d’accord avec le point 5 sur les ancres… J’en ai fait l’amer expérience sur une home où pointait à 70-80% la même ancre (accent ou non), avec Pingouin, une perte de 100 place sur tous les KW sur cette home… Comment dire ? Ca pique alors pensez à varier au maximum, faire des fautes, utiliser des synonymes et surtout utiliser le domaine comme c’est souvent le cas en naturel…

  • Ping : Duplicate content sur prestashop, résoudre le problème éfficacement. | Blog référencement CR-DSI

  • Séjour Maroc dit :

    Très bon article qui à l’avantage d’être court et de remonter tous les points importants.
    Pour la longueur de la balise title je dirais plutôt entre 20 et 80. 20 car juste un mot clé ou une expression clé ça fait spammy et 80 car c’est le max affiché par GG dans les serp’s

  • Tanguy dit :

    Bonjour,

    De temps en temps je remarque ce genre d’article et d’habitude je passe mon chemin. Mais là, on n’a pas un article dans la lignée informative, mais dans la critique simple d’un produit, Prestashop.

    Et je rigole tranquillement dans mon coin, jaune au passage.

    Vous parlez de Pingoin, Panda et autre version de Google, (pratique que google nomme enfin ses versions pour améliorer le référencement). Mais vous faites aussi référence au fameux duplicate content qui doit faire peur à tous les référenceurs de la planète.

    Pour rappel, le duplicate content est le concept que plusieurs urls amène l’internaute sur la même page d’un site et donc que nous nous retrouvons avec le même contenu mais avec une adresse différente.

    Ce qui est fou, c’est que cela existe depuis toujours et bizarrement tous les gros sites on toujours ce soucis, (fnac, amzon, pîxmania, cdsicount, …) mais cela ne semble toucher que les petits sites qui doivent alors iinvestir des euro pour corriger cela.

    Je ne sais pas, mais franchement quelqu’un crois encore au duplicate de nos jours ? cela doit être les même qui conseil les keywords et le pagerank.

  • Johnny dit :

    La pénalité pour DC a été flagrante sur une de nos boutiques en prestashop au moment ou nous avons basculé d’oscommerce à presta. Quand nous avons réglé le problème le trafic est remonté tout seul. Nous avons depuis vu énormément de client passer sur les forums de référencement et finir par commander un audit complet auprès de notre société pour identifier la cause de pénalité.
    Ils avaient tous en commun une chute brutale de toutes leurs positions le jour de la MAJ Panda de fin avril et du DC à tour de bras sur leur boutique presta. Une fois notre solution appliquée ils ont tous vu leurs positions remonter à l’équivalent d’avant MAJ panda dans les semaines qui ont suivi et d’une manière tout aussi brutale que la chute.
    Il est très simple de vérifier si un site est pénalisé pour DC, la commande site: de google le montre bien avec la mention :

    Pour limiter les résultats aux pages les plus pertinentes (total : XXX), Google a ignoré certaines pages à contenu similaire.

    En ce qui concerne la fnac etc… Je pense que leur trustrank doit avoir un effet atténuant sur une éventuelle sanction à venir et du coup ils ne jouent pas dans la même cour et avec les mêmes armes que nous.

    Enfin, je précise que j’apprécie prestashop et que c’est las solution que je recommande pour une boutique web. Mais presta a un problème avec le DC, il faut le régler. Il serait tellement plus simple de passer les variables de tri par une requette post au lieu d’une get. De même pour le bouton d’ajout de produit au panier. Pourquoi faire un lien alors qu’un bouton de formulaire aurait été tellement plus éfficace pour le référencement en tout point. On aurait pas de problème de remplissage de panier par google et donc d’indexation de tous ses paniers. Et en plus, on aurait pas de gaspillage de jus sur les pages produits.

  • création de sites Marseille dit :

    C’est un bon article. Par contre, La balise title pour les images, n’a pas d’utiliter pour l’optimisation. j’aurais rajouter les balises with et height qui elle permette de réduire le temps d’affichage des images et évite aux navigateurs d’avoir à calculer la taille d’affichage. + utilisation des feuilles css. ne pas utiliser de frames. éviter le codage avec des . Mais sinon c’est un bon article, comme indiquer, qui souligne les points importants. 😉

    • Johnny dit :

      Les attributs de largeur et de longueur des images n’a aucun impact en référencement… Par ailleurs, ils n’ont aucun impact sur le temps de chargement des pages puisqu’au contraire de ce que tu dit, c’est justement ces attributs qui demandent au navigateur de redimensionner l’image, à défaut d’attribut le navigateur chargera l’image à sa taille originale. Ce qu’il faut faire pour limiter le temps de chargement c’est de modifier la taille des images avec un logiciel de traitement des images avant l’upload sur le serveur.

      Le css lui non plus ne changera rien au référencement.

      Enfin, les iframes ne sont pas une gêne pour le référencement, tout dépend de ce qu’on y met. Je dirais même au contraire qu’elle peuvent être utile au référencement dans certain cas. C’est pour ça que je n’en ai pas parlé.

  • Fabresse dit :

    Bonjour

    je viens de passer une boutique (fin avril) d’osCommerce à Prestashop 1.4.
    Résultat : il y avait 79 mots clés de cette boutique en 1ère page de Google, désormais il y en a 315 ! Et je ne suis pas référenceur. Cela ne va pas dans le sens de ce que vous annoncez. Maintenant c’est sur les pages de cette boutique sont bien travaillées en terme de mots clés et de contenu…
    Cordialement

    • Johnny dit :

      Bonjour,

      La sanction peut encore venir, le DC a peut être été gérer convenablement aucune idée. Votre argument peut être intéressant mais sans l’url de cette boutique comment vérifier ?
      Google a-t-il pris en compte déjà toutes les nouvelles urls ?
      Si vous souhaitez débattre autour de cette boutique en contre-exemple nous y sommes ouvert. Ca permettra de compléter les analyses réalisée jusque ici et de faire profiter nos lecteurs de cette autres expériences.
      Dans ce cas, dans un prochain commentaire donnez nous le liens vers cette boutique que nous puissions en faire une analyse rapide.

      Cordialement,

  • Webbax dit :

    Bonjour,

    Merci pour ce retour intéressant.

    Personnellement je pense qu’avant de se pencher sur ce genre de problématique, il faudrait bien regarder si tout le reste est déjà correctement optimisé. Trop souvent je constate des marchands qui visent des prouesses techniques au niveau amélioration, alors qu’en fait le « véritable frein » se fait à un autre niveau (apparence du site, trafic faible, produits sur-concurrentiels, fiches produits non-optimisées, contenu non-pertinent).

    • Johnny dit :

      Voilà pourquoi nous refusons de vendre uniquement notre solution de correction du DC. Parce que trop souvent ce n’est pas le seul problème et du coup, notre solution à elle seule ne serait efficace et nous ne souhaitons pas nous faire traiter de voleur parce qu’un client aurait acheté notre solution et ne constaterait pas d’amélioration. Non pas parce que la solution est inefficace, mais uniquement parce qu’il y a trop d’autre problèmes.

  • OuestGEST dit :

    Merci pour ces infos, en particulier sur la durée d’instabilité du positionnement : 20 à 70 jours.

    Je constate deux types de variations :

    – perte de position et le lendemain remontée de la même ampleur (genre variation de 300 ou 400 places !)

    – phases de déclin sur plusieurs jours ou semaines, puis remontée très rapide vers la position initiale.

    Concernant le premier type, je pense comme vous qu’il ne faut rien faire : soit google teste le site, soit google fait « du ménage ». Cela bouge beaucoup dans les SERP !

    Pour le deuxième type de variation, c’est plus difficile à analyser : test du site ou manque de netlinking !

    OuestGEST – Conseil en gestion de PME – Contrôle de gestion et réduction des impayés

  • Les mises à jour de Panda ne se font que très rarement par rapport à Penguin! reste à voir le résultat causé par ce dernier!

    Alexandra

    • Johnny dit :

      C’est tout le contraire. Panda est mis à jour tous les mois alors que pour l’instant pingouin étant sortie fin avril n’a été mis à jour qu’une seule fois.

  • Merci pour ces informations,

    Pourquoi est-ce qu’on dit toujours que le brevet Google vise à nous tromper? C’est plutôt bien d’améliorer les résultats des SERP non? Ce brevet va de ce sens enfin il me semble…

    Alexandra

    • Johnny dit :

      Oui ce brevet va dans ce sens. Mais l’action est vraiment de détecter et pénaliser toute action SEO. Tu penses vraiment qu’un monde sans SEO serait bon ? Je ne pense pas sinon tu ne publierais pas de lien ici 😉

  • GG n’a pas attendu ce nouveau brevet, pour déterminer si un site spam, d’autres mesures étaient déjà utilisé pour les détecter, mais c’est drôle de savoir que certains s’empressent de rectifier le tire à chaque fois que GG lance un signal. Beaucoup ont bien sur usé un peu trop fréquemment d’une sur-optimisation pour référencer des sites un peu trop rapidement, je pense que le SEO doit se travailler et surtout savoir patienter quelques semaines pour en tirer une conclusion efficace et sur.

    Mais en cas de mauvaise « manipulation » et que GG devait pénaliser un site, nous dit-on comment sortir de cette pénalité ?

  • @redactionweb: Je ne dirai pas que cela est une bonne chose, surtout que d’apres une etude de SEOMOZ, Google commence à afficher seulement 7 resultats sur 10 avec parfois 7 resultats du mm domaine! Dans quel but? que les entreprises fassent plus d’adwords? Pour quelle benefice pour l’internaute? Lorsqu’on fait une recherche, on aime à voir plusieurs resultats différents (avis, commentaires, sources..)

  • ip: : offre la possibilité de démarquer la recherche selon l’adresse IP du serveur hébergeant le site.–> c’est nouveau ca, je ne connait pas mais apparement très utile, merci 😉

  • Très enrichissant votre article!!Perso, je ne me suis même pas rendue compte de l’utilité de certaines commandes comme * ou ..
    Merci à vous, continuez….

    Adrienne

  • web promotion dit :

    Vous avez certainement des opinions et des vues agréables. referencement.de-site-internet.com fournit un regard neuf sur le sujet.

  • Henri Weigel dit :

    Ce site existe en ligne depuis 1999. depuis il sortait dans les 3/4 premiers rangs sur le mot clé « bijouterie », et sur les principaux mots clés du métier. Aujourd’hui il n’apparait même plus dans les 1000 premiers résultats. Le site fonctionne pourtant bien; par contre si je lance une recherche avec une faute d’orthographe comme « bijouteri », le site sort en 1er…

    • Johnny dit :

      En même temps, le site est plein de duplicate content, normal qu’il soit sanctionné. 524 URLs référencés par google pour seulement 167 pertinentes. La sanction devait tomber un jour.

  • pénalité si ses backlinks sont de trop mauvaise qualité » -> c’est faux. Les backlinks sans grand intérêt ne donnent quasiment pas de pêche à un site, mais il ne gère pas de pénalité.

    Exemple, si Google commence en septembre à dévaloriser des BL qui constituaient 70% du netlinking d’un site, en octobre le site va chuter. Je ne parlerai pas pour autant de vraie « pénalité », c’est simplement qu’il y a du boulot pour acquérir de nouveaux BL qui balancent plus de pêche et remplacer les anciens BL qui ont perdu de leur utilité.

    Google veut que les webmasters paniquent en voyant leur site chuter, et se mettent à délinker comme des abrutis (une opération 100% idiote), et maintenant il faudrait qu’on fasse les balances en dénonçant certains liens ce qui revient à leur mettre des cartons rouges.

    • Johnny dit :

      C’est le principe même de pingouin que de pénaliser les sites ayants une trop forte proportion de mauvais backlinks, tu ne vas quand même pas contredire cet état de fait ?

  • Chat IRCity dit :

    Le mieux, pour éviter de désavouer les liens que Google n’avait pas détecté, est de donner les mauvais liens présents dans GWT. C’est ce que j’ai fait pour ma part il y a 3-4 jours, d’ailleurs les liens n’ont toujours pas été retiré… je ne sais pas combien de temps il va falloir attendre pour que notre action soit prise en compte.

    • Johnny dit :

      Plus facile à dire qu’à faire. Comment savoir quel lien google désapprouve et quel lien il ne détecte pas comme spamy ? Google ne signale pas les liens qu’il considère comme mauvais donc je ne vois pas comment tu as pu faire.

    • webdecimetre dit :

      Je voulais moi aussi tenter d’enlever des liens figurant sur GWT.
      Et puis en essayant de trier les bons des mauvais liens, je me suis rendu compte que certains liens venaient de site farfelus : free, le webmail OVH ??????????
      Je ne sais pas d’où ça sort, je vais en parler chez nifrou.
      A+

  • Je ne crois pas à la théorie des mauvais backlinks. Je crois aux backlinks qui ne servent à rien car trop spammy. Si un site a trop ce profil de BL, mettons 70%, il ne ressortira nulle part et le webmaster croira qu’il a des « mauvais » BL, alors qu’il n’a que des BL inopérants et inefficaces. Il faut laisser les BL inopérants, ne pas s’en occuper, ne pas tenter de les dénoncer à Google car on ignore comment les distinguer des BL qui balancent du jus et dans le doute abstiens-toi.

    Il est possible que toute l’opération Panda / Pingouin n’ait eu pour seul but que de nous enmener à l’annonce d’aujourd’hui: encourager la dénonciation de liens.

  • Personnellement je me suis farci une sortie de penguin à la main, j’ai cherché a comprendre les critères recherchés par google, j’ai mis plus de 4 mois à comprendre CLAIREMENT et d’une manière explicable les lois régissant ce nouvel algorithme, je suis revenu de loin et je suis aujourd’hui en page 2, je crois aussi que l’outil de desavoeu de liens est la pour soit :
    -avouer qu’on est un spammeur et donc encore s’enfoncer plus
    -créer une liste de site de spam ( google utilisera ces données pour dégager un paquet de sites de son index )
    -virer un paquet de backlinks, et ensuite revenir a l’ancien algorithme, ceux qui auront virés leurs liens pleureront 🙂

    j’opte pour la 3eme solution.

    • Tony dit :

      Je suis d’accord pour la 3ème solution également. Il ne faut pas se leurrer, Google va finir par traiter les informations qu’on lui soumet. Elle va avoir une grosse base de données de sites indiqués humainement comme « spammy ». Les personnes qui risquent gros pour leur travail, ce sont les quality rater de Google (*humour*), parce que leur travail est maintenant réalisé dans le monde entier, dans toutes les langues et tous les pays, par des webmasters.

  • doudoune moncler dit :

    Thanks ! Supper Post !!

  • Je n’ai rien vu de particulier dans l’évolution des positions. Celles qui s’amélioraient continuent à progresser. Celles qui stagnaient n’ont pas bougé. Dès lors, je me demande bien quels serait les impacts de cette nouvelle version tant dans la rédaction Web que de la correction relecture des sites Internet !

  • Un de mes sites qui s’était fait descendre par le dernier Pinguin est remonté depuis cette mise à jour. Panda a annulé la rétrogradation de Pinguin dans mon cas.

    • Johnny dit :

      Absolument impossible, les deux systèmes de sanction fonctionnent absolument indépendamment l’un de l’autre. Il devait y avoir une sanction panda également, voir, pas de sanction pingouin du tout.

  • rédaction web dit :

    Encore une nouvelle mise à jour de google!
    En tout cas, il faut bien s’y prêter si l’on veut assurer un bon référencement de son site!

  • Je suis dans le même cas que couverture Facebook. J’avais un site pénalisé depuis Septembre.Grosse chute de trafic google, mon site avais dégagé des résultats sur la longue traine et sur mes top mots clés.
    Depuis hier, j’ai récupéré mes anciennes positions confortables et je rank à nouveau sur la longue traine! Je suppose alors que j’avais été touché par panda?

  • Bruno dit :

    Bonjour,

    Je dirai qu’avant toute chose, il faut commencer par faire une étude des mots-clés comme est sensé le faire tout bon référenceur qui se respecte. Qu’importe qu’on travaille les principaux mots-clés ou ceux de longue traîne, l’important est le résultat qui va être généré.
    Après, selon la thématique ou la concurrence il est plus intéressant de travailler un ou l’autre, voire les deux.

    • Johnny dit :

      Bien entendu que l’étude des mots clés est nécessaire. Je n’en ai pas parlé dans l’article puisque cette étape est induite. Comment identifier si un mot est de longue traine ou non sans l’étude ?
      Par contre, je ne suis pas d’accord avec ça : Après, selon la thématique ou la concurrence il est plus intéressant de travailler un ou l’autre, voire les deux. dans tous les cas il faut viser les deux ! Pourquoi devrait on se priver de l’un ou l’autre ?

  • Bruno dit :

    Je ne dis pas qu’il faut se priver de l’un ou l’autre, tout simplement certaines requêtes ne présentent aucun intérêt. Il est alors inutile de dépenser du temps et de l’argent dessus.
    Pour prendre un exemple concret, la société BT Web Création qui créé des sites internet n’aura aucun intérêt à travailler le mot-clé « création » tout seul.
    J’espère avoir été plus clair dans mes explications.
    Amicalement,

    BrunoT

  • Fred dit :

    Depuis la mise à jour Google Pingouin, La longue traine est devenue une obligation. Mais bien peut de monde à compris ce phénomène qui si il n’est pas respecté peut être très préjudiciable. Aujourd’hui, la longue traine n’est plus une option, mais une obligation, pour être bien classé par Google. Pour moi, c’est incompréhensible que les autres agences n’aient pas intégrés cette donnée.

  • CQFD pour un article original aussi bien que la proposition de service qui va avec, beau démarquage par rapport à la concurrence et je suis en parfaite adéquation avec le fait que les gens ne cherchent pas un mot ou 2 sur google mais une phrase ce qui est souvent mon cas pour obtenir des résultats plus précis et des réponses qui conviennent en terme de recherche.

  • luckygulli dit :

    Est-ce-que tous les sites peuvent réussir à utiliser la longue traine ? Je vois pas trop comment faire pour l’améliorer… (Mais peut-être le fais-je déjà ?)

    • Johnny dit :

      Forcément que oui, il y a toujours de la traine en matière de mots clés, peut importe le domaine. Je n’ai jamais croisé un site où il n’y avait pas d’expression de traine.

  • La longue traine est une étape très importante dans le SEO. Mais fort dommage qu’elle soit négligée par bon nombre de référenceurs.
    Merci de nous avoir partagé son avantage!
    A bientôt!

  • Shelko dit :

    Bon article informatif, mais comme pour de nombreux articles, je ne suis pas d’accord avec la définition de la longue traîne. Ce n’est pas une expression de + de 2 mots, c’est une expression « nichant » une expression clé.
    Exemple: « Création site web » est une expression clé sa longue traîne par exemple « création site web serrurier bordeaux ». Mais il est vrai que le truc des 2 mots est plus simple pour expliquer à un client car vrai dans 80% des cas.

  • Call center dit :

    contente que vous ayez tous été épargnés par la v 4 de Penguin, j’avoue, votre méthode m’intéresse beaucoup du coup!

    • Johnny dit :

      Vu notre méthode de facturation nous n’avons pas droit à l’erreur. Si du fait d’une mise à jour d’algo chez google nos clients devaient perdre leurs positions nous n’aurions, du jour au lendemain, plus aucun revenu non plus.

  • Bonjour,

    Personnellement ces mises à jours ne m’inquiètent pas car elles sont sensées pénaliser essentiellement ceux qui emploient des techniques black hat, non?
    Or, si on n’a aucun reproche à se faire, pourquoi diable paniquer?

    Cordialement,

    Bruno

    • Johnny dit :

      Bonjour Bruno,

      Ce n’est pas aussi simple que ça malheureusement. En fait, pingouin fait la chasse aux liens artificiels. Autrement dit, à tout lien étant créé pour faire monter un site dans les résultats de recherche. Aussi, il n’existe donc aucune action de référencement qui ne soit pas considérée comme black pour google, puisque ces liens n’étant généré que pour le référencement ils ne peuvent être naturels.

      De ce fait, tout lien créé est potentiellement dangereux vis à vis de pingouin si la logique de création de la campagne de backlinking n’a pas été convenablement pensée.

  • Bonjour,
    Vous avez parlé de la deuxième mise à jour de pingouin, mais ne s’agit-il pas de la quatrième?

  • Le travail de référencement naturel doit être « naturel » et constant car toute rupture dans la continuité du netlinking sera détectée par Google dans les semaines qui suivront. Et le moteur de recherche effectuera les mesures qui s’impose, c’est à dire qu’il vous descendra automatiquement dans ses pages de recherche.

  • Bruno TRITSCH dit :

    Bonjour,

    Comme je l’ai suggéré sur le forum de référencement WMR, Google prend peut-être en compte ces domaines non linkés comme il prend en compte les marques et les noms.
    En effet, on parle de plus en plus de la part croissante que prendra le branding dans le référencement, or certaines marques étant à la base des noms de domaine, on peut légitimement penser que le moteur de recherche les assimile ainsi.

    Amicalement,

    Bruno

  • Adifco dit :

    Bonjour,
    je pense que c’est quelque part un peu comme la marque. Plus on est cités, (même sans lien), mieux c’est.
    Par exemple si toto-fait-du-velo.com est cité dans tous les sites / blogs de vélo, à mon avis il va améliorer sa position pour les requêtes en relation avec cette thématique. Il faudrait faire un test !

    Bonne journée

  • Bonjour,

    je me suis souvent posé la question de si c’était effectivement le cas. Au final, c’est vrai que c’est normal que Google suive les noms de domaines non-linkés, ça fait parti du contenu. Par exemple, si jamais je mets « glamoisaxiral » ici, si la page est assez pertinente cela devrait ressortir d’ici quelques jours, alors pourquoi ce ne serait pas le cas pour un nom de domaine finalement?

    Par contre, il y a une question que je me posais aussi, c’est est-ce que ce ne serait pas une bonne chose si l’on désirait créer le buzz pour une marque de faire 60-70 posts où l’on ne mettrait aucun lien, juste pour simuler de la notoriété auprès de Google et pouvoir travailler son ref tranquille ? A voir plus tard.

  • Des Sites Pour Gagner De L Argent dit :

    Interressant 🙂

  • Option binaire dit :

    Cela fait un bon moment que je n avais pas denicher une lecture de ce niveau !!!

  • Bruno TRITSCH dit :

    Bonjour,

    En effet, j’ai également remarqué que des sites qui étaient jusqu’ici épargnés ont été impactés, mais la question que je me pose est: cela va-t-il être inscrit dans la durée ou est-ce une manœuvre de Google comme il sait si bien les faire, pour voir qui panique et qui aurait donc des choses à se reprocher?
    Je pense ainsi qu’il ne faut pas changer ses habitudes dans un premier temps, sauf bien sûr si vous avez reçu un message de pénalité de la part Google Webmaster Tools.
    Qu’en pensez-vous vous-même?

    Cordialement,

    Bruno

    • Johnny dit :

      De toute façon par mesure de précaution, je pense qu’il ne faut jamais arrêter de faire ce qu’on faisait à un moment, sauf si s’était de spammer à tour de bras par commentaire de blog sur des blogs déjà over spammés par exemple. Par contre, ce qu’il faut faire en cas de sanction comme ça c’est prendre du recul, observer ce qu’on a peut être trop fait et le diluer dans de nouvelles actions correctives.

  • refserein dit :

    Je pleur !!!

    Quand je vois la chute de mon site positionné 1er sur certains mots clefs se faire rétrograder 8ème voir sur la deuxième page …

    Le pire est encore de voir les HORREURS qui sont passées devant moi …

    J’attends avec impatience votre étude !!!

    • Johnny dit :

      Ce genre de petite chute ne sont pas non plus dans les habitudes de google. Habituellement quand un site prend une sanction c’est la dégringolade de plusieurs centaines de places. C’est presque comme si cette version de pingouin se contentait de neutraliser le jus des mauvais liens. Pour l’étude il faudra attendre un peu qu’on puisse recouper les informations. Surtout, qu’un site qu’on pensait touché par pingouin parce qu’ayant perdu plusieurs dizaines de places en passant de la première page à la 4/5ème page sur 3 expressions le jour de la maj est remonté ce matin aux places précédemment perdue. Difficile donc pour l’instant de tirer des conclusions.

  • Mitmi dit :

    Je me suis fait complètement éclater par cette mise à jour alors que mon site avait passé sans problème tous les pingouins et pandas. Vraiment dégouté pour le coup. Il ne me reste plus qu’à essayer de rattraper le massacre.

    • Johnny dit :

      Si je peut me permettre il y a plusieurs choses qui me choquent dans le profil de lien de votre site ancré ici. En voyant ça je comprends la sanction. La même ancre linké à chaque fois avec juste ajout de mot, mais pas de variation. 1900 BL pour seulement 250 référants, de plus, une grosse majorité des liens viennent de site seo donc hors thématique.

  • nos sites ont également souffert de cette mise à jour. Votre situation me fait penser que je n’ai pas pensé à vérifier si nous chutons également dans les expressions non linkées. On n’y pense pas forcément puisqu’un tel déclassement n’a tout simplement pas lieu d’être

  • Gagner De L argent Grace A Youtube dit :

    Une des référence sur le sujet, on en veux encore merci.

  • philippe dit :

    Bonjour,
    J’ai plusieurs sites, et je constate que ceux qui ont subit des pertes de positions sont les plus anciens et ceux qui ont le plus de liens . J’ai quelques blogs avec des pages récentes et trés peu de liens, aucune variation .
    J’ai l’impression que l’avenir est vraiment au contenu, quant aux liens c’est l’effet inverse, plus il y en a moins on est positionné.
    Pas bête google, une ou tpe qui s’est developpé grace a l’internet , a investi et donc des frais fixes, puis subi une chute de CA est dans l’embarras, quelle est la solution ? google adword ?
    Pour les remercier, on devrait tous aller sur bing .
    Et comme un post plus haut, je constate que ce n’est pas forcément la qualité du site et des prestations proposées qui positionnent le site, j’ai vu aussi des concurrents me doubler en proposant du low cost via groupon, donc creation de pages par groupon ( indelebiles) et beaucoup de trafic , et les voila premier , alors que le low cost ne veut pas dire meilleur rapport qualité-prix, l’argument de google pour nous déclasser .
    Enfin c’est comme ça, c’est le monopole et nous voila en situation de dépendance.

    • Johnny dit :

      Normal que les sites touchés soit ceux qui ont fait l’objet d’un linking puisque pingouin ne sanctionne que le linking. La même réponse s’applique au fait que le contenu seul ne peut se faire sanctionner par pingouin. Par contre, panda lui s’y attaque. Les prix pratiqués par les e-commerçants n’entre pas en ligne de compte pour le positionnement d’un site.

  • Ping : Pénalité google transmise au nouv...

  • top web dit :

    C’est très clair, ce que Google veux dire c’est qu’il faut faire un nouveau site et refaire le travail de référencement depuis le zéro.
    Pus facile à fire qu’à faire car beaucoup abandonnent dès qu’ils sont sanctionnés.
    IL reste néanmoins la solution Adwords mais qui coute assez cher.

  • référencement google dit :

    Quel blague ! des gens croient vraiment qu’on va les payer à cause d’une menace pareille ?
    Après je pense que si Google sanctionne pour des liens de type spam et bien il y a toujours moyen de s’expliquer et de montrer cet email et de se faire dépénaliser…
    après pour l’outil désallow, il faut bien les ajouter le 20000 backlink..
    tout les évolutions négative dont le référencement provenait de ce genre de pratique, malheureusement ce n’est pas les plus mauvais qui payent le prix cher.
    Heureusement qu’il y a toujours d’autres levier pour faire connaître un site web.