L'auteur (qui fait partie du monde du SEO) semble penser que le SEO actuel est une bonne chose et qu'il va évoluer vers une mauvaise chose. Mon constat personnel serait plutôt que c'est un monde déjà pourri et qu'au mieux il pourrait mourir et au pire se dégrader un peu plus.
Le SEO actuel est pour moi un mot pour couvrir des pénibles qui font de la pub cachée, qui déguisent des liens, qui bourrent des pages de mots de clés ne correspondant pas au contenu, qui génèrent des contenus douteux, qui copient-collent d'autres contenus pour meubler, qui reprennent des noms de domaine « prestigieux », qui bourrent les endroits où l'on peut écrire (réseaux sociaux, forums, canaux publics, etc.), qui prétendent avoir avoir une bonne compréhension technique des moteurs de recherche, etc., etc.
L'article évoque un « risque, à moyen terme, de dégrader l’expérience des internautes », alors que c'est juste mon quotidien à la fois d'internaute mais aussi d'admin d'un site web :
comme internaute j'ai déjà les moteurs de recherche qui n'aident plus trop, mon écran et ma bande passante encombrés de trucs inutiles, des articles creux en masse, du « vas-y clique ici » partout, des anciens sites repris pour de la pub cachée, etc.
comme webmestre je vois le trafic de spammeurs/SEO, les comptes créés et les faux-nez, les liens de pub planqués, les demandes incessantes par courriel pour placer de la pub et faire des partenariats, les propositions faussement techniques pour remplacer des liens cassés par un autre lien qui n'est qu'une pub déguisée pour le référencement, etc.
Le ratio signal/bruit me semble s'être bien dégradé, et je serais curieux de savoir ce qu'on économiserait à virer cette bulle massive de pub qui sclérose le web actuel.
En fait, il semble impossible de savoir si l'auteur est sincère (et complètement dans sa bulle), ou si c'est un cynique qui se moque du monde.
Le principe du SEO est de tromper. Tromper les moteurs de recherche, en exploitant les failles des index de pertinence pour promouvoir du contenu moins pertinent, et bien sûr tromper les utilisateurs des moteurs de recherche, en mettant en avant des résultats différents de ceux qu'ils auraient souhaité. Le SEO oblige les moteurs de recherche à adapter leurs algorithmes régulièrement pour boucher les failles, sans pour autant y réussir parfaitement.
Et là, ouin ouin, ils semblent avoir trouvé des parasites plus efficaces qu'eux : les pages qui génèrent du contenu par IA et qui, probablement par le volume et la fréquence des mises à jour, attirent les moteurs de recherche mieux que les cercles de faux sites s'auto-indexant, ou autres techniques malhonnêtes destinées à tromper les logiciels d'indexation.
Finalement, depuis des années, les moteurs de recherche ont abandonné la lutte, en mettant en avant les liens "sponsorisés" et en ne portant qu'un intérêt minimal à la liste des sites qui suivent (et à la limite, moins cette liste est pertinente et plus les sites sponsorisés vont être attractifs). C'est dans cet espèce d'équilibre malsain que les moteurs et les SEO peuvent cohabiter, mais c'est bien entendu au détriment des internautes.
Existe-t-il des moteurs de recherche qui pénalisent les sites mettant en place des stratégies de SEO habituelles? C'est ce genre de moteurs qui aurait le plus de chances de donner des résultats pertinents.
Lire vos commentaires me rappel quelques articles et interventions lues ici sur des tentatives de créer des web alternatifs, moins envahis par la publicité, le JavaScript, etc (je ne sais pas trop si ma description est claire, n’étant pas capable de retrouver une référence précise).
Dans le même genre d’idée, ne pourrait-on pas imaginer un moteur de recherche n’indexant que des contenus signés et pondérant les notes des pages par celles des auteurs, institutions… De la sorte, ne se débarasserait-on pas, au moins partiellement, des pires pratiques du SEO : ils seraient obligés de se concentrer sur du contenu intéressant pour améliorer l’évaluation de leur signature.
Lire vos commentaires me rappel quelques articles et interventions lues ici sur des tentatives de créer des web alternatifs, moins envahis par la publicité, le JavaScript, etc (je ne sais pas trop si ma description est claire, n’étant pas capable de retrouver une référence précise).
Le truc, c'est que bien sûr chacun est libre de faire un site avec la technologie qui lui plait. Linuxfr est assez exemplaire, mais même Wikipédia par exemple n'est vraiment pas mal.
Si tu devais concevoir un moteur de recherche indépendant, tu prendrais certainement en compte une partie de ces critères, notamment la rapidité d'ouverture des pages sur un browser lambda, la taille de code non-HTML, la présence de cookie walls, etc.
Note que le moteur de Google pénalise les pages bourrées de pub, les popups, etc. Mais depuis un paquet d'années Google n'investit plus vraiment dans la qualité de son moteur (pour plein de raisons, notamment commerciales), et que quand tu as en face de toi des SEO qui brassent des millions, tu risques d'avoir toujours une longueur de retard.
ils seraient obligés de se concentrer sur du contenu intéressant pour améliorer l’évaluation de leur signature.
C'est la différence entre le SEO "white hat" et le SEO "black hat", et ça existe depuis longtemps. C'est juste que produire du contenu intéressant n'est pas forcément possible, en fonction de ton business model. Et tu risques, aussi paradoxalement que ça puisse être, de perdre tes lecteurs. Un site de Pr0n qui te propose 75 pages documentées sur l'histoire de la représentation de la sexualité dans l'art, ça n'est probablement pas ce que tes lecteurs cherchent. On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas.
« On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas. »
Effectivement, on peut présumer que le type de résultat intéressant pour différentes requêtes varie largement. Ex :
* Python class syntax,
* Science conscience métaphysique destinée,
* couché de soleil HD.
Probablement que rien n'empêche d'utiliser des outils comme les SVR ou plus modernes pour créer des catégories d'utilisateurs, de requêtes, de sites, et adapter le classement aux intérêts présumés du requérant. C'est vraisemblablement déjà utilisé d'ailleurs. En pondérant par un classement des signataires (multidimensionnel également), on permettrait peut-être de réduire le risque de surclasser une lien vide d'intérêt, ou plutôt cela permettrait de prioriser des liens associés à des signataires déjà appréciées (selon leurs catégorisations) des utilisateurs du moteur.
Probablement que rien n'empêche d'utiliser des outils comme les SVR ou plus modernes pour créer des catégories d'utilisateurs, de requêtes, de sites, et adapter le classement aux intérêts présumés du requérant.
Certes, mais du coup c'est pareil que les algos de recommandation des réseaux sociaux (c'est obscur, différents utilisateurs n'ont pas les mêmes réponses, ça classifie les utilisateurs dans des "bulles" de confort, etc).
Mais je pense que c'est assez insoluble. Les intérêts de l'utilisateur, du concepteur du moteur, des sites visités, et de la société sont incompatibles, donc soit un intérêt est privilégié par rapport aux autres, soit un compromis doit être fait. Quand quelqu'un cherche "soigner le cancer par les huiles essentielles", est-ce vraiment dans son intérêt de répondre à la question demandée? Ou "achat Mein Kampf dédicacé par Hitler"? Et quid de "site de streaming illégal"? "Adresse personnelle du ministre de l'intérieur"? On met la limite où? Les journaux en ligne jurent sur la tête de leurs grands parents que sans les cookies ils vont mourir dans les 2 jours qui viennent, et si c'était partiellement vrai? Du coup on change l'algo pour les refaire monter, parce que "Le Monde" avec cookies ça vaut peut-être "Le Blog de Dédé l'identitaire" sans cookies?
Posté par arnaudus .
Évalué à 4 (+1/-0).
Dernière modification le 28 août 2024 à 14:58.
Tu veux m'inviter à un dîner avec des amis qui seront très intéressés par mon projet, c'est ça?
En tout cas, je crois en savoir assez sur ce qui peut être considéré comme sexuellement stimulant par mes conspécifiques pour refuser de faire une quelconque prédiction sur le succès éventuel d'un tel site :-S
Et effectivement, le SEO, ce sont des tonnes de textes insipides avec des contenus indigents rédigés pour les robots, pas pour les êtres humains. Ce qui ne serait pas problématique s'ils n'apparaissaient pas souvent en premiers dans les résultats de recherche.
Le site du lien est un site qui, au départ en tout cas, était l'intermédiaire de prestations de rédaction et les tarifs étaient très très bas ce qui faisait que les rédacteurs et les rédactrices étaient payés des misères (mais vraiment, ce n'est pas une exagération).
Ce qui me gave aussi c'est qu'il y a encore des SEO (bon, moins) pour oser prétendre que la qualité du contenu primait pour le référencement alors qu'on voit bien que c'est complètement faux.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
# Si seulement ?
Posté par Benoît Sibaud (site web personnel) . Évalué à 10 (+24/-0).
L'auteur (qui fait partie du monde du SEO) semble penser que le SEO actuel est une bonne chose et qu'il va évoluer vers une mauvaise chose. Mon constat personnel serait plutôt que c'est un monde déjà pourri et qu'au mieux il pourrait mourir et au pire se dégrader un peu plus.
Le SEO actuel est pour moi un mot pour couvrir des pénibles qui font de la pub cachée, qui déguisent des liens, qui bourrent des pages de mots de clés ne correspondant pas au contenu, qui génèrent des contenus douteux, qui copient-collent d'autres contenus pour meubler, qui reprennent des noms de domaine « prestigieux », qui bourrent les endroits où l'on peut écrire (réseaux sociaux, forums, canaux publics, etc.), qui prétendent avoir avoir une bonne compréhension technique des moteurs de recherche, etc., etc.
L'article évoque un « risque, à moyen terme, de dégrader l’expérience des internautes », alors que c'est juste mon quotidien à la fois d'internaute mais aussi d'admin d'un site web :
Le ratio signal/bruit me semble s'être bien dégradé, et je serais curieux de savoir ce qu'on économiserait à virer cette bulle massive de pub qui sclérose le web actuel.
[^] # Re: Si seulement ?
Posté par arnaudus . Évalué à 10 (+13/-0).
En fait, il semble impossible de savoir si l'auteur est sincère (et complètement dans sa bulle), ou si c'est un cynique qui se moque du monde.
Le principe du SEO est de tromper. Tromper les moteurs de recherche, en exploitant les failles des index de pertinence pour promouvoir du contenu moins pertinent, et bien sûr tromper les utilisateurs des moteurs de recherche, en mettant en avant des résultats différents de ceux qu'ils auraient souhaité. Le SEO oblige les moteurs de recherche à adapter leurs algorithmes régulièrement pour boucher les failles, sans pour autant y réussir parfaitement.
Et là, ouin ouin, ils semblent avoir trouvé des parasites plus efficaces qu'eux : les pages qui génèrent du contenu par IA et qui, probablement par le volume et la fréquence des mises à jour, attirent les moteurs de recherche mieux que les cercles de faux sites s'auto-indexant, ou autres techniques malhonnêtes destinées à tromper les logiciels d'indexation.
Finalement, depuis des années, les moteurs de recherche ont abandonné la lutte, en mettant en avant les liens "sponsorisés" et en ne portant qu'un intérêt minimal à la liste des sites qui suivent (et à la limite, moins cette liste est pertinente et plus les sites sponsorisés vont être attractifs). C'est dans cet espèce d'équilibre malsain que les moteurs et les SEO peuvent cohabiter, mais c'est bien entendu au détriment des internautes.
Existe-t-il des moteurs de recherche qui pénalisent les sites mettant en place des stratégies de SEO habituelles? C'est ce genre de moteurs qui aurait le plus de chances de donner des résultats pertinents.
[^] # Re: Si seulement ?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 7 (+5/-0).
Lire vos commentaires me rappel quelques articles et interventions lues ici sur des tentatives de créer des web alternatifs, moins envahis par la publicité, le JavaScript, etc (je ne sais pas trop si ma description est claire, n’étant pas capable de retrouver une référence précise).
Dans le même genre d’idée, ne pourrait-on pas imaginer un moteur de recherche n’indexant que des contenus signés et pondérant les notes des pages par celles des auteurs, institutions… De la sorte, ne se débarasserait-on pas, au moins partiellement, des pires pratiques du SEO : ils seraient obligés de se concentrer sur du contenu intéressant pour améliorer l’évaluation de leur signature.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Si seulement ?
Posté par arnaudus . Évalué à 6 (+3/-0).
Le truc, c'est que bien sûr chacun est libre de faire un site avec la technologie qui lui plait. Linuxfr est assez exemplaire, mais même Wikipédia par exemple n'est vraiment pas mal.
Si tu devais concevoir un moteur de recherche indépendant, tu prendrais certainement en compte une partie de ces critères, notamment la rapidité d'ouverture des pages sur un browser lambda, la taille de code non-HTML, la présence de cookie walls, etc.
Note que le moteur de Google pénalise les pages bourrées de pub, les popups, etc. Mais depuis un paquet d'années Google n'investit plus vraiment dans la qualité de son moteur (pour plein de raisons, notamment commerciales), et que quand tu as en face de toi des SEO qui brassent des millions, tu risques d'avoir toujours une longueur de retard.
C'est la différence entre le SEO "white hat" et le SEO "black hat", et ça existe depuis longtemps. C'est juste que produire du contenu intéressant n'est pas forcément possible, en fonction de ton business model. Et tu risques, aussi paradoxalement que ça puisse être, de perdre tes lecteurs. Un site de Pr0n qui te propose 75 pages documentées sur l'histoire de la représentation de la sexualité dans l'art, ça n'est probablement pas ce que tes lecteurs cherchent. On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas.
[^] # Re: Si seulement ?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
Effectivement, on peut présumer que le type de résultat intéressant pour différentes requêtes varie largement. Ex :
* Python class syntax,
* Science conscience métaphysique destinée,
* couché de soleil HD.
Probablement que rien n'empêche d'utiliser des outils comme les SVR ou plus modernes pour créer des catégories d'utilisateurs, de requêtes, de sites, et adapter le classement aux intérêts présumés du requérant. C'est vraisemblablement déjà utilisé d'ailleurs. En pondérant par un classement des signataires (multidimensionnel également), on permettrait peut-être de réduire le risque de surclasser une lien vide d'intérêt, ou plutôt cela permettrait de prioriser des liens associés à des signataires déjà appréciées (selon leurs catégorisations) des utilisateurs du moteur.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Si seulement ?
Posté par arnaudus . Évalué à 5 (+2/-0).
Certes, mais du coup c'est pareil que les algos de recommandation des réseaux sociaux (c'est obscur, différents utilisateurs n'ont pas les mêmes réponses, ça classifie les utilisateurs dans des "bulles" de confort, etc).
Mais je pense que c'est assez insoluble. Les intérêts de l'utilisateur, du concepteur du moteur, des sites visités, et de la société sont incompatibles, donc soit un intérêt est privilégié par rapport aux autres, soit un compromis doit être fait. Quand quelqu'un cherche "soigner le cancer par les huiles essentielles", est-ce vraiment dans son intérêt de répondre à la question demandée? Ou "achat Mein Kampf dédicacé par Hitler"? Et quid de "site de streaming illégal"? "Adresse personnelle du ministre de l'intérieur"? On met la limite où? Les journaux en ligne jurent sur la tête de leurs grands parents que sans les cookies ils vont mourir dans les 2 jours qui viennent, et si c'était partiellement vrai? Du coup on change l'algo pour les refaire monter, parce que "Le Monde" avec cookies ça vaut peut-être "Le Blog de Dédé l'identitaire" sans cookies?
[^] # Re: Si seulement ?
Posté par volts . Évalué à 4 (+2/-0).
Tu sembles être fun en soirée, dis-moi 🧐
--> [ ]
[^] # Re: Si seulement ?
Posté par arnaudus . Évalué à 4 (+1/-0). Dernière modification le 28 août 2024 à 14:58.
Tu veux m'inviter à un dîner avec des amis qui seront très intéressés par mon projet, c'est ça?
En tout cas, je crois en savoir assez sur ce qui peut être considéré comme sexuellement stimulant par mes conspécifiques pour refuser de faire une quelconque prédiction sur le succès éventuel d'un tel site :-S
[^] # Re: Si seulement ?
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 5 (+2/-0).
Je savais que ça te plairait !
Et effectivement, le SEO, ce sont des tonnes de textes insipides avec des contenus indigents rédigés pour les robots, pas pour les êtres humains. Ce qui ne serait pas problématique s'ils n'apparaissaient pas souvent en premiers dans les résultats de recherche.
Le site du lien est un site qui, au départ en tout cas, était l'intermédiaire de prestations de rédaction et les tarifs étaient très très bas ce qui faisait que les rédacteurs et les rédactrices étaient payés des misères (mais vraiment, ce n'est pas une exagération).
Ce qui me gave aussi c'est qu'il y a encore des SEO (bon, moins) pour oser prétendre que la qualité du contenu primait pour le référencement alors qu'on voit bien que c'est complètement faux.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
# défendons le SEO de qualité!
Posté par bistouille . Évalué à 3 (+3/-1).
Et demain soyons toutes et tous ensemble derrière Jeff Bezos contre Temu et Aliexpress :-)
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.