OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Google rigole avec l’Europe http://owni.fr/2012/10/11/google-rigole-avec-leurope/ http://owni.fr/2012/10/11/google-rigole-avec-leurope/#comments Thu, 11 Oct 2012 10:52:46 +0000 Claire Berthelemy http://owni.fr/?p=122343 Lady Justice - Photo CC by-nc-sa Scott

Lady Justice - Photo CC by-nc-sa Scott

Depuis presque deux ans, Google est sous le coup d’une enquête visant à déterminer si les résultats de son moteur de recherche ne tendent pas à favoriser ceux qui collent à ses intérêts. À l’origine, trois plaintes déposées par Ciao, e-justice et Foundem. D’autres s’y étaient ajoutées : au 20 septembre dernier, on en dénombrait quasi cinq fois plus. Al Verney, lobbyiste en chef à Bruxelles souhaitait prouver en novembre dernier la bonne volonté de Google à travailler avec les services de la Commission pour “résoudre le problème” :

Depuis que nous avons crée Google, nous travaillons dur pour faire en sorte de garder au coeur de notre activité les intérêts de nos utilisateurs et de notre secteur – en garantissant que nos publicités soient toujours clairement identifiées, en rendant simple pour les utilisateurs et les publicitaires la récupération de leurs données quand ils changent de service et en investissant massivement dans des projets open source. Mais il y a toujours une marge d’amélioration et nous travaillons avec la Commission pour répondre à toutes les interrogations qu’ils pourraient avoir.

Les intérêts des utilisateurs de Google tiraient donc vers les intérêts personnels et financiers de la firme, en toute logique pour une entreprise. Hier, comme le rappelle Le Monde, le Financial Times expliquait (selon “une source proche du dossier”) :

En vertu de cette proposition, Google apposerait sa marque sur toutes ses cartes, ses évaluations boursières, ses informations sur les vols ou d’autres éléments d’informations fournis dans les résultats des recherches.

Compte tenu des sommes qui pourraient être demandées à Google au terme de cette enquête pour soupçons d’abus de position dominante – jusqu’à 10% de leur colossal chiffre d’affaires – apposer leur logo semble bien léger et bien dérisoire pour être pris pour de la bonne volonté.


Photo Lady Justice CC [by-nc-sa] Scott* – retouchée par Owni /-)

]]>
http://owni.fr/2012/10/11/google-rigole-avec-leurope/feed/ 7
La loi du chiffre selon Google http://owni.fr/2011/11/03/la-loi-du-chiffre-selon-google-panda-bibliosurf/ http://owni.fr/2011/11/03/la-loi-du-chiffre-selon-google-panda-bibliosurf/#comments Thu, 03 Nov 2011 15:48:56 +0000 Claire Berthelemy http://owni.fr/?p=85524 Bernard Strainchamps, fondateur de la librairie en ligne Bibliosurf, a été comme d’autres sites, affecté par la mise en place du nouvel algorithme de Google, nommé Panda. Mis en place début août dans le but de rendre les résultats du moteur de recherche plus pertinents pour l’internaute, il a aussi pénalisé des sites de vente en ligne.

À partir de quel moment avez-vous constaté que vos pages disparaissaient des premiers résultats de Google ? Lorsque vous les avez contactés, quelle a été leur réponse ?

Dès le 15 août, j’ai constaté un retour différent de Google. J’ai écrit alors un billet sur mon blog intitulé ironiquement Panda n’est-il pas un animal en voie de disparition ? Comme 70% du chiffre d’affaires est encore généré pas des visiteurs occasionnels qui effectuent une recherche sur Google, un bon référencement est vital pour la librairie Bibliosurf. Je les ai contactés et ils m’ont répondu via mon compte webmaster tools que Bibliosurf n’était pas rentré dans des critères déclassifiants [NDLR : n’était pas une ferme de contenus] mais que l’algorithme évoluait et que cela pouvait entraîner des changements dans le classement.

Dans les faits, les statistiques vous ont montré qu’il y avait une baisse de la fréquentation. Jusqu’à quel point ?

Mon hébergeur a changé son logiciel de statistiques et Bibliosurf est passé d’une version du logiciel SPIP de 1.9 à 2.1. Aussi, c’est difficile de comparer des chiffres qui n’ont pas été produits dans les mêmes conditions. J’estime néanmoins une chute de fréquentation de 30% liée à Google Panda et une chute des commandes de 20% en septembre. Je n’ai pas encore les chiffres d’octobre mais Google Panda continue son travail de sape. La chute pourrait être de 40% ce mois.

Vous procédez à votre propre référencement. Avez-vous fait des modifications par la suite pour améliorer vos résultats ?

Sur Bibliosurf, je fais tout tout seul. Du code aux cartons en passant par les interviews des auteurs et l’animation du site. Je ne suis donc pas un spécialiste du référencement. Par contre, je sais que Bibliosurf a toujours bénéficié d’un très bon référencement sur ce moteur de recherche. Une étude du MOTIF [PDF] le montrait déjà en octobre 2010. Vers la mi septembre quand j’ai constaté la baisse drastique du nombre des commandes, j’ai effectué un test avec des titres en vue de la rentrée littéraire pour savoir ce qu’il en était de mes concurrents sur Google. J’ai alors constaté à mon grand étonnement que toutes les librairies en ligne étaient touchées sauf la Fnac qui caracolait dans les premières positions des requêtes dans 7 cas sur 10. J’ai regardé comment la Fnac présentait les notices.

On travaille tous avec le contenu dupliqué produit par les éditeurs. Aussi, il n’y a pas de raison qu’une librairie soit privilégiée. Lors de mon analyse, j’ai constaté que la Fnac avait remonté le contenu produit en interne : les commentaires des libraires et des lecteurs. J’ai donc fait de même. Un quart de Bibliosurf est du contenu enrichi : interviews, chroniques des lecteurs et revue de presse. A ce jour, ce changement n’a produit aucun effet.

Selon vous, qu’est ce que peut changer Google Panda à court et long terme pour les librairies telles que la votre et pour celles comme Amazon et la Fnac ?

Le filtre Panda qui chasse le contenu dupliqué est sans doute une bonne chose pour les internautes. Dans les premiers résultats des requêtes, il ne sert à rien que l’internaute ait accès dix fois à la même notice produite par les éditeurs.
Google met d’ailleurs en avant le site de l’éditeur à présent. Mais Google Panda est aussi une machine à gagner de l’argent qui va forcer l’e-commerce à acheter du mot clé payant. Cette semaine, j’ai effectué un test avec 100 euros investis dans les termes “ebook” et “livre numérique”. Cela a bien sûr redirigé des internautes vers ma nouvelle librairie de livres numériques mais sans générer une hausse du chiffre d’affaire.

Il y a un temps, Internet était un réseau de réseaux. Il a tendance à devenir le réseau de quelques multinationales qui prennent toute la place. Présent sur le web depuis 1997, et sur le web littéraire depuis 1999, je bénéficie aujourd’hui d’une certaine sympathie des bibliothécaires (qui est mon précédent métier), des libraires et des amateurs de littérature, en particulier de polar. Mais cette estime ne se traduit pas par un grand volume de ventes. Il y a les fidèles qui ne veulent pas lâcher leurs libraires et ceux qui sont accros à Amazon.
J’espérais beaucoup du numérique mais l’arrivée de lecteurs (reader ou tablette) fermés et liés à une librairie unique type Kindle ne laisse entrevoir que de sombres perspectives.

Non contentes de bénéficier d’une force de frappe financière, ces multinationales délocalisent leurs sièges au Luxembourg pour bénéficier d’une TVA réduite et ainsi vendre des livres subventionnés par l’État empochant au passage un bonus fiscal.
Il y a trois jours, j’ai reçu un aimable tweet qui disait que je n’avais rien compris, qu’il fallait s’adapter ou mourir. En plus de produire 300 interviews en 5 ans, j’ai tenté de nombreuses pistes pour créer un catalogue à taille humaine mouvant qui se configure en fonction des consultations, des avis des lecteurs, de ce qui se dit sur le net, et bien sûr sans oublier ma subjectivité. J’ai par ailleurs innové dans la structuration des données avec une indexation très riche qui utilise des formats dates et la géolocalisation. Je crois que le livre papier ou dématérialisé a besoin de médiateurs : journalistes, libraires, blogueurs, réseaux de lecteurs… Et surtout que la religion de l’algorithme a ses limites.


Illustration Flickr PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Belhor_

Vous pouvez retrouver les articles du dossier :
Google gentiment au tribunal de commerce
Google abuse en silence

Illustration de Une Marion Boucharlat

]]>
http://owni.fr/2011/11/03/la-loi-du-chiffre-selon-google-panda-bibliosurf/feed/ 7
Penser le futur du web http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/ http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/#comments Tue, 25 Oct 2011 16:41:02 +0000 Olivier Ertzscheid http://owni.fr/?p=84609

Qu’y aura-t-il demain sous nos moteurs ? Moteurs de recherche et réseaux sociaux occupent une place chaque jour plus prépondérante dans nos accès à l’information et à la connaissance. Ils suscitent également de vives interrogations, notamment dans leur capacité à rendre indexables des informations relevant indistinctement des sphères publiques, privées et intimes des contenus disponibles en ligne.

Enfin, inaugurés par le “like” de Facebook, les systèmes de recommandation se multiplient, venant concurrencer ou remplacer l’établissement de liens hypertextes et suscitant de nouveaux usages, de nouvelles métriques. Par ailleurs, la famille documentaire s’est agrandie : les encyclopédies sont devenus collaboratives, d’immenses silos documentaires sont apparus (YouTube, Flickr, etc.), les profils humains sont devenus des objets de “collection”.

Ce qui a réellement changé : capter l’attention

Question d’économies. Dans le contexte d’une abondance de contenus informationnels, prévaut une économie de l’attention hypothéquée par la capacité à mettre en place une économie de la confiance (Trust economy) avec la foule comme support (crowdsourcing), la modélisation de la confiance comme vecteur, et de nouvelles ingénieries relationnelles comme technologie.

La force des métadonnées. Pour les moteurs mais aussi pour les réseaux sociaux, toutes les données sont ou peuvent devenir des métadonnées, qui dessinent des comportements (pas uniquement documentaires) en même temps qu’elles permettent de caractériser la motivation de ces mêmes comportements. Chaque clic, chaque requête, chaque comportement connecté fait fonction de métadonnée dans une sorte de panoptique global.

Le web invisible ne l’est plus vraiment. Le défi technologique, après avoir été celui de la masse des documents indexés, devient celui de la restitution en temps quasi-réel du rythme de publication propre au web (“world live web”). Pour accomplir ce miracle, il faut aux outils de captation de notre attention que sont les moteurs et les réseaux sociaux, une architecture qui entretiennent à dessein la confusion entre les sphères de publication publiques, intimes et privées.

Rendre compte de la dissémination et du mouvement

La naissance de l’industrie de la recommandation et des moteurs prescripteurs. La recommandation existe de toute éternité numérique, mais elle est désormais entrée dans son ère industrielle. Moteurs et réseaux sociaux fonctionnent comme autant de prescripteurs, soit en valorisant la capacité de prescription affinitaire des “proches”, des “amis” ou des “collaborateurs” de l’internaute (boutons “like” et “+1″), soit en mettant en avant les comportements les plus récurrents de l’ensemble de leurs utilisateurs.

De nouvelles indexations. Après l’indexation des mots-clés, des liens hypertextes, des images, de la vidéo, des profils, il faut maintenant apprendre à indexer, à mettre en mémoire, la manière dont circule l’information, être capable de rendre compte de cette dynamique virale, capable de prendre en compte la dissémination, l’écho, l’effet de buzz que produisent les innombrables “boutons poussoir” présents sur chaque contenu informationnel pour lui assurer une dissémination optimale.

Navigation virale ou promenade carcérale ? L’approche fermée, propriétaire, compartimentée, concurrentielle, épuisable de l’économie du lien hypertexte que proposent les systèmes de recommandation, ne peut mener qu’à des systèmes de nature concentrationnaire. Des écosystèmes de l’enfermement consenti, en parfaite contradiction avec la vision fondatrice de Vannevar Bush selon laquelle la parcours, le chemin (“trail”) importe au moins autant que le lien. Les ingénieries relationnelles des systèmes de recommandation – de celui d’Amazon au Like de Facebook – ressemblent davantage à une promenade carcérale qu’à une navigation affranchie parce qu’elles amplifient jusqu’à la démesure la mise en avant de certains contenus au détriment de la mise au jour d’une forme de diversité.

Brassage des données dans un “jardin fermé”

Un nouveau brassage. La recherche universelle, désignant la capacité pour l’utilisateur de chercher simultanément dans les différents index (et les différentes bases de données) proposés par les moteurs de recherche, ouvre un immense champ de possibles pour la mise en œuvre d’algorithmes capables de prendre en charge les paramètres excessivement complexes de la personnalisation, de la gestion des historiques de recherche, de l’aspect relationnel ou affinitaire qui relie un nombre de plus en plus grand d’items, ou encore du brassage de ces gigantesques silos de donnés. Un brassage totalement inédit à cette échelle.

Le mirage des nuages. De rachats successifs en monopoles établis, l’extrême mouvement de concentration qui touche la médiasphère internautique fait débat. D’un immense écosystème ouvert, le web mute aujourd’hui en une succession de ce que Tim Berners Lee nomme des “walled gardens”, des “jardins fermés”, reposant sur des données propriétaires et aliénant leurs usagers en leur interdisant toute forme de partage vers l’extérieur. L’enjeu n’est alors plus simplement celui de l’ouverture des données, mais celui de la mise en place d’un méta-contrôle, un contrôle accru par la migration de l’essentiel de nos données sur les serveurs des sociétés hôtes, grâce à la banalisation du cloud computing : l’essentiel du matériau documentaire qui définit notre rapport à l’information et à la connaissance étant en passe de se retrouver entre les mains de quelques sociétés marchandes

Et tout ça pour quoi ? Il s’agit de porter à visibilité égale des contenus jusqu’ici sous-utilisés ou sous-exploités, pour augmenter leur potentiel marchand en dopant de la sorte le rendement des liens publicitaires afférents. Un objectif qui ne peut être atteint sans la participation massive des internautes.

La marchandisation de toute unité documentaire recensée

Le web personnel. La pertinence et la hiérarchisation d’un ensemble de contenus hétérogènes n’a de sens qu’au regard des intérêts exprimés par chacun dans le cadre de ses recherches précédentes. La condition sine qua non de la réussite d’une telle opération est le passage au premier plan de la gestion de l’historique des recherches individuelles.

Algorithmie ambiante. A la manière de l’informatique “ambiante” qui a vocation à se diluer dans l’environnement au travers d’interfaces prenant la forme d’objets quotidiens, se dessinent les contours d’une algorithmie également ambiante, c’est à dire mettant sous la coupe de la puissance calculatoire des moteurs, la moindre de nos interactions en ligne.

Marchands de documents. Derrière cette algorithmie ambiante on trouve la volonté déterminée d’optimiser encore davantage la marchandisation de toute unité documentaire recensée, quelle que soit sa sphère d’appartenance d’origine (publique, prive, intime), sa nature médiatique propre (image, son, vidéo, page web, chapitre de livre, etc…), sa granularité (un extrait de livre, un billet de blog, un extrait de vidéo …) et son taux de partage sur le réseau (usage personnel uniquement, usage partagé entre « proches », usage partagé avec l’ensemble des autres utilisateurs du service).

Une base de données des intentions

La recherche prédictive. Les grands acteurs du web disposent aujourd’hui d’une gigantesque “base de donnée des intentions” (concept forgé par John Battelle), construite à l’aide de nos comportements d’achats, de l’historique de nos requêtes, de nos déplacements (géolocalisation), de nos statuts (ce que nous faisons, nos centres d’intérêt), de nos “amis” (qui nous fréquentons). Une base de donnée des intentions qui va augmenter la “prédictibilité” des recherches. Et donc augmenter également leur valeur transactionnelle, leur valeur marchande.

Recherche de proximité et moteurs de voisinage. A l’aide de moteurs comme Intelius.com ou Everyblock.com, il est possible de tout savoir de son voisin numérique, depuis son numéro de sécurité sociale jusqu’à la composition ethnique du quartier dans lequel il vit, en passant par le montant du bien immobilier qu’il possède ou l’historique de ses mariages et de ses divorces. Toutes ces informations sont – aux États-Unis en tout cas – disponibles gratuitement et légalement. Ne reste plus qu’à les agréger et à faire payer l’accès à ces recoupements numériques d’un nouveau genre. Surveillance et sous-veillance s’affirment comme les fondamentaux de cette nouvelle tendance du “neighboring search.

Pourquoi chercher encore ? Le nouvel horizon de la recherche d’information pose trois questions très étroitement liées. Demain. Chercherons-nous pour retrouver ce que nous ou nos “amis” connaissent déjà, permettant ainsi aux acteurs du secteur de vendre encore plus de “temps de cerveau disponible” ? Chercherons-nous simplement pour acheter, pour consommer et pour affiner le modèle de la base de donnée des intentions ? Ou pourrons-nous encore chercher pour dmoteuécouvrir ce que nous ne savons pas (au risque de l’erreur, de l’inutile, du futile) ?

Les risques d’une macro-documentation du monde

Le web était un village global. Son seul cadastre était celui des liens hypertexte. Aujourd’hui, les systèmes de recommandation risquent de transformer le village global en quelques immeubles aux incessantes querelles de voisinage.

Un web hypermnésique et des moteurs omniscients. Aujourd’hui le processus d’externalisation de nos mémoires documentaires entamé dans les années 1980 avec l’explosion des mémoires optiques de stockage est totalement servicialisé et industrialisé. L’étape suivante pourrait ressembler à l’hypermnésie. Celle dont souffre Funès dans la nouvelle de Borges. Mais cette hypermnésie est aujourd’hui calculatoire, algorithmique, ambiante. Elle est massivement distribuée, ce qui lui confère cette impression de dilution, de non-dangerosité. Mais quelques acteurs disposent des moyens de l’activer et de tout rassembler. Pour l’instant ce n’est que pour nous vendre de la publicité, du temps de cerveau disponible. Mais que deviendrait cette arme hypermnésique entre les mains d’états ? Nous avons tendance à oublier l’importance de se souvenir puisqu’il est devenu possible de tout se remémorer.

Des enjeux de politique … documentaire. La deuxième question c’est celle de l’écosystème informationnel que nous souhaitons pour demain. Ne rien dire aujourd’hui, c’est consentir. Il est aujourd’hui absolument nécessaire d’ouvrir un débat autour de l’écosystème non plus simplement documentaire mais politique que les moteurs représentent, il est vital de s’interroger sur la manière dont cet écosystème documentaire conditionne notre biotope politique et social … Or toutes ces questions sont par essence documentaires, ce sont les questions que posent une macro-documentation du monde. Voilà pourquoi le rôle des professionnels de l’information est et sera absolument déterminant.


Billet initialement publié sur affordance.info, sous le titre “Qu’y aura-t-il demain sous nos moteurs ?”. Article de commande pour la revue Documentaliste, sciences de l’information, publié ici dans sa version longue. Article également déposé sur ArchiveSic.

Ertzscheid Olivier, “Méthodes, techniques et outils. Qu’y aura-t-il demain sous nos moteurs ?” in Documentaliste, sciences de l’information. Vol. 48, n°3, Octobre 2011, pp. 10-11. En ligne

Olivier Ertzscheid est également auteur d’un récent ouvrage sur l’identité numérique et l’e-reputation

Illustrations CC FlickR eirikref (cc-by), hawksanddoves.

]]>
http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/feed/ 15
Copiepresse vs Google: de l’index au majeur http://owni.fr/2011/07/18/copiepresse-vs-google-de-l%e2%80%99index-au-majeur/ http://owni.fr/2011/07/18/copiepresse-vs-google-de-l%e2%80%99index-au-majeur/#comments Mon, 18 Jul 2011 15:24:35 +0000 Damien Van Achter http://owni.fr/?p=73959 Ce billet a été initialement écrit sur Google+. Afin d’ouvrir la discussion à ceux qui ne sont pas encore présents sur cette plate-forme (et d’en conserver une trace, #justincase), je le retranscrits ici avec ses commentaires, dont la qualité est vraiment assez remarquable. N’hésitez pas à poursuivre la discussion ci-dessous. (Tx @ Damien Spleeters pour la suggestion)

Le conflit entre Google et les éditeurs belges francophones, représentés par Copiepresse, a connu vendredi une nouvelle péripétie avec la désindexation des sites de ces médias du moteur de recherche. Ce comportement (qui ne fait qu’appliquer – avec une dose certaine de cynisme – le jugement prononcé en défaveur de Google et dont Copiepresse espère toujours qu’il fera jurisprudence) renforce un bras de fer économique, technique et même, à mes yeux, philosophique, entamé en 2006.

Pour vous rafraichir la cache (mwouarf !…désolé), voici une série de 20 articles que j’avais publiés à l’époque où je couvrais le procès, notamment pour le compte de l’agence Belga. Étonnant de voir qu’en 5 ans, les arguments sont toujours les mêmes…. et que le schmilblick n’a in fine pas avancé d’un iota.

[MàJ - lundi, 18h15 : Une solution vient d'être trouvée entre Copiepresse et Google qui va réindexer les sites de presse.]

Commentaires

Pascal Alberty - J’ai beau entendre des arguments dans tous les sens, j’ai toujours la même petite phrase qui me revient dans la tête “le beurre, l’argent du beurre … et les miches de la crémière”. Je sais, c’est réducteur, mais le scénario de ce qui s’est passé aujourd’hui n’a-t-il pas été écrit par CopiePresse elle même ?

François Schreuer - Ce qui est étonnant, c’est que Google ait attendu aussi longtemps avant de prendre cette décision qui a le mérite de placer les éditeurs devant leurs contradictions. Parce que, personnellement, je ne vois guère de différence entre Google News et un moteur de recherche quand on sait un peu s’en servir…

Pascal Alberty – @François Schreuer pour une explication (un peu technique il est vrai) voir la vidéo de Philippe Laloux. En gros, l’explication de Google provient du fait du changement de son algorithme qui lie beaucoup plus le fonctionnement de Google News à Google Search. De ce fait, retirer du contenu de Google News (ordonné par le jugement) provoque le retrait de Google Search. “Comme par hasard” dirait les responsable de CopiePresse.

Cédric Motte – Ah ben voilà, un historique intéressant ! Tout lu. Et je n’ai pas de réponse ;o) mais on se rejoint sur la question de fond quasi philosophique, développé sur le post de Christophe Lefevre tout à l’heure : en tant qu’éditeur, je dois avoir la possibilité de demander à Google de retirer un contenu que j’ai publié. Dans l’absolu, c’est aussi débile que Coca qui souhaite se retirer de Carrefour. Mais c’est un droit, me semble-t-il, quand le distributeur est identifié et gagne de l’argent grâce à ce que je produis, de décider de ne plus lui donner accès à mes produits. Et si Google était en opt-in sur Google News et son cache, il est fort probable que les éditeurs eussent agi différemment !

Protocole de désindexation

Benoît Marchal - Mais ce droit tous les éditeurs l’ont ! Il y a même un protocole Internet qui est défini pour communiquer ce droit. Le fond de l’affaire c’est que les éditeurs ne veulent pas mettre en œuvre les normes techniques définies sur Internet. Et un juge leur a donné raison, mais on est dans un pays où quand un type se fait braquer on lui répond qu’il devait acheter une voiture moins voyante…

François Schreuer - @Pascal, oui, j’ai lu ça quelque part. Cela dit, les contraintes techniques servent souvent à masquer des choix politiques.

Pascal Alberty – @Cédric Motte : c’est possible pour un éditeur de ne pas faire indexer tel ou tel contenu ! Mais c’est aussi le but de l’éditeur d’avoir beaucoup de contenu indexé pour générer du trafic à partir des recherches naturelles… (d’ailleurs ces mêmes éditeurs ne se privent pas de faire du contenu pour faire du contenu dans ce but unique, même au détriment de la pertinence du contenu et de l’intérêt des lecteurs) : “le beurre et l’argent du beurre”… Même si je reconnais qu’il y a des droits d’auteur et tout le toutim, c’est délicat de dire d’un côté “on ne veut pas que Google se fasse de l’argent en stockant nos articles dans Google News” et de l’autre côté “on veut bien quand même que Google nous amène du trafic comme ça nos annonceurs seront contents”. A nouveau, je suis un peu réducteur, mais c’est tout de même un peu le nœud du problème.

Cédric Motte - [Je ne parlerais pas forcément de Google News, parce que c'est effectivement un autre problème - il ne s'agit que de citation dans Google News, là où l'on parle de copy paste pour le cache.] Pour le cache, donc, merci de vos précisions, je sais qu’il y a tout ce qu’il faut techniquement pour bloquer l’indexation, notamment pour ne pas apparaitre dans le cache.

@Benoît Marchal, l’exemple que tu donnes sur la voiture va justement dans le sens de copiepresse, il me semble. J’ai le droit de publier ce que je veux, et un jour je peux avoir une belle voiture, un autre une voiture pourrave, mais dans tous les cas c’est moi qui dois etre en position de décider, pas les éventuels mecs qui vont te piquer ce qui est en ta possession.

@Pascal Alberty je ne suis pas sûr de voir en quoi c’est délicat. Ce qui me gêne dans l’histoire, c’est que la réutilisation du contenu est très bien gérée en ligne par la notion de licence CC. Il s’agit alors d’un choix déclaratif et non d’une contrainte technique imposée par l’un des acteurs de mon circuit de distribution. Google me fait penser aux ouvriers du livre en France, tiens ! Un peu gamins, voulant imposer leurs règles… L’ensemble des textes, photos et vidéos que je pousse en ligne sont en licence CC, donc je n’ai pas de problème de fond sur le partage de contenu :-) !

Plus loin, et plus largement, il y a peut être quelque chose de gênant dans tout cela. En intervenant à ce point à la main sur l’index, Google devient éditeur de contenu . S’ils s’étaient contentés de ne suivre que la décision de justice, alors pas de souci, ils restent dans leur rôle d’hébergeur. Non ? Désolé c’est alambiqué comme réponse.

fabrice massin – J’en profite donc pour rappeler à tous que ces mêmes éditeurs ont aussi entamé une action en justice pour que le service public arrête de faire des sites internet (en fait on devrait juste plus faire de textes ni mettre de photos… plus de site quoi), arrête d’être présent sur FB, sur Twitter, arrête les newsletters… Bref disparaisse du web pour leur laisser la place.

Benoît Marchal – Sur l’affaire Copiepresse tu n’as pas l’air bien au fait du fond. Les faits sont les suivants : depuis plus de 15 ans il existe un moyen technique très simple pour demander non seulement à Google mais à tous les moteurs de ne pas indexer un site ou de ne pas citer un extrait du site dans les résultats. Un webmestre bourré le met en place en 15 minutes (c’est ce qu’explique Pascal Alberty). Il est essentiel de comprendre deux choses :

  1. Ca répond parfaitement à ce droit fondamental sur lequel nous sommes d’accord et que Google n’a jamais violé : c’est à l’éditeur de choisir ce qui sera repris dans l’index
  2. La communauté Internet a élaboré un protocole c’est à dire un mode de travail commun. Il est évident que dans une communauté si on ne respecte pas quelques règles communes c’est invivable (en droit on parle d’us et de coutume).

Fondamentalement le procès gagné par Copiepresse, c’est que la presse belge obtient le droit de ne pas respecter le protocole Internet. C’est donc la presse belge qui dit à l’ensemble de la communauté Internet du monde entier “nous on veut pas travailler avec vous.” J’aurais envie de dire qu’ils restent sur le papier et qu’ils ferment leurs sites…

Déconnexion (de la réalité)

Francois Lamotte - On avait un épisode de PodCafé à l’association des journalistes professionnels sur ce sujet là : je n’ai pas mes archives sous la main mais je pense qu’on avait abordé ce qui s’est passé ce vendredi. Quand on relit les déclarations des différents intervenants des “victimes” de ce vendredi (Philippe Laloux, M Boribond, …), cela confirme ce que Benoît Marchal dit : ce conglomérat vit sur sa planète. Ils imaginent qu’ils sont sur une île perdue dans l’océan. Ils ont toujours une mentalité de broadcasteurs qui fondamentalement méprise son environnement (ses lecteurs etc). Mais la réalité est un écosystème avec différents modes d’interactions entre les ensembles. Reprenons l’image des vases communiquants, ce qui passe d’un coté revient d’un autre.

Ils minimisent l’impact du trafic “gratuit” offert par Google (le trafic organique venant de Google). Mais 30 à 40% de visiteurs gratuitement obtenus, cela représente 30 à 40% du chiffre d’affaire publicitaire réalisés par ces journaux. Voir plus si ces segments de visiteurs passent en moyenne plus de temps sur leurs site. Franchement si j’ai un “partenaire” qui est responsable au minimum du tiers de mes revenus, je le traiterai autrement que de simple “voleur”.

Les chiffres du CIM nous montreront rapidement s’ils veulent entendre raison… Parions que dans quelques semaines un accord sera obtenu et que certains acteurs mangeront leur chapeau, leur chemise et leurs arguties jusqu’ici défendues.

Christophe Lefevre - Assez d’accord avec Benoit Marchal. On ne peut pas imposer à Google de suivre les règles de la presse sans accepter de suivre celle du web. Et Google n’est pas un service à la carte, c’est comme si je un journaliste m’interviewait et que je lui répondais que je veux choisir l’emplacement de l’article sur le journal, que je veux qu’ils oublient mon nom après publication… Chacun son métier et à chacun ses intérêts ! La semaine prochaine, je dois travailler sur une solution pour indexer des articles qui ne se publient pas encore dans Google News : ben oui, chez RTL.be, on aime bien Google !

Erwann Gaucher - Au moment où de plus en plus d’éditeurs affirment vouloir les faire plier, Google a voulu faire un exemple avec les sites belges. Cela prouve que, pour le moment, ce n’est pas via la loi que l’on peut faire plier Google, mais en les battant sur le terrain de l’innovation. Ce qui n’est évidemment pas une bonne nouvelle pour les entreprises médias ayant déserté ce terrain pendant de longues années…

Cédric Motte - Attention, suis en mode troll ce matin ;-). En suivant votre logique de raisonnement sur facebook, par exemple, vous n’avez donc rien contre le fait que les photos de vos enfants ou de votre femme/copine soient réutilisées pour des pubs ?

@Christophe Lefevre À la différence que ta réponse en interview dans un journal, c’est de “l’opt in”. Tu choisis de répondre, ou pas, à un journaliste.

@Francois Lamotte Google a bâti son business sur sa capacité à crawler les pages web et à les rendre accessibles. Il a utilisé le principe même du web pour ça, il fournit un service de qualité, il en a tout à fait le droit. Mais il a profité de nouvelles capacités techniques qui passent au dessus de la notion de propriété (et c’est le vol comme disait Proudhon :-)). Je sais, “c’est comme ça”. Mais si, techniquement, je construis une clé qui me permets de rentrer chez vous pour piquer vos ordinateurs, les revendre, tout en créditant l’acte de vente “Ordinateur trouvé au 32 de la rue de Flandres”, comment réagiriez-vous ? Est-ce à vous de mettre un autre verrou ? Pour finir, un billet rédigé sur mon blog en 2006, afin de vous montrer que je ne suis pas totalement étranger à la problématique !

Francois Lamotte – @Cedric Motte pour les photos sur Facebook, il y a différentes options pour limiter l’usage du contenu. A-t-on déjà vu des images “privées” ré-utilisées par Facebook pour en faire des publicités ? L’analogie avec la clé pour rentrer chez les gens est plutôt mal trouvée (mode troll)… Google passe là où les portes sont grandes ouvertes. A priori si tu laisses les portes et les fenêtres grandes ouvertes de ta maison, de tes bureaux, de ton musée, de ta bibliothèque municipale et personne à l’entrée pour contrôler qui entre et qui sort : personne ne sera étonné à ce qu’on vienne te “voler” tes objets. Dans notre société, il y a des techniques et des conventions utilisées pour les espaces qu’on souhaite protéger : des portes, des serrures, des volets métalliques… Des éditeurs qui laissent les portes grandes ouvertes (en feignant de croire qu’il n’y aucun moyen de se protéger) et en reprochant aux “voleurs” de venir se servir, c’est un peu grotesque, mesquin et malhonnête.

Vision limitée du droit d’auteur

Alexandre Dulaunoy - En 2006, Alain Berenboom estimait des “pseudo” pertes pour les quotidiens francophones, et Copiepresse (la SCCRL) suivait l’avis des juristes pour une procédure légale. Le monde Internet savait que c’était une grosse bêtise juridique mais Copiepresse et la JFB (SCRL Les Journaux Francophones Belges) croyaient ses juristes ayant une vision limitée du droit d’auteur (dans ce cas, on devrait plutôt parler du droit d’éditeur…). Nous sommes en 2011, tout le monde est perdant dans ce cas sauf les juristes “pro” droit d’éditeur qui essayent de pousser pour une judiciarisation de la société de l’information. La solution n’est pas juridique…

Jacopo GIOLA – Qui sont les avocats de CopiePresse ?

Alexandre Dulaunoy - Alain Berenboom était un des experts commandés pour l’évaluation des pertes. Mais l’avocat de Copiepresse est Bernard Magrez. On peut même lire dans sa bio :

Il a reçu, à Londres, le “Global MIP Award 2008 (Best Europe case)” de la revue “Managing Intellectual Property” pour le procès mené par COPIEPRESSE contre GOOGLE Inc.

Tout le monde perd sauf les juristes…

Christophe Lefevre - Un des problèmes, c’est que la plainte date de 2006 et que la situation a changé aujourd’hui. Je veux bien croire qu’en 2006, Google News était considèré comme un probable concurrent. Aujourd’hui, c’est un module du moteur de recherche. Il aurait été plus intelligent de réanalyser la situation, mais ça aurait été trop difficile pour CopiePresse d’avouer qu’ils se sont tromper. Pour moi, c’est une histoire de sous, d’ignorance ET de fièreté mal placée !

Jacopo GIOLA – D’accord avec tous, mais le fond reste… Il n’y a pas partage des revenus (même symbolique) de la part de Google pour des contenus qu’il n’a pas produit. Par exemple Google Maps ne “pompe” pas les adresses des rues mais les achète à TeleAtlas… C’est en ce sens que Google aurait pu faire un geste… aurait ;-)

Francois Lamotte – @Jacopo GIOLA Franchement je ne te suis pas là dessus pour le “geste à faire” et alors pour le trafic “gratuit” que Google envoie (30 à 40% du trafic des journaux) ces derniers pourraient faire aussi un geste pour Google. 30% de ton chiffre d’affaire qui vient d’un partenaire cela peut avoir une importance qu’on sait mesurer facilement. Sans tenir compte du fait que le flux des ces médias est du copié/collé d’agences de presse à 95%. Ce contenu est déjà amorti en amont dans sa logique de création.

Cédric Motte – @Christophe Lefevre fierté mal placée, peut être, mais il n’empêche que cela soulève de vraies questions. La réponse de Google est claire, en tout cas : votre contenu ne vous appartient pas.

@Francois Lamotte tu es un peu dur avec les sites des journaux. La proportion de dépêches à tendance à se réduire – ou est sur le point de l’être. Mais surtout, je ne suis pas ton raisonnement. Les sites des journaux existaient avant Google – ie celui du Soir dont la première capture par archive.org remonte à décembre 1996, quand Google est né en 1998. Google a basé son business sur une commodité, celle de faciliter l’accession aux pages web non éditées par lui. Ce n’est pas Google qui a apporté de la valeur au web en premier, c’est le web qui a apporté de la valeur à Google.

Jacopo GIOLA - exact Cedric, et au début Google ne proposait que le lien direct sans résumé ! Juste pour garder les proportions :

Astreintes journalière menacées : 25.000 €
Reserves en cash ou équivalent de GGL: 36 BLN $

Francois Lamotte – @Cédric Motte “C’est le web qui a apporté de la valeur à Google”… Je m’excuse mais c’est l’inverse. Si Google détient une position dominante au niveau de la recherche, c’est bien qu’il a innové sur la façon de classer l’information. Et sa valeur ajoutée est là. On peut contester les logiques de classement (mais c’est une autre discussion). Si ce n’était pas le cas, nous aurions 3 à 5 services de recherches qui se partageraient ce marché là. Et pourtant les montants colossaux investis par Bing et les startups du secteurs ont du mal à progresser. Tu peux avoir autant de sites plus anciens que Google, cela ne change rien : si tu reposes sur un modèle publicitaire et que tu n’as pas de trafic, tu n’existes pas ou moins facilement. Et Google te propose deux services de bases : un service de trafic payant par ses régies publicitaires, et un service gratuit par ses classements de résultats (sous différentes formes).

J’aimerais bien comprendre pourquoi les journaux veulent bien être présents sur les résultats de recherches et pas dans les news alors que la mécanique de classements, d’extraits etc est la même (et si les fonctionnalités sont adaptées sur le thème de l’actualité pour Google News). Google exploite aussi ses résultats pour sa régie publicitaire. Sauf si je me trompe, Google ne récupère pas les contenus pour le transformer : par exemple faire un seul article sur une actualité en extrayant des contenus séparés (illustration, photo, vidéos…) mit en page autour d’un résumé textuel ? A l’instar de DJ ou de sampleurs, il extrait le titre et quelques 160 caractères pour présenter un article. On reste dans l’ordre de la citation. Je ne suis pas un défenseur de Google à tout prix, je trouve juste que dans cette histoire CopiePresse se met le doigt dans l’oeil au mépris des avantages qu’il en tire déjà et de pratiques d’un écosystème comme Benoît Marchal l’expliquait très bien.

Jacopo GIOLA – @Francois Lamotte Le problème avec les news c’est que si Google publie ça:

PM’s Murdoch press links defended
BBC News – ‎8 minutes ago‎
Foreign Secretary William Hague has defended David Cameron, saying he was “not embarrassed” by the extent of the PM’s dealings with News International.

Moi, je n’ai plus besoin d’aller à la source. Mais si je publie ça :

PM’s Murdoch press links defended
BBC News – ‎8 minutes ago‎

Je suis “obligé” d’y aller… Alors, que chaque titre définisse, lui, ce qu’il veut donner à Google pour que Google crée son agrégateur.

Les choix de l’éditeur

Benoît Marchal – @Jacopo GIOLA le problème n’a jamais été la quantité d’information partagée, indexée ou affichée dans le résultat de la recherche. Avant le procès, après le procès, chaque site web (y compris donc ceux de la presse belge) a toujours été libre de définir très précisément ce qu’il permettait d’afficher dans l’index. De même que Google a toujours été libre de choisir ce qu’il indexait dans ce qu’on lui proposait. Il est essentiel de comprendre que ça n’a jamais été ça l’objet du procès. Google ne décide pas s’il affiche un résumé ou s’il envoie à la source. C’est l’éditeur qui avait et a toujours tout pouvoir là-dessus et le jugement n’a rien changé à ça.

Mais comme Internet, ne se résume pas aux seuls titres de presse belge, la solution pour établir ce que Google (et les autres moteurs) affichent fait l’objet d’un protocole… Protocole c’est le terme technique pour “règles de vie en commun.” La seule chose que Copypresse a demandé dans ce procès, c’est de pouvoir ne pas respecter les règles de vie en commun. Donc, en fait, ce qu’ils ont voulu obtenir c’est la création d’un Internet à deux vitesses. D’une part les sites de la presse belge et d’autre part le reste de l’Internet. Les deux obtiennent le même résultat mais la presse belge le demande autrement.

C’est très grave parce que c’est une atteinte à la neutralité d’Internet : si je suis assez riche pour me payer un procès, je peux demander mon protocole à moi. Si je ne suis pas assez riche pour ça, j’utilise le protocole commun. Non seulement c’est grave mais en plus c’est stupide. C’est stupide parce que déterminer ce qui s’affichait dans les résultats de recherche a toujours été sous le contrôle exclusif de l’éditeur (je me répète mais c’est important). Leur problème n’a donc jamais été devant la justice puisque le problème, le vrai problème c’est la monétisation. Le billet de Cédric Motte (voir son commentaire) est d’ailleurs instructif et contrairement au jugement, contrairement à l’opposition en cours, ce billet pose les vraies questions. Ce conflit juridique n’est qu’une distraction qui nous éloigne du vrai problème, qui nous éloigne donc d’une solution et qui, comme Christophe Lefevre le notait, ne sert qu’à enrichir les avocats.

Damien Van Achter – Très intéressant ce que tu dis Benoit, notamment à propos de la neutralité. Philippe Laloux disait exactement l’inverse !

Alexandre DulaunoyL’article du Soir ne fait plus référence à l’acte du tribunal et aux analyses de leur juriste faites en 2007. Dans l’acte de cessation, il est clairement indiqué “cache” et Google” dans l’acte rendu par le tribunal de première instance de Bruxelles N° 2006/9099/A :

Condamnons la défenderesse à retirer de tous ses sites (Google News et « cache » Google sous quelque dénomination que ce soit), tous les articles, photographies et représentations graphiques des éditeurs belges de presse quotidienne francophone et germanophone représentés.

Le cache est une partie intégrante de l’indexer puisque les pages sont indexées à partir de ce contenu. De plus, les avocats “pro Copiepresse” considéraient même que le droit de reproduction n’était pas autorisé pour faire l’indexation. Le Soir devrait râler sur ses avocats et sur Copiepresse et non sur Google… qui applique simplement les demandes de 2006-2007.

Jacopo GIOLA – @Benoit Marchal je retrouve dans les “papiers de Damien Van Achter :

Google ne s’est pas le moins du monde séparé de son cache. Ce sont les journaux qui ont juste accepté d’utiliser le tag “noarchive”… La différence est de taille, surtout quand Mme Boribon nous “vend” ça comme LE mérite de cet accord. Ca ne manque pas de piquant quand on reprend l’argumentaire de Copiepresse développé jusqu’ici et qui, en gros, disait “il n’est pas normal que nous devions nous protéger du vol de Google en taguant nos articles”.

C’est donc bien un problème de gestion des contenus et aussi, de monétisation car comment justifier une monétisation si on a pas “le contrôle de ses contenus” ?

Benoît Marchal – @Jacopo GIOLA : on est tout à fait d’accord. Cette accord démontrait par l’absurde que les éditeurs belges ont toujours eu le contrôle sur la gestion de leur contenu, qu’il n’y avait nul besoin de procès pour l’affirmer et qu’il n’y avait là nulle victoire pour la presse belge. Comme tu le rappelles, les termes de l’accord (survenu quand la presse a mesuré le coût de la désindexation qu’elle avait obtenue en justice) se résumait à ce que la presse belge utilise le protocole Internet accessible à tous depuis toujours (protocole accessible à tous donc neutre). Damien Van Achter avait à l’époque bien fait son travail de recherche.

Xavier Lambert - Le pire c’est que sans Google on va avoir un mal de chien s retrouver certaines de nos pages…

Christophe Lefevre – @Xavier Lambert C’est drôle, je me posais la question, les moteurs de recherches natifs aux sites sont souvent catastrophiques :-). La presse de façon générale est géniale : elle refuse de rétribuer Apple pour la vente d’abonnements sur sa plateforme iOS comme tout le monde, elle veut interdire la RTBF de faire du web, elle voudrait des règles d’indexations spécifiques ! Moi je pense que la presse devrait s’associer aux majors de la musique pour faire un procès à Dieu qui n’a pas fait le monde exactement comme ça les arrange ! Oui, les temps changent, c’est pas de bol !

Ce qui m’ennuie, c’est que la presse qui s’est mise dans cette situation risque de revenir en arrière, peut-être pas tous les journaux, mais certains ont trop besoin de Google. Je les vois mal faire un procès à Google pour désindexation abusive (quoique) mais plutôt faire un accord à l’amiable, ce qui pourrait que renforcer le géant américain et décrédibiliser la presse belge. Le gagnant dans cette histoire, c’est Google, certainement.

Les producteurs de contenu oubliés

Mehmet Koksal - On parle toujours des intérêts de Google contre les éditeurs mais tout le monde semble ignorer le travail des producteurs de contenu (aka “journalistes”) qui sont les véritables spoliés dans cette affaire, non ?

François Schreuer - Spoliés par qui ? Par la bêtise de leurs employeurs ? Sans doute, oui…

Xavier Lambert - Google facilite l’accès aux contenus produits par les journalistes. La question de la monétisation et donc de la rétribution vient après il me semble. C’est d’ailleurs le délicat exercice des sites qui veulent passer à un accès payant, tout en continuant à être indexés.

Mehmet Koksal – @François Schreuer Que les choses soient bien claires : Google n’est ni plus ni moins qu’une vulgaire société cherchant d’abord à maximiser ses profits (comme toutes les autres Facebook, Twitter et consorts), il convient de la traiter comme telle et non comme une organisation humanitaire œuvrant sur base des principes démocratiques régissant une communauté (Internet). Google ne doit pas nécessairement changer d’algorithme ou de modèle, il peut faire quelque chose de plus simple : payer ou créer une plateforme soutenant financièrement le travail des producteurs de contenu qui alimentent son modèle économique. C’était à mon avis le sens de la démarche judiciaire de Copiepresse et de la SAJ en assignant en justice ce géant américain. Maintenant il semble que ce soit le retour des flammes et la guerre des tranchées entre les deux camps. Je n’ai non plus aucune sympathie pour ces patrons de presse belge qui font signer des contrats de travail où le travailleur cède gratuitement tous ses droits d’auteur et de reproduction à vie et sur tous les supports. Ils font en interne avec leur propre personnel ce qu’ils reprochent à Google de faire. C’est ça qui est quand même positif dans les mesures de rétorsion utilisées par Google à l’égard des titres et qui rappelle aux patrons ce vieil adage : ne faites pas aux autres ce que vous n’aimeriez pas qu’on vous fasse.

Damien Van Achter – @Mehmet Koksal “vulgaire société” ? c’est très péjoratif comme qualificatif. Sauf si “vulgaire” =”commun”. Mais tu as raison. Journalistiquement, il faut traiter les big company du web comme on traite les big pharma ou les big de l’agro-alimentaire. Et je te rejoins tout à fait aussi sur la détestable habitude qu’ont les patrons de presse (et médias en général, sans distinction) à considérer leurs forces vives comme du bétail, payé au lance-pierre avec des contrats ultra-précaires. On ne peut produire de la qualité (et revendiquer d’être traité comme tel) si l’on procède en interne comme à l’abattoir et au canon à dépêches. Le conflit auquel nous assistons est vraiment à la croisée de tous les chemins et montre bien les limites de chacune des parties. Et +1 sur ta conclusion (qui est pile-poil pour un dimanche :-))

fabrice massin - Pour ce qui me concerne, il me semble que cette attitude de conflit des éditeurs envers tous les concurrents ou supposés l’être n’est pas saine, le web belge a tout intérêt à s’auto-stimuler positivement en développant des nouveaux contenus et services en tentant de faire preuve d’innovation avec pour seules finalités de servir la communauté de tous les internautes. Sommes-nous si forts qu’il soit nécessaire de perdre son temps, son argent et ses ressources pour devoir se défendre/s’attaquer les uns contre les autres ? Et bientot on va aussi attaquer Facebook et puis Twitter etc. ? Tous ces puissants acteurs du web doivent bien évidemment faire des profits c’est vrai, mais ils contribuent aussi au développement d’autres activités web et aussi à relier entres elles des millions de personnes dans notre pays.

Comme certains l’ont fait justement remarquer, aucun média n’est correctement référencé dans Google à moins d’avoir fait les développements techniques nécéssaires et ce, pour tous les services de Google. Alors pourquoi cracher dans la soupe ? Ok, l’argent est une bonne raison pour certains. Rien de repréhensible mais quand on envoie des missiles il ne faut pas s’étonner de ramasser une bombe en retour ! Quels sites de médias peuvent se permettre de vouloir se passer de ces acteurs quand on sait que dans les 5 ans, plus de 50 à 75% du trafic passera par ces acteurs ? Evidemment certains pensent qu’ils sont indispensables et que tous les moyens sont légitimes pour obtenir de l’argent et donc pour entraver ceux qui ne pensent pas comme eux… So be it, nous ne sommes plus au siècle des Lumières, mais je pensais à la citation de JJRousseau “l’homme nait naturellement bon, c’est la société qui le corrompt…. je paraphaserais :

Le web est né naturellement bon, ce sont certains acteurs qui tentent de le corrompre et de le foutre en l’air

Et ça, c’est pas démocratique.


Article initialement publié sur Blogging The News
Crédits photo FlickR CC : by-nc-sa ekaï / by-nc-nd keso / by-sa manfrys / by Giles Douglas / by Michperu

]]>
http://owni.fr/2011/07/18/copiepresse-vs-google-de-l%e2%80%99index-au-majeur/feed/ 5
Le risque de la personnalisation du web http://owni.fr/2011/06/27/le-risque-de-la-personnalisation-du-web/ http://owni.fr/2011/06/27/le-risque-de-la-personnalisation-du-web/#comments Mon, 27 Jun 2011 06:08:50 +0000 Xavier de la Porte http://owni.fr/?p=71269

La lecture de la semaine, il s’agit d’une petite partie d’un article paru dans la New York Review of Books. Intitulé “Mind Control and the Internet” (Internet et le contrôle de l’esprit), l’article de Sue Halpern consiste, comme c’est le cas la plupart du temps dans la New York Review of books, en le développement d’une thèse qui s’appuie sur la critique de plusieurs livres récemment parus.

Je n’ai gardé qu’un passage de ce long article, celui où Sue Halpern recense le livre de Eli Pariser, The Fliter Bubble : What the Internet Is Hiding from You. Ce livre montre notamment que depuis décembre 2009, Google vise à donner à toute requête effectuée sur le moteur de recherche un résultat qui corresponde au profil de la personne qui fait la recherche. Cette correspondance s’applique à tous les usagers de Google, même si elle ne prend effet qu’après plusieurs recherches, le temps qu’il faut à l’algorithme Google pour évaluer les goûts de l’usager.

The Filter BubbleEn d’autres mots, le processus de recherche est devenu personnalisé. Ce qui signifie qu’il n’est plus universel, mais idiosyncrasique et impératif. “Nous pensons tous que quand nous googlons un mot, explique Pariser, tout le monde a les mêmes résultats – ceux que le fameux algorithme de Google, PageRank considère comme faisant autorité du fait qu’un grand nombre de liens pointe vers eux.” Avec la recherche personnalisée, poursuit Pariser “vous obtenez le résultat que l’algorithme de Google pense être le plus adapté à vous en particulier – mais quelqu’un d’autre verra apparaître d’autres résultats. En d’autres mots, il n’y a plus de standard Google”.

Sue Halpern fait une analogie éclairante : c’est comme si en cherchant le même terme dans une encyclopédie, chacun trouvait des entrées différentes – mais personne ne s’en apercevant car chacun étant persuadé d’obtenir une référence standard.

Parmi les multiples conséquences insidieuses de cette personnalisation, il en est une qui inquiète plus particulièrement Sue Halpern, elle explique : “en adaptant l’information à la perception que l’algorithme a de ce que vous êtes, une perception qui est construite à partir de 57 variables, Google vous adresse un matériau qui est susceptible de renforcer votre propre vision du monde et votre propre idéologie. Pariser raconte par exemple qu’une recherche sur les preuves du changement climatique donnera des résultats différents à un militant écologiste et au cadre d’une compagnie pétrolière, et donnera aussi un résultat différent à quelqu’un dont l’algorithme suppose qu’il est démocrate, et à un autre dont l’algorithme suppose qu’il est républicain (évidemment, pas besoin de déclarer qu’on est l’un ou l’autre, l’algorithme le déduit de nos recherches). De cette manière, poursuit Sue Halpern, l’internet, qui n’est pas la presse, mais qui souvent fonctionne comme la presse en disséminant les informations, nous préserve des opinions contradictoires et des points de vue qui entrent en conflit avec les nôtres, tout en donnant l’impression d’être neutre et objectif, débarrassé de tous les biais idéologiques qui encombrent le traitement de l’information dans la presse traditionnelle.”

L’exemple du débat sur le changement climatique

Et Sue Halpern de citer une étude récente (.pdf) menée entre 2001 et 2010 au sujet du changement climatique. Cette étude montrait qu’en 9 ans, alors qu’un consensus scientifique s’établissait sur le changement climatique, la part des républicains pensant que la terre se réchauffait passait de 49 % à 29 %, celle des démocrates de 60% à 70 %, comme si les groupes recevaient des messages différents de la science, avec pour conséquence de rendre impossible tout débat public. Et pour Sue Halpen, c’est ce que suggère ce que Elie Pariser raconte sur Google : si ce sont nos propres idées qui nous reviennent quand on fait une recherche, on risque de s’endoctriner nous-mêmes, avec notre propre idéologie. Pariser explique :

La démocratie requiert du citoyen qu’il voit le problème du point de vue de l’autre, et nous, nous sommes de plus en plus enfermés dans notre bulle. La démocratie requiert de s’appuyer sur des faits partagés, et nous, on nous offre des univers parallèles, mais séparés.

Sue Halpern poursuit sa diatribe : “Il n’est pas compliqué de voir ce à quoi cela nous mènerait – toute organisation dotée d’un agenda (un lobby, un parti politique, une entreprise, un Etat…) pourrait noyer la chambre d’écho avec l’information qu’elle veut diffuser. (Et dans les faits, c’est ce qui s’est produit à droite avec le changement climatique). Qui s’en rendrait compte ?”

Et Sue Halpern de citer les propos que Tim Berners-Lee, l’inventeur du Word Wide Web, tenait récemment dans Scientific American :

Le web tel que nous le connaissons est menacé… Parmi ses habitants qui connaissent le plus grand succès, certains ont commencé à pervertir ses principes… Des États – totalitaires tout autant que démocratiques – contrôlent les comportements en ligne, mettant en danger les droits de l’homme.

Billet initialement publié sur InternetActu

Image Flickr CC PaternitéPas d'utilisation commerciale melanie.phung

]]>
http://owni.fr/2011/06/27/le-risque-de-la-personnalisation-du-web/feed/ 79
Pourquoi Google est apollinien et Facebook dionysiaque http://owni.fr/2011/01/06/pourquoi-google-est-dionysien-et-facebook-apollinien/ http://owni.fr/2011/01/06/pourquoi-google-est-dionysien-et-facebook-apollinien/#comments Thu, 06 Jan 2011 17:30:14 +0000 Adriano Farano http://owni.fr/?p=41357 L’information selon laquelle, en 2010, Facebook a détrôné Google en devenant le site le plus visité des États-Unis est absolument étonnante. Mais on peut se poser cette question: qu’est-ce que ce renversement signifie pour les usages du web d’aujourd’hui? Facebook et Google ressemblent aux deux compétiteurs de deux conceptions différentes d’Internet.

D’un côté, le géant de Mountain View représente l’empire de la raison, la quintessence de ce qu’on pourrait appeler le “web froid”. Google sert – c’est son déterminisme – à trouver les informations qu’on recherche. Son moteur peut-être extrêmement utile, mais rarement excitant; nous l’apprécions parce que ses algorithmes ordonnent les données d’Internet, dont la profondeur est abyssale. En ce sens, Google est apollinien. Comme le dieu grec du soleil, de la lumière et de la poésie, plus tard de l’ordre et de la raison, Google nous aide à jeter de la lumière sur l’abondante information disponible en ligne.

De l’autre côté, Facebook symbolise le “web chaud”. Il sert essentiellement à rester en contact avec ses amis ou ses proches, ou a satisfaire une inclination naturelle pour le voyeurisme ou d’autres interactions sociales. Facebook est peut-être addictif, mais ses utilisateurs compulsifs sont rarement fiers du temps qu’ils passent sur la plateforme. Comme le tabac ou l’alcool, Facebook est moins un service conçu pour résoudre des problèmes qu’un vice de la société globalisée. C’est la raison pour laquelle Facebook est dionysiaque. A l’instar du dieu grec du vin, plus tard de l’irrationalité, Facebook parle directement à notre côté émotionnel.

A une époque où la plupart des plateformes essaient de devenir sociales, les concepts apolliniens et dionysiaques peuvent être utiles pour comprendre les profondes différences entre eux. Prenez l’exemple de LinkedIn. Ne s’agit-il pas d’un réseau social apollinien, essentiellement bâti pour servir les besoins d’une vie professionnelle? Twitter est un autre exemple signifiant. Parce que son discours commercial l’identifie comme un “réseau d’informations” plus qu’un réseau social, cette précision en dit long sur sa volonté d’évoluer dans le champ de l’échange “froid” d’informations plutôt que dans celui des émotions “chaudes”.

Mais le distinguo apollinien/dionysiaque ne doit pas être regardée comme une dichotomie permanente. Dans La Naissance de la Tragédie, Friedrich Nietzsche affirme que la primauté esthétique de la tragédie grecque ancienne vient du fait que les travaux d’Eschyle ou de Sophocle marient Apollon et Dionysos.

En un sens, la tentative de Google pour devenir social (avec Buzz) et l’alliance de Facebook avec Bing pour fournir une expérience de recherche sociale peuvent être toutes deux perçues comme des efforts embryonnaires pour équilibrer le chaud et le froid, le dionysiaque et l’apolinien. Mais dans les deux cas, les résultats sont encore loin d’être satisfaisants. Et Google et Facebook restent prédominants dans deux aires différentes, bien définies.

Il faut peut être appréhender la nouvelle guerre de la Silicon Valley dans cette perspective, plutôt qu’avec les outils compliqués et rarement efficaces du système métrique du web. Cette guerre entre Facebook et Google sera probablement remportée par celui qui arrivera à supplanter le champ d’origine de l’autre, sans abandonner sa première définition.

Ce billet a initialement été publié en anglais sur OWNI.eu

__

Crédits photo: Flickr CC Shoes on Wire, Dunechaser

]]>
http://owni.fr/2011/01/06/pourquoi-google-est-dionysien-et-facebook-apollinien/feed/ 16
Google n’est pas responsable de la standardisation journalistique http://owni.fr/2010/09/17/google-n%e2%80%99est-pas-responsable-de-la-standardisation-journalistique/ http://owni.fr/2010/09/17/google-n%e2%80%99est-pas-responsable-de-la-standardisation-journalistique/#comments Fri, 17 Sep 2010 20:34:26 +0000 Cyrille Frank http://owni.fr/?p=28587 Dans un article intéressant, mais assez démago, Owni pose la question suivante : les journalistes écrivent-ils pour Google ? Le vil moteur est supposé pervertir les journalistes qui s’intéressent plus à l’efficacité SEO de leur prose qu’à la satisfaction de leurs lecteurs. C’est partiellement vrai, mais la responsabilité en incombe aux journalistes, pas à Google.

D’abord il convient de rappeler une évidence économique : le but de Google est de faire des profits, or pour se faire, l’entreprise a opté dès l’origine pour la satisfaction du client, plus que les autres. Son succès vient de sa capacité à délivrer des résultats plus pertinents, plus exhaustifs et plus rapides que les autres. Google ne s’est pas arrogé plus de 65% de parts de marché mondial et plus de 90% en france en forçant la main des utilisateurs (contrairement à Microsoft qui dans les années 70-80 a percé grâce à une (abus?) position dominante sur la distribution de matériel informatique.

Google dont j’observe avec une certaine inquiétude par ailleurs le développement tentaculaire, n’en est pas moins méritant sur son core-business : il a réussi car c’est le plus efficace, celui qui rend globalement le meilleur service aux internautes.

Les journalistes, tous des clones?

L’écriture web, c’est servir l’utilisateur, pas Google

« L’écriture web » n’est pas destinée à Google, mais bien au récepteur final: le lecteur internaute.

Ecrire pour Google, c’est écrire d’abord pour le lecteur : faire concis et précis (titre et accroches efficaces) riche (liens externes, popularité, régularité), et accessible sur la forme (gras, paragraphes etc.)

Ce sont tous ces critères qui sont récompensés dans l’algorithme de classification de Google et le moteur ne fait qu’appliquer les bonnes pratiques journalistiques classiques, adaptées au support qu’est l’écran (la lecture est en moyenne 25% plus lente et difficile sur un écran que sur du papier selon l’expert reconnu du sujet Jakob Nielsen). Ecrire pour le web, c’est bien écrire tout court.

La standardisation vient des journalistes

S’agissant de la standardisation des formats sur le web, je rappelle que cela n’est pas nouveau. Il existe dans tous les médias, en particulier en télévision, et depuis fort longtemps. Qui n’entend la désopilante musique des actualités Pathé dans lesquelles le speaker enchaînait des phrases de 3km avec un ton nasillard et un vocable ampoulé? C’était le standard de l’époque.

Aujourd’hui en télévision, il est à la mode d’entonner une petite musique ternaire qui alterne l’aigu et le grave pour appuyer prétendument un propos : c’est le fameux ton sentencieux et prétentieux de Capital : « derrière cette porte (respiration), des millions d’euros s’échangent » (abaissement de la voix sur la dernière syllabe).

Je ne parle même pas des clichés journalistiques qui témoignent d’un mimétisme socio-professionnel classique et dénoncée avec humour et auto-dérision sympathique par  Rue89 via le compte alertecliché.

C’est aux producteurs de contenu de ne pas abuser

Ce qui est vrai , en revanche, c’est qu’il ne faut pas être dogmatique et appliquer bêtement des recettes de SEO sans les comprendre. Ainsi les titres avec « kickers » ne sont pas une obligation, mais c’est plus efficace en termes de lecture (et pas seulement de référencement!)

Exemple :

« Retraites : le détail de la réforme du gouvernement » indique tout de suite au lecteur la nature du sujet, c’est un service à lui rendre dans la profusion d’information (l’infobésité dit-on chez les journalistes « tendance »)

Mais le titre :
« La réforme des retraites gouvernementale en détails » fonctionne très bien aussi. L’information essentielle se trouve toujours le plus tôt possible.

Il est vrai également que les titres d’articles de jeux de mots plus ou moins tirés par les cheveux ont de moins en moins lieu d’être sur Internet. Ce n’est pas la faute de Google, c’est la faute de nos modes de vie hystériques et de la concurrence de l’attention liée à la pléthore de stimuli (tv, radio, jeux, mobile etc…). Nous n’avons pas de temps à perdre, bombardés que nous sommes de messages. Attirer l’attention des lecteurs aujourd’hui c’est comme essayer de parler aux automobilistes sur l’autoroute : faut vraiment faire court et clair !

Exemple de titres, 20Minutes

Il faut donc que les titres soient informatifs et concis s’ils veulent retenir l’attention des lecteurs et c’est ce que récompense Google, pas autre chose. Mais cela n’empêche pas d’être créatif et imaginatif sur les titres des pages d’accueil, comme le fait très bien 20minutes. A condition de veiller à écrire un titre d’article informatif pour permettre au lecteur de comprendre immédiatement de quoi on lui parle quand il arrive de la recherche, aujourd’hui et demain (il faut penser aux archives). Et pour s’adapter  aussi à tous les nouveaux modes d’accès à l’information : flux RSS, mobile etc.

Enfin l’algorithme de Google évolue constamment et les différentes techniques utilisées par les petits malins pour envoyer du trafic sur du mauvais contenu sont assez régulièrement sanctionnées. Google n’a pas envie de tuer la poule aux oeufs d’or et attache énormément d’importance à l’efficacité des critères de classification. Le jour où il cessera de le faire, il disparaîtra. C’est l’ancien éditeur d’AltaVista qui vous parle…

Google est un bon outil de recherche qui sert avant tout l’utilisateur. Si les titres web se standardisent, c’est d’une part dans l’intérêt du lecteur et d’autre part, par manque d’imagination et d’inventivité des journalistes. Enfin, que le web soit plus orienté vitesse et efficacité est inhérent à l’usage majoritaire de ce média. Pour les titres plus incitatifs et ludiques, il y a le papier. A chacun son truc, comme l’a bien compris Libération. Enlever à la presse ce rare avantage concurrentiel par rapport au web, n’est vraiment pas charitable :)

Article initialement publié sur Mediaculture

Crédit photo CC FlickR par Legoboy Production, Robert Couse-Baker

]]>
http://owni.fr/2010/09/17/google-n%e2%80%99est-pas-responsable-de-la-standardisation-journalistique/feed/ 3
De qui ‘trou du cul’ est-il le nom? Eloge d’un bombardement sémantique http://owni.fr/2010/09/15/de-qui-trou-du-cul-est-il-le-nom-eloge-dun-bombardement-semantique/ http://owni.fr/2010/09/15/de-qui-trou-du-cul-est-il-le-nom-eloge-dun-bombardement-semantique/#comments Wed, 15 Sep 2010 06:30:24 +0000 Olivier Ertzscheid http://owni.fr/?p=28136

Prologue. Mettons les différents cas de figure suivants :

Si tu insultes le chef de l’État, tu risques :

Et si tu insultes le chef de l’État sur le web ? C’est plus compliqué.

Si tu insultes le chef de l’État sur un site Internet, si par exemple tu écris (ce qui suit n’est qu’un exemple, une illustration, et donc pas une insulte, hein ?), si par exemple tu écris, disais-je : “Nicolas Sarkozy est un trou du cul“, a priori tu encours également des poursuites pénales pour insulte (ou outrage, j’en sais rien, je suis pas Maître Eolas), vu que la loi s’applique aussi sur le web. Mais …

Mais si tu écris que : “la page classée première pour la requête ‘trou du cul’ sur Google est le compte Facebook officiel du président de la République“, ou – autre exemple – si tu écris, “il s’agit cette fois de désigner Nicolas Sarkozy comme un trou du cul“, ou bien encore, “grâce à cela, Nicolas Sarkozy est un trou du cul“, tu n’insultes pas le chef de l’État, tu relates ou participes à une forme de catharsis collective visant à détourner volontairement le fonctionnement des algorithmes de pertinence que les moteurs de recherche utilisent pour classer leurs résultats, tu fais du Google Bombing.

Plus subtil :

  • Nicolas Sarkozy est un trou du cul !” : c’est clairement une insulte.
  • Nicolas Sarkozy est un trou du cul !” : c’est toujours une insulte, mais doublée d’un Google Bombing.
  • Quel trou du cul !” : magie du lien hypertexte qui permet au signifiant de ne désigner qu’en creux son signifié et de garder celui-ci dans les limbes d’un intertexte en perpétuel réagencement jusqu’à l’activation délibérée dudit lien, magie du lien disais-je, ce n’est plus une insulte, c’est juste un Google Bombing :-)

Kesako Google Bombing ?

Le Google Bombing, comme l’écrit Wikipédia, est “une technique de référencement visant à influencer le classement d’une page dans les résultats du moteur de recherche Google. Elle exploite une caractéristique de l’algorithme PageRank qui accorde un certain poids au texte avec un hyperlien vers une page. Si plusieurs sites utilisent le même texte pour pointer sur la même cible, Google additionne ce poids et il devient possible de faire apparaître la page cible dans les résultats d’une recherche sur le texte contenu dans les liens pointant vers elle.” La suite de la page Wikipédia regorge d’exemples en tous genres. Je vous y renvoie.

Dernière bombe en date donc, celle renvoyant, sur la requête “trou du cul” à la page Facebook officielle de Nicolas Sarkozy. N’en fallait pas davantage aux médias internationaux de tous poils (sic) pour se faire l’écho de cet outrage par la bande. Joint au téléphone dans l’après-midi par une journaliste de l’AFP qui était tombée sur cet ancien article d’Affordance, notre conversation s’est transformée en dépêche AFP, laquelle s’achève sur un contresens dommageable que je vais ci-après m’efforcer de corriger (sans acrimonie aucune pour la journaliste en question : nous étions tous deux pressés par le temps, et l’entretien s’est fait dans l’urgence de l’événement, du coup je n’ai certainement pas été assez clair… et comme j’ai un blog pour rectifier le tir, j’en profite :-)

Retour sur la dépêche AFP.

Première inexactitude.

  • Q : En quoi consiste le “Google Bombing”, est-ce une nouvelle forme de piratage ?
  • R : “Ce n’est absolument pas du piratage mais simplement une manière d’utiliser et de détourner le système d’exploitation du moteur de recherche. Quand on veut “dézinguer” une page, l’objectif pour les auteurs est de produire un maximum de liens entrants dans Google qui associent un mot-clé et une adresse. Google évalue la valeur et la popularité des sites grâce à son système “PageRank”: donc plus ces sites ou ces pages ont un “ranking élevé” et plus ils auront de poids et d’influence pour que leurs informations figurent en tête des résultats de recherche”

Il ne s’agit pas du “système d’exploitation” du moteur de recherche mais bien de son algorithme, c’est-à-dire du programme informatique lui permettant de classer les pages par ordre de pertinence.

Deuxième inexactitude.

  • Q : Combien de sites ou de personnes interviennent dans un cas de ce type ?
  • R : “C’est très difficilement chiffrable, mais grosso modo on peut dire que 5.000 sites ou pages ayant un “ranking” important peuvent arriver à leurs fins assez rapidement en termes de “Google Bombing”. Par contre, si des sites, pages ou blogs ont une “valeur” moins élevée, il faudra qu’ils soient 10.000, 20.000 ou même plus pour réussir, et en plus de temps”.

Les chiffres donnés à la journaliste l’étaient davantage au titre d’une parabole explicative que d’un authentique exemple. De fait, personne n’est capable d’indiquer (même très approximativement) combien de sites sont nécessaires à la fabrication d’une Google Bomb. On sait juste qu’il en faut… beaucoup, et que cela dépend d’au moins deux critères :

  • la cible : Nicolas Sarkozy est, comme Georges W. Bush en son temps, une personnalité à l’empreinte lexicale très forte sur Internet. Les marqueurs et mots-clés qui lui sont habituellement associés (son “champ lexical” si vous préférez) sont, qualitativement très connotés (“président”, “Élysée”, “nabot”, “premier personnage de l’État”, “république”, “hyperactif”, etc.) et quantitativement innombrables (des dizaines de millions d’occurrences). Il est donc très délicat d’inverser la logique de ces marqueurs, sauf à mobiliser une très grosse quantité de sites. À l’inverse, si vous choisissez une cible à l’empreinte lexicale numérique beaucoup plus faible (moi par exemple), il sera, théoriquement, plus facile de mettre rapidement en place un Google Bombing efficace et ce à l’aide d’une communauté de sites participant nettement plus faible que dans l’exemple précédent.
  • la pondération des sites “attaquants” : plus le “pagerank” du site à l’origine du backlink (= le site qui met un lien intitulé trou du cul et pointant vers le site de Nicolas Sarkozy), plus son “pagerank” est élevé, et plus sa prise en compte dans la Google Bombe sera efficacement prise en compte.

Et un gros contresens.

  • Q: Quelle est la politique de Google en la matière ? Interviennent-ils ?
  • R: “Initialement le credo fondamental du groupe, c’est zéro intervention humaine, notamment sur le classement de ses résultats de recherche. On l’a bien vu avec un des premiers cas de “bombing” d’ampleur, celui qu’avait subi George W. Bush il y a plusieurs années : lorsqu’on tapait “miserable failure” (“échec cuisant+” sur Google, le premier résultat de recherche renvoyait sur sa biographie officielle sur le site de la Maison Blanche. Et ce lien est resté en ligne plus de deux ans, Google n’est pas intervenu ! Ils continuent à s’y tenir, alors qu’il est très simple, techniquement, d’éliminer ce genre de liens”.

Vrai : il est effectivement très simple techniquement d’éliminer ce genre de liens. Mais faux : Google ne s’en tient plus à sa politique de laisser faire. Il y eut en fait plusieurs temps dans la gestion du Google Bombing par Google lui-même :

  • après avoir – nous étions alors en 2005 – reconnu et même légitimé a posteriori la pratique du Google Bombing, Google a, dès l’année suivante,
  • utilisé ses propres liens sponsorisés pour s’acheter à lui-même le mot-clé “Google Bombing” et pointer vers la page susmentionnée légitimant cette pratique, pour enfin,
  • le 25 janvier 2007, hop hop hop, mettre au point un changement dans l’algorithme qui hop hop hop toujours, nettoie tout simplement les sites victimes et rien que ceux-là, tout en permettant aux sites qui parlent ou commentent le Google Bombing de continuer d’apparaître.

La vérité est ailleurs.

Sauf à travailler chez Google et à être en charge du dossier, personne ne sait vraiment ce qu’il en est. On peut simplement être certain que :

  • le nombre de Google bombes a effectivement diminué depuis cette annonce (peut-être précisément à cause dudit effet d’annonce) mais la pratique continue d’exister et le Google Bombing est loin d’avoir totalement disparu (le premier trou du cul que vous croiserez vous le confirmera séant).
  • dans le cas d’un Google Bombing, du côté de chez Google, la soudaineté de l’apparition des liens, le fait qu’ils proviennent dans leur grande majorité de sites à faible pagerank, et l’uniformité sémantique des ancres hypertextuelles, le tout conjugué à la formidable réactivité de la puissance de calcul de Google, doit effectivement permettre d’en repérer pas mal et donc de corriger les résultats pour en atténuer la portée (et ce que ce soit “à la main mais sans le dire” ou – ce qui revient au même – par un subtil réglage algorithmique jamais révélé).
  • un certain nombre de sites sont nécessairement considérés par Google comme plus “sensibles” que d’autres, ainsi – probablement – celui de la Maison Blanche, de l’Élysée, etc., et pour lesdits sites, il n’est pas très compliqué de bâtir un index permettant de repérer les requêtes “non-standard” pointant vers eux.

On résume ?

  1. Google ne pourra jamais dire qu’il corrige à la main les bombardements sémantiques en règle (c’est contraire à son “éthique”, et surtout, à son image et donc, in fine, à son business)
  2. Google a théoriquement les moyens de repérer et de corriger ou d’atténuer, en back-office, lesdits bombardements.
  3. Il y aura toujours des Google Bombes parce qu’elles sont consubstantielles à l’algorithme Pagerank dudit Google et que vouloir les supprimer équivaudrait à organiser des élections sans mettre de bulletin de vote à disposition des électeurs. Ce serait certes théoriquement possible, mais ce ne serait pas du plus bel effet et cela se remarquerait assez vite :-)

Bon ben alors y’a quoi d’nouveau dans c’t'affaire ??

Ce qui est nouveau dans l’affaire c’est qu’il s’agit, à ma connaissance, de la première fois que le support de la cible attaquée (Nicolas Sarkozy) n’est pas un site institutionnel (elysee.fr) mais la page “officielle” du premier des réseaux sociaux occidentaux. Plusieurs remarques s’imposent alors :

  • d’abord : sur le glissement de la représentation de l’autorité et/ou, à tout le moins, sur sa domiciliation numérique. Si c’est la page Facebook et non le site élyséen qui fut choisi pour ce bombardement lexical, c’est peut-être par facilité (ledit site elysee.fr étant – cf. supra – assez sensible) mais plus probablement par souci d’efficacité, les 300.427 “fans” de ladite page Facebook constituant autant de potentiels dégâts collatéraux de la bombe envoyée comme message aux mêmes 300.427 “fans”. Pour le dire plus prosaïquement : si tu veux faire, métaphoriquement, “sauter” l’Élysée comme siège du pouvoir, commence par dynamiter la page Facebook de son locataire.
  • ensuite : sur le fait que la densité des liens propre à l’écosystème desdits réseaux sociaux d’une part, et les techniques de dissimulation (et à mon sens d’appauvrissement, mais c’est un autre débat…), les techniques de dissimulation ou de cryptage des liens hypertextes (cf. par exemple les raccourcisseurs d’URL), leur niveau d’enfouissement dans les tréfonds des limbes conversationnelles des mêmes réseaux sociaux, lesquels réseaux fonctionnent de manière fermée (= pour l’essentiel invisibles aux moteurs) mais peuvent s’appuyer sur des interactions conversationnelles constantes qui en font de vraies bombes à retardement sémantiques, cet ensemble de paramètres explique très certainement la réussite de cette dernière Google Bombe visant le premier personnage de l’État.

<Update> Comme me le fait remarque @Palpitt sur Twitter, le site Sarkozy.fr (lui-même victime d’un Google Bombing en 2009), redirige vers la page Facebook de Nicolas Sarkozy. “Il y a dû y avoir un transfert de poids”. </Update>

Quels enseignements en tirer ?

  • le Google Bombing, c’est un peu comme le Yin et le Yang : il s’auto-alimente jusqu’à s’auto-pondérer : plus on en parle, plus les sites s’en font l’écho et plus, d’un côté, ils accroissent le phénomène en lui offrant de nouvelles occurrences, et plus, de l’autre côté, ils l’atténuent, en positionnant d’abord juste après puis juste avant la bombe elle-même les sites en décrivant le mécanisme, contribuant du même coup à la désamorcer.
  • moi j’aime bien le Google Bombing, parce qu’il est l’illustration algorithmique, programmatique au sens premier du terme, que le tout est plus que la somme des individualités qui le composent, parce qu’à la démocratie du plébiscite, aux classements par “popularité” il présente le visage d’un contournement rendu toujours possible celui d’une subversion intrinsèque à toute puissance installée et apte à la faire au moins temporairement et superbement basculer. J’aime bien le Google Bombing parce que même s’il ne brille pas toujours par la finesse de son expression, il fut, à l’origine tout au moins, l’expression d’une grande finesse dans la compréhension des mécanismes qui régissent ceux qui règnent aujourd’hui sur l’empire des mots du web.

P.S. : concernant la réaction de Google, je vous renvoie à la précédente dépêche AFP sur le sujet dans laquelle la firme indiquait : “Nous ne soutenons pas cette pratique, ni aucune autre visant à altérer l’intégrité de nos résultats de recherche, mais en aucun cas cette pratique n’affecte la qualité générale de notre moteur de recherche dont l’impartialité reste, comme toujours, au centre de notre action“, a souligné Google.

<Update> Ce mercredi 8 septembre, la bombe a été désamorçée par Google. Ne figurent plus que les sites faisant mention du Google Bombing. </Update>

Billet initialement publié sur Affordance

Image CC Flickr Urban Jacksonville

]]>
http://owni.fr/2010/09/15/de-qui-trou-du-cul-est-il-le-nom-eloge-dun-bombardement-semantique/feed/ 2
Les moteurs de recherche amenés “à devenir des espions pour le gouvernement” http://owni.fr/2010/06/29/les-moteurs-de-recherche-amenes-a-devenir-des-espions-pour-le-gouvernement/ http://owni.fr/2010/06/29/les-moteurs-de-recherche-amenes-a-devenir-des-espions-pour-le-gouvernement/#comments Tue, 29 Jun 2010 12:10:07 +0000 Astrid Girardeau http://owni.fr/?p=20579 «Le Parlement européen veut vous enlever le droit de rechercher en toute intimité», écrit le moteur de recherche Ixquick en réaction à l’adoption de la “Déclaration écrite 29“, il y a deux semaines, au Parlement Européen. Un texte qui vise à mettre en œuvre la directive sur la conservation des données “en l’étendant aux moteurs de recherche” afin de lutter contre les “pédophiles et les auteude-recrs de harcèlements sexuels”.

«Présentée comme une mesure visant à sévir contre les pédophiles», la directive «appelle à une réglementation qui imposerait aux moteurs de recherche de procéder à l’enregistrement de toutes les requêtes» écrit le moteur. Face aux nombreuses attaques contre le texte et les manières utilisées pour le faire adopter, l’euro-député et co-auteur de la déclaration, Tiziano Motti s’est défendu avoir utilisé l’expression “moteurs de recherche” par “souci d’éviter les aspects techniques”.

“La vie privée est un droit fondamental et la base d’une société libre”

“La vie privée est un droit fondamental et la base d’une société libre. L’espionnage des citoyens respectueux de la loi n’est pas la voie à suivre», écrit Robert Beens, CEO d’Ixquick. Il s’engage à«s’opposer fortement au fait que cette mesure devienne une loi». Pour rappel, une déclaration n’a pas d’effet législatif direct, mais indique la position officielle du Parlement européen. Or d’ici septembre, la directive sur la conservation des données doit justement être évaluée, et peut-être ensuite révisée.

Sur le marché des moteurs de recherches, Ixquick se distingue par le respect de la vie privée : pas de cookies d’identification uniques, ni d’enregistrement des adresses IP. «Nous avons travaillé dur pour créer un moteur de recherche respectant la vie privée (…) en conformité avec les recommandations strictes du Groupe de travail 29. Cette déclaration est la preuve que la main gauche de l’UE ne sait pas ce que fait la main droite» a déclaré Robers Beens le CEO d’Ixquick. En 2008, le site s’est vu remettre un sceau européen de la protection de la vie privée par le CEDP (Contrôleur européen de la protection des données).

“Les délinquants sexuels échangent des fichiers à travers des réseaux souterrains”.

“Les délinquants sexuels échangent des fichiers à travers des réseaux souterrains. Ils ne trouvent pas ce genre de choses par le biais des moteurs de recherche. J’ai passé huit années à aider les forces de l’ordre à suivre les délinquants sexuels en ligne et pas une fois nous avons vu un cas où les données des moteur de recherche ont été utiles” déclare de son côté Alex Hanff de Privacy International.

L’organisation a récemment lancé une campagne contre cette mesure qu’elle qualifie de “draconienne, illégale et profondément intrusive”. Une campagne à laquelle Ixquick annonce se joindre.

Sur le même sujet :
- Instrumentalisation de la pédo-pornographie en Europe
- Conservation des données par les moteurs de recherche: l’Europe s’agite
- Déclaration 29 adoptée: vers des moteurs d’archives

]]>
http://owni.fr/2010/06/29/les-moteurs-de-recherche-amenes-a-devenir-des-espions-pour-le-gouvernement/feed/ 5
Journalistes, laissez-vous les camelots titrer vos articles? http://owni.fr/2010/06/23/journalistes-laissez-vous-les-camelots-titrer-vos-articles/ http://owni.fr/2010/06/23/journalistes-laissez-vous-les-camelots-titrer-vos-articles/#comments Wed, 23 Jun 2010 16:29:26 +0000 Martin Lessard http://owni.fr/?p=20027 En cette époque charnière où le web tout puissant semble saper les bases de la presse papier, j’ai interrogé le moteur de recherche de mon journal favori (Le Devoir) pour connaître justement ce qu’il avait à dire sur le sujet. La surprise n’est pas venue d’où je pensais.

On subodore parfois des réalités rien qu’à voir les types de résultats de recherche. Ma petite expérience ne fait pas exception. Promenons-nous dans les bois numériques.

Web, y es-tu?

Avec la requête “web” (difficile de faire plus vague), j’ai interrogé le site du Devoir. Résultat ? Rien. Nada. Que dalle. Vide. Pas de résultat. Ah si ! La page d’aide. Et celle du centenaire du journal, allez savoir pourquoi !

Bruegel:  La Parabole des aveuglesBon j’imagine que le mot est soit mal indexé, ou, vraisemblablement, exclu de la base de données pour des raisons de configurations obscures mal réglées (genre : toutes les pages “web” sortaient, ou quelque chose comme ça).

Compréhensible, mais étrange. Comme si vous interrogiez la banque de données des journaux, mais sans pouvoir utiliser le mot “journal”.

Internet, y es-tu ?

Alors j’essaye “Internet” (hé oui, on peut faire effectivement plus vague) dans le moteur du Devoir. Résultats ? Aaah ! Mieux ! Il y a au-dessus de 10 000 articles !

Euh… Mieux ? Techniquement oui. Mais qualitativement, non. L’occurrence “Internet” était dans la plupart des cas un mot plus que secondaire dans les articles que le moteur a ressortis.

Compréhensible, mais décevant : voyez par vous-même les dix premiers résultats. Voici les trois premiers trouvés ce matin :

- Lucia Ferretti : “Le Québec est bel et bien une société distincte au Canada” [sur la religion]
- Des chantiers paralysés ? [sur la construction]
- En bref – Magazines éducatifs pour les écoles [sur des magazines papier !! ]

Le reste est du même acabit. Donc, non, ce ne sont pas des articles sur “Internet“…

Le Devoir n’a pas à se sentir seul, il est en bonne compagnie. La Presse aussi n’a pas tout à fait bien attaché ses souliers : une recherche sur “Internet” donne un résultat tout aussi mitigé.

Promenons-nous dans les bois pendant que le journaliste n’y est pas

Un bon programmeur définit la fonction “recherche” sur un site comme une “requête à la base de données”. Et la page contenant les réponses à la requête tombe du coup sous sa responsabilité. Grave erreur. Ce n’est pas de la programmation ! C’est de l’information que vous retournez !

Tout échange d’information est de l’information. Une requête à la base de donnée est un échange d’information, donc tombe dans la cours des journalistes.

Ce que vous mettez en page est de l’information. Ce que votre moteur de recherche affiche est de l’information.

Vous ne laissez pas vos camelots titrer vos articles ? Ne laissez pas les TI gérer les résultats de recherche ! Assurez-vous que vous avez le contrôle pour pondérer les pages.

La révolution menée par des amnésiques

Le Devoir
titrait la semaine dernière “Le train numérique passe, le Québec reste à quai” en parlant du retard de plus en plus irrattrapable dans les technologies de l’information au Québec qui isole lentement le pays parmi le tiers-monde du savoir numérique, faute de colonne vertébrale politique et d’attentisme commerçant.

Comme on connaît la propension des journalistes à vouloir guider avec leur lanterne le peuple et les dirigeants dans le flou obscure de la réalité de la vie, on se demande si on ne suit pas nous même ces aveugles. Ou plutôt ces amnésiques. À lire leur moteur de recherche, on peut penser que oui.

Journaliste, y es-tu ? Entends-tu ? Que fais-tu ?

Bien sûr, il s’en écrit des choses sur “Internet” et le “web” dans ces journaux, mais sans trace, comment pensent-ils avoir une perspective cohérente sur les changements en cours ? Via leur moteur de recherche, ils donnent à penser qu’ils n’ont pas de réflexion profonde sur le sujet.

“Le train numérique passe, mais les cheminots sont au bar”

À bien y regarder, bien sûr il y a quelques chroniqueurs qui se sont laissé aller à donner leur avis. En général sur leur blogue. Plus rarement dans le journal papier. Mais pas souvent un article de fond ou débat sur le sujet émergeant –souvent c’est après coup.

Après on s’étonne du “retard” dans la perception des gens face aux changement causé par le numérique…

Je soupçonne que les journalistes ont accès à un outil de recherche plus performant à l’interne. Mais pourtant régulièrement ils citant des sources hors de leur journal, hors du pays.

Le New York Times, par exemple.

Juste avec ce journal américain, dans la dernière semaine, avec les requêtes “web” et “Internet“, on trouve des articles stimulants sur la compréhension d’Internet et de leur impact sur nos vies et la société en général. Juste dans la dernière semaine !

- The defense of computers, the Internet and our brains.
- Internet breathes new life into clock radio.
- 22 percent of Internet time is social, Nielsen says.
- South Korea expands aid for Internet addiction.
- Book review – The shallows – What the Internet is doing to our brain.

[5 liens parmi les seuls 10 que le NYTimes affichait ce matin pour "internet", dont 2 étaient des liens vers les catégories pertinentes. Pour en avoir plus, il faut passer par la recherche avancée par date]

Je peux comprendre la quantité – l’argent explique beaucoup de chose -, mais qualitativement, on devrait retrouver ça aussi chez nous, des articles de réflexion (Il n’y a que se pencher pour en ramasser à la pelle dans les bon réseaux sur la blogosphère)

Et on s’étonne qu’on ne cite pas souvent nos journaux francophones…

Et on s’étonne que le pays a du retard face au numérique.

Au fait… Je me demande s’il y a pas un lien de cause à effet à faire ?

PS : Allez, les bleus?
- Le Monde
, pour le mot “Internet” : 10 / 10
- Libé, pour le mot “internet” : 0/10
Comme pour leur équipe de foot, il faut en prendre et en laisser…

Billet initialement publié sur Zéro seconde ; images CC Flickr lupinehorror

]]>
http://owni.fr/2010/06/23/journalistes-laissez-vous-les-camelots-titrer-vos-articles/feed/ 9