Internet dans un petit appareil

C’est toujours un peu dangereux de jouer les Madame Soleil en essayant de deviner les tendances de développement d’Internet pour les années à venir. Mais pourquoi pas? Cela donne en tout cas l’occasion de faire le point sur les développements marquant de 2009.

Le téléphone portable est en train de devenir le mode d’accès le plus important à Internet

Les statistiques montrent que le téléphone portable est devenu l’outil de communication le plus diffusé. L’Union Internationale des Télécommunications estime qu’à la fin de 2009, il y 4,6 milliards de souscriptions à un service de téléphonie mobile. Bien entendu, les téléphones portables permettant l’accès à Internet ne sont pas majoritaires: actuellement, le taux de pénétration est de 9,5 téléphones portables avec accès à Internet pour 100 habitants.

http://www.itu.int/ITU-D/ict/material/Telecom09_flyer.pdf

Le téléphone portable présente de nombreux avantages: léger, multi-fonctionnel, personnel (en Occident en tout cas), bénéfiant d’une large couverture réseau, bon marché à l’achat (moins à l’usage). La génération des smartphones en a fait un appareil permettant l’accès à Internet, un accès qui ne se limite pas à la consultation, mais aussi à l’écriture et à la participation aux réseaux sociaux. De fait, le téléphone est devenu un média en soi, avec ses propres modèles éditoriaux et ses règles de fonctionnement. Brièveté, fugacité et alertes. De plus en plus de sites ont une version pour téléphones mobiles. De nombreux producteurs d’information prennent en compte ce canal. L’information via le téléphone est aussi très liée à la localisation, ce qui redonne un nouveau souffle au concept de réalité augmentée. Finis les sacs à dos et les lunettes 3D, qui sont restés à l’état de prototype. Il suffit de sortir son téléphone pour en savoir plus sur le lieu où on se trouve … à condition d’avoir la bonne application. Le foisonnement des applications, c’est sûrement la maladie d’enfance des téléphones. Mais on a aussi connu ça sur les PC. La nature de l’information disponible grâce au téléphone peut se résumer avec la locution latine “hic et nunc” qui signifie ici et maintenant.

 Les réseaux sociaux vont arriver dans leur phase de maturité

Il est probable que les réseaux sociaux vont arriver dans une phase de maturité dans laquelle les usages pourront se fixer. On a connu ce phénomène avec les blogs. Après une phase inflationniste où chacun a créé son blog pour dire tout et rien, le blog a trouvé sa vitesse de croisière. Il est maintenant bien intégré dans l’arsenal des communicateurs et prend une place toujours plus grande dans le paysage informationnel où il remplace souvent les listes de communiqué de presse. Des sites comme celui de la Maison Blanche ou du 10 Downing Street ressemblent maintenant à des blogs. Une firme comme Google en a fait son principal outil de communication. Les blogs actuels n’offrent pas nécessairement la possibilité de commenter. Ils constituent un nouveau format, plus accessible au grand public.

Pour l’instant, les réseaux sociaux sont encore dans la phase où tout le monde veut s’y mettre et personne ne sait comment les utiliser. Il y a beaucoup d’essais, d’expérimentations. La situation devrait se décanter peu à peu et ces instruments trouveront leur place. Mais ce ne sera peut-être pas encore pour 2010.

L’avenir de la presse est à construire

La presse va encore subir de profonds changements. Internet a certainement joué un rôle de catalyseur dans la crise de la presse, mais ses véritables causes sont peut-être ailleurs. L’information a été dénaturée parce qu’on en a fait un produit dont on pensait qu’on pouvait le vendre comme des boîtes de conserve. C’est vrai pour l’actualité comme pour l’information culturelle. Les contenus des journaux sont devenus du easy reading: pages people et conseils d’achats, témoignages et tests psychologiques remplacent allègrement le reportage d’un journaliste d’investigation ou les critiques sur le monde de l’art. Dans le domaine de l’édition, on fait de même en tablant essentiellement sur des bestsellers. Tout cela a fait le jeu de la concurrence présente sur Internet: blogosphère, journalisme citoyen, encyclopédie collaborative. Cela d’autant plus facilement que les contributeurs sur Internet on érigé la gratuité en dogme fondamental. De fait, l’avenir du journalisme et de ses règles déontologiques nécessaires est encore difficile à percevoir. Actuellement les formes hybrides comme le Post.fr ou Rue89 sont en vogue. Elles allient vitesse de réaction, collaboration et vérification professionnelle des informations.

http://www.rue89.com/

http://www.lepost.fr/

Certains tablent aussi sur le retour du journaliste, qui (re)deviendrait sa propre marque (comme Henry Morton Stanley ou Albert Londres, sans parler des modèles imaginaires comme Tintin). On retournerait au temps des grandes plumes. Les journalistes auraient leur propre blog, écriraient des articles pour d’autres titres et des livres.

http://bruxelles.blogs.liberation.fr/coulisses/2009/09/mon-avenir-estil-de-devenir-une-marque-.html

Une autre hypothèse serait la création de plateformes comparables à iTunes où les utilisateurs pourrait télécharger des articles contre des sommes minimes ou un abonnement. Le micro-payement constituerait (peut-être) une solution au problème lancinant du financement de la presse.

http://www.journalismonline.com/

Good enough revolution

C’est peut-être l’une des tendances qui est apparue au grand jour cette année, même si elle existait sur Internet depuis longtemps. La thèse principale de cet article de la revue Wired est la suivante: les utilisateurs ne recherchent pas les meilleures solutions, mais se contentent de ce qui marche. Ils téléphonent avec Skype, même si le son n’est pas optimal. Ils regardent des vidéos sur You Tube et vont moins au cinéma (mais ils iront peut-être pour Avatar). Ils achètent des Netbooks. Bref, le porte-monnaie est peut-être devenu le critère fondamental de choix, tant que le résultat est là.

http://www.wired.com/gadgets/miscellaneous/magazine/17-09/ff_goodenough

Le web sémantique

Cette année est apparu Wolfram Alpha. Ce moteur de recherche a popularisé une fonctionnalité que l’on trouvait déjà sur quelques sites: un moteur de recherche qui répond directement aux questions, sans donner une liste de liens qu’il faut encore ouvrir les uns après les autres. Désormais ce n’est plus à l’utilisateur de rechercher lui-même des réponses à ses questions. Les nouvelles générations de moteur de recherche devront les lui fournir. Pour cela, ils devront exploiter les données et les métadonnées présentes sur Internet. Ils devront aussi comprendre le langage de l’utilisateur. Ils devront aussi lui donner des réponses contextuelles, liées à sa position géographique par exemple. L’utilisateur aura accès directement aux informations nécessaires là où il est, quand il en a besoin.

http://www.wolframalpha.com/

En conclusion …

Boule de cristal

Dans le futur, j’accèderai à Internet grâce à un petit appareil de rien du tout dans ma poche. Il me coûtera un peu d’argent, chaque mois ou à chaque transaction. Quand j’aurai besoin d’une information (et même si je ne la demande pas), elle me parviendra en tenant compte du contexte. Quand j’arriverai à la gare, mon petit appareil me signalera des grèves. Si je prends l’avion pour un pays lointain, il m’informera d’un coup d’état. Quand je ferai les magasins, il me dira si le prix indiqué est trop élevé. Si je suis d’accord, il règlera lui-même la note. Quand je passerai devant la maison natale d’un grand homme, il me donnera sa biographie. Il me dira même qu’un de mes potes se promène dans les alentours.

Mais ce petit appareil ne sonnera pas quand passera devant moi l’homme de ma vie ou si ma voisine fait un malaise. Il me dira peut-être des choses stupides, comme de faire demi-tour dans un tunnel. Il ne remplacera pas mes amis.  Il me donnera le nom d’un peintre devant un tableau, mais il ne saura pas me dire pourquoi cette peinture est belle. Avec lui, je me sentirai seule.

Bonne année 2010

Tout le monde peut exposer

Hier soir, j’ai été invitée à parler du musée virtuel et de la présence des musées sur Internet par le Groupe interjurassien des Musées GIM, qui regroupe essentiellement de petites institutions muséales, dont certaines sont privées. C’était l’occasion d’explorer la frontière entre collections privées et musées, entre amateurs passionnés et conservateurs professionnels. J’ai donc essayé de défendre l’idée que le savoir muséographique était partagé assez largement dans la population. Pour reprendre le slogan d’un film d’animation célèbre mettrant en scène un petit rat qui devient un grand chef de cuisine, j’ai commencé par affirmer que “tout le monde peut exposer”.

Au départ du phénomène du musée se trouve la muséalité, une attitude humaine profonde qui sélectionne des objets et leur attribue un sens. Ces objets perdent alors leur valeur d’usage pour acquérir une essence différente. Ce phénomène est analogue à celui de la sacralisation dans le domaine des religions: un objet devient sacré et ne retourne jamais au monde profane. L’esprit de collection est courant chez les enfants. Ces derniers rassemblent quelques objets qui ont un sens particuliers pour eux, mais sans suivre forcément une systématique. Ils les mettent dans un contenant, un carton de chaussure ou une boîte en fer blanc. Souvent cette collection d’objet est la seule qu’ils feront de leur vie. Dans le film “Le fabuleux destin d’Amélie Poulain”, cette dernière découvre dans son appartement une boîte en fer blanc avec une collection d’enfant. Elle en recherche le propriétaire, devenu adulte. Le fait de retrouver ces objets collectés pendant son enfance va provoquer chez lui une intense émotion.

Amélie Poulain

Le fabuleux destin d’Amélie Poulain, Jean-Pierre Jeunet, 2001

A l’âge adulte, certains gardent le goût de la collection qui peut aller jusqu’à la passion, voire l’obsession. Tout peut être objet de collection. Beaucoup de collectionneurs apprécient des objets qui constitue des séries: des timbres, des monnaies, des bagues de cigare, des cartes postales, … D’autres types de collection nécessitent des connaissances scientifiques comme les fossiles, les minéraux. Pour collectionner des oeuvres d’art ou des livres anciens, il faut alors une fine connaissance des marchés. Le développement d’une collection s’accompagne toujours d’une érudition propre à l’objet collecté.

Bagues de cigares

La vitolphilie est la collection des bagues de cigare

Toutes ces collections ne restent pas personnelles. On ne le dit jamais assez: de nombreux musées proviennent de collections privées, ouvertes au public ou léguées à l’Etat.

De nombreux objets traversent notre vie et chacun est amené à choisir un jour ou l’autre les objets à conserver et ceux qui sont à jeter. Entre ces deux destinées, il y aussi la mise au grenier ou la mise à la cave. Beaucoup de personnes conservent des objets dans leur grenier en y apportant un certain soin.

Grenier

http://www.flickr.com/photos/ranopamas/198039863

De même, suite à la disparition des générations anciennes, nous héritons d’objets qu’il faut aussi trier. Il faut alors être à même d’identifier chaque chose, d’en évaluer la valeur. Cela prend du temps pour effectuer toutes ces recherches.

Salon victorien

Le petit salon de Mme David Morrice, Montréal, QC, 1899; Musée McCord

Nous sommes aussi habitués à gérer des longues séries: c’est le cas de nos photos. La méthode ancienne était celle des albums, alors qu’aujourd’hui on recourt à des logiciels ou des sites Internet de partage pour gérer ses photos numériques. C’est assez frappant de constater que la gestion des photos est un sujet de conversation assez courant entre les gens. Ils s’échangent leurs trucs et leurs astuces.

Album de photo

Ancien album de photos

La maison elle-même est un lieu d’exposition, notamment dans les pièces où l’on reçoit. Les objets, les bibelots, les souvenirs de vacances ne sont pas disposés au hasard. Il y a sans conteste réflexion, mise en scène, discours.

Salon de l’ethnographie

Exposition au MEN, Le salon de l’ethnographie, 1990

Toutes ces activités ressemblent peu ou prou à celles qui se pratiquent dans les musées. Elles sont largement partagées dans la société. Les musées devraient avoir le courage de laisser le public participer un peu plus à ses activités, non pas comme simple consommateur, mais aussi comme acteur. C’est d’autant plus intéressant que l’Internet participatif ou collaboratif donne des outils permettant aux musée de d’associer leur public à leurs travaux.  Certains musées osent franchir le pas, notamment dans le domaine de l’acquisition. Je me souviens que le Musée d’ethnographie de Neuchâtel (MEN) avait demandé à son public d’apporter des objets qui seraient intégrés à la collection du musée. Plusieurs musées collectent aussi des histoires et récits de vie via Internet (ou de manière plus classique). L’indexation sociale (folksonomy) consiste à demander aux internautes d’attribuer ou de proposer des mots-clés sur les photos des objets de la collection. D’autres encore leur propose de créer eux-mêmes des galeries qu’ils peuvent partager avec leurs amis. Le musée 2.0 est déjà là … et les gens ne sont pas dépourvus de compétences pour y participer.

http://www.museesbeju.ch/

De Turner à Flickr

J’ai visité une exposition fascinante au Musée des Beaux Arts de Budapest, consacrée aux paysages italiens peints par le peintre anglais Joseph Mallord William Turner (1775–1851) et intitulée “Turner et l’Italie”. Comme l’artiste ne vivait pas en Italie, il a d’abord étudié l’oeuvre d’autres peintres comme Claude Lorrain, pour créer ses premiers paysages italiens. Il a finalement pu se rendre à quelques reprises en Italie, quand la France et l’Angleterre étaient en paix. Il a pu croquer les paysages de visu, ramener des dessins, créer des peintures. Ces dernières étaient parfois diffusées sous forme de gravures et servaient d’illustrations à des ouvrages. Finalement le public lettré anglais découvraient l’Italie à travers les oeuvres d’un peintre qui avait vu lui-même ce pays ou l’avait étudié à travers les travaux de prédécesseurs.

Pour en savoir plus sur cette exposition: Turner and Italy

Eruption du Vesuve

Turner, L’éruption du Vésuve (1817)

Pendant mon voyage, j’ai aussi lu le roman américain “Sur la route de Madison” dont Clint Eastwood a tiré un film inoubliable. L’un des protagonistes est un photographe sous contrat avec la revue “National Geographic”. Il se rend partout dans le monde (on est dans les années 60) pour prendre des photos qui permettent ensuite au grand public de découvrir le monde à une époque où les voyages étaient encore relativement onéreux et la bonne photo un art.

Aujourd’hui tout le monde voyage avec des appareils numériques en poche. Une partie de ces prises de vue finissent sur le site Flickr (ou sur d’autres sites de partage de photos). Une couverture du monde est en train de sescréer, avec une certaine redondance pour les sites les plus visités. La médiation des peintres et des photographes (de leur oeil, de leur regard) ne semble plus nécessaire. On veut faire partager son regard sur les pays, villes, paysages traversées et on veut jouir de celui des autres. On regarde Paris, Rome, Londres avec les yeux d’Américains ou de Japonais. Nos propres images sont vues par des internautes du monde entier.


24 heures de photos géotaguées sur Flickr

Jamais le monde n’aura été autant visité et photographié. Mais en a-t-on pour autant une meilleure perception? Robert Kinclair, le photographe du roman “Sur la route de Madison”, transformait ce qu’il photographiait en autre chose. Il ne prenait pas des photos, mais il les faisait. Quant aux peintres d’avant la photographie, ils travaillaient à leurs toiles parfois des années après avoir vu les paysages représentés. De plus, leurs oeuvres étaient scénarisées, racontaient une histoire et ne pouvaient pas être uniquement documentaires.

Avec l’avènement de la photo 2.0, la prise de vue unique a moins d’importance. La valeur ajoutée réside dans l’accumulation, la surabondance et les extraordinaires possibités de réutilisation. Alors que les peintures anciennes devaient être gravées, puis imprimées, alors que les photographies devaient être développées et imprimées, la photo numérique est immédiatement copiable, diffusable, transformables. De nouvelles licences sont en train de se mettre en place (Creative Commons) permettant un remixage de cette couverture photographique. On retrouve alors ses images sur des blogs, comme textures dans Second Life ou nulle part. C’est sans importance, l’essentiel étant de mettre à disposition pour profiter soi-même.

Recherche: un changement de paradigme

Les premiers moteurs de recherche n’avaient qu’un seul but: permettre de trouver des sites Internet où l’on pouvait trouver des informations intéressantes. Ces applications ont rapidement détrôné les annuaires du Web dont Yahoo était l’exemple le plus célèbre. Google est également parti de cette conception, puisque son algorithme se concentrait essentiellement sur les contenus des sites et les liens des différents sites entre eux.

Le récent lancement de Wolfram Alpha, du nouveau moteur de recherche de Microsoft, Bing, et de quelques innovations sur Google indiquent cependant un changement de paradigme assez profond dans le domaine de la recherche.

Sur Wolfram Alpha, il devient possible de poser une question en langage naturel. L’algorithme analyse la question et y répond, au lieu de renvoyer à des liens vers des sites sur lesquels l’internaute devra trouver sa réponse. Ainsi, si l’on demande à Wolfram Alpha: “how many people in Switzerland?”, le système donne le nombre d’habitants en Suisse et même un graphique indiquant l’évolution de la population.

Wolfram Alpha

http://www.wolframalpha.com/

Bien entendu, Wolfram Alpha n’a pas encore réponse à tout. Il ne comprend que l’anglais et ne connaît pas grand chose au sport. Cependant le succès des premiers jours (près de 100 millions de requêtes en une semaine) indique bien qu’il correspond à l’attente des internautes. Ces derniers veulent des réponses et non des pistes de recherche. En fait, ce type de moteur de recherche existe déjà, limité à des domaines spécifiques. L’ambition de Wolfram (auteur de l’ouvrage “A new kind of science”) est de l’étendre au Web.

Microsoft présente son nouveau moteur de recherche comme une aide à la décision. Cette application permet  d’effectuer des recherches dans les pages Web, les images, les vidéos, l’actualité, des cartes. Outre le résultat sous forme de liens, elle montre des termes de recherche associés. L’aide à la décision se fait peut-être dans le domaine des propositions d’achat ou les données touristiques. La recherche peut aussi s’effectuer dans les cartes.

Bing

Bing

http://www.bing.com

Google n’est pas en reste. A côté des résultats, on trouve maintenant un lien intitulé “Show options”. Parmi ces options, une “wonderwheel” (roue magique) donne, sous forme visuelle les concepts associés au terme de recherche. Quant au timeline, il présente l’information recherchée sous la forme d’une frise chronologique l’information recherchée.

Google options

http://www.google.com

Internet  constitue la plus formidable masse de connaissances jamais rassemblée dans l’histoire de l’humanité. Il s’enrichit chaque jour des données les plus diverses, y compris celles qui concernent les individus dans les réseaux sociaux. Se borner à aiguiller les gens à travers ce dédale devient risible. Il est temps maintenant d’exploiter le contenu d’Internet comme une base de connaissances. C’est le rêve du Web sémantique. Ce dernier ne semble pas forcément se réaliser comme l’avaient pensé ses concepteurs, mais il est en marche.

Si on ajoute à cette évolution dans le domaine de la recherche, la multiplication des appareils mobiles permettant d’accéder aux ressources d’Internet, on peut imaginer que nous serons en permanence connectés à cette masse de connaissance. Toute question trouvera immédiatement une réponse, où que l’on soit: à quelle heure part mon avion? Où ai-je laissé ma voiture? Qui parmi mes amis se trouvent dans les environs? Qui est Picasso? Que s’est-il passé à cet endroit depuis deux siècles? Que dit la loi? Qui a gagné ce match de tennis? Il suffira d’entrer quelques mots dans son téléphone pour le savoir. Bientôt nous saurons nager dans la mer des connaissances …

Des robots et des hommes

Le théâtre Barnabé, à Servion, présente un spectacle sans paroles, mais en musique, avec sur scène deux comédiens et trois robots. Au-delà de la performance technologique assurée par des hautes écoles suisses et un spécialiste des automates, il y avait une grande poésie dans ce spectacle. Un savant fou vivait entouré de ses robots et il avait conçu des machines pour chacun de ses gestes quotidiens. Mais un grain de sable va s’immiscer dans sa vie bien réglée quand une femme frappe à sa porte. Malheureusement, entouré de machines, notre homme ne sait plus comment se comporter avec de vrais humains. Tout dérape …

Robots

Jean Baudrillard disait de la réalité virtuelle “qu’elle est parfaite, contrôlable et non contradictoire.” Tel serait un monde de machines programmées. L’homme peut-il se faire à un tel monde? Est-il possible de vivre dans un monde sans surprise? Ou bien préfère-t-on réduire radicalement l’incertitude inhérente à la vie? Ces questions sont importantes à l’heure où de plus en plus d’activités de notre existence sont confiées à des machines et à autant d’algorithmes. Les guichets sont peu à peu remplacés par des automates et des applications en ligne dont la logique n’est pas toujours évidente à comprendre. Même les activités sociales se font de plus en plus par le truchement des réseaux sociaux. Peu à peu, des machines “intelligentes” entrent dans notre existence. Parfois ils s’y immiscent sous la forme de jouets, comme les nombreux robots programmables pour les enfants ou bien le lapin qui lit des histoires aux enfants.

Théâtre Barnabé

Le Web participatif n’est pas mort, mais dépassé

On m’a mis sous les yeux un article annonçant la mort du Web participatif. Ce genre d’annonce paraît régulièrement. On a prédit depuis longtemps la mort des blogs qui se portent à merveille (merci pour eux!). Cet article se base bien évidemment sur une note de blog (!), dont l’auteur est François Guillot (blog Internet & Opinion). Le but de sa note est de montrer que ce qu’on appelle Web participatif repose en partie sur des mythes et des demies-vérités. L’auteur essaie donc de dégonfler – en quelques lignes – ces mythes, à commencer par Wikipédia, qui ne serait pas aussi comparable à la Britannica que ne le prétendait la très sérieuse revue Nature. L’intérêt du phénomène Wikipédia ne se situe pas dans sa qualité, mais dans son audience. Wikipédia est la première source d’information pour les internautes, bien aidée en cela par Google, il est vrai. Chacun peut l’éditer et c’est probablement ce qui fait son succès. Le savoir est intimidant, surtout pour ceux qui en ont peu. Par conséquent, une source d’information faite par des gens comme eux fait moins peur. Les plus courageux peuvent même y participer et partager les connaissances qu’ils ont. Dans son ouvrage Wikipédia. Média de la connaissance démocratique?, Marc Foglia la définit comme une encyclopédie citoyenne, qui réunit du savoir froid, à savoir loin des débats académiques. Wikipédia a fait renaître l’idéal des Lumières du partage du savoir. Pour revenir au thème de la participation, j’ai déjà expliqué dans ce blog qu’il s’agit d’un phénomène plus complexe qu’il n’y paraît: alors que certains publient des contenus sous forme de textes, de photos, etc., d’autres passent du temps à gérer ces contenus, en les indexant ou alors en ajoutant les liens manquants dans les wikis. Contrairement aux blogueurs, les contributeurs de Wikipédia sont modestes. François Guillot montre qu’une des faiblesses des sites participatifs réside dans leur business model déficiant. Le financement de Wikipédia est intéressant: la Fondation qui la gère fait régulièrement des appels de dons. Dernièrement, elle a obtenu la somme qu’elle a demandé, à savoir 6 millions de dollars. Il existe bien d’autres activités qui vivent de dons, à commencer par les organisations caritatives. Alors pourquoi pas une encyclopédie.

Autre site participatif pourfendu par notre blogueur: Flickr, un site qui suscite mon admiration depuis longtemps. L’auteur essaie de montrer que le pourcentage des personnes qui sont actives sur les sites participatifs est faible: peu de personnes publient beaucoup de contenus. Et pour cela, il avance des chiffres: dans Flickr, seuls 2% des utilisateurs livrent 95 % du contenu. En fait, ce sont ces chiffres surprenants qui m’ont donné l’envie d’un peu creuser l’affaire. On manque de s’étouffer quand on consulte la table de données à laquelle l’auteur se réfère. Elle est faite à partir de sources multiples, réparties sur plusieurs années. La référence à un sondage de 2006 auprès de 573 utilisateurs de 4 sites de partage de photos et vidéos en Allemagne laisse pantois. Le critère qui définit les utilisateurs de Second Life participant aux contenus comme ceux qui effectuent un achat n’a que peu de sens, à moins que l’on considère le fait de s’habiller et de se coiffer comme des actes créateurs.

http://internetetopinion.files.wordpress.com/2007/08/image-5.png

Pour revenir à Flickr, on a peu de chiffres à disposition pour savoir si ce que prétend notre blogueur est vrai. Actuellement, Flickr compte 3 milliards d’images. Il est difficile de savoir combien il a d’utilisateurs actifs. Le nombre de personnes qui ont ouvert un compte (en ayant d’abord un compte Yahoo) et qui sont venues une fois sur le site est certainement nombreux. C’est un phénomène général à Internet. Flickr offre un produit payant destiné aux photographes professionnels et assimilés. Ces utilisateurs-là ont forcément de grandes quantités d’images. Il faudrait donc pouvoir distinguer ces deux types de comptes. Une seule chose est sûre, c’est que le 100% du contenu a été publié par des internautes.

En fait, après avoir effectué quelques recherches, je n’ai que deux chiffres à disposition: le nombre total d’images publiées entre février 2004 et novembre 2008 (3 milliards d’images en 1735 jours) ainsi que le nombre de visiteurs moyens dont on ne connaît pas la proportion d’utilisateurs actifs (42 millions de visiteurs par mois en avril 2008).

Nombre d’utilisateurs: http://yhoo.client.shareholder.com/press/releasedetail.cfm?ReleaseID=303857

Nombre d’images: http://blog.flickr.net/en/2008/11/03/3-billion/

A l’aide de ces chiffres, qui valent ce qu’ils valent, essayons de voir si les valeurs données par François Guillot tiennent la route. En moyenne, 1,7 mio de photos ont été publiées par jour (mais l’augmentation est exponentielle, le dernier milliard ayant été atteint en moins d’un an). Le site a 1,4 millions de visiteurs par jour (mais il peut s’agir de détenteurs de comptes professionnels comme de simples visiteurs). Si 2% de ces visiteurs livrait le 95% du contenu, cela signifierait que, chaque jour, 28’000 personnes mettent 1,6 mio de photos, ce qui fait, en moyenne, 57 photos pour chacune de ces personnes actives. En prenant en compte, le travail d’indexation, cela nécessite quand même un peu de temps, plus d’une heure en tout cas. Et si on refait ces calculs à partir d’un nombre d’utilisateurs plus bas, qui ne seraient alors que les utilisateurs pourvus d’un compte, on aurait pour ce 2% d’hyperactifs un nombre d’images par jour encore plus important. Il faut tout de même qu’ils trouvent le temps de prendre des photos avant de les charger sur Internet. Ce 2% n’est réaliste que si on considère l’activité journalière. Chaque jour, il y pourrait bien n’y avoir que 2% des utilisateurs qui chargent 95% des photos, par exemple des gens qui rentrent de vacances, d’excursion ou qui ont participé à un mariage. Mais le lendemain, ces 2% ne sont pas les mêmes personnes. Les images sont donc distribuées entre un nombre d’utilisateurs plus important que 2% des utilisateurs totaux. Il faut aussi tenir compte du fait que les comptes gratuits ont des limitations (100 MB de téléchargement par mois). De plus, je visite régulièrement Flickr, mais je n’ai jamais vu de comptes avec un nombre gigantesque de photos. Or si seuls 2% des utilisateurs livraient 95% du contenu, on devrait forcément tomber sur des portofolios immenses. C’est donc plus simple d’imaginer que sur Flickr beaucoup de personnes téléchargent un nombre raisonnable d’images. 3 milliards, c’est une masse importante (comme si près d’un terrien sur deux avait téléchargé une image). Mais ce n’est rien à côté de Facebook qui, en octobre dernier, en annonçait 10 milliards pour 150 millions d’utilisateurs (67 photos par utilisateur en moyenne). Chaque mois, 800 millions de photos sont chargées (5,3 photos par utilisateur en moyenne mensuelle).

http://www.facebook.com/press/info.php?statistics

Dans un site comme Flickr, on ne peut pas du reste limiter la participation au fait de télécharger des images. On a vu avec Wikipédia que contribuer ne signifie pas seulement livrer des contenus, mais aussi les gérer. Avec Flickr, il est possible d’aller encore plus loin et de mettre en valeur des contenus. A cause de la richesse des fonctionnalités disponibles, il est difficile de définir un utilisateur actif. On peut en distinguer trois catégories:

  • ceux qui visitent le site
  • ceux qui produisent du contenu (dont une partie de professionnels)
  • ceux qui valorisent les contenus

Cette valorisation peut se faire de plusieurs manières:

  • attribution de mots-clés à des contenus
  • création et gestion de groupes à propos d’un thème et discussions autour de ces images
  • exportation des images, des vidéos ou des diaporamas sur des blogs ou des sites Web externes

Flickr est un plus qu’un site participatif. Il constitue une sorte d’éco-système d’information. Certains (les plus talentueux dont je ne fais pas partie) produisent des images et les publient sur Flickr. D’autres facilitent l’accès à ces images en les indexant. Cela n’a l’air de rien, mais sur un site qui compte 3 milliards de photos, c’est essentiel pour améliorer la recherche. Les utilisateurs annotent les photos et peuvent même prendre contact avec leur auteur (car Flickr tient aussi du réseau social). Enfin, ils peuvent exporter ces images pour enrichir leurs propres contenus, blogs ou sites. Flickr offre une fonction d’exportation vers les principales plateformes de blog et une possibilité d’intégrer des diaporamas. On peut par exemple intégrer à un site un diaporama géré par un mot-clé (photos avec le mot-clé pyramide) ou par un groupe. A dire vrai, Flickr a dépassé le stade du site participatif et il est en train d’évoluer vers le Web 3 (sémantique). Ce Web sémantique émerge peu à peu: de plus en plus de contenus sont enrichis de méta-données et exportables, permettant un véritable remixage de l’information. N’en déplaise à un certain baron, l’important n’est plus de participer, mais de mettre en valeur.

François Guillot se bat contre des moulins, mais il le sait. Dans les commentaires de sa note de blog, il admet qu’étant à la recherche d’audience, il s’est montré un peu provocateur …

Les amateurs

Un des livres qui a nourri le débat à propos du Web 2.0 porte un titre qui ne laisse aucun doute sur le parti-pris de son auteur: “Le Culte de l’amateur. Comment Internet détruit notre culture?”. Andrew Keen livre une critique impitoyable sur l’Internet d’aujourd’hui, se désolant de ce qu’on laisse le champ libre à des amateurs, alors que les positions de certains professionnels comme les journalistes, les libraires, les éditeurs de musique, sont de plus en plus fragilisées. Il regrette que les personnes de talent soient concurrencées par des amateurs, sans toutefois définir ce qu’il entend par talent. Même pour le terme amateur, l’auteur se contente d’une définition dictionnaire, sans chercher à savoir qui sont ceux qu’il nomme amateurs et pourquoi ils contribuent aux contenus d’Internet. Seuls les professionnels sont, à ses yeux, capables d’un travail sérieux. L’auteur défend un point de vue corporatiste et, de surcroît, il confond l’ensemble du Web participatif avec Wikipédia, le site dans sa ligne de mire. Il omet de mentionner le mouvement open source qui est le modèle de base pour la collaboration en ligne. Il ne fait pas la différence entre la collaboration où chaque participant est sur pied d’égalité (Wikipédia) et le crowdsourcing, c’est-à-dire le fait que l’on confie une tâche précise à une foule de personnes. Nous avons donné dans ce blog plusieurs exemples de projets de nature scientifique où des tâches sont confiés à une multitude de passionnés:

On pourrait encore mentionner ce site de crowdsourcing visant à traduire une encyclopédie rédigée en grec et datant de l’époque byzantine:

En fait, la limite entre amateurs et professionnels se fait de plus en plus ténue sur Internet. On compte parmi les blogueurs de nombreux professionnels qui parlent des sujets dont ils sont spécialistes, partageant leurs réflexions avec leurs pairs. Ils ont la compétence des professionnels, mais ils ne sont pas rétribués directement pour leur blog, qui fait plutôt partie de leur “self-marketing”.

Pour revenir au terme “amateur”, n’oublions pas qu’il vient du latin amare (aimer) et qu’il désigne quelqu’un qui a un goût vif pour quelque chose, quelqu’un qui cultive les beaux-arts sans en faire sa profession (musique, peinture) et, en mauvaise part, un homme d’un talent médiocre. Andrew Keen retient la dernière définition, alors que dans le domaine du Web collaboratif, c’est la seconde qui s’impose. De nombreuses personnes entretiennent et développent des compétences dans un domaine sans que cela devienne une profession, soit parce qu’ils ont découvert ce domaine a après leur formation, soit parce qu’ils l’ont étudié mais n’ont pas pu l’exercer professionnellement. De surcroît, il existe de nombreux domaines où mondes professionnels et amateurs coexistent sans que cela pose problème, comme le sport. Enfin, il faut peut-être retourner un peu dans le passé pour réaliser que la professionnalisation de la science est relativement récente. De nombreux domaines scientifiques doivent une partie de leur développement à des amateurs, au bon sens du terme.

Andrew Keen consacre de nombreuses pages de son livre à pleurer sur la mort ou la longue dégénérescence des industries du livre et de la presse, de la musique et du cinéma. Il attaque au passage le concept de longue traîne de Chris Anderson, sans toutefois livrer son argumentation (traiter une théorie d’utopique ne suffit pas). On commence toutefois à sortir de ce qu’on peut considérer comme le Web 2.0 stricto sensu. Il s’agit plutôt d’une révolution dans le mode de distribution de certains produits. Si le Web 2.0 y est pour quelque chose, c’est uniquement dans le phénomène des recommandations: les internautes ont la possibilité de créer des notices où ils donnent leur avis sur tel ou tel produit. Autrefois, les critiques faisaient les succès. Aujourd’hui ce sont les commentaires des internautes et les blogs. La longue traîne, plus qu’un modèle à suivre, est une constatation faite sur l’observation des ventes de livres dans Amazon. La distribution d’ouvrages ou de CD via Internet s’avère plus efficace, car elle met un produit à disposition de son public potentiel grâce aux mots-clés. Sur le fond et notamment sur la question de la propriété intellectuelle mise à mal par le Web actuel, de nombreux auteurs ont déjà mis en évidence le fait qu’elle devait être revue.

Le Culte de l’amateur

Andrew Keen se défend de vouloir jeter le bébé avec l’eau du bain, ayant lui-même travaillé dans la Silicon Valley. Pourtant c’est bien ce qu’il fait. Son propos devrait se restreindre à ce qu’on appelle Web 2.0 ou Web participatif: la blogosphère, Wikipédias, etc. Mais il critique bien d’autres facettes d’Internet qui n’ont rien à voir avec la participation, comme les jeux d’argent en ligne ou les problèmes de sécurité. En ce qui concerne la critique de ce qui constitue exclusivement le Web 2.0, à savoir la participation et la collaboration, son argumentation est bien faible. Surtout, il ne met pas en balance les avantages (coût, mobilisation) avec les inconvénients (qualité, crédibilité). Le Web participatif et collaboratif doit encore mûrir. Mais quand on voit l’évolution de Wikipédia, qui a peu à peu mis en place diverses systèmes pour améliorer sa qualité, on est en droit de croire que c’est possible.

Ce que ce livre ne dit pas (ou trop peu), c’est la profondeur des changements qui sont en train de se produire. Les utilisateurs d’Internet ne veulent plus être passifs comme l’étaient les lecteurs des journaux papier. Ils veulent participer aux contenus. Mais il existe plusieurs degrés de participation, du commentaire à la co-création. Chacun finira par trouver sa place, qu’il soit amateur ou professionnel.

L’important, c’est de participer

En cette année olympique, la fameuse devise de Pierre de Coubertin est à la mode. Pourtant on ne voit plus guère d’athlètes qui se se rendent aux J.O.”pour participer”. Seule la performance compte maintenant. En revanche l’adage du baron pourrait s’appliquer à Internet.

On parle beaucoup de participation sur le Net, qu’on désigne par l’expression Web 2.0. On l’assimile souvent au narcissisme de la blogosphère ou au culte des amateurs qui aurait cours dans Wikipédia. La participation est cependant un phénomène beaucoup plus complexe. Je me souviens que la première fois que j’ai créé un article dans Wikipédia, je m’étais contentée de composer le texte. Quand je suis revenue voir mon article, quelques jours plus tard, j’ai eu la surprise de constater que quelqu’un avait intégré les liens vers d’autres articles de l’encyclopédie. Cette anecdote montre que la participation ne se confond pas complètement avec la création de contenus. Elle comporte aussi la gestion de ces contenus. En effet, sur les sites participatifs, à côté des auteurs, il y a une foule de petites mains qui corrigent, indexent, améliorent, illustrent les contenus. On trouve aussi des modérateurs volontaires, des numérisateurs de données qui donnent de leur temps pour mettre à la disposition des textes tombés dans le domaine public, des tableaux, des photos. Ces gens n’ont pas de nom, tout au plus un pseudonyme. On ne les remercie jamais. Pourtant, c’est en partie grâce à eux qu’en effectuant une recherche dans un moteur de recherche, on trouve un résultat probant. Si le Web avait dû compter sur des projets officiels, privés ou publics, jamais il ne se serait rempli aussi vite.

Internet est en train de vivre le retour de l’esprit des cathédrales. Cela peut surprendre à notre époque, si empreinte d’individualisme. C’est du reste peut-être par réaction à l’isolement social que cette participation se développe. En travaillant ainsi à un corpus universel des connaissances, on peut se sentir valorisé, même si les fruits de ce travail ne se récoltent pas immédiatement. On a l’impression de participer à une entreprise qui nous dépasse, de poser une modeste pierre sur un édifice essentiel. L’humain a certainement besoin de ce sentiment.

On considère habituellement que les grandes pyramides d’Egypte ont été construites non pas par des esclaves, mais par des hommes libres, en dehors des périodes où ils travaillaient dans leurs champs. On peut se demander qu’est-ce qui les poussaient à s’astreindre à une telle entreprise, d’une extrême pénibilité vu les moyens techniques de l’époque. Il semble que la construction de ces grandes pyramides soit liée à un culte solaire dans lequel le pharaon jouait un rôle essentiel (comme représentant du dieu soleil). Il y avait là une vision partagée par tout un peuple. La construction de la pyramide ne constituerait donc pas l’asservissement des hommes à l’ambition d’un tyran, mais la manifestation d’une conception du monde. En participant à la construction, ces hommes, dont on a oublié le nom, faisaient surgir un édifice qui devait dépasser leur destin singulier pour traverser les siècles. En cela, leurs attentes n’ont pas été déçues, puisque depuis 40 siècles, ces pyramides témoignent de leur passage sur terre.

Pyramides

Aujourd’hui il n’est plus question de traîner des blocs de pierre sur les rampes qui entourent une pyramide. Mais sait-on combien de temps prend la numérisation de livres entiers, de poèmes, d’images? Malgré les scanners, il y a encore beaucoup de travail manuel. Pense-t-on aussi au temps passé par des particuliers à administrer leurs serveurs pour que des internautes puissent venir y glâner des informations? Imagine-t-on le mal que se donnent tous ceux qui contribuent à gérer, améliorer ce que d’autres ont mis? Non seulement tout ce travail n’est pas rétribué, mais bien souvent il coûte encore de l’argent à tous ces inconnus qui enrichissent le Web. C’est donc à juste titre que Time Magazine avait attribué le titre de personnalité de l’année à cette foule d’anonymes. Même si ces derniers n’attendent pas de récompense.

Vous avez dit 2.0 ?

On discute beaucoup du Web2.0, mais en a-t-on donné une définition utile? Le critère fondamental de toute application 2.0 est la participation du public au contenu (user generated content). Cette participation peut se faire selon plusieurs modalités:

1. Le contenu est totalement fourni par le public. Le prestataire de service (souvent gratuit) met à disposition un système, mais ne fournit aucun contenu. Ce sont les utilisateurs qui l’intègrent. C’est ainsi que fonctionne l’encyclopédie collaborative Wikipédia, la blogosphère, les sites de partage d’images (Flickr) ou de vidéos (YouTube). On connaît même des journaux qui fonctionnent de cette manière, comme Agora Vox ou Rue89. Il existe des applications spécialisées dans lesquelles on peut importer des données et, parfois même, réexporter les résultats sur un autre site. C’est en tout cas une des possibilités offertes par Google Map. On peut aussi ranger Second Life dans cette catégorie: il s’agit d’un univers 3D persistant dont le contenu a été entièrement créé par ses utilisateurs.

2. Le contenu est évalué par le public. Des auteurs ou des éditeurs fournissent des contenus. Le public est invité à évaluer ces contenus, par exemple en votant pour un article. On trouve cette fonctionnalité dans de nombreux sites: journaux en ligne, blogs, site de partage d’images ou de vidéos. Elle permet de classer les contenus et de mettre les plus appréciés en avant. Sur Internet, le succès appelle le succès.

3. Le contenu est commenté par le public. Au bas de chaque article, le public peut apporter un commentaire sous forme d’une note écrite. L’auteur de l’article peut libérer ou non le commentaire. Il peut aussi y répondre, ce qui conduit à une discussion.Classiquement, on trouve des fonctions de commentaire sur les blogs, les journaux en ligne, les sites de partage d’images.

4. Le contenu est géré par le public. Le Web connaît de tels quantités de données que leur gestion doit être envisagée d’une manière radicalement nouvelle. Certains sites invitent le public à indexer les contenus en leur attribuant des mots-clés ou tags. On appelle cela social tagging, folksonomy ou, en français, indexation sociale. Le recours (rétribué ou non) à une multitude de personnes inconnues du donneur de mandat est le crowdsourcing, néologisme anglais formé sur outsourcing (crowd signifiant foule). Le cas le plus classique de folksonomy est l’indexation des images. Autant il est possible d’indexer des textes de manière relativement automatisé (en partant des contenus), autant l’image résiste à toute analyse de ce type. L’oeil humain reste encore le meilleur système d’analyse de l’image.

5. Le contenu peut être réutilisé sur d’autres sites. Afin de valoriser des contenus, des concepteurs de site mettent à disposition des ponts permettant l’exportation des contenus vers d’autres sites. Cela peut aller de fils RSS à la reprise de cartes de géographie, en passant par l’exportation d’une image vers un blog. De cette manière, les contenus sortent de leur environnement de déaprt et se diffusent sur Internet. Ils deviennent ubiquistes.

6. Le contenu peut être complètement agencé selon les souhaits de l’utilisateur. Il s’agit des offres personnalisées dont le nom commence souvent par my-. En règle général, l’utilisateur a un accès privé à cette page. Il est le seul à la voir. Mais Netvibes vient d’offrir la possibilité de rendre une version de la page personnalisée public. On retrouve aussi cette possibilité sur Facebook.

Les possibilités sont multiples et un seul site peut en intégrer plusieurs. Flickr par exemple cumule une bonne parte des fonctionnalités mentionnées ci-dessus et il leur ajoute encore une composante de réseau social. Mais tout n’est pas rose au pays du Web 2.0. En effet, d’un côté les utilisateurs de sites sont invités à se montrer créatifs, collaboratifs. De l’autre côté, il est possible de créer des sites avec peu d’efforts, simplement en agrégeant des données créées par d’autres.

Un moteur de recherche d’images

Picsearch est un nouvel outil pour ceux qui recherchent des images sur Internet. Sur sa page d’entrée, il montre les quatre images les plus populaires de la semaine. Quand on va régulièrement sur le site, on se rend compte que les sujets choisis correspondent, en partie du moins, avec l’actualité.

Autre intérêt de ce site: il propose des termes de recherche proches pour aider l’utilisateur à préciser sa requête.
Comme Google Images, il est basé sur l’indexation du Web. Il ne s’agit donc pas d’un moteur qui analyse les images elles-mêmes.
Picsearch se présente également comme “Family Friendly”, dans la mesure où il filtre les contenus pour adulte. Il offre aussi la possibilité les images “offensante” qui se retrouveraient dans son index.
Il est aussi possible d’intégrer une boîte de recherche Picsearch sur son site, en intégrant un simple bout de code HTML:


http://www.picsearch.com/