Toute l'actualité des noms de domaine et nouveaux gTLDs

Archives de mots clés: internet

Contrefaçon : les États-Unis saisissent de nouveaux noms de domaine

Les douanes américaines et le département de la justice ont obtenu la fermeture de 18 nouveaux sites accusés de favoriser le piratage et la contrefaçon de biens manufacturés. Les autorités américaines ont profité de leur compétence sur les domaines de premier niveau pour faciliter la fermeture de ces sites. Une compétence qui pose question, après la saisie du nom de domaine d’un site jugé légal en Espagne.

Depuis l’an dernier, les États-Unis ont nettement musclé leur politique contre le piratage et la contrefaçon. Ce durcissement s’est essentiellement traduit par le déclenchement de l’opération In Our Sites. Menée par le département de la justice et les douanes américaines (Immigration and Customs Enforcement), elle vise à obtenir la fermeture des noms de domaine de sites web jugés illicites outre-Atlantique.

Et ça marche. Depuis le déclenchement de l’opération In Our Sites, au moins 119 noms de domaine ont été confisqués par les autorités américaines, qui ratissent large. En effet, celles-ci s’attaquent non seulement aux sites de liens BitTorrent et aux contenus en streaming, mais aussi aux sites proposant des produits manufacturés contrefaits.

La quatrième phase de l’opération In Our Sites a d’ailleurs mis l’accent sur la contrefaçon de biens. À l’occasion de la Saint Valentin, les autorités ont obtenu une ordonnance judiciaire leur permettant de saisir par moins de 18 noms de domaine proposant des produits contrefaits. Ces sites, dont l’extension était .com ou .net, affichent désormais un large encart de l’Immigration and Customs Enforcement.

Selon le communiqué publié par les autorités américaines, ces 18 noms de domaine proposaient des contrefaçons de montres, de chaussures et de vêtements. Les quatorze marques impactées étaient les suivantes :  Breitling, Burberry, Chanel, Coach, Dolce & Gabbana, Gucci, Louis Vuitton, Nike, Omega, Patek Philippe, Prada, Rolex, Tiffany & Co et Timberland.

Pour saisir facilement ces 18 noms de domaine, les autorités américaines ont profité de leur compétence sur les domaines de premier niveau génériques. En effet, les organismes de gestion sont situés aux États-Unis. C’est le cas de VeriSign en Virginie (.com, .net et .biz), d’Afilias en Pennsylvanie (.info) et Public Interest Registry en Virginie (.org).

Au-delà de la nécessaire lutte contre les produits contrefaits, la capacité d’intervention des États-Unis sur ces domaines de premier niveau pose question. Même si les douanes américaines s’appuient sur une décision judiciaire, elles peuvent obtenir la fermeture d’un site jugé légal dans un autre pays. C’est typiquement ce qu’il s’est produit avec Rojadirecta, un site espagnol spécialisé dans la diffusion de matches de sport en streaming.

Certes, Rojadirecta est depuis revenu en ligne en achetant de nouveaux noms de domaine qui ne peuvent pas être saisis facilement par l’Immigration and Customs Enforcement. Mais cela soulève une problématique de fond. Cela signifie que tout site en .com est potentiellement concerné, même s’il est hébergé hors des États-Unis (comme c’était le cas pour une partie des sites saisis au cours de l’opération In Our Sites).

Car à chaque fois se pose la question d’une éventuelle dérive. S’ils commencent avec la contrefaçon ou le piratage, jusqu’où cela peut-il aller ?

Source: Numerama

L’Afnic s’inquiète pour l’avenir d’Internet

Mathieu Weill dirige le gestionnaire des « .fr ». Il expose sa vision d’Internet et des régulations.

La gouvernance d’Internet est une matière méconnue. Pourtant, avec le développement exponentiel du réseau, certaines décisions nationales et internationales sur la vie du Net ont des conséquences majeures dans tous les domaines. Les tensions se font de plus en plus fortes. À l’échelle internationale autour du gestionnaire américain, l’Icann, qui conserve tous les pouvoirs. Et au niveau national autour du gouvernement, qui multiplie les tentatives de régulation et de contrôle du réseau.

Rencontre avec Mathieu Weill, directeur général de l’Afnic (Association française pour le nommage Internet en coopération), organisme qui gère l’ensemble des domaines en .fr.

Le Point.fr : Les noms de domaine sont gérés à l’échelle mondiale par l’Icann, un organisme américain lié au département du Commerce. Qu’en pensez-vous ?

Mathieu Weill : L’Icann gère la racine de tous les noms de domaine. Elle élabore aussi les normes et les standards pour les noms de domaine génériques tels que .com, .org ou .net, et cela ne touche pas le .fr. C’est une institution d’une complexité folle ! En septembre 2009, son accord avec le département du Commerce a été revu, et Washington assure désormais que le gouvernement américain associe d’autres acteurs internationaux pour auditer l’Icann à intervalles réguliers et lui imposer des changements.

Certains estiment que la gestion des noms de domaine devrait être confiée à l’ONU…

Je ne suis pas sûr que cela améliorerait quoi que ce soit. Le problème n’est pas là ! Ce qu’il faut, c’est clarifier les objectifs : l’Icann a pris beaucoup de pouvoir parce que personne ne savait où traiter certains problèmes ailleurs qu’au sein de cette organisation.

En 2010, le mot cyberguerre a fait son entrée dans le vocabulaire courant : avez-vous senti un changement ?

Depuis 2007, il y a un vrai buzz autour des cyberguerres. Jusqu’à l’année dernière, les discussions des gouvernements étaient surtout théoriques : « que se passerait-il si… ». Mais, ces derniers mois, nous avons eu de nombreux cas pratiques, de WikiLeaks à l’Égypte en passant par la Tunisie. Aux États-Unis, un projet de loi appelé « Internet Kill Switch » prévoit que le président puisse couper des pans entiers du Net, en cas de cyberattaque par exemple.

Faut-il réinventer Internet ?

Je n’ai aucun espoir que l’on change quoi que ce soit dans la structure. Une évolution possible serait la prise de pouvoir par un groupe sectoriel. Par exemple, par les opérateurs télécoms : ils ont plus d’abonnés à l’Internet mobile qu’à l’Internet classique et peuvent donc modeler l’Internet mobile pour transformer tout Internet. Autre possibilité : des géants comme Facebook, Google ou Baidu pourraient décider d’enfermer l’utilisateur dans un environnement propriétaire. C’est un peu le cas de certains jeunes aujourd’hui, pour qui Internet, c’est Facebook.

Que pensez-vous de l’annonce, par Nicolas Sarkozy, de la création d’un Conseil national du numérique (CNN) ?

Le problème est de savoir si le CNN sera un lieu de débat, ou une force de décision. En ce sens, c’est un peu le même débat que pour le Forum sur la gouvernance d’Internet (FGI) organisé par l’ONU. On le critique beaucoup, mais ce forum a fait progresser le dialogue sur la scène internationale, car auparavant, l’Icann était un sujet tabou. L’évolution du lien entre l’Icann et le département américain du Commerce a été mûrie dans les couloirs du FGI.

La loi Loppsi 2 introduit le filtrage d’Internet par le ministère de l’Intérieur : cela risque-t-il de vous poser des problèmes ?

Nous pouvons craindre des problèmes. La qualité de service se joue à quelques dizaines de millisecondes pour nous, et l’analyse de chaque requête d’internaute pourrait ralentir le réseau. Sur le fond, je pense que ce n’est pas par des mesures techniques qu’on apporte des réponses à la pédopornographie. Malheureusement, je crains que l’article 4 de la Loppsi 2 (sur le filtrage, NDLR) soit étendu à d’autres domaines que la pédophilie. Il y a un vrai problème : il faut que des organismes indépendants puissent contrôler cette liste noire. J’ai toute confiance dans le ministère de l’Intérieur, mais ma confiance serait décuplée si la liste pouvait être contrôlée… Ce qu’il faudrait, peut-être, c’est une liste noire internationale, éditée, par exemple, par le Conseil de l’Europe, du même type que celle des paradis fiscaux.

Quel est votre cauchemar ?

Notre cauchemar, c’est une défaillance de notre réseau, un bug logiciel qui corromprait la liste des noms de domaine en .fr. En plus de perturber les internautes français, cela impacterait réellement l’Internet mondial. Le réseau français est très interconnecté, contrairement aux réseaux tunisien et égyptien, qui peuvent être coupés sans grande conséquence technique pour les internautes à l’extérieur. Vraiment, je préfère ne pas démontrer par l’exemple à quel point l’Afnic est importante !

Quels sont vos liens avec l’État français ?

Nous sommes une association loi 1901, et non pas une autorité comme le pensent de nombreuses personnes. Nous sommes sous contrat avec le ministère chargé du numérique : notre mission est de faire fonctionner le .fr et de gérer tous ses aspects. Par exemple, au second semestre 2011, nous pourrons probablement ouvrir le .fr à l’Union européenne. Des représentants du gouvernement siègent au conseil d’administration de l’Afnic. Demain, Éric Besson peut tout à fait décider de nous retirer la gestion du .fr, car celle-ci est attribuée après un appel à candidatures.

Quel est votre budget, d’où vient l’argent ?

Nous ne recevons aucune subvention de la part de l’État. Nous percevons environ 5 euros par an pour chaque domaine en .fr déposé, sur les 12 euros généralement facturés par les revendeurs. Comme nous gérons environ 2 millions de noms de domaines, le calcul est vite fait : cela nous apporte 10 millions d’euros. Nous avons une soixantaine de salariés, nous dépensons aussi beaucoup d’argent, principalement pour la sécurité, dans notre matériel réseau, notamment pour les datacenters. Enfin, nous menons de nombreuses missions de représentation à l’étranger.

Source: Le Point.fr

Nominet ou l’idée britannique du filtrage

L’office d’enregistrement des noms de domaines au Royaume-Uni vient d’interpeller les autorités au sujet des motifs de fermeture d’un site. Nominet demande notamment des pouvoirs accrus afin d’accélérer toute procédure.

Nominet Logo

Dans un document (.pdf), Nominet demande quels pourraient être les motifs mis en avant afin de procéder à la fermeture d’un site. Par exemple, un site suspecté d’être utilisé par des organisations criminelles pourrait subir le courroux des autorités et de la Serious Organised Crime Agency (Soca).

Concrètement, Nominet souhaiterait disposer du pouvoir de fermer un site si son activité est considérée comme criminelle. Elle bénéficierait ainsi d’une extension importante de ses pouvoirs et agirait à la manière d’une police du Web. Pour sa défense, Nominet plaide également pour qu’il existe des « Conditions générales d’enregistrement » plus claires et plus précises lors de l’enregistrement d’un nom de domaine.

Bien qu’il ne s’agisse pour l’instant que d’un avis pour information de la part de Nominet, des consultations ont été menées en Grande-Bretagne sur le sujet. Elles devraient aboutir sur un débat public à partir du 23 février prochain.

Source: Clubic.com

« .gov » : VeriSign, agent fédéral des noms de domaine

VeriSign va gérer les noms de domaine en « .gov » et « .fed.us », extensions de noms de domaine généralement dédiée aux ministères, agences gouvernementales et fédérales aux Etats-Unis.

L’administration des services généraux américaine (GSA, General Service Administration) a sélectionné ce fournisseur pionnier de services d’infrastructure sur Internet pour exploiter ce registre important de l’administration américaine (Congrès, FBI, Etats, comtés…en fait la plupart des services publics).

VeriSign a remporté ce marché public après une procédure d’appel d’offres et un processus d’évaluation.

Il prendra en charge l’enregistrement de noms de domaine sous ces deux extensions, le traitement des requêtes, l’assistance téléphonique, l’exploitation des serveurs DNS (Domain Name System) primaires associés et la mise en œuvre du protocole DNSSEC (extension de sécurité DNS) sur ses zones.

Précisons que, historiquement, VeriSign gère déjà les domaines « .com » (qui a fêté ses 25 ans d’existence en 2010) et « .net ».

Au cours du premier trimestre 2010, le nombre total de noms de domaines « .com » et « .net » est passé à 99,3 millions (+7% par rapport à la même période l’an passé).

Source: IT espresso

Internet: l’Icann a fini de distribuer ses derniers lots d’adresses

MIAMI – L’organisme chargé de réglementer les noms de domaine de l’internet, l’Icann, a annoncé jeudi qu’il avait distribué ses cinq derniers lots d’adresses IP (protocole internet), permettant d’identifier les destinations du trafic internet à travers le monde.

« Un réservoir de plus de quatre milliards d’adresses internet a été vidé ce matin », a déclaré le patron de l’Icann Rod Beckstrom lors d’une conférence de presse à Miami. « C’est complètement vide, il n’y en a plus ».

Pour autant, il a répété que le monde du tout connecté n’était pas au bord de l' »IPocalypse »: le stocks d’adresses de l’Icann a en fait été distribué à des registres régionaux de noms de domaines, qui seront en mesure de fournir ces numéros identifiants en attendant le basculement du standard actuel, baptisé IPv4, au standard IPv6, virtuellement inépuisable.

« C’est comme quand on est à court de plaques d’immatriculation », a déclaré pour sa part Olaf Kolkman, président de l’organisme technique chapeautant les aspects techniques d’internet, l’IAB (Internet architecture board).

Le standard actuel IPv4 permet l’existence de « seulement » 4 milliards d’adresses IP (formées de séries de 4 nombres séparés par des points) gérées par l’Icann.

Cela fait plusieurs années que l’Icann demande l’adoption du nouveau standard IPv6, qui permet l’existence d’environ 340 sextillions d’adresses (soit 340 fois 10 à la puissance 36): suffisamment pour que mille milliards de gens disposent chacun de mille milliards d’adresses IP, selon le président de l’Icann Rod Beckstrom.

L’effort et l’investissement nécessaires pour basculer sur le standard IPv6 reposent surtout sur les fournisseurs d’accès, qui doivent faire en sorte que leurs réseaux puissent gérer ces nouvelles adresses et router le trafic.

« Si le fournisseur d’accès fait ce qu’il faut, ça ne devrait pas être un gros problème », a déclaré à l’AFP le directeur d’exploitation de l’opérateur britannique Timico, Trefor Davies.

« Il faut vraiment considérer ça comme un moment historique », a-t-il ajouté. « C’est la nature même d’internet qui change avec cette transition », dit-il à l’AFP.

D’après M. Beckstrom, le basculement total sur le standard IPv6 devrait prendre plusieurs années et coûter au total des milliards de dollars – y compris des frais qui de toutes façons correspondent au remplacement de certains équipements.

Du côté des consommateurs, le basculement pourrait passer inaperçu, car la suite complexe de numéros IP devrait continuer d’apparaître sous la forme de noms de domaine avec des préfixes .com, .org, .fr…

« Toutes les conditions sont en place pour une transition réussie sur l’IPv6 », a assuré M. Beckstrom. « L’avenir d’internet et de l’innovation qu’il engendre reposent sur l’IPv6 », a-t-il ajouté.

Les adresses au standard IPv4 devraient commencer par être épuisées en Asie, où la demande connaît la plus forte expansion. Une fois que les registres régionaux seront eux-mêmes à court d’adresses au format IP, ils devraient commencer à recourir au standard IPv6.

Dans un premier temps, il faudra que les systèmes puissent gérer les deux standards.

Google et Facebook, ainsi que d’autres acteurs du secteur, doivent ajouter des adresses IPv6 à leur système lors d’un essai d’une journée au printemps afin d’identifier d’éventuels problèmes: la journée mondiale de l’IPv6 commencera à 00H01 GMT le 8 juin.

Source: ©AFP / 03 février 2011 22h59

Internet arrive à court d’adresses IP

Si la création de la page Facebook de votre grand-mère n’était pas un indice suffisant à vous faire réaliser que l‘Internet commençait à dater un peu, voici un élément qui sera peut-être un peu plus parlant.

Selon des estimations, à la fin de cette semaine, Internet sera venu à bout de l’ensemble des possibilités laissées par l’utilisation des adresses IPv4, et passera progressivement à la génération suivante : l’IPv6.Pour celles et ceux qui ne sont pas familiers avec l’utilité des adresses IP, sachez qu’elles servent à la navigation sur Internet de plusieurs façons.

Ainsi lorsque vous tapez une adresse ou un nom de domaine pour visiter un site, ce site est attaché à une adresse IP qui lui est propre et qui permet de réaliser la connexion entre votre poste et le site.

L’adressage permet ainsi d’aboutir à des endroits précis du serveur sur lequel est stocké le site consulté.

Les adresses IPv4 utilisées aux débuts d’Internet proposent en théorie entre 4 et 12 chiffres, sont codées en  32-bits, et offrent donc  4 294 967 296 de possibilités.  Un exemple d’adresse IPv4 peut se matérialiser ainsi : 68.127.78.247 , ou http://68.127.78.247 en l’insérant dans un navigateur internet.

L’expansion d’Internet se faisant, l’ensemble des solutions de ce système arrive à saturation, et le système d’IPv6 développé il y a déjà quelques années va progressivement se mettre en place.

Les IPv6 sont elles codées en 128-bits et proposent une séquence de 32 chiffres, cependant la notation décimale employée pour les IPv4 n’est pas conservée, au profit d’un affichage hexadécimal.

Offrant d’avantage de combinaisons uniques, ces Ip prendront une forme semblable à celle-ci :  2001:0db8:85a3:0000:0000:8a2e:0370:7334 , ou http://[2001:0db8:85a3:0000:0000:8a2e:0370:7334 en l’insérant dans un navigateur.

Sans entrer dans les spécificités d’Internet et du fonctionnement des adresses IP qui restent complexes et peu accessibles aux non-initiés,  deux choses sont désormais certaines :

D’une part, ce passage est un tournant historique d’Internet, puisqu’il montre l’arrivée aux limites de ce qui avait été prévu lors de la conception du réseau.

D’autre part, pour les utilisateurs d’adresse IPv4 un peu expérimentés, habitués à se connecter à des serveurs fétiches pour du jeu, de la VoiP ou autre, il va devenir difficile de retenir des adresses sur 32 caractères aussi facilement que les 12 habituelles…

Quoiqu’il en soit, le développement des IPv6 devrait se faire progressivement, les adresses IPv4 n’étant plus utilisées seront recyclées pour les particuliers.

Une opération simultanée prévue en Juin devrait permettre aux géants de l’Internet tels que Google, Facebook , Yahoo et autres de basculer vers des serveurs compatibles IPv6 pour tester le nouveau protocole et isoler d’éventuelles défaillances.

En attendant, pas d’affolement, ce changement n’affectera en rien les habitudes de millions d’utilisateurs…  [WSJ]

Source: 20minutes.fr et Gizmodo

Stéphane Bortzmeyer, AFNIC : « Pendant des années, on va avoir des problèmes entre IPv4 et IPv6 »

Stéphane Bortzmeyer est architecte systèmes et réseaux à l’AFNIC, l’Association française pour le nommage Internet en coopération, chargée de gérer les noms de domaine de premier niveau au niveau de la France. Alors qu’il reste un peu moins de 2% des ressources totales d’adresses IPv4 dans le monde, beaucoup d’acteurs n’ont pas fait le pas vers l’IPv6, aux stocks d’adresses quasiment inépuisables. Le problème est connu, mais Internet ne semble pas prêt, alors que les adresses IPv4 seront épuisées… Aujourd’hui. Pourquoi ? Que faire ? Stéphane Bortzmeyer a accepté de nous livrer son analyse. On peut également retrouver ses articles sur son blog, qu’il tient depuis 1996.

Bonjour, Stéphane Bortzmeyer. Des grandes sociétés du net qui lancent un IPv6 Day, des médias qui parlent d’une IPcalypse… Est-ce que la situation est aussi critique qu’elle en a l’air ?

Ce qui est sûr, ce que quand on a une ressource finie et qu’on l’épuise à un rythme non nul, elle finit par disparaître. C’est le cas aujourd’hui avec les adresses IPv4, on ne peut pas le nier. Pour ce qui est des conséquences, c’est difficile à juger. Il y avait un plan initial, qui était d’assurer la migration tranquillement. Comme les protocoles sont incompatibles, l’idée était de faire en sorte que tout le monde ait les deux, pour que tout le monde soit bilingue IPv4 / IPv6. Puis, quand presque tout le monde avait les deux, on pouvait progressivement abandonner l’IPv4.

Le principal problème, aujourd’hui, c’est que ce plan original n’a pas été appliqué. On va se retrouver avec des machines purement IPv6, alors que tout le monde est très loin d’avoir migré. Ce qui augmente mécaniquement la fragilité d’Internet. Après, il ne faut pas trop dramatiser : Internet fonctionnera toujours. Mais ça va se traduire par plus d’embêtements. Ca va être assez pénible, parce qu’on va se le prendre dans la figure brutalement, et qu’il va falloir faire des bricolages dans l’urgence. Pendant des années, on va avoir des problèmes entre IPv4 et IPv6.

Pour ce qui est de Google, et les autres entreprises qui soutiennent l’IPv6 Day, pour la plupart, ce ne sont pas les fautifs. Si tout le monde était comme Google, le problème serait résolu. Parmi les gros hébergeurs, ce sont les plus avancées, avec des versions des principaux services accessibles en v6. Facebook est accessible via une adresse spéciale, Yahoo et Twitter pas du tout. En France, aucun des grands sites ne l’est.

C’est tout de même étonnant : l’épuisement des adresses IPv4 disponibles est programmé depuis longtemps ?

Le problème principal, c’est que beaucoup de décideurs ne connaissent que l’urgence absolue. Soit le problème est urgent, et alors on le traite, soit on décide qu’il ne l’est pas tant que ça, et alors on ne fait rien. A cela s’ajoutent des irresponsables qui ont nié le problème pendant longtemps, mais là c’est complètement absurde.

Mais il y a toujours beaucoup de raisons d’attendre, et de repousser. Cette mentalité de l’urgence, des pressions, ou même le management en mode projet. Quand à chaque fois qu’on fait quelque chose, il faut faire un projet, avec un but identifié, un budget à court terme et une nécessité de retour sur investissement rapide, ça interdit de travailler sur tout ce qui est infrastructure. Même si cela se traduisait par des avantages globalement, dans la mentalité de la gestion de projets, on ne voit que l’inconvénient : les coûts.

Prenons l’exemple de Nerim. Ils sont passés très tôt à l’IPv6 : dès 2002. Ils ont dû gagner quelques clients grâce à ça, mais ça reste marginal. De toute façon, les inconvénients du passage à l’IPv6 assez tôt ne sont supportés que par les courageux, alors que les inconvénients de ne pas migrer sont supportés par tout le monde.

Il valait donc mieux attendre de leur point de vue ?

Bien sûr. Il ne faut pas attendre trop, évidemment. Le dernier à migrer a beaucoup d’inconvénients aussi. Mais tant qu’on reste perdu au milieu du troupeau, ce n’est pas un problème, puisqu’au lieu de prendre en charge les coûts du passage à l’IPv6, on rejette le problème sur tout le monde : les développeurs, par exemple, qui doivent faire des bricolages. Un fournisseur d’accès à Internet qui passe à l’IPv6 aujourd’hui n’y gagne rien financièrement, et il n’y a pas d’autre motivation disponible.

D’où l’intérêt du régulateur… L’Union européenne a tout de même mis en place un plan pour aider au passage des infrastructures à l’IPv6.

Dans l’absolu, ce n’est pas une mauvaise idée que le régulateur fasse un effort. Ne serait-ce que pour amorcer la pompe. Mais dans les faits, ça dépend beaucoup du niveau de sérieux avec lequel c’est fait. Pour l’Union européenne, par exemple, on peut voir que le site web de la Commission européenne n’est lui-même pas accessible en v6. Alors on cause, on donne des conseils, on élabore des plans stratégiques, mais du côté des tâches pratiques, rien n’est fait. C’est un peu normal que les gens n’écoutent pas la Commission si elle-même ne fait pas les efforts qu’elle demande.

D’ailleurs, en France, où il n’y a pas eu d’action particulière du régulateur, on peut voir que nous ne sommes pas les pires. Nous sommes même l’un des pays les plus avancés au niveau mondial, et dans tous les domaines. Nous sommes l’un des rares pays où un opérateur grand public, Free, a mis en place une solution IPv6. Du côté de l’hébergement, la totalité du marché des machines dédiées y est passé. D’autres fournisseurs d’accès à Internet, comme Nerim ou la FDN, ont fait la migration.

Mais pas les autres… Quelles ont été les motivations pour ceux qui ont fait la migration ?

C’est en partie à cause de l’effet « dernières techniques rigolotes ». Quand Free fait la migration, il se fait admirer des geeks. Ca peut motiver certaines entreprises. Mais il y a aussi d’autres motivations : c’est un pari sur l’avenir, car ceux qui auront fait l’effort les premiers pourront avoir un avantage ensuite. Les motivations peuvent être diverses. Quoiqu’il en soit, ce n’est pas si compliqué que ça de passer à l’IPv6.

On peut donc ramener ça sur le plan du fonctionnement des entreprises. Une société comme Free, où Nerim, peut mettre en place une migration assez facilement. Ce n’est pas si cher, pas si compliqué. Ce sont des entreprises avec un processus de décision léger, où cela ne dépend que de quelques personnes qui se connaissent bien. Dans beaucoup d’autres organisations, rien que pour repeindre les murs dans le couloir, il faut monter un projet, avec une fiche d’opportunité, un budget, et vérifier avec les avocats les problèmes juridiques que ça va poser.

Il reste six mois d’adresses IPv4 disponibles à l’APNIC, qui gère les distributions sur la région Asie-Pacifique. Est-ce que ça va suffire pour permettre aux autres de se retourner ?

Les lois de la physique disent que si on fonce à 200 kilomètres par heure vers un mur et qu’on ne freine pas à temps, on fonce dedans. Il aurait fallu s’y prendre il y a un ou deux ans, et ça aurait été. Cela dit, si on freine bien, on peut essayer de ne prendre le mur qu’à 50 kilomètres par heure, ce sera déjà ça. Je sais qu’Orange réfléchit au problème de l’IPv6. Ils ne font pas partie des entreprises qui ne font absolument rien, comme on peut en voir aux Etats-Unis, ou en Afrique. Certaines organisations n’ont même pas mis en place une veille technologique de base pour suivre le problème !

Après, ça prend du temps de déployer la migration sur l’ensemble du réseau d’Orange. Alors au début, cela ne se verra pas trop. Il y aura quelques serveurs seulement IPv6, ils seront implantés en Chine, on ne les verra pas vraiment. Mais ça va augmenter, et on va se retrouver face à de nombreux petits embêtements un peu partout. Il n’y a pas de risque de coupure d’Internet, mais l’expérience utilisateurs va être moins bonne.

Source: Clubic .com

42 Registry : « Internet, finalement, c’est assez artisanal »

En dehors de l’Icann, point de salut pour l’Internet ? Une expérience française semble vouloir contredire cette généralité, avec un nouveau TLD (nom de domaine de premier niveau… soit les .com, .net et autres .fr). Baptisé .42, il pose plusieurs problèmes techniques et intellectuels, et enflamme le web technophile.

Si on veut enregistrer un nom de domaine dans le monde, il y a peu d’alternatives. L’Icann (Internet corporation for assigned names and numbers) régule au niveau global les noms de domaines de premier niveau (TLD). Des déclinaisons régionales gèrent les extensions pour chaque pays, comme l’Afnic en France, chargé du .fr.

Il y a quelques semaines, un nouveau venu a fait bouillir les technophiles : 42 Registry débarquait avec un TLD baptisé .42. Référence geek évidente, l’objectif de cette association de loi 1901 est de développer un nouvel espace dédié au contenu libre. « Comme dans le logiciel libre, » précise Romain Rivière, l’un des fondateurs de 42 Registry interrogé par Clubic. Pas question ici d’idéologie libertaire ou cyber-dissidente, donc. L’idée n’est pas forcément de dénoncer un Internet détenu par l’Icann. Pour Romain Rivière, « on peut voir ça comme un clivage, mais on peut aussi le voir comme une extension d’Internet. Il y a l’Internet officiel, mais l’Internet indépendant est un peu plus large. »

Un TLD indépendant
D’ailleurs, à l’origine, les quatre fondateurs de 42 Registry – bientôt rejoints par une cinquième personne – voulaient enregistrer un TLD dans les règles de l’art, auprès de l’Icann. C’était il y a un peu plus d’un an. « Mais nous nous sommes rendus compte que c’était compliqué. Nous voulions essayer le .42, un TLD numérique, ce qui pose des problèmes techniques. Mais surtout, pour adhérer à l’Icann, il fallait disposer de fonds colossaux, et assurer une disponibilité à 100%. Pas à 99 virgule quelque chose, 100%. Avec un statut d’association et quatre personnes, ce n’était pas possible immédiatement. »

Va pour le TLD indépendant, 42 Registry se lance et tente d’inventer un modèle. « Nous ne souhaitons pas créer une communauté à proprement parler, elle existe déjà. Mais nous voulons fédérer autour d’une expérience. » Pour le moment, c’est un comité composé de quatre personnes qui valide ou non les projets de noms de domaines. Et propose un accès gratuit au TLD pour l’instant. Accès qui restera gratuit, même si une participation de soutien sera possible après le lancement officiel. « Dans le futur, ce sera la communauté elle-même qui validera ou non les dossiers. »

Censure ? « Des TLD restrictifs, il y en a, » balaie Romain Rivière. Certes, le .fr n’est par exemple disponible qu’aux personnes physiques ou morales basées en France. Mais le critère est assez objectif, quand 42 Registry veut s’en tenir à une charte liée au concept du libre. Les critiques pleuvent, presque aussi nombreux que les soutiens. « On ne veut pas avoir la main sur le type de contenu, mais sur ce que les gens veulent en faire. S’il y a un usage commercial derrière, périphérique, ce n’est pas gênant. Par exemple, un vendeur de voitures ne l’utilisera pas comme vitrine, mais si un développeur veut mettre à disposition son logiciel open-source, cela ne nous dérange pas qu’il le fasse payer. »

Confusion et soutiens
Il semblerait donc bien qu’il y ait une confusion quelque part. « C’est à cause de la première version de notre charte. Elle était très restrictive. On s’est rendu compte que ce n’était pas ce que voulait la communauté, on l’a modifiée… Cela semble mieux convenir maintenant, et être plus compréhensible. Il faut bien voir que lorsque tout a commencé, cela faisait presque un an que nous travaillions dessus. Nous nous étions fixé mars comme date de lancement officielle, et, si nous étions au point techniquement, il nous restait toute la communication à faire. Mais l’Internet a été plus rapide et nous a trouvés. »

Les critiques pleuvent, donc. Internet fermé, censure, comité d’approbation réduit et opaque… Les tensions sont désormais apaisées, et Romain Rivière promet : « De toute façon, au final, ce sera la communauté qui validera elle-même les nouvelles demande. Ce n’est juste pas au point, car cela pose des problèmes techniques, de gouvernance, etc. Mais ça viendra. » Mea culpa, donc, c’était bien la charte qui posait un problème dans sa première formulation. « De toute façon, nous avons pris ça comme des critiques constructives, et la preuve en est que la charte est meilleure maintenant. »

A côté des critiques, les encouragements n’ont pas manqué à l’appel non plus. French Data Network (FDN), le fournisseur d’accès à Internet associatif, soutient. « Ce sont nos voisins d’IRC, il faut dire, donc on ne va pas dire qu’on s’y attendait, mais c’était plus naturel. Geeknode est un nid à geeks, et la communauté francophone s’y croise souvent. Il y a FDN qui nous a soutenus, mais aussi Nerim. » Aussi naturel que le soutien de Tristan Nitot, le fondateur de Mozilla Europe.

Romain Rivière 42 Registry

D’autres appuis viennent, parfois surprenants. Si on pouvait effectivement s’attendre que FDN participe à l’expérience, l’étonnement vient de chez Bouygues. « Tous les abonnés à la Bbox ont accès à l’espace 42. Cela ne vient probablement pas d’en haut, mais ça veut dire qu’à un étage de Bouygues, quelqu’un a trouvé ça bien, et ils ont assuré la compatibilité sans en parler plus que ça. » Il faut comprendre que l’utilisation pose des problèmes techniques. 42 Registry a mis à disposition des open resolvers. Ça reste compliqué à mettre en oeuvre, et donc réservé aux technophiles avertis.

Le mythe des cinq barbus
42 Registry veut donc rendre toute la procédure plus simple. Et aimerait bien recevoir un soutien, au moins technique, des autres opérateurs et hébergeurs.«  Si les abonnés arrivent à dire à Free ou SFR : il y a un truc qui se monte, il faut faire quelque chose, ce sera plus facile pour tout le monde. On ne mise pas uniquement sur le kit d’indépendance. On n’a pas encore de contacts, mais on y travaille. Un post a été mis sur le forum d’OVH : l’abonné voulait rendre son contenu accessible en .42, cela va peut-être venir, et nous permettre d’élargir. » Dans le cas contraire, le risque est de rester dans la marge.

Lambertiste, 42 Registry ? Romain Rivière s’en défend. « Le but n’est pas de déteindre sur le reste de l’Internet. On a prouvé que techniquement on pouvait le faire, et on commence à être reconnu tout doucement. Nous comptons distribuer le code, pour aider, pourquoi pas, un autre TLD alternatif. Mais il n’y a pas la prétention de dire : « Regardez, c’est comme ça qu’il faut faire. » » Une expérience, donc, voilà ce qu’il en retient. Il dit attendre d’avoir du recul, dans deux ou cinq ans peut-être. Mais si le .42 faisait des petits, ce ne serait évidemment pas pour lui déplaire.

« Pour moi, » explique Romain Rivière, « c’est surtout une expérience intéressante. L’affaire Wikileaks a montré qu’il pouvait y avoir besoin d’un TLD qui ne soit pas soumis à l’Icann. Et c’est aussi de revenir à une certaine origine de l’Internet. A la base, c’est cinq barbus qui se rencontrent le dimanche et qui tirent des câbles d’un switch à l’autre pour se connecter. Il y a un côté rigolo, et la référence geek est là pour rappeler ça. On tâte chez les gens, on voit si ça peut marcher. De toute façon, c’est fascinant de voir comment ça peut se dérouler. Ce n’est pas si compliqué que ça, il faut deux ou trois actions par-ci par-là pour faire en sorte que ça marche. Internet, finalement, c’est assez artisanal. »

Source: Clubic

Internet : 8,8 noms de domaine pour 1000 habitants en Haute Garonne

Depuis le 20 juin 2006, chacun peut donner libre court à son imagination et déposer, à titre privé, le nom de domaine qui lui ressemble. Les internautes français se sont rués sur les noms de domaine et la moyenne nationale est aujourd’hui de 7,6 noms de domaine pour 1 000 habitants.

Logiquement, les départements les plus peuplés et urbanisés comptent le plus de noms de domaine.

Les départements franciliens tiennent bien entendu le haut du pavé avec une moyenne de 8,8 noms de domaine déposés par des particuliers pour 1 000 habitants. A eux seuls, les huit départements d’Ile de France concentrent 38% des noms de domaine déposés en France par des particuliers. Le département de Paris représente plus de 16% des titulaires particuliers de noms de domaine.fr. Il en va de même pour la région Rhône-Alpes et la région PACA, avec des taux très élevés notamment pour les départements du Rhône (69), de l’Isère (38), Bouches-du-Rhône (13), Var (83), Alpes Maritimes (06) où les infrastructures et l’accès au haut débit sont favorisés.

La présence de grandes métropoles dans certains départements favorise une moyenne élevée, par rapport à un taux inférieur sur la région en général.

La Haute-Garonne (31) affiche une moyenne de 8,8 noms de domaine pour 1 000 habitants alors que ses voisins comme l’Ariège (09), le Tarn-et-Garonne (82), le Gers (32),… en comptent moins de 6 pour 1 000.

Même constat pour les Pays-de-la-Loire et la Bretagne qui voient les départements de Loire Atlantique (44) et d’Ille-et-Vilaine (35) se hisser dans la moyenne haute par rapport aux autres départements limitrophes.

Même phénomène en Alsace avec un département du Bas-Rhin (67) très fort.

Là aussi, les infrastructures et l’accès au haut débit sont le reflet d’un développement économique certain.

Quelques exceptions qui affichent des moyennes hautes au regard de leur densité de population.

Les départements de Charente-Maritime (17), Dordogne (24), Savoie (73), Drôme (26), Vaucluse (84) font aujourd’hui leur apparition dans le peloton de tête. En effet, ce sont des départements moins urbains mais où les noms de domaines .fr ont été fortement demandés par des particuliers.

La France des noms de domaine apparait ici comme un baromètre extrêmement pertinent du développement et de l’accès à l’Internet en France. Les départements bénéficiant d’un développement économique fort ont des infrastructures et un accès au haut débit qui favorisent les usages de l’Internet pour tous.

Source: toulouse7.com

Wikipédia a 10 ans !!!

10 ans déjà… 10 ans sur le Net, c’est une éternité !

Le 15 janvier 2001 Jimmy Wales et Larry Sanger créaient Wikipedia.

Il était une fois…
Oui c’est vrai ça … Comment ça a commencé Wikipédia ?

Au commencement était Bomis, société créé en 1996 par Jimmy Wales et Tim Shell.

Bomis vendait de la publicité sur son portail de recherche bomis.com, mais aussi des images glamours, érotiques et… disons que ce n’était pas du Walt Disney !

photo… sympa… de Silvia Saint avec un t-shirt Bomis.com, © Bomis.com

« Bomis premium », jusqu’en 2005, proposait régulièrement des mises à jour et de nouveaux modèles. Bomis a également hébergé le site « The Babe Engine ».

Le 9 mars 2000, Jimmy Wales crée Nupedia, une encyclopédie libre.

Nupedia logo by milodesign.com

Pour cela, Jimmy Wales engage Larry Sanger comme éditeur en chef. Bomis fournissait l’infrastructure technique, l’espace disque, le nom de domaine et la bande passante.

Nupedia visait la qualité, tout comme les encyclopédies professionnelles à ce moment sur le marché. Chaque article devait être contrôlé par un comité scientifique avant d’être intégré à Nupedia.

Si ce processus est gage d’une qualité et fiabilité certaine, il est aussi très lourd et lent. Peu de contributeurs « hautement qualifiés » se sont pliés à ces contraites.

En janvier 2001, sous l’impulsion de la Free Software Foundation de Richard Stallman, le contenu de Nupedia passe sous la Licence de documentation libre GNU.

logo © Nupedia

Mais Nupedia ne progresse pas ! Le nombre d’articles est vraiment très réduit.

Wales et Sanger cherchent un moyen de dynamiser Nupedia en la complétant par un projet plus ouvert.

Le principe du « Wiki » est présenté à Jimmy Wales par un salarié de Bomis.

Wiki, qui veut dire « rapide » en hawaïen, avait été inventé en 1994 par Ward Cunningham. Il permet de créer des sites Web avec des pages reliées par des hyperliens, modifiables en ligne par les utilisateurs.

Le 2 janvier 2001, un développeur présente à Larry Sanger l’idée d’un Wiki, tel que le « Wikiwikiweb » de Ward Cunningham.

Larry Sanger propose alors de créer un Wiki, présenté comme une idée simple et facile à mettre en œuvre pour donner plus de capacité à Nupedia.

Le nouveau site est mis en ligne le 10 janvier 2001.

Bomis fournit toujours l’infrastructure technique et l’accès Internet.

1er logo venant de Nupedia, utilisé par Wikipedia jusque fin 2001
© Wikimedia Foundation

Les contributeurs et relecteurs de Nupedia sont très réticents à l’idée d’associer Nupedia à un Wiki.

Larry Sander suggère alors de donner un nouveau nom au projet wiki.

InterNIC.net indique que le domaine a été réservé le 12 janvier 2001.

Ce nouveau nom de domaine, « wikipedia.com », est actif le 15 janvier 2001 et marque la création officielle de Wikipedia !

Wikipedia est donc au départ un complément à Nupedia, une sorte de sas d’entrée dans le quel des contributeurs écriraient des articles qui pourraient éventuellement être relus, corrigés et certifiés pour passer ensuite sur Nupedia.

Wikipedia est mis en valeur plusieurs fois par des articles sur Slashdot. Il fait la couverture du New York Time le 20 septembre 2001.

Le nombre d’articles croit rapidement :

  • 1000 le 12 février 2001
  • 10.000 le 7 septembre
  • 20.000 fin 2001
  • 40.000 articles le 30 août 2002

2ème logo utilisé par Wikipedia de fin 2001 jusqu’en 2003
© Wikimedia Foundation

Dés le début, Wikipedia s’internationalise :

  • deutsche.wikipedia.com est créé le 16 janvier 2001.
  • La version catalane est créée quelques minutes après ! Pendant 2 mois, cette version catalane est la seule à avoir des articles en ligne, en dehors de la version anglaise.
  • le 23 mars 2001, Wikipedia en français fait son apparition
  • en mai, c’est l’explosion des langues : chinois, néerlandais, espéranto, hébreu, italien, japonais, portugais, russe, espagnol et suédois, suivis l’arabe et le hongrois
  • en septembre 2001 : en afrikaans, norvégien, et serbe

Nupedia, de son côté, a essayé de devenir multilingue en ajoutant le français et l’allemand, mais je pense qu’aucun article n’a officiellement été publié en dehors de l’anglais.

Les choses ne s’arrangent pas pour Nupedia, tout à fait dépassé par le succès de Wikipedia.

En février 2002, Bomis met fin à la rétribution de Larry Sanger pour son travail d’éditeur en chef. Sanger quitte alors les projets Nupedia et Wikipedia pour une raison très simple : il doit se trouver un autre travail et ne peut mener de front cette recherche et sa participation à ces deux projets.

Ensuite, Nupedia décline, ou plutôt ne progresse pratiquement pas alors que le nombre d’articles sur Wikipedia monte en flèche.

Nupedia publie seulement 2 articles après 2001.

Le 26 septembre 2003, Nupedia cesse ses activités, avec seulement 24 articles publiés et 74 articles en cours de rédaction.

Le contenu de Nupedia a été intégré à Wikipedia.

Wikipedia a continué à se développer.

Wikipedia, c’est actuellement :

  • 17 millions d’articles
  • 270 langues
  • 400 millions de visiteurs mondiaux chaque mois

Evidemment, il y a du pour et du contre.

Le pour :

  • Le nombre d’articles et les sujets variés, couvrent pratiquement tous les domaines
  • Wikipedia est devenu une référence, maintenant acceptée même pour des travaux scolaires (à condition de citer ses sources… sinon c’est du plagia)
  • la participation est simple, ouverte à tous : pas besoin d’être un expert pour corriger, par exemple, la grammaire, l’orthographe ou la mise en page d’un article, ou ajouter un lien
  • les articles sont en général très complets, solides, bien documentés avec l’indication des sources.
  • la grosse majorité des vandalismes (destructions, altérations volontaires) est détectée et corrigée en quelques minutes
  • la relecture par de très nombreuses personnes, expertes ou pas, donne un très bon niveau à la majorité des articles
  • les articles sont TRÈS dynamiques !
    • lors d’un évènement important tel que la mort d’un homme politique, la page correspondante est mise à jour en quelques minutes seulement.
    • des nouvelles pages peuvent être créés immédiatement, comme la page sur « La révolution de jasmin » sur les évènements actuels en Tunisie, page créé le 6 janvier et mise à jour pour le moment plusieurs fois par heure. Une encyclopédie « classique » mettrait des mois à adapter ses articles.

Le contre :

  • le vandalisme, même s’il est souvent détecté très rapidement, est quand même gênant
  • des articles assez « sensibles » doivent parfois être mis en mode « accès restreint », càd modifiable uniquement par des rédacteurs connus (et pas anonymes) ou même uniquement par des administrateurs (ex : l’article sur Pinochet au moment de sa mort a été fortement vandalisé)
  • dans de rares cas, un article peut ne pas être conforme à la réalité : ce que la majorité des gens croient n’est pas toujours exact. Parfois cette opinion générale, fausse, s’impose malheureusement.
  • tentative de certains d’introduire des liens publicitaires dans les références
  • parfois des conflits d’édition sur certaines pages, entre plusieurs rédacteurs, chacun refusant d’accepter le point de vue d’un autre et n’admettant pas qu’on touche à son texte

logo Wikipedia actuel
© Wikimedia Foundation

Le vandalisme est un problème sérieux.

Cela peut être :

  • destruction d’articles, suppression de paragraphes, de pages
  • ajout d’injures
  • déclarations racistes
  • manipulation de contenu à but politique, commercial, etc
  • « amélioration » d’une page personnelle par une personne connue, une entreprise…

La page d’accueil de Wikipedia a du être protégée, car cible trop fréquente de vandalisme.

Le vandalisme « stupide », du genre « effacement d’un paragraphe », injures, etc, est rapidement détecté.

Par contre, les modifications subtiles de certaines personnes ou groupes le sont moins facilement car c’est moins visible !

Certaines personnes peuvent essayer de modifier les pages Wikipedia qui les concernent, ou qui concernent leur entreprise, leur parti politique, etc, en « améliorant la vérité »… ou en supprimant des choses dérangeantes.

Le FBI a ainsi fait disparaître des photos de Guantanamo de la page de Wikipedia.

Un des exemples les plus connus sur Wikipedia… concerne Wikipedia lui-même !

En effet, il y a une petite incertitude sur « Qui a créé Wikipedia ?« .

Jimmy Wales ou Larry Sanger ?

  • Jimmy Wales ?
  • photo 2008 cc-by-sa 3.0 Manuel Archain, © Jimmy Wales

    • Sanger concède que c’est Wales qui a conçu cette encyclopédie participative
  • Larry Sanger ?

photo cc-by-sa 2.5 © Larry Sander

    • il soutient que c’est lui qui a amené le concept à Wales
    • Larry a fait un gros travail de rédaction de règles et pour la construction de la communauté. Il a été payé par Bomis pour cela jusqu’en 2002
    • Larry dit que c’est lui qui est venu avec le nom « wikipedia »

L’argument final de Jimmy Wales pour affirmer qu’il est LE fondateur de Wikipedia est en définitif : « Sanger travaillait pour moi. Je l’ai engagé. J’étais LE big boss, l’autorité ultime… »

On devrait malgré tout considérer Wales et Sanger comme co-fondateurs de Wikipedia.

Mais… fin 2005, Jimmy Wales édite sa propre page sur Wikipedia en anglais, et supprime la référence au fait que Larry Sanger est co-fondateur de Wikipedia !

Wales a également « amélioré » la page concernant son entreprise Bomis, en retirant la mention   »adult entertainement industry ». Il est clair que l’image de Bomis semble plus positive si on ne parle pas de pornographie…

Les modifications de Wales ont été rapidement détectées par la communauté Wikipédia, et celui-ci a du officiellement s’excusé d’avoir modifié sa propre biographie.

Autre problème que, personnellement, je trouve très préoccupant : la main mise de marques, industries, sur leur page Wikipedia !

L’exemple le plus flagrant est celui de Nespresso.

photo cc-by Joe Shlabotnik

Dans son article du 1er décembre 2009, Numerama dénonce les manipulations de Nespresso, signalées par Thierry Klein sur son blog, qui progressivement font disparaître les critiques négatives, remplacées par des commentaires très élogieux pour Nespresso ! En particulier, les remarques sur le prix, exorbitant, au kilo du café contenu dans les capsules sont systématiquement supprimées.

Il est difficile pour la communauté de contrecarrer ce genre d’action publicitaire, une firme comme Nestlé ayant toutes les ressources pour payer des gens pour « corriger » immédiatement la page quand le contenu n’est plus favorable à leur produit. De l’autre côté, les contributeurs, volontaires et non payés, se lassent assez vite de corriger et remettre leurs commentaires en ligne à chaque « amélioration » de Nespresso…

Pour en savoir plus sur les critiques envers Wikipedia, la page Wikipedia sur ce sujet.

Que devient Larry Sander ?

Larry a créé le 16 septembre 2006 Citizendium.

Citizendium est un projet d’encyclopédie participative, tout comme Wikipedia, mais les auteurs doivent être enregistrés sous leur nom, et des experts guident le public dans la rédaction des articles. Les articles sont vérifiés dans le but d’avoir le moins d’erreurs possible. De ce fait, le nombre d’articles sur Citizendium progresse plus lentement que sur Wikipedia. Citizendium peut reprendre du contenu de Wikipedia, à condition de l’améliorer et que ce contenu soit vérifié.

A ma connaissance, Citizendium n’est actuellement disponible qu’en anglais.

Larry Sander a également créé une encyclopédie vérifiée par des scientifiques : The Digital Universe

Et les autres encyclopédies ?

Disons que la situation n’est, en général, pas brillante pour ces encyclopédies basées sur un modèle fermé ou payant.

  • Encyclopædia Universalis est accessible sur le Net mais ne donne gratuitement qu’un très court résumé des articles. L’accès aux articles complets demande un abonnement payant. L’édition papier ne se vend plus qu’à quelques milliers d’exemplaires… mais à 3000 € pièces ! Après 40 ans de partenariat, le Club Français du Livre a cédé ses parts à Encyclopædia Britannica Inc.
  • Encyclopædia Britannica est toujours publié sur papier, mais aussi sur DVD. Les résumés d’articles sont disponibles sur le Net, les articles complets sur abonnement payant. Ses articles, de très grande qualité, sont écrits par 100 éditeurs à plein-temps et plus de 4.000 contributeurs experts
  • Microsoft a été obligé de fermer son encyclopédie Encarta fin 2009. Au moment de sa fermeture, Encarta disposait de 40.000 articles et 25.000 média, mais ne représentait plus que 1,27 % des visites en ligne

Et Larousse ?

Le Grand Larousse encyclopédique en 10 volumes a été édité entre 1960 et 64, avec des suppléments parus en 68 et 75. Depuis le 13 mai 2008, il est accessible sur le Net. Le contenu rédigé par Larousse est clairement séparé des contributions que peuvent apporter les internautes.

logo © Larousse

C’est donc en partie une encyclopédie participative, mais l’auteur d’un article en reste le propriétaire. Lui seul peut le modifier ou le supprimer et il est interdit de le recopier sans l’accord de l’auteur.

J’ai parcouru l’Encyclopédie Larousse. Franchement, je n’accroche pas !

L’interface, très lourde à l’origine (flash) s’est heureusement améliorée. Si l’accès Net est gratuit, on doit subir plusieurs encarts publicitaires.

De plus, je trouve que les articles sont loin derrière ceux de Wikipedia. Il suffit de comparer quelques articles sur Larousse.fr et fr.wikipedia.org :

  • Belfort sur Larousse.fr
  • Belfort sur Wikipedia
  • Namur sur Larousse.fr
  • Namur sur Wikipedia
  • kangourou sur Larousse.fr
  • kangourou sur Wikipedia

Je n’ai pas de statistique d’utilisation du site Larousse.fr, mais, vous l’aurez compris, je doute que beaucoup de personnes consultent régulièrement cette encyclopédie en ligne.

Et Google ?

Google, champion des moteurs de recherche, ne pouvait rester en dehors de ce marché.

Google créa Knol le 23 juillet 2008.

Knol, comme le décrit Wikipedia, est une plateforme d’échange d’information.

Knol n’est pas uniquement anglophone. En fait, des articles dans toutes les langues se mélangent.

Le principe de Knol est de mettre en avant l’auteur. Chaque article est signé par un auteur et lui seul peut le modifier. L’auteur peut décider d’inclure de la publicité Adsense sur la page de son article. Il percevra une part importante des revenus publicitaires.

Le résultat est que, au contraire d’une encyclopédie, vous trouverez de multiples articles sur un sujet précis. Chaque article, d’un auteur unique, reprend son point de vue sur le sujet, plus ou moins précis et informé, partial ou impartial, article de grande qualité ou complètement … nul…

Si vous n’êtes pas d’accord avec l’article d’un contributeur, rien ne vous empêche d’écrire votre propre article démolissant la thèse du premier article.

Seul l’auteur peut décider de modifier un article. Même corriger une erreur d’orthographe ou de grammaire est impossible sans l’accord de l’auteur. Vous pouvez modifier un article, mais l’auteur devra approuver vos corrections.

Vous pouvez commenter un article, comme sur un blog, et voter pour les articles qui vous plaisent. Google tiendra compte de vos votes et du nombre de consultation des articles lors des recherches dans Knol, exactement comme dans le moteur de recherche.

Le fait qu’un article soit mis en avant dans Knol n’a donc pas grand chose à voir avec sa qualité…

Voici l’article que j’avais écrit sur Knol en novembre 2008.

Le summum était un article sur le Champ magnétique terrestre, article proche du délire religieux…

Finalement, il faut considérer Knol comme une recherche Google, ce qu’il est en réalité, et pas comme une encyclopédie en ligne.

Il y a de tout, de tout niveau, très bon ou très mauvais. C’est à vous à faire le tri, à prendre ce qui vous intéresse et vous semble plausible.

Par exemple, le 1er article lors d’une recherche knol sur « drupal » est Drupal 6 – 11. Content Construction Kit (CCK). Cet article en anglais est d’une grande qualité. C’est loin d’être le cas pour tous les articles sur Knol !

Personnellement, je ne vais jamais directement sur Knol. Quand j’y vais, c’est qu’une recherche Google a mis en évidence un article de Knol, ce qui est vraiment rare !

En conclusion

Wikipedia truste les recherches encyclopédiques. Il est loin devant ses concurrents en nombre d’articles ou en qualité. Il est également disponible dans de nombreuses langues, même si beaucoup ont un nombre d’articles plus réduit. Et, important, il est gratuit et permet une participation facile.

Malgré les critiques, l’avenir de Wikipedia semble donc assuré, même si, sur le Net, rien n’est prévisible à 4 ou 5 ans de distance.

Pour info, Nupedia ne fut pas le premier projet d’encyclopédie libre accessible sur Internet : Interpedia a été proposée en octobre 1993 par Rick Gates.

Interpedia n’a jamais dépassé le stade du projet : beaucoup de discussion sur le groupe usenet « comp.infosystems.interpedia » sur les méthodes de relecture, de publication, sur le format des articles (html ou pas)… pour finalement tomber à l’eau.

Autre remarque, malgré le terme « wiki », WikiLeaks n’a absolument rien à voir avec Wikipedia ou Wikimedia.

Sources :

  • Wikipedia : Dix ans pour l’encyclopédie
  • Wikipedia : retour sur dix ans de savoir collaboratif
  • de très nombreux articles de Wikipedia francophone et anglophone
  • des articles de Knol
  • des articles de Larousse.fr
  • article original du NewYork Time du 20 septembre 2001

Source: WebActus