Toute l'actualité des noms de domaine et nouveaux gTLDs

Archives de mots clés: serveurs

Apache se rapproche des 60% de part de marché en novembre 2010

La part de marché du serveur Open Source Apache continue de progresser en novembre 2010. Elle enregistre une hausse de 1,29 point comparé au mois précédent (lire l’article du 25/10/2010 : 5,5 millions de sites en plus pour Apache en octobre 2010). Au total, Apache compte 12,9 millions de noms de domaine supplémentaires à travers le monde, dont 8,1 millions aux Etats-Unis et 1,6 million aux Pays-Bas. Face à cette montée en puissance, les autres serveurs perdent du terrain, même si la plupart d’entre eux voient leur parc progresser d’un mois sur l’autre (à l’exception de Google dont le taux de pénétration stagne).

Nginx gagne 927 000 noms de domaine en novembre 2010, malgré une perte de 135 000 sites chez China Telecom. La progression du serveur Open Source s’explique par de nouveaux noms de domaine en Asie, en région EMEA et Amérique du Nord.  Enfin, la migration de Windows Live Spaces sous WordPress ne se fait pas encore ressentir, la plate-forme étant en cours de migration.

Source: Journal du Net

Une architecture IBM pour accélerer la vitesse d’exécution des applications analytiques

Destinée aux applications d’analyse haute performance et visant aussi le cloud computing, l’architecture GPFS-SNC que prépare IBM apparaît deux fois plus rapide que le système de gestion de fichiers HDFS (Hadoop Distributed File System), selon les tests effectués par le constructeur.

Sur la conférence Supercomputing 2010 (13-19 novembre, Nouvelle-Orléans), IBM a annoncé avoir créé une architecture distribuée exploitant une technologie de système de fichiers réparti deux fois plus rapide que celles qui existent actuellement et qui comprend des techniques avancées de suivi des réplications de données (*).

Dénommée GPFS-SNC (pour General Parallel File System-Shared Nothing Cluster), cette architecture est conçue pour offrir une disponibilité élevée au travers de technologies avancées de clustering. Prasenjit Sarkar (en photo), ingénieur spécialisé dans le stockage des applications analytiques pour la branche recherche d’IBM (un collaborateur adoubé ‘master inventor’ par Big Blue), a expliqué à nos confrères de Computerworld que ce système montait en puissance de façon linéaire. Si un système de gestion de fichiers à 40 noeuds offre un débit de 12 Go par seconde, un système à 400 noeuds atteindra un débit de 120 Go/s, donne-t-il en exemple.  « C’est une bande passante très rentable, 1 Mo/s par dollar. Alors que si vous essayez d’obtenir la même chose avec un réseau de stockage, c’est beaucoup plus coûteux ».

Chaque noeud de l’architecture est auto-suffisant

La nouvelle architecture est conçue pour la prise en charge d’applications analytiques à haute performance et pour le cloud computing. Prasenjit Sarkar décrit GPFS-SNC comme une technologie où chaque noeud ou serveur x86 standard dispose de ses propres métadonnées, de son propre cache, et de ses outils de stockage et de gestion de données, tout en accédant aussi, en même temps, à chaque autre noeud dans la grappe à travers des ports Gigabit Ethernet.

« Ce que nous avons fait, contrairement au système de gestion de fichiers de Google [GFS**], qui a un noeud de domaine unique, c’est que nous avons distribué chaque aspect du système : les métadonnées, l’allocation, la gestion du verrouillage et la gestion des tickets (token management), explique-t-il. Même si vous détachez un rack de serveurs de la grappe, l’ensemble pourra néanmoins continuer à travailler ». En ne partageant rien (d’où la mention « sharing nothing cluster » figurant  dans le nom de la technologie), poursuit Prasenjit Sarkar, il devient possible d’atteindre de nouveaux niveaux de disponibilité, de performance et de montée en puissance avec le système de fichier en grappe. Chaque noeud dans l’architecture GPFS-SNC est également auto-suffisant. Les tâches sont divisées entre ces ordinateurs indépendants et aucun d’entre eux n’a besoin d’en attendre un autre, précise l’ingénieur d’IBM.

GPFS-SNC supporte Posix

Le code GPFS-SNC supporte aussi Posix, qui permet à un large éventail d’applications traditionnelles de fonctionner au-dessus du système de fichiers, et d’exécuter à la fois les opérations de lecture et d’écriture. « Vous pouvez ouvrir un fichier, lire un fichier, puis faire des ajouts et remplacer n’importe quelle section. Avec le système de fichier distribué Hadoop de Google, vous ne pouvez pas faire d’ajout à un fichier, ni réécrire une section. Vous êtes donc assez limité », pointe le master inventor d’IBM.

GPFS-SNC supporte la totalité des fonctionnalités de stockage de données pour l’entreprise, telles que la sauvegarde, l’archivage, la capture instantanée d’images (snapshot), la gestion du cycle de vie de l’information, le data caching, la réplication de données en réseau étendu et la mise en place de politiques de gestion. L’architecture dispose d’un nom de domaine logique unique, ce qui permet de transférer les machines virtuelles entre des noeuds d’hyperviseurs.

« Ainsi, par exemple, dans notre grappe, vous pouvez faire tourner Hadoop aussi bien qu’une base de données DB2 en cluster ou des bases de données Oracle, explique encore Prasenjit Sarkar. Nous pouvons de ce fait utiliser un système de fichier générique pouvant être exploité par une grande variété d’utilisateurs. »

Big Blue vise les applications Hadoop MapReduce

IBM n’a pas précisé quand le système de fichiers GPFS-SNC sortirait de ses laboratoires pour arriver sur le marché. En revanche, Prasenjit Sarkar a indiqué que lorsqu’il serait disponible, il viserait trois domaines : les entrepôts de données (datawarehouses), les applications Hadoop MapReduce et le cloud computing.

« Le cloud n’est pas naturellement une architecture parallèle, mais nous y trouvons des machines virtuelles sur chaque noeud d’hyperviseurs et de nombreux noeuds d’hyperviseurs en parallèle. Chaque machine virtuelle accède à son propre stockage de façon indépendante par rapport aux autres VM. Par conséquent, vous obtenez de nombreux accès parallèles au stockage ».

L’actuelle technologie GPFS d’IBM est au coeur des systèmes haute performance du constructeur américain, Information Archive, Scale-Out Network Attached Storage (SONAS) et Smart Business Compute Cloud. La capacité de la future GPFS-SNC à exploiter en temps réel des applications Hadoop sur un cluster a valu à IBM une distinction dans la catégorie « storage challenge » lors de la conférence Supercomputing 2010.

(*) Les tests ont été faits avec les benchmarks MapReduce sur un cluster de 16 noeuds avec quatre disques SATA par noeud pour comparer GPFS-SNC (pour General Parallel File System-Shared Nothing Cluster) et HDFS (Hadoop Distributed File System).

(**) Google File System (GFS) est un système de gestion de fichiers développé par Google pour ses besoins. Il est conçu pour fournir un accès fiable aux données en s’appuyant sur d’importantes grappes de serveurs.

Source: LeMondeInformatique.fr

Les chiffres du Web en 2009

Que s’est il passé sur internet l’année dernière?
Combien de sites web ont été créés? Combien d’emails ont été envoyés? Combien y-a t’il d’internautes ?Si vous vous posez ce genre de questions, alors lisez ce billet. Certains chiffres vont surement vous surprendre!
Nous avons utilisé tout un tas de sources disponibles un peu partout sur le web pour vous fournir ces statistiques, la liste complète est d’ailleurs disponible plus bas.

E-mails :
* 90 000 milliards : c’est le nombre d’emails qui ont été envoyés sur Internet en 2009.
* 247 milliards emails : c’est le nombre d’emails qui ont été envoyés par jour en moyenne.
* 1.4 milliards : c’est le nombre de personnes de personnes disposent d’un e-mail dans le monde.
* 100 millions : c’est le nombre de personnes qui ont créées un e-mail en 2009
* 81% des e-mails envoyés en 2009 étaient du spam avec un pic à 92% en fin d’année
* la quantité de spam a augmenté de 24% l’an passé
* 200 milliards de spams ont donc été envoyé chaque jours

Sites Web :

* 234 millions : c’est le nombre de sites web existant à la fin décembre 2009
* 47 millions: c’est le nombre de sites web qui ont été créés l’année dernière

Serveurs Web

* 13.9% : c’est la croissance des sites utilisant un serveur Apache en 2009
* -22.1% : c’est la chute des sites utilisant un serveur IIS (Microsoft) en 2009
* 35.0% : c’est la croissance des sites utilisant un serveur Google GFE en 2009
* 384.4% : c’est l’explosion des sites utilisant un serveur Nginx
* -72.4% : c’est la chute des sites utilisant un serveur Lighttpd

Noms de domaine

* 81.8 millions : c’est le nombre de domaines en .COM à la fin 2009
* 12.3 millions : c’est le nombre de domaines en .NET à la fin 2009
* 7.8 millions : c’est le nombre de domaines en .ORG à la fin 2009
* 76.3 millions : c’est le nombre de « country code Top Level Domains (tel le .FR, .UK, .CN, .DE …) à la fin 2009
* 187 millions : c’est le nombre total de domaines ayant les extensions précédemment citées, à la fin 2009
* 8% : c’est la croissance du nombre de nom de domaines pour l’année 2009 par rapport à 2008

Internautes

* 1.73 milliard : c’est le nombre d’internautes dans le monde (septembre 2009)
* 18% : c’est l’augmentation du nombre d’internautes dans le monde par rapport à l’année 2008
* 738,257,230 : c’est le nombre d’internautes en Asie
* 418,029,796 : c’est le nombre d’internautes en Europe
* 252,908,000 : c’est le nombre d’internautes en Amérique du Nord
* 179,031,479 : c’est le nombre d’internautes en Amérique Latine / Caraïbes
* 67,371,700 : c’est le nombre d’internautes en Afrique
* 57,425,046 : c’est le nombre d’internautes au Moyen Orient
* 20,970,490 : c’est le nombre d’internautes en Océanie

Réseaux sociaux

* 126 millions : c’est le nombre de blogs sur Internet (d’après les statistiques de BlogPulse)
* 84% : c’est le nombre de réseaux sociaux qui comptent plus de femmes que d’hommes (celui là je demande à voir!)
* 27.3 millions : c’est le nombre de tweets par jour (chiffres de Novembre 2009, voir statistiques complètes de Twitter)
* 57% : c’est le pourcentage des utilisateurs de Twitter habitant aux Etats-Unis
* 4.25 millions : c’est le nombre de followers de @aplusk (Ashton Kutcher, la personne la plus « followée » sur Twitter)
* 350 millions : c’est le nombre d’utilisateurs de Facebook
* 50% : c’est le pourcentage d’utilisateurs de facebook qui se connectent tous les jours
* 500,000 : c’est le nombre d’applications actives sur Facebook

Images

* 4 milliards : c’est le nombre de photos hébergées sur Flickr (Octobre 2009).
* 2.5 milliards : c’est le nombre de photos uploadées sur Facebook chaque mois.
* 30 milliards : c’est le nombre de photos uploadées sur Facebook par an (d’après le chiffre précédent)

Videos

* 1 milliard : c’est le nombre total de vidéos vues sur Youtube … par jour!
* 12.2 milliards : c’est le nombre de vidéos vues sur Youtube par mois aux Etats-Unis (Novembre 2009)
* 924 millions : c’est le nombre de vidéos vues par mois sur Hulu.com aux US (Novembre 2009) (ndlr: Hulu est un site qui propose de regarder légalement des séries et émissions des plus gros réseaux américains (CBS, NBC …) le lendemain de leur diffusion à la télé, à quand un site semblable en France!)
* 182 : c’est le nombre de vidéos qu’un internaute américain regarde en moyenne par mois
* 82% : c’est le pourcentage d’internautes américains qui regardent des vidéos en ligne
* 39.4% : c’est la part de marché de Youtube sur le marché de la vidéo en ligne aux Etats-Unis
* 81.9% : c’est le pourcentage de vidéos de blogs hébergées par Youtube

Logiciels Malveillants

* 148,000 : c’est le nombre d’ordinateurs zombie créés chaque jour (utilisés par les « botnets » pour envoyer du spam, etc)
* 2.6 millions : c’est le nombre de logiciels malveillants au début 2009 (virus, trojans, etc.)
* 921,143 : c’est le nombre de nouvelles signatures de code malveillant ajoutés par Symantec pendant le quatrième semestre 2009.

Sources utilisées : Website and web server stats from Netcraft. Domain name stats from Verisign and Webhosting.info. Internet user stats from Internet World Stats. Web browser stats from Net Applications. Email stats from Radicati Group. Spam stats from McAfee. Malware stats fromSymantec (and here) and McAfee. Online video stats from Comscore, Sysomos and YouTube. Photo stats from Flickr and Facebook. Social media stats from BlogPulse, Pingdom (here andhere), Twittercounter, Facebook and GigaOm.

Source : Youcou.net traduit de Pingdom