jeudi 8 mars 2012

Google Fibre : déploiement de fibre optique à Kansas City

Le géant de Mountain View investit dans un réseau de fibre
optique très haut débit :
Google Fibre,  avec une vitesse de connexion  de
1 gigabit par seconde dans les villes
de Kansas City,
l'une dans le Kansas et l'autre dans le Missouri. (USA).


La fibre optique exploite un fil en verre ou en plastique qui conduit la lumière et permet de transmettre des
données à haute vitesse.
Le déploiement a reçu l'accord du conseil municipal. Aujourd'hui, le défi est d'établir une connexion en fibre optique de bout en bout (FFTH, Fiber To the Home).

Google a mis au point de nouvelles techniques de déploiement et a déposé un demande de brevet pour un modèle de fourreau spécial par lequel cheminerait la fibre optique.
Ce fourreau serait une bande plate flexible de 5 à 7 cm de large et de 5 mm d'épaisseur dans laquelle
passerait la fibre.
Schéma du brevet de fourreau (futura-sciences)
La France est en retard en matière de couverture numérique par le très haut débit. Le taux de pénétration
de l'Internet à très haut débit fixe, en fibre optique, est de 8% en France contre 17,5% en moyenne en
Europe. De nombreuses mesures ont été imaginées afin de relancer ou renforcer l'ADSL, la fibre optique
et la téléphonie mobile en France.

lundi 5 mars 2012

Talend : la suite d'intégration raccordée à Hadoop

Talend, l'éditeur de logiciel Open Source  raccorde sa suite d'intégration
de données à Hadoop : la gestion des "big data".

Map Reduced et Hadoop apportent des outils intuitifs et faciles
d'utilisation.



Hadoop, un projet Open Source géré par Apache
et écrit en java traite les lots de grande quantité
de données pour le stockage
(1 tera octets de données triées en 62 secondes).
Yahoo et Facebook utilisent Hadoop pour les nouvelles données ingérées dans leurs
data warehouse sous Hadoop.
Le Système de fichiers HDFS de Hadoop permet de faire des analyses sur les données stockées
avec son modèle MapReduce. Ainsi, la gestion de suivi de données collectées sur le web, les traces
laissées par les clients et prospects, des parcours de type RFID, les suivis de trajet GPS,  représentent de précieuses données.
le Mapping  qui permet de répartir un fichier sur des blocs répliqués dans les noeuds d'un cluster et
le Reducing qui permet d'agréger les résultats sous forme clés/valeurs.


Talend supporte le système de fichiers
HDFS (Hadoop Distributed File System,
Pig, HBase, Sqoop et Hive )
en s'appuyant sur sa suite d'intégration Open Studio :
"Open Studio for Big Data".
La transformation des données pour une montée en
charge peuvent ainsi être combiner avec des
processus traditionnels d'intégration de données :
(ETL, Extraction, Transformation, loading ou ELT)
pour le décisionnel.


Depuis son lancement en 2006, Talend a étendu ses fonctionnalités avec
une solution de MDM : master data management,
un ESB (Enterprise Service Bus), qui permet la communication des applications en se basant sur des
standards comme XML, JMS ou les services web,
une solution BonitaSoft pour le BPM gestion des processus,
une interface drag and drop pour les jobs d'intégration
Il s'enrichit aujourd'hui de Open Studio for Big Data qui génère le code MapReduce pour mettre en
oeuvre les clusters Hadoop (LeMondeInformatique)
Une version bêta d'Open Studio est disponible en téléchargement