lundi 31 octobre 2011

Lancement officiel du système national de documentation en ligne destiné à la communauté universitaire

Le système national de documentation en ligne SNDL a été lancé lundi à Alger, un portail qui se veut "un outil indispensable" à la recherche scientifique et à l’accès à l’information en temps réel par la communauté universitaire.

"Ce portail permettra à nos chercheurs et étudiants en post-graduation d’effectuer leurs travaux de recherche bibliographiques en ligne tout au long de la semaine" a expliqué le directeur de la recherche scientifique et du développement technologique Hafid Aourag lors du lancement officiel de ce système informatique et l’annonce de la création de la cité des sciences et des arts.

Le SNDL accessible à l’adresse www.sndl.cerist.dz, offre, ainsi, la possibilité de consulter "des dizaines de milliers d’articles, de livres et de revues spécialisés et de télécharger les documents jugés utiles aux travaux de recherche".

"Avec le portail SNDL l’université algérienne franchira un nouveau seuil et passera à une nouvelle ère, celle de la révolution des technologies de l’information en dématérialisant la documentation" a t-il indiqué incitant les chefs d’établissements universitaires à alimenter ce système par les différents produits de recherches réalisés à leurs niveaux notamment les thèses de magistère et de doctorat.

Dans le même sillage et dans la perspective de développer l’utilisation de la langue arabe et de faciliter la tâche aux chercheurs dans cette langue, "qui se trouvent souvent pénalisés par rapport à leurs homologues francophones ou anglophones", une unité spéciale a été mise en place ayant pour mission la traduction de toute la production nationale mise en ligne dans ce cadre, souligne le même responsable.

S’agissant de la cité des sciences et des arts dont l’annonce officielle de sa création a été faite par la même occasion, M. Aourag a souligné que ce projet qui se situera au parc Dounia (Alger ouest) constituera un moyen pour rendre ce domaine accessible aux simples citoyens notamment les enfants.

"Ce projet qui sera opérationnel fin 2014 va aider à consolider les bases indispensables à acquérir pour comprendre, expérimenter et interpréter" à travers la vulgarisation de la science.

Il a également ajouté que ce lieu de connaissances proposera des activités permanentes telles que les démonstrations scientifiques et d’autres temporaires parmi lesquelles des colloques, des rencontres et une grande variété d’ateliers qui seront animés par des "médiateurs scientifiques", des chercheurs qui ont bénéficié d’une formation spécifique dans le domaine.

Source : Algérie Presse Service (APS) au 31/10/2011

dimanche 30 octobre 2011

Les anciens employés de l'entreprise multiplient les rassemblements : Lacom s’invite dans les négociations pour le rachat de Djezzy

Les anciens employés du consortium algérien des télécommunications ont tenu hier un nouveau rassemblement, cette fois, au niveau de la maison de la presse Tahar Djaout d’Alger.

L’objectif étant de sensibiliser les médias sur la situation qu’ils vivent depuis près de deux ans. L’opérateur de téléphonie fixe, qui commercialisait ses services sous le nom de Lacom, a été mis en liquidation en novembre 2009. Toutefois, les 140 employés de l’opérateur ont été maintenus en poste jusqu’en mai 2010, date où ils ont reçu des notifications officielles d’arrêt de travail, autrement dit des lettres de licenciement, sans toutefois percevoir de salaires.

Aujourd’hui, l’ex-personnel de l’opérateur multiplie les actions pour réclamer son dû, à savoir 10 mois de salaires en plus du solde de tous comptes et indemnités. Soit en moyenne une compensation de 600 000 DA pour chaque employé.

Les représentants des travailleurs, participant hier au rassemblement, ont également insisté sur le fait que cette indemnité compensatoire ne prend pas en compte le préjudice subi, vu que 50% des anciens employés de Lacom n’ont toujours pas trouvé un nouvel emploi. Le fait est que l’évocation de l’opérateur fait, selon eux, office de tache noire sur un CV et torpille toute chance d’embauche. De plus, les anciens employés de l’opérateur ont eu la mauvaise surprise de découvrir a posteriori un trou de deux années sur leurs cotisations à la CNAS alors que leur IRG et leur part de cotisations sociales étaient prélevées le plus normalement du monde. Mme Djender, représentante des travailleurs ayant récemment eu des entretiens avec M. Bahiri, directeur des ressources humaines chez Djezzy et d’ailleurs ancien DRH au niveau de la holding Orascom, a précisé que celui-ci a balayé d’un revers de main toute possibilité de prise en charge par Djezzy du dossier, les renvoyant au liquidateur désigné de l’opérateur.

Cependant, Mme Djender précise que le liquidateur égyptien de surcroît, absent la majorité du temps, n’a pas avancé d’un iota sur la question des indemnités des travailleurs malgré l’existence d’une décision de justice exutoire allant dans ce sens. Selon les représentants des travailleurs, Ahmed El Bana refuse tout bonnement de se conformer à la décision de la justice, prétendant que rien dans la réglementation algérienne ne l’oblige à payer ! Nos interlocuteurs ont d’ailleurs interprété cette prise de position par le désir des actionnaires de l’opérateur d’obtenir une liquidation judiciaire, requête qui a été refusée côté algérien par deux fois. Or, aujourd’hui, le temps presse, notamment après la vente de la majorité des actions d’Orascom Telecom Holding par le russe Vimpelcom.

Un retrait total des Egyptiens d’Orascom du marché algérien réduirait à néant les chances des ex-Lacom de se faire indemniser. Pour l’heure, ces derniers ont obtenu l’engagement des responsables du ministère des Finances de faire figurer leur cas dans les négociations en cours entre le gouvernement et le Russe Vimpelcom pour le rachat de Djezzy. Ils auraient toutefois espéré des engagements et un soutien plus ferme des autorités.

Source : Journal El Watan du 30/10/2011

LIQUIDATION DE L’OPÉRATEUR LACOM : Les employés exigent le paiement de leurs indemnités

Les ex-employés de l’opérateur de téléphonie fixe Lacom ont manifesté, hier, devant le siège de la Maison de la presse pour exiger le paiement de leurs indemnités de départ.

«Nous sommes face à une situation inextricable. La justice algérienne a reconnu notre droit à l’indemnisation, mais en l’absence d’interlocuteurs, nous sommes dans l’impossibilité d’exécuter les jugements rendus. Il y a bien un liquidateur nommé par Orascom Telecom et Egypt Telecom, mais ce dernier agit dans le cadre d’une procédure de liquidation à l’amiable. Et selon lui, il ne dispose pas de moyens financiers pour payer les employés», expliquent les ex-salariés de l’opérateur téléphonique. Leur pire crainte est que le processus d’indemnisation soit annulé en cas de reprise d’Orascom telecom Algérie par le groupe Vimpelcom. «Nous avons saisi officiellement les ministères de la Justice, des Finances et de la Poste et des Télécommunications. Nous espérons que les autorités algériennes prendront en considération notre cas. Il y va de l’avenir de 240 salariés algériens.»

Source : Quotidien Le Soir d'Algérie du 30/10/2011

samedi 29 octobre 2011

Salon "ITU-World 2011" de Genève : Des étudiants algériens propriétaires de start-up

Le sommet mondial des télécommunications, ainsi que le Salon "ITU-World 2011" qui se tiennent à Genève et auquel participe l'Algérie, avec notamment de jeunes étudiants propriétaires de start-up, prendront fin jeudi. Le stand algérien dans ce Salon regroupe, outre les opérateurs nationaux activant dans le domaine de la téléphonie mobile, de jeunes étudiants algériens propriétaires de start-up, conviés par le ministère de la Poste et des Technologies de l'information et de la communication (MPTIC) à y participer à titre d'encouragement et en leur qualité de lauréats de la première édition "start-up week-end d'Alger" qui a eu lieu à l'incubateur de Sidi Abdellah. Les projets de ces start-up consistent pour la start-up "chrilow" (acheter pas cher) en la mise en place d'un site web qui regroupe toutes les promotions de ventes de services et de produits en Algérie classées par régions et par catégories. Le second projet, initié par la start-up "mechanical fluid", traite de la réalité augmentée. Il s'agit de la superposition de deux contenus dont l'un est réel et le second virtuel. La troisième start-up, "likemeans", a élaboré une application qui utilise les réseaux sociaux pour définir les goûts des consommateurs et l'étude des marchés, ainsi que le développement d'une application sur le mobile en relation avec le secteur de la santé. Les jeunes propriétaires de ces start-up ont exprimé leur satisfaction quant à leur participation à cette importante manifestation. Ils ont ainsi affirmé que cette participation leur permet de se faire connaître et de prouver que des compétences existent en Algérie, mais c'est également pour eux une opportunité pour s'enquérir des innovations que connaît ce secteur. Ils estiment qu'ils sont en mesure de rivaliser avec les jeunes entrepreneurs des différents pays, pour peu que les moyens nécessaires soient mis à leur disposition.

Source : Journal El Moudjahid du 29/10/2011

vendredi 28 octobre 2011

Windows 8 dans sa poche avec le xpPhone 2 d’ITG


























ITG est un constructeur chinois qui produit le xpPhone qui tourne sous Windows XP. Et la société persiste et signe avec un prochain modèle tournant sous… Windows 8.

Le xpPhone 2 (oui il conserve un nom faisant référence à Windows XP) tournera bel et bien sous Windows 8 et non Windows Phone 7.5 (Mango) ou Windows Phone 8 (Apollo). Un choix quelque peu exotique dans le secteur des smartphones.

Doté d’un écran de 4.3 pouces, il affichera donc l’interface Metro de Windows 8. Et il se démarque également de ses concurrents au niveau du hardware puisqu’il embarquera 2Go de RAM, une mémoire de masse de 112Go et un CPU cadencé à 1.6GHz. Le CPU pourrait être un Atom (Medfield ?).

Malgré ce hardware peu commun, son autonomie serait de 18.5 heures en conversation ! On demande bien entendu à voir.

Le xpPhone 2 sera commercialisé en 2012 sans plus de précisions.

ARM se met au 64-bit pour ses futures puces serveurs

ARM a présenté sa première architecture microprocesseur en 64-bit. Elle devrait équiper les puces présentes dans les serveurs ou les PC d'entreprise et concurrencer ainsi un peu plus Intel.

L'architecture ARMv8, dévoilée par ARM, ajoute des instructions 64-bit pour étendre la capacité de ses puces. Une amélioration par rapport à l'actuelle architecture ARMv7, qui limitait l'adressage mémoire à 40-bit ( avec une capacité maximale de 1 To). Cette extension permettra à ARM de concurrence les puces basse consommation d'Intel pour serveur.

ARM devrait proposer des designs de processeurs intégrant l'architecture v8 en 2012, mais les premiers prototypes de serveurs ne devraient arriver que vers 2014. « C'est le début d'un long chemin pour les produits ARM en 64-bit » a expliqué Mike Muller, directeur technique d'ARM lors d'un évènement de la société nommée Techcon. Il a ajouté que cette architecture offrira la rétrocompatibilité et la migration des applications existantes.

Garder le ratio performance/consommation électrique


La plupart des systèmes actuels d'exploitation des PC et des serveurs, tels que Windows et Mac OS, fonctionnent en 64-bit. Les ordinateurs peuvent adresser une plus grande quantité de mémoire et améliorer les performances de certaines applications exigeantes.

L'architecture v8 intègrera des puces comprenant des minuscules capteurs pour les équipements d'infrastructure haut de gamme. Elle apportera « du calcul 64-bit avec une grande efficience énergétique » pour serveurs. Le manque de capacités 64-bit a souvent été considéré comme une faiblesse pour pénétrer les marchés PC et serveur et concurrencer les puces x86-64 d'Intel. ARM avait indiqué qu'il irait vers le 64-bit lorsque cela serait nécessaire et sans sacrifier le ratio performance/consommation énergétique.

Source : le monde informatique.fr au 28/10/2011

jeudi 27 octobre 2011

PROCESSEURS : Les secrets de l'architecture ARM

La puce qui anime votre téléphone ou qui pilote nombre de nos nouveaux compagnons électroniques s'inspire en fait du processeur de nos PC. Un morceau de silicium fascinant, qui n'a pas fini de bouleverser notre quotidien.

Vous les utilisez peut-être sans le savoir. Vous en avez très certainement un - voire plusieurs -dans votre téléphone, votre tablette, votre console portable, votre baladeur, votre appareil photo numérique, vos disques durs... et vous en trouverez aussi dans certains Nas, dans des équipements réseaux et même dans de nombreux produits du quotidien pas forcément high-tech. Ces petits bouts de silicium, ce sont les processeurs de la famille ARM. Des composants discrets, moins connus du grand public que les puces d'Intel ou d'AMD, mais dont les qualités, en premier lieu la faible consommation d'énergie, en font des alliés de choix pour le secteur gigantesque de la mobilité.

Et pourtant, l'origine de ces puces ne se trouve pas dans un quelconque appareil à garder en permanence sur soi, mais bien... dans un ordinateur de bureau, l'Acorn Risc Machine, conçue par le constructeur britannique Acorn au milieu des années 80. Ce dernier était et quête d'un processeur puissant, capable de consentir la compatibilité avec la plate-forme populaire BBC Micro et suffisamment solide pour gérer une interface graphique (Apple venait de lancer le Lisa, puis le Macintosh). Problème : les processeurs du moment étaient soit insuffisamment puissants (comme le MOS 6502 ou le 68000 de Motorola), soit indisponibles (Intel aurait refusé à Acorn la licence de son 80286, qui souhaitait l'adapter à ses besoins). Acorn a alors décidé de concevoir son propre processeur, en s'appuyant sur une architecture de type Risc (Reduced instruction set computing), différente de l'architecture Cisc des processeurs Intel ou Motorola (le C signifiant Complex). C'est VLSI qui s'est chargé de la production de cette puce au jeu d'instructions simplifié et ne contenant qu'un nombre limité de transistors (environ 30000, soit quatre fois moins qu'un 80286 d'Intel. Ce schéma de fonctionnement est aujourd'hui toujours en vigueur: ARM se charge de la conception des cœurs de processeurs et en attribue la licence à des partenaires (Samsung, STMicro, Nvidia, Texas Instruments, etc.) qui se chargent, d'une part, de les intégrer à leurs propres composants et, d'autre part, de les fabriquer.

La transition du bureau à l'embarqué, c'est à Apple qu'on la doit. Au tout début des années 90, lors de l'élaboration de son assistant personnel Newton, la société américaine a retenu le processeur conçu par le Britannique. Acorn, Apple et VLSI ont très rapidement formé une société commune pour améliorer le composant. Son nom: Advanced Risc Machines, autrement dit ARM. Une vingtaine d'années et sept évolutions d'architecture plus tard, ARM a signé près de 750 accords de licence et ses partenaires ont produit, pour la seule année 2010, pas moins de 6,1 milliards de puces s'appuyant sur ses technologies. À en Juger par la place croissante prise par les équipements mobiles, cette expansion n'est pas près de s'arrêter.

ARM face aux processeurs x86

Que valent les puces ARM face aux composants d'Intel ou d'AMD ? Alors que les tablettes concurrencent les PC traditionnels, la question est d'actualité.

Longtemps, les puces x86 de nos ordinateurs et les processeurs ARM jouaient dans deux catégories bien distinctes. Mais la donne change petit à petit : les tablettes, s'appuyant en grande majorité sur l'architecture ARM, commencent à concurrencer fortement les PC portables traditionnels ; Intel, de son côté, cherche à se frayer un chemin dans les téléphones mobiles (des prototypes de l 'Atom « Medfield » existent déjà); et le futur Windows 8 tournera à la fois au x86 et sur ARM. Pour l'heure, les différences restent marquées. Les principales sont très liées : elles ont trait à la consommation électrique et aux performances. Jusqu'à présent, Intel et AMD ont optimisé leurs processeurs pour portables afin d'obtenir le maximum de performances tout en conservant une consommation électrique acceptable pour des ordinateurs nomades. Les architectures conçues par ARM, elles, sont clairement pensées pour être le moins énergivore possible, avec des fréquences de fonctionnement plus faibles et un échauffement minimal (Il n'y a pas de radiateur ni de ventilateur dans un smartphone ou une tablette !): ces contraintes impactent donc le niveau de performances.

Objectif sobriété

L'auteur et analyste américain Van Smith l'a d'ailleurs confirmé l'an passé en mettant face à face une puce à cœur Cortex-A8(LMX515 de Freescale à 800 MHz) et un Atom N450 (fonctionnant en temps normal à 1,6 GHz mais dont la fréquences à été abaissée à 1 GHz pour le test). Résultat: la puce ARM s'est révélée le plus souvent en deçà de sa rivale x86, se faisant même largement distance sur de nombreux calculs en virgule flottante. En revanche, côté consommation, elle n'a pas dépassé 1,2 W et s'est avérée particulièrement stable, passant occasionnellement sous la berre des 0,5 W. L'Atom, lui, se situait dans le même temps entre 2 et 4 W, diminuant parfois à 1 W mais montant aussi à 7 W durant un test plus exigeant. Mené à nouveau aujourd'hui avec des processeurs actuels, ce test ne produirait pas exactement les mêmes résultats. Certes, ARM garderait l'avantage en matière de consommation et le x86 serait supérieur en termes de performances, mais, sur ce dernier point, l'écart se réduirait: avec l'arrivée de puces multicœurs, leur montée en fréquences et l'évolution rapide de l'architecture, les puces ARM commencent à présenter des arguments sérieux face aux Atom. Sans être encore au niveau d'un Athlon, d'un Phenom ou d'un Core actuels...

LE FUTUR : Plus de cœurs, plus rapides

La généralisation des smartphones et la montée en puissance des tablettes ont donné un coup d’accélérateur aux processeurs ARM. Il y a un an le double cœur commençait juste apparaître; aujourd'hui, les annonces de putes à 4, voire 8 cœurs se multiplient! Ainsi Qualcomm promet une puce Snapdragon à quatre cœurs. cadencés chacun à 2,5 GHz, avec une gestion des réseaux 4G (LTE), pour la fin de l'année et des téléphones équipés présentés lors du prochain Mobile World Congress en février2012. Dans le même ordre d'idées, Nvidia a plusieurs projets sur le feu: « Kal-13 » (qui devrait être lancé sous la dénomination commerciale Tegra 3 d'ici la fin de l'année), processeur quadricœur Corbet-A9 1,5 GHz prévu pour être 5 fois plus performant que le Tegra 2, annoncé pour 2012. Puis « Wayne» :4 cœurs Corte-A15, 10 fois plus puissant qu'un Tegra2. pour 2013. Mais Nvidia travaille aussi à un processeur pour ordinateurs basé lui aussi sur l'architecture ARM: des premiers prototypes devraient être produits en fin d'année et pourraient incorporer 8 cœurs et un processeur graphique GeForce de dernière génération. De l'ARM dans des PC. et pourquoi pas - puisque une rumeur se fait particulièrement insistante - dans les Mac? Ce serait un retour am sources.

UNE NOMENCLATURE COMPLEXE

Avec les puces ARM, pas facile de s'y retrouver. Leur architecture a connu plusieurs révisions depuis leur création: on parle ainsi d' architecture ARMv1 à v7. Ensuite les composants se classent par familles. Et c'est là que ça se corse ! Par exemple, la famille ARM7 comporte des modèles en architecture v3 ,v4 et v5... mais pas, comme son nom pourrait le laisser penser, en architecture ARMv7 ! Niveau supplémentaire de complexité, les cœurs de processeur possèdent eux aussi leurs dénominations (par exemple ARM9TDMI, Cortex-A9, etc.). Et les fabricants de puce, à leur tour, baptisent leurs composants: Omap (Texas Instruments), Snapdragon (Qualcomm), Hummingbird (Semsung), A4 et A5 (Apple), Tegra (Nvidia)... De quoi y perdre la tête!

Advanced Risc Machines (ARM) : L'ARM1 conçu en 1985, est resté à l'état de prototype. Mi-1987, son successeur, l'ARM2, équipe les ordinateurs Acorn Archimedes.

Une conception et un fonctionnement particuliers
Les processeurs ARM sont le fruit d'un développement et d'une philosophie très différents des choix d'lntel et d'AMD. Tour d'horizon en 5 ponts.

1-UN TRONC COMMUN POUR TOUS LES FABRICANTS
ARM ne fabrique pas des processeurs, mais il en conçoit l'architecture, proposée sous licence à ses partenaires. Pour autant, ces derniers ne sont pas tenus de produire des composants strictement définis par ARM. En effet à condition de respecter certaines caractéristiques. Ils peuvent les adapter à leurs besoins et élaborer des puces personnalisées autour des cœurs ARM. C'est ce qui permet aux puces Tegra de Nvidia de se distinguer en matières d'affichage 3D et de décodage vidéo HD, ou aux composants de Qualcomm ou Texas Instrument d’être en pointe coté communications et multimédia...


2-UNE BASE SIMPLIFIÉE
Dès les origines, les processeurs ARM sont conçus selon des principes de modération: moins de transistors que la concurrence, des instructions plus simple (Risc ne signifie pas que le jeu d'instructions est réduit mais qu'elles sont moins complexes et donc plus faciles à décoder et à traiter). Au fil des années les puces ARM ont gagné en complexité, elles peuvent exploiter les des instructions complémentaires pour les traitements multimédias ou la gestion de code Java à même le processeur, et sont désormais multicœurs. Mais elles restent, en termes de fonctionnement, plus simples que des puces x86. Et moins rapides aussi... pour le moment.

3-UNE CONSOMMATION MAITRISÉE
Sur un ordinateur portable, la consommation électrique d'un processeur peut se chiffrer en dizaines de watts: 35W. par exemple, pour un Intel Core i3-2310M actuel, mais seulement 5,5W sir un Atom N450 et 6W sur un AMD Fusion C-50. Avec les processeurs de type ARM se destinant aux appareils mobiles, ce chiffre se situe fréquamment sous la barre du watt, voire moins: chaque puce dispose de dispositifs avancés de mise hors tension de certains circuits(par exemple ceux dédiés aux entrées / sorties, à la vidéo...), en fonction des usages en cours, pour réduire encore la consommation générale.

4-DES PROCESSEURS CENTRAUX... MAIS PAS SEULEMENT
Les puces de type ARM ne se limitent pas au rôle de processeur central à tout faire,elles servent très souvent de controleur pour des taches précises, installé au sein de Périphériques d'appareils domestiques en tout genre, ou de processeur pour des systèmes temps réel (qui requièrent l’exécution d’instructions dans des temps déterminés). Avec la famille de puces Cortex, ARM a officialisé trois catégories de processeurs: les composants dits applicatifs (série Cortex-A) intégrés aux smartphones, tablettes et téléviseurs connectées par exemple; les puces temps réel (Cortex-R pour reel-time), développées pour électronique automobile, les équipements réseau et les disques dures: et enfin les microcontrôleurs (Cortex-M), conçu 4 conçus pour l'électroménager mais aussi les consoles de jeu portables ou la gestion du Bluetooth.

5-TOUT-EN-UN
Les puces ARM sont des «system on a chip» (SoC). Autrement dit un seul composant se charge d'assurer les taches habituellement dévolues à plusieurs dans un ordinateur classique. Par exemple une puce Tegra 2 de Nvidia incorpora, sur ure seule tranche de silicium, deux cœurs Cortex-A9. un autre cœur ARM 7 — moins énergivore et exploite pour la lecture audio et vidéo—, deux unités pour le vidéo HD (une pour le décodage, l'autre pour l’enregistrement), une unité pour l'audio, une autre pour les images... et une unité GeForce pour pour la gestion des graphisme. Le tout sur une surface de moins de 50 mm2.

Source : L'OI-SVM du Mois de Novembre 2011

SoC : anatomie d’une puce, pour tout savoir sur les entrailles de votre tablette !

Au cœur de toute tablette ou de tout Smartphone il y a un SoC, un « system on chip ». Qu’est-ce qu’un SoC ? Que recèle-t-il ou que recèlera-t-il dans un futur proche ? L’objet de ce dossier est d’essayer d’y voir un peu plus clair sur ce sujet quelque peu technique.

Dans les appareils mobiles, l’espace et l’énergie sont limités, ainsi l’intégration est-elle fondamentale. Une tablette est une machine très complexe, il faut gérer la vidéo, le son, la connectivité Wifi/Bluetooth, l’écran tactile, parfois même la téléphonie, etc. Chacune de ces fonctions nécessite une prise en charge par des circuits spécifiques. Le but est d’avoir le moins de puces possible, d’où l’intégration dans un même boitier et souvent sur un même die (c’est à dire gravé sur un même support) d’un maximum de fonctions.

Sur un SoC typique peut trouver :

  • Un ou plusieurs cœurs CPU (Souvent ARM)
  • Un plusieurs cœurs GPU (Power VR, Mali, Geforce etc.)
  • Le contrôleur-mémoire
  • Des DSP pour le traitement de l’image, du son, etc.
  • Des contrôleurs de périphériques (pointage, GPS, etc.)
  • Des circuits vidéo auxiliaires (sortie HDMI, etc.)
  • Un baseband (pour la téléphonie)
  • Etc.
Sans minimiser l’importance des autres composants, on s’intéressera ici principalement aux différents CPU et GPU qui peuvent être présent dans les SoC du marché.

En effet, un SoC est comme un puzzle que chaque constructeur compose à sa guise. Par exemple, Apple décide que son A5 contiendra un Cortex A9 double cœur comme CPU et un GPU PowerVR 543 double cœur. Apple doit ainsi acheter une licence à ARM pour utiliser son design Cortex et une licence à Imagination technologie pour son design PowerVR. Ensuite, il doit faire les plans précis de son SoC pour le transmettre à un fondeur, qui va effectivement fabriquer la puce. Ici, ce sera Samsung.

Chaque « constructeur » crée ainsi son propre circuit en fonction de briques existantes et le fait réaliser par un prestataire qui a les usines adéquates (s’ils ne peuvent le faire eux-mêmes…).

Cela dit, les constructeurs peuvent rajouter leurs touches personnelles aux designs existants, Qualcomm par exemple avec ses architectures Scorpion et Krait. Le paysage des SoC n’est ainsi pas toujours très lisible. Le but de ce qui suit est d’en faire une petite synthèse en comparant les CPU et GPU des SoC présents et futurs des principaux constructeurs, sans aucune prétention à l’exhaustivité.

Les CPU (Central Processing Unit)

Pratiquement toutes les tablettes actuellement en circulation ont un point commun, c’est l’architecture de leur processeur central : ARM. Ils sont de la même famille en quelque sorte, ils partagent des structures et des langages similaires. L’histoire d’ARM est très ancienne puisqu’elle commence en 1978, à l’époque de la fondation d‘Acorn Computer. Cette société britannique fondée à Cambridge a produit des ordinateurs jusqu’au milieu des années 80. Ces derniers fonctionnant avec des processeurs « maison », les « Acorn RISC Machines ». A la suite de difficultés financières, l’entreprise a progressivement cessé de fabriquer des ordinateurs pour se consacrer seulement à la commercialisation de leur architecture « Advanced RISC Machine ». Aujourd’hui « ARM » commercialise les « plans » de toute une gamme de microprocesseurs que l’on retrouve absolument partout.

Car on n’a pas tout le temps besoin d’un Xeon ou d’un Opteron, surtout dans un téléphone portable ou une Game Boy. Or les processeurs ARM ne sont pas très puissants, mais ils sont, et de très loin, plus petits et plus économes en énergie que les modèles d’Intel ou d’AMD. Ils sont aussi moins chers et fleurissent ainsi dans une incroyable variété de machines, mobiles (Nintendo DS, Smartphones, Baladeurs) ou non (NAS, Routeurs etc.).

C’est le boum des tablettes et des Smartphones qui met les processeurs ARM sur le devant de la scène. Ces derniers sont nombreux et en évolution rapide. Leurs architectures se complexifient sans cesse et deviennent comparables à celle des processeurs pour ordinateur « de bureau ». Pour plus de détails sur certains termes employés ci-dessous et sur l’architecture des processeurs en général, on se reportera au dernier paragraphe.

La gamme « Cortex »

Les Cortex sont des processeurs 32 bits comprenant le jeu d’instruction ARMv7, une évolution de l’ARMv6, présent dans les puces « ARM11 » de l’iPhone 3 G par exemple. La gamme est constituée des Cortex A8, A9 et A15. Elle marque une réelle évolution dans la complexité de l’architecture des processeurs embarqués.

On se souvient que l’iPhone 3GS passait pour être 2 fois plus rapide que l’iPhone 3G. La raison principale étant que le 3GS possédait un Cortex A8 au lieu d’un ARM11. Or le Cortex A8 est « 2 issue », c’est-à-dire qu’il peut exécuter deux instructions pendant dans un même cycle d’horloge.

Malheureusement, il ne peut le faire que si les instructions sont indépendantes, car il ne peut pas réordonner les instructions. Il est dit « in order ». Il possède également un pipeline plus long (13 étapes) qui lui permet de briguer de plus hautes fréquences (1Ghz en 45nm).

Le Cortex A9, quant à lui, est aussi « 2 issue » mais en plus, il est « out of order ». Cela signifie qu’il peut réorganiser les instructions pour tirer un meilleur profit de son architecture superscalaire. De plus, il supporte le multi-core (jusqu’à 4 cœurs) et atteint les 1.2Ghz à 40nm. Le NVidia Tegra 2 et l’Apple A5 sont des exemples très populaires de Cortex A9.

Le Cortex A15 promet d’être un petit monstre : « 3 issues » out of order, quadri-cœur avec un pipeline de 15 étages… Le Texas Instrument OMAP5, le NVIDIA Tegra 3 et, peut-être, l’Apple A6 seront de ce type.

La Gamme « Snapdragon » de Qualcomm

Qualcomm est une entreprise très importante dans le domaine de la télécommunication. Elle produit quantité de puces pour téléphones mobiles et est à l’origine de la technologie CDMA, le protocole de 3G le plus utilisé à travers le monde (l’UMTS/HSPDA est surtout utilisé en Europe). Elle produit aussi les CPU de la ligne « Snapdragon », les S1, S2 et S3, équipés de cœurs « Scorpion », et S4, utilisant la nouvelle architecture « Krait ». Scorpion et Krait ont des architectures propriétaires, mais sont compatibles avec le jeu d’instruction ARMv7. Un peu comme AMD fabrique des processeurs x86 mais avec une architecture différente de celle d’Intel.

Les processeurs « Scorpion » se situent en quelque sorte entre les Cortex A8 et A9. Ils sont « 2 issue », dotés d’un pipeline plus long (10 étapes) que le A9, ils ne sont cependant que partialement « out of order ». Leurs fréquences d’horloge peuvent aller jusqu’à 1,5Ghz. Ils sont présents dans de très nombreux téléphones ainsi que dans le Lenovo LePad et le HP Touchpad.

La nouvelle génération « Krait », sera quand à elle complètement « out of order », et « 3-issue » avec un pipeline de 11 étapes. Un processeur assez comparable au Cortex A15 somme toute. Elle est attendue pour 2012.

Les Outsiders : Intel et AMD

C’est toujours un peu bizarre de placer Intel dans le camp des « outsiders » et pourtant, il est totalement absent du marché pour le moment. Intel, comme AMD fabrique des microprocesseurs x86, utilisé jusqu’à présent sur les PC « de bureau ». L’architecture x86 est très ancienne, puisque que son origine se retrouve dans le 8008 qui fut le premier microprocesseur 8 bits de l’histoire, lui-même faisant directement suite au 4004 qui fut tout simplement le premier microprocesseur de l’histoire tout court ! À l’époque, l’architecture x86 était relativement complexe : on parlait alors de design CISC pour « Complex Instruction Set Computer ». Des alternatives (Alpha, MIPS, PowerPC, ARM…) apparurent assez vite et se basaient sur un jeu d’instructions simples et uniformes, mais incompatibles avec le standard x86. Intel a fait le choix stratégique de préserver la rétrocompatibilité de ses processeurs. Ce choix lui a permis d’accumuler une logithèque et une base d’utilisateurs immense au fil des années et c’est probablement une des raisons de son succès. Malheureusement, on ne peut pas être gagnant sur tous les fronts. La simplicité des designs RISC (pour « Reduced Instruction Set Computer »), concurrents à Intel, s’est révélée cruciale pour fabriquer des processeurs compacts, économes et bien adaptés à la mobilité. Dans ce domaine, c’est ARM qui a fini par s’imposer, au détriment d’Intel, dont ça n’a jamais vraiment été le cœur de métier. Depuis quelques années cependant, Intel tente de refaire son retard avec ses processeurs Atom. Il faut dire que le « handicap » de la rétrocompatibilité x86 n’est plus aussi lourd qu’il y a 10 ans et le savoir-faire de ses usines, qui seront bientôt en mesure de graver des CPU « trigate » en 22nm, pourront largement le compenser.

Intel pari donc sur les Atom de la série « Medfield » puis « Silvermont » pour conquérir des parts de marché en 2012. On ne sait pas encore grand-chose sur les détails de l’architecture Medfield sinon qu’elle sera gravée en 32nm.

Pour AMD, frère ennemi d’Intel dans la famille x86, c’est la plateforme « Fusion » qui pourra se révéler intéressante dans les tablettes. AMD ayant fait le rachat d’ATI en 2006, il peut désormais fabriquer des puces incluant CPU et GPU. Ces dernières, issue des Radeon série 6200 sont d’ailleurs, pour le moment, bien plus efficaces que les GPU intégrées d’Intel. Fort de son architecture CPU basse consommation « Bobcat », l’avènement de Windows 8 sur les tablettes lui permettra peut-être de proposer des alternatives intéressantes, puisque compatibles avec toute la logithèque PC.

Les GPU (Graphics Processing Unit)

Comme les pour les CPU, il existe plusieurs modèles de GPU possibles pour constituer un SoC. En règle générale, les GPU sont constituées de multiple unités de calcul capables d’exécuter de tous petits programmes: les « shaders », décrivant comment rendre les pixels d’une scène en fonction de l’éclairage et des textures. Le nombre de ses unités, leurs fréquences et leurs sophistications vont conditionner la fluidité et la qualité de l’image. Tous les GPU du monde mobile sont compatibles avec l’API OpenGL ES, et certains (comme les PowerVR) le sont aussi avec des versions de DirectX (requis pour faire fonctionner Windows). En plus des scènes 3D et des effets graphiques de l’interface du système d’exploitation, les GPU accélèrent aussi le décodage de la vidéo. Le 1080p « high profile » (équivalent au Blu ray) est à portée de main. D’autres tâches, par exemple l’accélération des graphismes vectoriels (OpenVG) ou carrément le calcul parallèle (OpenCL) sont parfois aussi de la partie.

PowerVR

Dans les années 90, PowerVR (Imagination Technologie), était un sérieux concurrent des 3Dfx dans le coeur des gamers PC. Elle a aussi fait le bonheur des joueurs sur Dreamcast ! Pourtant, elle a peu à peu disparu des machines de salon pour s’épanouir dans les téléphones mobiles, les PDA, et maintenant les tablettes.

Les PowerVR utilisent des shader dit « USSE/USSE2 » pour « Universal Scalable Shader Engine », on en retrouve de 1 à 16 selon les modèles. On notera par ailleurs que les GPU aussi peuvent être multicores. Par exemple, le SGX543MP2, le GPU de l’Apple A5 est dual core, il possède un total de 32 cœurs. La série actuellement employée est la série 5, celle des SGX53X et SGX54X, déclinées en configurations 1 à 4 cœurs (la PS VITA, par exemple aura droit à un SGX543MP4 !). Ces puces sont compatibles OpenGL 2.x et DirectX 9 ce qui les rend compatibles Windows. On a d’ailleurs déjà vu des puces PowerVR dans les Intel Atom Z550. La future Serie 6 (Rogue) serait lancée en 2013 dans les SoC Nova de ST-Ericsson. Ci-dessous, Infinity Blade 2, optimisé pour le SGX543MP2 (iPhone 4S).

Adreno

ATI développait en son temps des solutions mobiles, les ATI Imageon (quelqu’un a eu un Toshiba E800 ??). Après le rachat par AMD, la branche Imageon a été cédée à Qualcomm qui l’a rebaptisée Adreno. Ces solutions devinrent les GPU de leurs puces Snapdragon. Les modèles actuellement utilisés sont les Adreno 220 (couplée avec « Scorpion ») et 225 (avec « Krait »). Ci dessous, une démo du Adreno 220.

Mali

Mali est la solution GPU proposée par la société ARM elle-même. Elle est compatible OpenGL ES 2.0, mais pas DirectX, et supporte les configurations 4 cœurs (Mali MP4). La dernière version disponible est le MALI 400MP4 utilisée par Samsung pour ses SoC Exynos (que l’on retrouve dans les Galaxy S2).

Le MALI T604 devrait être quatre fois plus rapide et supporter OpenCL ! Une partie des calculs lourds pourront ainsi être déportés du CPU sur le GPU. Ci dessous, une démo du ARM MALI 400.

Geforce

Les GPU geforce de NVIDIA sont bien connues des gamers PC. Des versions lights se retrouvent dans les SoC de la marque: les Tegra. La Geforce ULP (Ultra Low Power) d’une puce Tegra 2 possède 8 shaders compatibles OpenGL ES 2.0. Le Tegra 3 en comprendra 12. Les unités du Tegra 2 sont analogues à des Geforce 6 (de 2004) alors que celles du Tegra 3 seront proches des Geforce 8 (de 2006). Ci dessous, “Glowball”, la démo du Tegra 3.

Un autre petit tableau: qui fait quoi ?

Constructeur SoC CPU GPU Exemples de machines
Apple

A4, A5

Cortex A8, A9 (1Ghz)

PowerVR SGX535, SGX543MP2

iPad, iPad 2

NVIDIA

Tegra 2, Tegra 3

Cortex A9 (1Ghz / 1,2Ghz ?)

Geforce ULP

Asus Transformer et Transformer Prime

Texas Instrument

OMAP 4460, OMAP 5

Cortex A9, Cortex A15 (1,2-1,5Ghz)

PowerVR SGX 540, SGX544

Archos 101 (Gen9), Kindle Fire

Qualcomm

Snapdragon S3, S4

Scorpion, Krait (1,5Ghz – 2,5Ghz)

Adreno 220, 225

HP Touchpad (Scorpion)

Samsung

Exynos 4210, 4212

Cortex A9 (1,2 – 1,5Ghz)

ARM Mali 400MP4

Samsung Galaxy S2

Intel

Atom

Medfield, Silvermont

PowerVR ? GMA ?

Tablettes Windows 8 ?

AMD

Fusion C-30, C-50 etc.

Bobcat (64 bits 1Ghz)

Radeon 6200

Tablettes Windows 8 ?

Ce tableau est loin d’être exhaustif, de nombreux acteurs ne sont pas cités : NEC, Marvell, Freescale, VIA, etc. Il représente juste les principaux acteurs du marché et fait une place aux deux challengers possibles de 2012 – 2013.

Et les performances ?

Vu la complexité de chaque SoC, comparer les performances de chacun est loin d’être évident. Même de manière empirique, les résultats dépendent beaucoup du type de tâche et du degré d’optimisation des logiciels. Il faut donc rester très prudent quant à la fiabilité et à la pertinence de tels résultats comparé à une utilisation quotidienne. Néanmoins, ci-dessous, quelques résultats Coremark comparant les CPU de : l’Apple A5, le TI OMAP 4430, le Qualcomm Snapdragon S3, le NVIDIA Tegra 2 et le NVIDIA Tegra 3.

Bon, une chose est sûre, vous n’avez pas fini de faire des économies afin renouveler votre matériel pour toujours plus puissant, plus fin, plus léger, plus autonome !

Ce looong dossier s’achève, n’hésitez pas à lire ce qui suit si vous voulez éclairer certains termes ou certaines notions techniques utilisées plus haut.

Addendum : Un peu plus de technique… (youpi !)

Ce n’est peut-être pas complètement évident pour nous, simples consommateurs, mais coller à cette satanée loi de Moore est un véritable casse-tête. Une interprétation de cette « loi » (qui est par ailleurs totalement empirique) veut que la puissance des ordinateurs double tout les 18 mois. Plus facile à dire qu’à faire ! Parce que doubler la vitesse d’un processeur… ça se fait pas tout seul. D’ailleurs, les méthodes pour y arriver pourraient faire l’objet de plusieurs ouvrages, alors ici, on va essayer de simplifier un maximum.

Augmenter les performances : la fréquence

Un CPU est un circuit électronique composé de myriades de transistors (autour du milliard pour un Core i7 d’Intel) dont les commutations sont synchronisées par une horloge. Il y a plusieurs manières « d’accélérer » un CPU : augmenter sa fréquence, c’est-à-dire le nombre de cycles de travail par seconde, accroitre le travail effectué à chaque cycle, ou encore travailler sur plus de données à la fois.

La première solution semble bien plus simple, et de fait: elle l’est. Sauf qu’à mesure qu’on augmente la fréquence, on augmente aussi la consommation et la température du processeur qui finit par… fondre. C’est que même si la commutation d’un transistor unique consomme et dissipe une énergie minuscule, le faire des milliards de fois par seconde sur des milliards de transistors vous permettra sans problème de faire un cuire un œuf sur votre micro processeur.

Heureusement, il y a des solutions techniques pour limiter la casse. La première repose sur la taille des composants, lié à la finesse de gravure des puces. Au plus les composants sont petits, au moins ils consomment. Les processeurs modernes ont des finesses de gravure comprises entre 45nm et 28nm. Mais cela ne suffit pas forcément pour atteindre plein de gigahertz. On doit aussi « pipeliner » le processeur.

Chaque « fonction » d’un processeur moderne est scindée en plusieurs miniétapes qui devront être accomplies successivement, et qui ne prennent en général qu’un cycle d’horloge. Les étapes sont en « pipeline », c’est-à-dire organisées comme sur une chaine de montage d’usine. Chacune donne son résultat partiel à la suivante. Quand le pipeline tourne à plein régime, chaque instruction exécutée, même complexe, ne parait prendre qu’un seul cycle. Un autre bénéfice est qu’au plus le pipeline est long, au plus les étapes sont « élémentaires ». Chacune consommant moins d’énergie, le processeur peut monter un petit peu plus en fréquence.

Un exemple extrême serait le pentium 4 Prescott dont le pipeline possède 31 étapes. Il montait jusqu’à 3.8Ghz en 90nm ! Il reste que la fréquence maximale est finalement limitée par la technologie de gravure employée.

Augmenter les performances : l’ILP

La seconde solution consiste à augmenter ce que l’on appelle l’ILP pour « Instruction Level Parallelism ». Puisqu’on ne peut pas avoir plus de cycles, on fait plus de choses à chaque cycle. Un programme et un flot d’instructions, pourquoi ne pas essayer d’en exécuter le maximum à la fois ? Les processeurs capables de faire cela sont dits « superscalaires ». Le premier CPU grand public à pourvoir le faire avec deux instructions fut le Pentium d’Intel (oui, celui qui est sorti buggé… !). On dit qu’il est « 2 – issue ». Bien sur, les instructions d’un programme ne sont pas sans suite logique et dépendent souvent l’une de l’autre. Du coup, faire un CPU « 3 – issue » n’apporte pas forcément grand-chose. Sauf si on n’est pas capable de réorganiser le programme pour utiliser au mieux les 3 unités d’exécution. Le pentium pro et son cousin le Pentium 2 furent les premiers processeurs Intel à proposer 3 pipelines (2 simples et un complexe) avec réorganisation à la volée des instructions. On dit qu’ils sont “out of order” puisqu’ils n’exécutent par forcément les instructions dans l’ordre. Pratiquement tous les processeurs modernes sont superscalaires et « out of order », même dans le monde de la mobilité (Cortex A9, A15 Snapdragon S4 etc). Cela dit, augmenter l’ILP devient de moins en moins rentable au fur et à mesure que les processeurs deviennent plus « larges ». Le surcroît de complexité nécessaire fini par annuler le gain de performances obtenu.

Augmenter les performances : le DLP

Pour faire plus de travail par cycle d’horloge, on peut aussi travailler sur plusieurs nombres à la fois plutôt qu’un seul. C’est le DLP « Data Level Parallelism ». Les processeurs étaient à l’origine « scalaires », c’est-à-dire que par exemple, dans une addition : a = b + c, a, b et c sont des nombres, des “scalaires” comme on dit en mathématiques. L’idée est de remplacer ces nombres par des vecteurs, c’est-à-dire des groupes de nombres. On travaille alors en SIMD, « Single Instruction Multiple Data ». La première occurrence de SIMD dans le grand public (les ordinateurs Cray étaient déjà vectoriels depuis un bail…) est le MMX, introduits avec une révision du Pentium. Les registres MMX font 64 bits et peuvent être utilisés, par exemple, comme des groupes de 4 entiers de 8 bits. Avec le Pentium 3, on passe au SSE (pour « Streamed SIMD Instruction ») de 128 bits de longueurs, utilisables en virgule flottante. Dans le monde ARM, c’est le jeu d’instructions NEON (en 64 ou 128 bits) qui fournit des capacités SIMD aux processeurs Cortex. Très efficace pour certains types de calcul, le SIMD n’est néanmoins pas si simple à utiliser à son maximum. Cela demande un effort non négligeable du côté des programmeurs.

On l’a vu, si on augmente trop la fréquence, on se heurte à un « mur thermique ». Augmenter l’ILP à ses limites, le SIMD n’est pas adapté à toutes les tâches. Alors que faire des tous les transistors que les processus de fabrications toujours plus sophistiqués mettent à notre disposition ? Et bien… pourquoi ne pas mettre plusieurs processeurs en un ? Banco !

Augmenter les performances : le TLP

Que faire quand on a saturé les performances d’un processeur ? Et bien on en prend deux. Mettre deux processeurs (ou 4 ou 8…) en parallèle n’est pas nouveau et ça ne l’était pas non plus en 2005 quand AMD a introduit son Athlon 64 X2. La nouveauté, c’était que les deux processeurs étaient non seulement dans le même package, mais gravés sur le même die. L’ère du multicœur avait commencée. Le problème, c’est qu’avoir deux cœurs dans un même processeur n’apporte rien si le programmeur n’en tient pas compte. Pour profiter de cette puissance supplémentaire, le programmeur doit scinder son programme en plusieurs sous-programmes (threads) s’exécutant en parallèle. On parle ainsi de multithreading et de TLP «Thread Level Parallelism ». Le multicoeur a gagné nos machines mobiles dès l’iPad 2 avec les premiers Cortex A9. Aujourd’hui, le multicoeur est toujours plus « multi », 4 cœurs pour un ordinateur portable milieu de gamme, et jusqu’à 12 pour un Opteron « Magny court » d’AMD. À tel point que la prochaine étape semble être le manycore : plusieurs dizaines ou centaines de cœurs et beaucoup de migraines pour les programmeurs à la clé…

Bon, on pourrait continuer des heures, mais on arrêtera ici ce qui n’est bien sûr qu’un modeste aperçu du domaine : on n’a par exemple pas du tout parlé de la problématique de la mémoire ! Mais bon, si ça vous intéresse vraiment, la licence d’informatique vous attend !

Source : Tablette-Tactile.net au 27/10/2011

[France] La 4G en questions

1. Introduction

Le premier réseau 3G a été ouvert en France en 2004. 7 ans plus tard, la relève se prépare sous la forme de réseau de quatrième génération, autrement dit la 4G. De quoi s'agit-il ? Quels débits peut-on espérer ? Quels seront les avantages pour les utilisateurs au quotidien ? Les pièges qu'il faudra éviter ? Alors que les premières licences ont été accordées aux opérateurs, nous avons décidé de faire le tour du très haut débit mobile, en 8 questions.

2. Quelles seront les performances de la 4G ?

100 Mbit/s en théorie

Quand vous surfez aujourd'hui sur votre smartphone en 3G+ vous êtes le plus souvent limités à 3,6 Mbit/s (seuls quelques forfaits onéreux et/ou destinés aux professionnels ou aux clés 3G montent à 7,2 Mbit/s ou plus). C'est déjà beaucoup mieux que la 3G (384 Kbit/s). Mais c'est encore très loin de ce que promet la 4G, tout du moins celle que les opérateurs devraient lancer en 2012. Elle peut théoriquement donner accès à Internet à 100 Mbit/s.

Tout cela reste cependant encore assez flou. La faute en incombe à la fois à un standard trop souple et aux opérateurs qui ne s'engagent pas encore sur les débits qu'ils offriront.

Jusqu'en octobre 2010, l'Union Internationale des Télécommunications (UIT) considérait que le terme 4G devait s'appliquer aux technologies capables de délivrer des débits l'ordre de 100 Mbit/s en usage mobile (smartphone en déplacement constant), et 1 Gbit/s en usage nomade (ordinateur immobile pendant son utilisation). Deux mois et demi plus tard, l'UIT assouplissait son discours et déclarait qu'"il est admis que [le] terme [4G], bien que n'étant pas défini, peut également désigner […] les technologies LTE et WiMax, ainsi que d'autres technologies 3G évoluées apportant une amélioration sensible de la qualité de fonctionnement et des capacités par rapport aux premiers systèmes de troisième génération en service aujourd'hui."

Dans certains pays comme les USA, on a donc commencé à vendre des smartphones et des forfaits 4G sans avoir changé les réseaux, la 3G HSPA+ pouvant être considérée comme de la 4G. En France, Orange, SFR et Bouygues se sont heureusement abstenus et le terme 4G est resté synonyme de la nouvelle génération de réseaux, dits LTE (Long-Term Evolution, l'évolution des réseaux UMTS lancés au début des années 2000).

Les performances théoriques du LTE sont connues : jusqu'à 100 Mbit/s en téléchargement pour ses premières moutures. Les équipementiers et opérateurs ont commencé à tester le LTE et ont déjà réalisé quelques démonstrations. Dans ces cas idéaux, nous avons pu constater de visu des débits proches de la théorie.

Cependant en pratique, les opérateurs pourraient ne pas ouvrir grand les vannes du LTE. SFR nous a ainsi confié que ses futures offres 4G se limiteraient sans doute en moyenne entre 5 et 12 Mbit/s en téléchargement (et 2 à 5 Mbit/s en upload). L'opérateur explique que ces chiffres représentent une performance moyenne réellement constatée et non pas seulement un chiffre théorique obtenu la nuit quand tout le monde dort. De son côté, l'ARCEP a défini un débit minimum de 30 Mbit/s pour les réseaux à très haut débit mobile. Rappelons que la plupart des connexions internet "fixe" par ADSL plafonne à 20 Mbit/s.

10 fois moins de latence

Le débit ne fait pas tout. Le second grand avantage théorique de la 4G est sa plus faible latence. Grâce à une infrastructure réseau simplifiée nécessitant moins d'équipements et reposant intégralement sur le protocole IP, la latence du LTE est censée être divisée par 10, soit 10 ms en théorie contre 100 ms en 3G/3G+.

En pratique les gains ne seront pas forcément aussi spectaculaires. Nos confrères d'Anandtech ayant déjà pu tester le réseau LTE déployé par AT&T aux USA ont constaté une diminution de 150 ms en 3G HSPA+ à 65 ms en LTE en moyenne. En France, selon notre expérience personnelle en région parisienne, la 3G/3G+ peut déjà garantir une latence moyenne de 100 ms. En appliquant le même facteur de diminution, le LTE pourrait donc descendre à moins de 50 ms.


3. Quels nouveaux usages ?

Remplacer l'ADSL, voire la Fibre

Télécharger à 100 Mbit/s sur son mobile cela peut paraître inutile. Mais ce serait oublier que les smartphones ne seront pas les seuls usagers des réseaux à très haut débit mobile. La 4G pourra aussi être mise à profit par des PC via des clés modem. Les réseaux mobiles à très haut débit pourront alors représenter une solution d'accès à Internet intéressante pour tous les habitants de zones mal desservies en ligne fixe.

Grâce à la 4G, on pourrait imaginer se passer de connexion fixe par ADSL (qui plafonnent à 28 Mbit/s) voire même par fibre, le LTE promettant des débits maximums équivalents. Le LTE peut donc être envisagé à terme comme le chaînon manquant dans les technologies d'accès à internet haut débit. Pour qu'il le soit réellement il faudrait cependant que les opérateurs créent des forfaits adaptés à un usage fixe, comprenant un quota de téléchargement largement supérieur aux 2 ou 3 Go que l'on connaît aujourd'hui. Une piste proche est explorée en Allemagne : le LTE pourrait y être utilisé pour remplacer la boucle locale en cuivre, c'est-à-dire relier les domiciles des abonnés aux noeuds de raccordement ADSL.

Mais la 4G a pour vocation principale d'accélérer la navigation sur smartphones et tablettes. Sur ces terminaux, c'est moins le débit descendant maximum qui donnera naissance à de nouveaux usages que la faible latence et le plus grand débit montant.

Partage de vidéos, en direct

Grâce à un upload enfin suffisant, les reporters audiovisuels pourraient recourir à la 4G pour transmettre leurs images en direct sans devoir installer une liaison satellite. Ce modèle pourrait même s'étendre à tout un chacun : imaginez le 11 septembre 2001 vu par des centaines de smartphones vidéo 4G aux alentours, ou un rendez-vous sportif important filmé par ses spectateurs. Cet avenir peut paraître utopique, mais c'est l'un des usages les plus sérieusement envisagés par les opérateurs. Reste à créer les plateformes de partage de ces futures chaînes de télévision personnelles en direct.

VoD en voiture et jeux en réseau

Les équipementiers automobiles réfléchissent de leur côté à intégrer des modems 4G dans les voitures, ce qui donnera accès en voyage à des services inédits comme de la vidéo à demande.

Par ailleurs, si la latence de la 4G s'établit bel et bien aux alentours des 10 ms, elle sera aussi faible que celles des liaisons ADSL, câble ou fibre. Il deviendra dès lors possible d'utiliser son smartphone ou sa tablette pour jouer en réseau, comme un PC. Vu le succès des jeux sur mobile et les capacités graphiques impressionnantes des modèles de dernière génération comme la PlayStation Vita ou l'iPhone 4S, on peut prédire sans trop de risque une explosion des jeux en réseaux sur 4G. Une faible latence pourrait aussi donner des ailes aux plateformes de "Cloud Gaming" comme celle d'OnLive.

4. Qui pourra en profiter ?

Orange, SFR, Bouygues s'enorgueillissent à longueur de publicité : leurs réseaux couvrent quasiment 100 % de la population française. Certes, mais pas en 3G. Les couvertures 3G/3G+ sont bien plus restreintes, même 7 ans après l'ouverture des premiers réseaux 3G.

Pour la 4G, les autorités ont décidé de forcer les opérateurs à combler la "fracture numérique" entre zones urbaines denses et zones rurales et ont fixé des objectifs précis conditionnant l'obtention d'une licence 4G.

L'ARCEP a défini une zone de déploiement prioritaire qui "représente environ 18 % de la population métropolitaine et 63% du territoire". Cette zone est mal couverte en 3G car la 3G utilise principalement des fréquences "hautes" dans la bande 2,1 GHz qui ne se propagent pas loin. Les licences 4G donnent accès à des fréquences plus basses, autour de 800 MHz, qui sont capables d'une meilleure couverture. Les opérateurs 4G devront respecter deux engagements de déploiement dans cette zone prioritaire : 40 % à 5 ans, 90 % à 10 ans.

Hors cette zone privilégiée, les opérateurs sont soumis à deux engagements différents selon les fréquences utilisées.



Enfin, l'ARCEP a aussi fixé un taux de couverture minimal de la population dans chaque département métropolitain de 90 % à une échéance de 12 ans. Rien ne dit que les opérateurs respecteront ces engagements, mais on peut tout de même raisonnablement espérer une amélioration de la couverture des zones blanches.

Le LTE promet aussi une couverture plus homogène. En 3G le débit disponible en bordure d'une cellule est en effet nettement inférieur à celui obtenu au coeur de la cellule. En LTE, la différence est réduite.

5. La 4G fera-t-elle baisser les prix ?

L'effet Free Mobile

Le marché de la téléphonie mobile en France est dominé par les trois seuls opérateurs à posséder un réseau propre : Orange, SFR et Bouygues. Free Mobile a décroché une licence 3G et sera parmi les 4 opérateurs 4G. Or, Free mobile a depuis longtemps annoncé vouloir casser les prix et on a vu en quelques mois les opérateurs historiques lancer des offres moins onéreuses en prévision (Bouygues B&U, Orange Sosh, SFR Red). Free mobile ne pourra cependant pas déployer rapidement un réseau 3G à la hauteur de celui de ses concurrents. En 4G par contre, chacun part de zéro.

Seule ombre au tableau, alors que les licences 3G étaient identiques pour les trois opérateurs historiques (10 MHz duplex au départ, puis 15 MHz duplex à partir de 2004), les licences 4G sont de nature inégale. Vu le peu de spectre radio restant, l'ARCEP a défini un processus d'enchères permettant au plus offrant d'emporter une bande passante plus importante. Dans la bande de 800 MHz par exemple, les 30 MHz (duplex) mis aux enchères sont découpés en quatre lots : deux de 10 MHz, deux de 5 MHz. Un même opérateur pourra acheter un maximum de 15 MHz ce qui lui donnera un réseau d'une capacité ou d'une vitesse 3 fois supérieure ou à celui d'un concurrent n'ayant que 5 MHz. Dans le cas où seuls trois opérateurs rafleraient l'ensemble des 30 MHz, l'ARCEP a prévu pour le quatrième un droit automatique d'accès en itinérance aux fréquences de l'opérateur ayant obtenu 15 MHz.

La bande des 800 MHz est découpée en 4 lots de 10 MHz ou 5 MHz duplexLa bande des 800 MHz est découpée en 4 lots de 10 MHz ou 5 MHz duplex

Les licences dans la bande 2,6 GHz - déjà attribuées - sont plus homogènes. Orange et Free Mobile ont remporté chacun un lot de 20 MHz duplex, alors que SFR et Bouygues Telecom sont repartis avec 15 MHz duplex chacun. Free mobile pourra donc avoir les moyens de ses ambitions en créant un réseau de forte capacité dans les zones denses.

Payer plus, pour surfer mieux

Cependant, il n'est pas sûr que les forfaits 4G soient moins onéreux. Les forfaits des opérateurs sont aujourd'hui encore échelonnés selon l'usage "voix" (on paie plus pour plus d'heures d'appels) mais les offres ont évolué cette année avec l'apparition de forfaits voix "illimités" peu onéreux. De plus en plus de clients étant intéressés par l'Internet mobile, le marché devrait logiquement se transformer dans les mois à venir pour être segmenté selon la qualité de la connexion Internet, du volume de données compris dans le forfait et de la rapidité de la connexion. Dans cette logique, les premiers forfaits 4G devraient être également plus onéreux. En outre, pour profiter de la 4G il faudra bien sûr investir dans un nouveau téléphone ou un nouveau modem.


6. Pourra-t-on éviter la saturation des réseaux ?

Contrairement aux apparences, les opérateurs n'aiment pas les gros consommateurs d'Internet mobile. À cause des smartphones, des tablettes et des clés 3G, le trafic "data" explose : Stéphane Richard, PDG de France Telecom annonçait en début d'année avoir constaté une hausse de 5 % du trafic par semaine, soit 1200 % par an. Or, les infrastructures ne peuvent pas évoluer au même rythme. Et même si les opérateurs limitent les velléités de leurs clients en imposant des quotas (ou "fair use") très bas sur la plupart des forfaits et en faisant payer cher le Mo supplémentaire, le risque d'une saturation rapide des réseaux mobiles fait trembler l'industrie. Heureusement, le déploiement des réseaux LTE apportera une véritable bouffée d'oxygène.

La capacité des réseaux mobiles dépend en effet directement de la quantité de fréquences qu'ils peuvent utiliser. La 4G s'accompagne de l'attribution de nouvelles fréquences aux opérateurs réparties sur deux bandes : 30 MHz autour de 800 MHz et 120 MHz autour de 2,6 GHz. Par ailleurs, la technologie de transmission radio des réseaux LTE est plus efficace que celle des réseaux 3G/3G+. Pour un même spectre disponible, il est possible de servir jusqu'à 10 fois plus de clients en LTE qu'en 3G. Ces deux facteurs cumulés devraient permettre la croissance de l'Internet mobile pendant les années à venir. Mais il faudra tôt ou tard trouver de nouvelles ressources : on parle déjà d'utiliser les fréquences de 3,5 GHz aujourd'hui dévolues aux réseaux Wimax.

7. Quels effets sur l'environnement, la santé ?

Des antennes plus économes...

Le déploiement du LTE va forcer les opérateurs à installer de nouveaux équipements. Paradoxalement, le LTE devrait aussi permettre de rendre le réseau plus "vert". Comment ? La réponse tient dans le fait que les équipements de 2011 peuvent servir à la fois à la 4G mais aussi à la 3G ou à la 2G. Les équipementiers parlent de "Software Defined Radio" (SDR) ou radio définie par logiciel : un même matériel peut être configuré pour créer des réseaux différents. Ainsi, selon ZTE, une armoire SDR peut remplacer à elle seule 6 anciennes armoires. La consommation électrique s'en trouve divisée par 3 au moins. Pour les opérateurs, l'investissement de départ peut être assez vite amorti grâce aux économies réalisées sur leur facture EDF.

(source : ZTE)

Mais aussi plus nombreuses

Cependant, la 4G n'a pas que des avantages. Parmi les inconvénients les plus visibles citons la multiplication des antennes relais nécessaires. Les nouvelles fréquences autour de 2,6 GHz attribuées aux opérateurs pour leur licence 4G se propagent moins bien que les fréquences 2G ou 3G utilisées aujourd'hui. La taille des cellules du réseau est donc inférieure il faut donc un plus grand nombre d'antennes pour couvrir une zone géographique donnée. Étant donné la défiance du public vis-à-vis des antennes relais, les opérateurs auront sans doute quelque mal à trouver des sites où poser leurs nouvelles antennes.

Heureusement, en dehors des zones très densément peuplées où le réseau doit avoir une forte capacité, les opérateurs pourront déployer la 4G via les fréquences de 800 MHz qui, elles, réalisent une très bonne couverture. En outre, l'ARCEP prévoit que dans ces zones, les opérateurs pourront mutualiser leurs réseaux pour optimiser l'utilisation du spectre et surtout tenir leurs objectifs de couverture.


8. La 4G brouillera-t-elle la TNT ?

L'affaire a fait grand bruit cet été : la 4G pourrait brouiller la réception de la télévision numérique terrestre. La 4G sera en effet déployée en partie sur des fréquences dites du "dividende numérique", utilisées jusqu'alors par la télévision analogique et très proches de celles de la TNT. L'écart de fréquences est réduit entre les deux émissions et dans certains cas, mal caractérisés pour le moment, 4G et TNT interféreront. Bouygues estime que jusqu'à 20 % des foyers pourraient être touchés. L'ARCEP table au contraire sur seulement 150 000 à 500 000 foyers.

Le problème a été soulevé par Bouygues Telecom fin juin et n'a pas trouvé de solution définitive pour le moment. Le projet de loi de finances 2012 prévoit pour le moment la procédure suivante : les plaintes des usagers seront collectées par l'Agence Nationale des Fréquences via un centre d'appels dédié et un numéro de téléphone unique qui seraient financés collégialement par les opérateurs à hauteur de 2 millions d'euros par an. La prise en charge du coût des travaux nécessaires à l'élimination des brouillages est une question encore ouverte. SFR milite pour la création d’un fonds spécial commun. Les interventions ne seront en effet pas anodines puisqu'il faudra très probablement poser des filtres sur les antennes TNT de tous les usagers perturbés.

9. Quand ?

La 4G est déjà une réalité pour une bonne partie du monde. La Suède en bénéficie depuis fin 2009 grâce à Telia Sonera, Hong-Kong, le Japon, et même les Etats-Unis ont tous un ou plusieurs réseaux LTE actifs depuis la fin 2010. Plus près de nous, l'Allemagne connaît également le LTE depuis cette année.


En France, les premières licences d'exploitation dans la bande 2,6 GHz ont été attribuées le 11 octobre. Celles pour les fréquences de 800 MHz le seront en tout début de l'année 2012. Il faudra ensuite attendre de longs mois avant l'ouverture commerciale des réseaux LTE. Les opérateurs ne s'engagent pas sur un planning mais SFR nous a confié récemment viser la fin 2012 au mieux, et plus probablement en 2013, le temps du déploiement d'un réseau avoisinant les 18 mois. Bouygues Telecom a évoqué publiquement un calendrier similaire : 2012/2013. Etant donné que de nombreuses expérimentations ont déjà eu lieu sur le LTE, on aurait pu espérer une meilleure réactivité.

Pour l'IDATE, il faut s'attendre à ce que le LTE ne soit massivement déployé dans le monde qu'aux alentours de 2015. A cette date, ironiquement, les pays les plus avancés seront déjà en train de migrer vers le LTE Advanced, qui promet un nouveau bond en performance : ses promoteurs visent 1 Gbit/s en réception.

Source : Tom's Hardware au 27/10/2011

Conversations secret défense

Téléphoner en toute sécurité sens crainte d’être écouté par des oreilles indiscrètes, c'est ce que permettent les premiers téléphones ultra-sécurisés Teorem, fabriqués par Thales. La Direction générale de l'armement en a livré les 1000 premiers exemplaires aux plus hautes instances de l'État et des armées. Le Teorem authentifie chaque correspondant par un certificat numérique et affiche le niveau, de sensibilité de la communication (de non protégé à secret défense) il est compatible 2G, 3G RTC. RNis, et VoIP, et fonctionne sur les réseaux de tous les opérateurs dans le monde. En tout, 14000 terminaux ont été commandés par la DGA. La France est le deuxième pays au monde à se doter d'une telle technologie après les États-Uns.

Source : L'OI-SVM du Mois Novembre 2011

MIKHAÏL FRIDMAN À ALGER EN DÉLÉGATION OFFICIELLE : Medvedev n’a pas convaincu Bouteflika

Personne ne s’en souvient clairement, mais Mikhaïl Fridman était à Alger, accompagnant son président Medvedev, il n’y a pas très longtemps. Le président russe Dmitri Medvedev effectuait en octobre 2010 une visite de quelques heures à Alger, accompagné d’une forte délégation d’hommes d’affaires, dont l’objectif était le renforcement des relations économiques avec cet allié traditionnel de Moscou, mais aussi de faire banco, en repartant à Moscou avec le maximum de contrats d’affaires. Medvedev a été accueilli à sa descente d’avion avec tous les honneurs militaires, dont les 21 coups de canon, par le président Abdelaziz Bouteflika, par le Premier-ministre Ahmed Ouyahia et plusieurs de ses ministres. Mais, au-delà des aspects politiques, le commerce sentait à mille lieues à la ronde, et l’accent de cette visite est surtout mis sur les relations économiques russo-algériennes avec des échanges avoisinant seulement 500 millions de dollars annuels. Parmi les hommes d’affaires venus avec Medvedev, on remarquait le patron du géant Gazprom Alexeï Miller, celui du géant russo-norvégien VimpelCom, Alexander Izosimov, et le milliardaire Mikhaïl Fridman du groupe TNK-BP. Medvedev n’a pas laissé passer l’occasion pour parler à Bouteflika de Vimpelcom, qui venait alors de racheter 100% de l’Italien Wind et 51% de l’Égyptien Orascom à Naguib Sawiris. Fridman cherchait visiblement à se placer de fait, à la tête de l’opérateur mobile Djezzy en Algérie. Bouteflika, au courant de tous les aspects de l’affaire, n’a pas donné de signes positifs aux Russes, qui sont repartis sinon bredouilles, pour le moins indécis. Pour preuve, Alexander Izosimov déclarait à Moscou qu’il voulait « garder cette entreprise florissante, mais que si le gouvernement algérien insistait, nous serons naturellement prêt à envisager la vente de cet actif ».

Source : Quotidien Le Courrier d'Algérie du 27/10/2011

UN JUIF À LA TÊTE DE VIMPELCOM : Mikhaïl Fridman : un homme au dessus de tout soupçon ?

Mikhaïl Maratovitch Fridman est un homme d’affaires russe né le 21 avril 1964. Comme tous les grands de l’oligarchie russe, il est d’origine juive. Il fait ses études à Moscou et obtient un diplôme d’ingénieur. Dès le début des années 90, il se lie à un autre puissant homme d’affaires et politicien russe, Piotr Aven, réputé proche de Boris Eltsine et de Vladimir Poutine, En 2008, il est le 23e homme le plus riche du monde avec une fortune de plus de 20 milliards de dollars. Grâce à une gestion musclée de ses affaires, Mikhail Fridman est devenu le 4e homme le plus riche de Russie, avec une fortune personnelle estimée à 6,3 milliards de dollars américains par le magazine « Forbes ». Des rapports des services secrets russes en dressent un tableau inquiétant. «Au premier abord, il a l’air avenant, posé et sérieux. Son calme apparent dissimule en réalité un caractère vindicatif, qui trahit une forte propension à l’agressivité. Maître de ses émotions, il n’en est pas moins susceptible et rancunier. En affaires, il a tendance à choisir des partenaires moins capables que lui.» Tel est le profil de Mikhail Fridman esquissé dans une note interne des services secrets russes (FSB). Un profil qui explique bien comment il a pu connaître une ascension sociale aussi rapide, alors qu’il partait de rien… Originaire de Lviv, en Ukraine, Mikhail Fridman est allé étudier dans les années 90 à l’Institut de l’acier et des alliages de Moscou et s’est vite orienté vers l’entreprenariat, en profitant des premières fissures de la perestroïka de Gorbatchev. Il a tout d’abord monté une coopérative étudiante de lavage de vitres, puis créé trois sociétés : Alfa- Foto, Alfa-Eco et Alfa- Capital. Ces sociétés lui rapportaient de l’argent en important en Russie des denrées rares, comme des jeans et des ordinateurs, et surtout des matières premières comme le sucre. Mais voilà, en 1995, la police russe a découvert de la drogue dans des wagons de train stationnés dans une gare sibérienne. Affrétés par Alfa, ils étaient censés contenir du sucre, selon Novaya Gazeta… À la suite d’une perquisition dans les locaux d’Alfa- Eco, des officiers du FSB ont alors confié aux médias russes qu’ils avaient assez de preuves pour coffrer Mikhail Fridman. Or, rien ne s’est passé. Une note interne du FSB, selon Novaya Gazeta, indique qu’Alfa aurait bénéficié de protections politiques depuis qu’il avait versé 500 000 dollars américains pour la nomination, en 1992, d’Igor Gaïdar au poste de Premier ministre de Boris Eltsine… Devenu un financier influent avec Alfa, Mikhail Fridman a contribué à la réélection de Boris Eltsine en 1996. Un an après, quand l’État russe a décidé de privatiser 40% du capital de la Compagnie des pétroles de Tioumen (TNK), l’un des fleurons de l’industrie pétrolière russe, il a empoché le lot à bas prix. Et il a mis la main sur les 60% restants en 1999, à un prix si indécent que la Douma a adopté une résolution demandant l’annulation de la vente. En vain… Alfa a ensuite grandi à coups d’acquisitions souvent musclées, recourant à l’astuce de la mise en faillite forcée de sa cible pour racheter par la suite ses actifs à vil prix, selon le témoignages d’officier, du FSB aux médias russes. Un exemple est révélateur, celui de Kondpetroleum.

Source : Quotidien Le Courrier d'Algérie du 27/10/2011

Comment Naguib Sawiris a voulu piéger l’Algérie…

Fragilisé par le recul de Djezzy en Algérie, par ses démêlés avec le fisc, ses affaires commerciales au détriment de l’Algérie -qui lui avait pourtant ouvert toutes les portes et facilité les tâches pour son implantation – Sawiris, en bon homme d’affaires, guidé par son seul flair des affaires, avait estimé bon de se débarrasser d’une filiale devenue encombrante, en la cédant au géant russe VimpelCom. En agissant de la sorte, Sawiris cherchait surtout à se tirer d’affaire, en empochant six milliards de dollars et mettre Alger et Moscou face à face. Un tel scénario était faisable, mais manquait à Sawiris l’essentiel : une victime. Car l’Algérie ne voulait pas – et ne pouvait pas- jouer le rôle de la victime que le casting de Sawiris lui avait affecté. De fait, l’Algérie ne discutera pas avec VimpelCom du rachat par l’État de Djezzy, la filiale algérienne d’Orascom Télécom Holding. Les discussions avec le groupe de Naguib Sawiris auront lieu à la fin du mois de juin 2011, et porteront sur un seul sujet : le rachat définitif de Djezzy par l’État algérien. Se rendant compte qu’il ne pouvait plus vendre sa filiale algérienne, Naguib Sawiris tente alors de contourner, en partie, cet obstacle. Prospectant le marché de la téléphonie mobile, et observant la percée de VimpelCom, Sawiris, le copte, prend contact avec Fridman, le Russe d’origine juive. L’opérateur mobile VimpelCom, en partie détenu par le milliardaire russe Mikhaïl Fridman, négocie pour le rachat d’OTH, le groupe de Naguib Sawiris. L’opération consiste en le rachat de l’Italien Wind et la prise de contrôle de 51% d’Orascom Télécom Holding (OTH). Le montant de la transaction s’élève à 6,6 milliards de dollars. De ce montant, 1,8 milliard de dollars seront versés en espèces à la famille Sawiris et le reste via l’émission de 326 millions d’actions. Le nouveau groupe VimpelCom sera alors détenu à hauteur de 31,7% par le norvégien Télénor, tandis que 31,4% seront détenus par le russe Alfa-Group. Le reste des actions seront la propriété des minoritaires dont Orascom. L’État algérien ne cherche même pas à protester, jugeant inutile de discuter avec d’autres parties que OTA, seul interlocuteur juridique et commercial, soulignant qu’il ne compte pas engager des négociations avec le Russe VimpelCom.

Source : Quotidien Le Courrier d'Algérie du 27/10/2011

MOUSSA BENHAMADI AU «COURRIER D’ALGÉRIE» : «Le processus de rachat de Djezzy par l’Algérie est irréversible»

Accroché lors des journées d’études organisées sur les TIC, le ministre de la Poste et des Technologies de l’information et de la communication, Moussa Benhamadi, s’est volontier prêté au jeu des questionsréponses, avec la courtoisie et l’obligeance qui lui sont si familières. Où en êtes-vous avec le dossier concernant la rachat de Djezzy ? Les négociations entamées entre l’État algérien et les propriétaires de l’opérateur égyptien Orascom Télécom concernant la vente de Djezzy continuent, et ne se sont pas arrêtées en réalité. L’évaluation du dossier de l’opérateur de téléphonie mobile « Orascom Télécom Algérie » devait être bouclée à la fin du mois de juin dernier. Il y aura un léger retard… Donc, à partir de la finalisation de son évaluation, Djezzy passera entre les mains de l’Etat. Toutefois, OTH peut-il concrètement vendre Djezzy à qui il veut ? L’État algérien a engagé un processus de rachat, se basant pour ce faire sur des données sérieuses et concrètes. Cela ne peut prêter ni à quiproquo, ni encore moins à révision, car le processus de rachat de Djezzy par l’Algérie est irréversible. Il nous faut juste attendre la finalisation du dossier, et la clôture du bureau d’évaluation pour ensuite passer à l’étape finale, celle du rachat de l’entité. Sawiris n’a-t-il pas prit l’État algérien de court, en engageant des négociations de vente de Djezzy au géant russe VimpelCom ? Ecoutez, et notez bien : tout le tapage fait autour de cette question est inutile. L’État algérien connaît OTA, avec lequel il a négocié, avec qui il a traité et signé des documents commerciaux. OTA est le père de Djezzy, et c’est avec lui que nous discutons et négocions. Si l’on veut remonter plus haut, on peut trouver à Djezzy un grand-père, et c’est OTH. Audelà, nous ne connaissons à Djezzy aucune autre filiation. Vous comprenez ? (large sourire du ministre, qui nous quitte sur cette allusion).

Source : Quotidien Le Courrier d'Algérie du 27/10/2011

ALGER MAINTIENT LE CAP SUR SON RACHAT AVANT LA FIN DE L’ANNÉE

Comment Djezzy était programmé pour finir entre les mains de la mafia juive, en Russie.

Dernier clap du feuilleton Djezzy ? Tout porte à le croire, après la fin de non-recevoir opposée par Alger à VimpelCom. Il est vrai que Djoudi a reçu le patron de Vimpelcom pendant cinq heures, cependant, Alger n’a rien vu venir de bon. Le géant russe de la téléphonie mobile a fait envoyer Jo Launder, PDG de VimpelCom, alors que le véritable patron, Michael Fridman, était ailleurs. Et c’est parce que le véritable patron de VimpelCom, très introduit en Russie, mais aussi aux États-Unis, en Espagne et en Israél, était à l’affût que l’Algérie campe toujours sur sa position dans le dossier Djezzy, qui dure depuis maintenant deux ans. Le travail d’évaluation financière de Djezzy est mené actuellement par le cabinet spécialisé FTI Consulting, l’un des plus importants au monde dans ce domaine. FTI a été engagé par le cabinet d’avocat Sherman & Sterling LLP qui a obtenu en janvier dernier le contrat auprès du gouvernement algérien. Par ailleurs, selon le journal russe Kommersant, VimpelCom a prolongé jusqu’au 15 novembre un accord avec Weather Investments, maison mère d’Orascom Télécom, prévoyant un partage de risque sur le dossier Djezzy. Cette décision, qui a fait plonger l’action Orascom Télécom à la Bourse du Caire, intervient au lendemain de la visite de Jo Lunder, PDG de Vimpelcom, à Alger

Il faut noter que Vimpelcom a fusionné en mars dernier avec le groupe italien Wind Télécom qui détient 51% d’Orascom Télécom Holding (OTH), qui est le propriétaire d’OTA. Un éventuel règlement à l’amiable de ce contentieux qui permettrait à l’Algérie de prendre une participation de 51% dans le capital de Djezzy, était prévu par VimpelCom, mais Alger reste surtout gênée par les véritables maîtres de l’ombre. VimpelCom, détenu par le groupe russe Alfa et par l’opérateur norvégien Télénor, pourrait payer ses participations à Weather Investment, le fonds de Naguib Sawiris, patron d’Orascom, à la fois en numéraire (1,8 milliard de dollars) et avec 20% de ses titres évalués à 3,5 milliards, selon des sources proches du dossier. Si la fusion est menée à terme, VimpelCom se retrouvera à la tête d’un gigantesque ensemble comptant 174 millions d’abonnés mobile dans le monde (bien devant Orange par exemple qui compte 132 millions de clients). L’opérateur se hissera ainsi à la cinquième place mondiale, derrière les géants que sont AT&T, Verizon, Deutsche Telekom. Il pèsera 21,5 milliards de dollars de revenus avec un excédent brut d’exploitation de 9,5 milliards de dollars et une capitalisation de 17,5 milliards de dollars... Surtout, le géant russe pourra enfin sortir de ses frontières avec des positions fortes en Italie (Wind est le n° 3 du marché transalpin), en Asie et en Afrique. Orascom est en effet présent au Bangladesh, en Afrique du Nord, au Pakistan, en Centrafrique, au Rwanda, au Burundi… IL ÉTAIT UNE FOIS… DJEZZY Lorsque Djezzy démarre en 2001, il devient vite le « chéri » des Algériens. C’est en juillet 2001 que le groupe Orascom Télécom remporte la deuxième licence de téléphonie mobile en Algérie, pour un montant de 737 millions de dollars. Alors que le téléphone portable plafonnait et demeurait l’apanage des seuls « gros bonnets », Djezzy avait eu le mérite de mettre à portée des plus démunis sa célèbre puce rouge. Désormais, le simple salarié pouvait se doter d’un téléphone portable et discuter librement. La société entière s’émancipait et découvrait les bienfaits d’une discussion personnalisée et à distance… Opérateur de droit algérien, Djezzy restait de « parents » d’origine égyptiens. Créé en juillet 2001, il devient vite leader dans le domaine de la téléphonie mobile, avec le premier million d’abonnés atteint en 2003, puis avec 13 millions d’abonnés au mois de Décembre 2007. Le marché algérien de la téléphonie mobile est juteux, et Sawiris investi à fond : Djezzy se lance dans la capitale et les grandes villes du littoral, puis investi le pays tout entier. Très vite, il compte plus de 3000 employés, et avec 2,5 milliards USD d’investissement depuis 2001, Sawiris fait banco. Rien ne lui résiste. La presse fait ses louanges et récolte des centaines de millions de pub par mois. La manne publicitaire est trop importante, et les responsables commerciaux de Djezzy « phagocytent » plusieurs journaux, pour devenir en 2006-2007 de véritables « rédacteurs en chef » parallèles ayant droit de regard sur certains titres de la presse privée. Les espaces médiatiques et publicitaires encensent Djezzy en long et en large, à longueur de semaines et des mois que Dieu fait. Djezzy a de quoi pavoiser : il met sur pied 70 centres de service à travers tout le territoire national à disposition 7j/7, plus de 370 opérateurs Roaming dans plus de 174 pays, et couvre dans un court laps de temps plus de 93% de la population. En mai 2008, Djezzy a atteint 14 millions d’abonnés. S’ensuit, son célèbre lancement de la solution BlackBerry de Djezzy. Puis, lancement du MMS (MultiMedia Messaging System). En fin 2006, Ould Abbas, alors ministre de l’Emploi et de la Solidarité nationale, décerne à OTA le trophée du meilleur employeur sur le marché de l’emploi algérien.L’ascension est irrésistible. Paradoxalement, c’est à partir de là que la chute va commencer. Encouragé par cette réussite fulgurante, Sawiris va se lancer dans des opérations scabreuses, qui vont lui porter préjudice. La division ciment d’Orascom construction cède les deux cimenteries acquises en Algérie à bas prix au français Lafarge. Les autorités grincent des dents. En fait, à la fin de 2007, Lafarge a mis l’équivalent de 8,8 milliards d’euros pour racheter Orascom ciment. En raison de ce scandale, le gouvernement adopte dans sa loi de finances complémentaire 2010 un article instituant «le droit à l’exercice du droit de préemption de l’État sur toute cession d’actifs détenus en Algérie par des investisseurs étrangers, en frappant de nullité toute transaction réalisée à l’étranger sur leurs actifs». Désormais, « les bonnes affaires », en Algérie, vont relever du passé composé. S’ensuivent diverses brouilles, et Sawiris crie sur tous les toits qu’il travaille désormais dans un « environnement hostile ». Le redressement fiscal dont OTA fait l’objet sonne le glas des relations OTA avec l’État algérien. L’État le somme de s’acquitter de ses dettes vis-à-vis des impôts. Le Premier ministre, Ahmed Ouyahia, sonne la charge. Ouyahia précise que « l’affaire remonte à 12 mois et ne date pas d’aujourd’hui ». Orascom Télécom Algérie (OTA), filiale du groupe égyptien Orascom, reçoit la notification des impôts algériens pour 600 millions de dollars d’arriérés fiscaux et de pénalités sur les exercices 2004, 2005, 2006 et 2007. Naguib Sawiris est résolument critique à l’égard d’Alger. Il déclare aux médias français : « Il y a un vrai changement de climat en Algérie où les investissements étrangers ne sont plus les bienvenus ». Il critique ouvertement Bouteflika dans les colonnes de la presse cairote, à tort et à travers. La Direction générale des impôts apporte des précisions à ce sujet. Dans un communiqué rendu public, elle précise que « la société OTA a fait l’objet d’un contrôle fiscal, au même titre que d’autres entreprises établies en Algérie, contrôle qui a débuté en date du 3 juin 2008, suivant avis de vérification remis à la société le 20 mai 2008. Le contrôle fiscal a concerné les exercices 2004, 2005, 2006 et 2007». La précision de la DGI ajoute: «Nonobstant le contrôle de l’exercice 2004, dont les résultats ont été notifiés à l’entreprise, les propositions des redressements des exercices 2005 à 2007 ont été adressées à la société en date du 12 juillet 2009, soit 13 mois après la première intervention des services de contrôle. Après épuisement de la procédure contradictoire et l’analyse de la réponse de la requérante, datée du 16 août 2009, le service de contrôle de la direction des grandes entreprises a arrêté les résultats définitifs qui ont été portés à la connaissance de la société Orascom Télécom Algérie par envoi du 16 novembre 2009. » Dès lors, il ne restait plus rien à faire sur le terrain des bonnes relations, et l’activité commerciale reprenait ses droits après des années de flirt… contrarié.

Source : Quotidien Le Courrier d'Algérie du 27/10/2011