jeudi 19 juin 2014

Trop plein : le défi du stockage de données numériques en croissance exponentielle (Interview Atlantico)

1. Selon Eric De Witte, manager pour la Belgique d'EMC, une entreprise américaine de logiciels et de stockage de données, la quantité de données numériques existantes "double tous les deux ans (voir ici) […], le besoin en stockage de données augmente de 30% " pour les entreprises. Risque-ton d'arriver à saturation ? Les dispositifs actuels sont-ils suffisants ?
Je ne crois que nous arrivions à saturation. Ce débat existait déjà au début des années 2000 avec l’essor des vidéos en ligne et des téléchargements compulsifs des internautes. On s’inquiétait déjà à l’époque de la capacité de stockage des ordinateurs individuels (quelques dizaines de giga octets à l’époque !) et des serveurs des entreprises qui n’ont pas connu de « point critique », comme maintenant d’ailleurs. Le besoin de stockage augmente, mais les avancées technologiques également. Les disques durs de plusieurs tera octets sont aujourd’hui disponibles pour tous à un prix relativement accessible. Je ne parle même pas des entreprises spécialisées dans le stockage ou dont l’économie repose sur ce dernier (moteurs de recherche, cloud…) qui ont accès à des technologies de stockage plus perfectionnées et plus sûres que pour le grand public. 


2. Le stockage est une chose, mais qu’en est-il des flux ? La population mondiale étant de plus en plus connectée, ceux-ci ne risquent-ils pas de dépasser les capacités de nos infrastructures ?
En effet, la situation est un peu différente pour ce qui est de la gestion des flux (transfert de données d'un point A à un point B via de nombreux relais dans le secteur informatique). La croissance soutenue d'acquisition des smartphones par de nouveaux utilisateurs oblige à accroître les capacités de transfert de données pour les opérateurs. Cependant, ces derniers ne veulent et ne peuvent être les seuls à supporter cette modernisation de leurs infrastructures, d'où une redéfinition du modèle économique entre ceux qui acheminent le contenu et ceux qui le créent. Cela crée des tensions et risque à moyen terme de créer de brèves situations d'engorgement (chacun se renvoyant la balle pour investir dans des technologies nécessitant des années de développement), même si je persiste à penser que les structures / normes existantes sont solides et largement encore évolutives. Il y aura quelques craintes au maximum, mais rien de bloquant.


3. Comment se fait-il que les données numériques – images, fichiers vidéo…  - augmentent d'une façon aussi exponentielle ? Par quels processus concrets passe-t-on ?
Le poids des données numériques augmente pour deux raisons principales : la volonté de l’internaute d’en avoir toujours plus (même s’il ne les utilise pas toujours…combien de personnes téléchargent des fichiers qu’elles ne consultent pas par la suite ?) et la qualité de celles-ci qui augmente constamment. En une décennie, des progrès considérables ont été faits concernant l’audio (encodage de meilleure qualité), la vidéo (passage de résolution faible à une résolution full HD par exemple) et la photographie (poids des fichiers accrus pour une meilleure qualité, cf les fichiers RAW par exemple) afin de répondre aux demandes consommateurs qui aspirent à des produits fournissant des fichiers de meilleure qualité. Les constructeurs de matériel hi tech ont suivi la tendance, améliorant les disques durs aussi bien au niveau de leur fiabilité que de leur capacité. Il est aujourd’hui commun d’avoir plusieurs disques durs de stockage chez soi, voire même de disposer d’outils de sauvegarde permettant d’assurer la pérennité de ses données. 
Rappelons d’ailleurs que pour une bonne partie des fichiers dont dispose l’internaute, leur obtention est liée à la qualité de leur connexion internet. Plus cette dernière est puissante, plus l’internaute peut aisément télécharger des fichiers de plusieurs giga octets en quelques heures, là où le temps de téléchargement s’estimait en jours auparavant. 


4. Si, comme les données dont nous disposons permettent de le déduire, la taille de l'univers numérique est multipliée par dix entre 2013 et 2020 (soit 4,4 à 44 milliards de GB), sera-ton encore capable de les gérer et de les stocker ? Pourquoi ?
Je serais assez prudent concernant l’estimation avancée, dans la mesure où les utilisations des outils numériques vont évoluer fortement dans les prochaines années avec la possibilité d’une consommation accrue de données ou bien au contraire une mutualisation renforcée des services. Avec l’augmentation des débits d’Internet, la délocalisation de nos fichiers se renforcera et permettra d’économiser l’achat de disques durs supplémentaires, moyennant l’abonnement à un service de cloud par exemple, bien qu’une telle perspective ne va pas sans poser de problèmes en matière de contrôle de ses données. De récentes avancées technologiques, tant en matière de vitesse de traitement des données (augmentation de la puissance des processeurs via une finesse de gravure accrue et un système de cœurs multiples) que de stockage de ces dernières (des disques durs de plusieurs dizaines de tera octets sont à l’étude, de même que des tests assez probants sont conduits sur du stockage à bande magnétique avec des capacités surprenantes !) me laissent à penser que cela ne sera pas un problème en 2020. 
Certes, des changements risquent de s’opérer avec la nécessité de pouvoir aisément faire le tri au milieu de toutes les données accumulées. On peut penser que le coût des unités de stockage sera fluctuant (comme ça avait été le cas lors du tsunami en Thaïlande qui concentrait une part majeure de la construction des disques durs dans le monde), et qu’il ira à la hausse à mesure que la demande augmentera. Rappelons que certains composants informatiques contiennent des métaux rares et que des solutions alternatives devront être envisagées par les constructeurs pour répondre à la demande.  


5. Devrons-nous changer nos comportements de consommation et de partage de fichiers ? Quel pourrait être l'impact économique ?
Les géants des NTIC incitent de plus en plus les internautes à stocker leurs données en ligne, leur vantant l’accessibilité partout dans le monde, la fiabilité de leurs infrastructures. Néanmoins, il ne faut pas négliger l’ « effet Snowden » qui rappelle aux internautes que la délocalisation de leurs données n’est pas un acte anodin et que cela peut avoir des conséquences difficilement imaginables encore maintenant…
Par ailleurs, un vrai débat aujourd’hui se fait jour concernant la prise en charge financière des infrastructures permettant d’échanger des fichiers numériques, les opérateurs souhaitant que les sociétés comme Google avec Youtube participent à l’augmentation de la capacité des réseaux. Les FAI, aux Etats-Unis pour l’instant mais le mouvement pourrait s’étendre à d’autres pays, se laisseraient bien tenter par l’idée d’un Internet à plusieurs vitesses. La notion d’ « illimité » demeurerait, mais passé une certaine quantité de données récupérées, l’utilisateur verrait sa vitesse de téléchargement diminuée, ce qui aurait un impact évident sur la quantité de fichiers récupérés. Ainsi, des formules « premium » (moyennant un abonnement dont le prix serait fixé à un volume de données) seraient mises en place pour permettre à certains de continuer à consommer à des niveaux importants des données numériques. 
En tout cas, le coût du stockage, longtemps ignoré par le consommateur et certaines administrations, va devenir un enjeu majeur des prochaines avec l’essor du Big Data et la nécessité de se « réapproprier » ses données, en d’autres termes d’en avoir le contrôle en les stockant à un endroit connu et accessible. Les fabricants d’unités de stockage ont un bel avenir devant eux, à condition qu’ils inventent des composants à même de répondre à la demande croissante et inexorable de consommation de données. 


mardi 17 juin 2014

Colloque "Protection des données: individus, entreprises, Etats" du CARM

Participation comme invité à la table Etats 
à la Journée Annuelle du CARM (Cercle des Associés en Risk Management) 
le 17 juin 2014, 
portant sur "Protection des données: individus, entreprises, Etats". 


mercredi 4 juin 2014

Snowden demande l'asile au Brésil : pourquoi les USA feraient mieux de l'accueillir

Voilà près d’un an qu’Edward Snowden a divulgué au monde entier le mode opératoire d’écoutes et d’interceptions opérées par la NSA. Présenté par les uns comme un héros courageux, un défenseur des libertés individuelles, il est vu par d’autres au contraire comme un traître à son pays, manipulé par des puissances étrangères qui tirent parti des révélations en continu qu’il a lancées. 

Après une aventure quasi rocambolesque pour trouver un pays acceptant sa demande d’asile (pour des raisons « humanitaires » selon ses dires), il s’est finalement retrouvé en Russie, seul pays l’ayant accepté sur son territoire, et ce pour un an.  Dans de précédents papiers, nous avions déjà expliqué l’intérêt géopolitique de Vladimir Poutine dans cette histoire qui se donnait une image de défenseur des lanceurs d’alerte et qui faisait passer les Etats-Unis pour une puissance liberticide. 

A présent, on apprend qu’Edward Snowden a fait une demande d’asile pour le Brésil (sa seconde en fait, puisque la première avait été rejetée pour vice de forme, ce qui apparaît clairement comme un moyen grossier pour le pouvoir brésilien de ne pas prendre position…). Cela laisse supposer que soit la Russie a refusé de prolonger sa durée de séjour, soit que l’ancien « espion » (tel qu’il s’est défini récemment dans une interview) a choisi de lui-même de trouver une autre terre d’accueil. C’est cette seconde hypothèse qui semble la plus probable, car il a laissé comprendre récemment que la Russie avait été un choix par défaut. 

La question est désormais de savoir vers quel futur proche se dirige Edward Snowden. En affirmant ne pas avoir promis de documents en échange d’une demande d’asile, ce dernier cherche à ne pas donner l’image d’un espion vendant ses secrets à un autre camp, ce qui ternirait assurément son image. Sans remettre en question sa parole, notons cependant l’habilité de sa démarche puisque l’on sait par ailleurs que la plupart des documents qui restent à être dévoilés ne sont pas en sa possession mais détenus et protégés par des journalistes de confiance qui les révèlent au compte-goutte. La tactique avait parfaitement fonctionné en Russie, où Poutine avait conditionné son accord à sa demande d’asile au fait qu’il ne révèle pas de nouveaux scandales ; Edward Snowden a respecté le « marché », passant en réalité par des intermédiaires, avec l’accord implicite de Moscou. 

Le choix du Brésil fait sens dans la démarche de l’ancien agent américain. En révélant les écoutes opérées contre Dilma Rousseff, les pratiques d’espionnage économique qui semblent massives dans le secteur énergétique, Edward Snowden a pour ainsi dire « ouvert les yeux » aux autorités brésiliennes et surtout à sa présidente qui n’a eu de cesse depuis d’avoir un discours très ferme (sans doute le plus dur avec Angela Merkel) contre les dérives des agences de renseignement américaines. Par ailleurs, en accueillant sur son sol en avril dernier le sommet NetMundial, le Brésil se présente comme une puissance qui compte dans le cyberespace et qui surtout cherche à tracer les lignes d’un cyberespace moins « américanisé » qu’aujourd’hui. 

Mais cela sera-t-il suffisant pour que le Brésil prenne le risque d’accorder une réponse favorable à la demande d’Edward Snowden, soutenu dans sa démarche par une pétition qui rencontre un certain succès ? On ne peut se prononcer catégoriquement sur la réponse du Brésil mais il semble que cela sera très compliqué pour l’ancien agent américain. Même si ses révélations ont eu un écho médiatique très important (sans doute disproportionné d’ailleurs par certains aspects), on peut penser que la realpolitik prendra le dessus et que la présidente brésilienne ne se risquera pas à envenimer ses relations avec le Président Obama, privilégiant la stabilité des échanges politiques et surtout économiques. 

De plus, si l’on s’attarde un instant sur le discours des politiques à l’égard des révélations sur les pratiques choquantes de la NSA, force est de constater que les dirigeants concernés se sont toujours davantage exprimés sur les écoutes en elles-mêmes que sur la personne de Snowden en tant que telle. Les rares fois où cela a été fait, une certaine gêne se faisait sentir, et les politiques cherchaient leurs mots pour « définir » la figure de Snowden ou pour se justifier de lui avoir refusé l’asile. 

Le problème en effet est le suivant : comment les citoyens français, allemands, brésiliens (etc…) auraient réagi si Edward Snowden avait été français, allemand ou brésilien ? Il est fort probable qu’il aurait été considéré comme un traître par les autorités du pays et qu’il aurait divisé profondément la société, sans doute plus d’ailleurs qu’aux Etats-Unis, où le discours sécuritaire est davantage accepté qu’en Europe. 

Edward Snowden a accompli un acte unique en son genre, renonçant à une vie normale pour dénoncer les dérives des services de renseignement de son propre pays. Il a pris des risques immenses, mais au final, malheureusement, il est seul. Les Etats n’ont pas vraiment les instruments juridiques pour assurer sa sécurité et surtout, ils n’ont pas le courage ou l’envie de tenir tête aux Etats-Unis. 

Ces derniers jouent clairement la montre, attendant le moment où Edward Snowden sera dans une situation kafkaïenne, et où les rouages diplomatiques seront inefficaces. En vérité, une solution, sans doute audacieuse et peu probable, mais souhaitable sur le long terme, serait un apaisement entre les autorités américaines et Edward Snowden. Ce dernier a énoncé à plusieurs reprises son désir de retourner vivre dans son pays, moyennant des garanties juridiques. 

En l’acceptant sur leur sol, les autorités américaines pourraient procéder à un « coup de communication » majeur. En le considérant toujours coupable (sans quoi une grande partie des Américains y verrait une faiblesse d’Obama et la porte ouverte à de futurs et nombreux lanceurs d’alerte), mais en lui garantissant la sécurité, les Etats-Unis pourraient inverser une dynamique qui leur est néfaste sur la scène internationale. En allant encore plus loin, en l’associant à une réflexion (avec une commission par exemple) de grande ampleur sur le fonctionnement des écoutes (qui sont nécessaires, mais dangereuses lorsqu’elles connaissent des dérives), les Etats-Unis parviendraient partiellement à mettre fin à une crise diplomatico-médiatique qui a refroidit quelque peu leurs relations avec certains alliés.  

Pour l’instant en tout cas, l’avenir d’Edward Snowden est plus qu’incertain ; ce dernier demeure un pion entre les mains de puissances aux intérêts géostratégiques majeurs.