Les candidats à la présidentielle rivalisent de promesses pour « garantir la préservation des données personnelles des Européens » (Macron), obliger les acteurs du web à « informer l’utilisateur s’il fait l’objet d’un profilage et lui permettre de le refuser » (Mélenchon) ou encore créer une obligation de stockage des données personnelles des Français « sur des serveurs localisés en France » (Le Pen). Voire.
En matière de numérique, « cessons d’être à la traîne des géants américains, créons nos leaders européens ! » clame de même François Fillon, dont le site web, protégé par des serveurs US, renvoie aussi des données à Google et Twitter. A l’exception de Poutou et Arthaud, les 9 autres candidats utilisent l’outil de tracking d’audience de Google, mais aucun ne s’en vante, contrairement à ce que Google leur enjoint pourtant de faire.
Et si Macron, Dupont-Aignan et Asselineau ont opté pour un code de suivi respectueux de la vie privée des internautes, les autres candidats utilisent, eux, la version « par défaut« . Et aucun des 9 n’a activé l’option permettant d’anonymiser les données renvoyées à Google.
C’est ce qu’a découvert Ronan Chardonneau, maître de conférences associé à l’université d’Angers, par ailleurs créateur d’une start-up dédiée à l’analyse d’audience respectueuse de la vie privée des utilisateurs, qui se demandait « si des solutions d’analyse d’audience pouvaient être utilisées à des fins d’espionnage économique ou politique ».
Si le site de Marine Le Pen est le seul à mentionner le fait qu’il ait été déclaré à la CNIL, il omet de préciser qu’il renvoie aussi des données à Google et Facebook, mais également, et comme le veut pourtant la loi, de réclamer le consentement des internautes, et de leur permettre de s’y opposer.
De fait, aucun des 11 sites web ne respecte ces obligations légales… Ils pourraient leur en coûter jusqu’à 375 000€ d’amendes. Contactée par L’Express, la CNIL explique que si « des progrès [ont été] réalisés par les partis politiques, la prise en compte demeure insuffisante« , et qu’étant donnée les délais, si elle lançait aujourd’hui une procédure, celle-ci n’aboutirait que trop tard, après les élections. Circulez…
Voir aussi #Présidentielle2017 : Cohérence numérique, es-tu là ?
MaJ/pan sur le bec : D’aucuns soulignent avec ironie que la consultation de ce blog se fait elle aussi sans information ni consentement préalable, ni possibilité de s’opposer aux cookies associés. J’y avais consacré un billet, en haut à droite : Pourquoi (et comment) ce blog vous « surveille ». tl;dr : je n’ai pas la main sur les serveurs du Monde, qui m’accueille en tant que « blogueur invité », et je ne peux éradiquer les trackers de ce blog. Cet article avait initialement été écrit pour le Canard Enchaîné (qui n’a pas, lui, de cookie /-), il a été coupé au montage, je l’ai donc publié sur ce blog suite à la mise en ligne de l’étude en question. Faites ce que je dis, pas ce que je suis obligé de faire…
Je n’ai de cesse de répéter, depuis des années, que Le vrai danger, ce n’est pas Orwell, c’est Kafka, à savoir un monde à la Minority Report où vous vous retrouvez fiché, accusé d’un crime ou d’un délit que vous ne comprenez pas, et où il vous revient en sus de devoir (tenter de) démontrer votre innocence… la présomption de votre culpabilité ayant été dûment constatée par un traitement automatisé de données.
Je viens de découvrir qu’en matière de contrôle radar automatisé, c’est pire : non seulement il vous faut démontrer votre innocence, mais il vous faut alors et en plus accepter de devoir payer (au moins) deux fois plus cher que si vous reconnaissiez votre culpabilité… quand bien même vous vous estimeriez innocent.
Je n’avais jamais été flashé par un radar automatique, jusqu’à ce que je reçoive un « avis de contravention » du Centre automatisé de constatation des infractions routières m’expliquant que mon véhicule avait été contrôlé à 56 km/h « pour une vitesse retenue de 51 km/h« , sur une portion limitée à 50 km/h.
En essayant de comprendre ce qui s’était passé, j’ai découvert que de nombreux autres conducteurs se plaignaient d’avoir eux aussi été flashés à cet endroit-là et mis à l’amende, induits en erreur par un panneau limitant la vitesse à 70 km/h, placé trop près d’un autre panneau indiquant l’entrée dans un village, et donc une limitation à 50 km/h.
J’ai donc voulu contester le PV, écrit un long courrier expliquant ce pourquoi je cherchais non seulement à contester ce PV, mais également à alerter la sécurité routière sur ce panneau induisant tant de gens en erreur, espérant naïvement pouvoir aider à corriger ce problème de panneaux rapprochés, réduire le nombre de personnes flashées en excès de vitesse, mais donc aussi améliorer la sécurité des habitants du village en question.
Sauf que j’ai depuis découvert que le simple fait de chercher à me défendre risquerait de me coûter deux fois plus cher que de payer l’amende, et donc de reconnaître l’infraction qui m’est reprochée… mais que j’aurais donc aimé pouvoir contester.
En effet, et en l’espèce, soit je paie les 90€ d' »amende forfaitaire minorée » et je reconnais l’infraction, soit je la conteste et, si j’ai bien compris, il me faudrait « consigner » (et donc avancer, sans garantie de remboursement) les 135€ de l' »amende forfaitaire« , mais aussi et surtout risquer, au final, de devoir payer entre 148€50 et 750€ d' »amende pénale« , +31€ de frais de procédures… ce que n’explique pas, étrangement, l’agence nationale de traitement automatisé des infractions, ni service-public.fr.
L’article 10 de la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés est pourtant clair :
« Aucune décision de justice impliquant une appréciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de sa personnalité. »
La contravention a certes été validée par l' »agent verbalisateur n°474176 » (quelqu’un sait à quoi correspond ce type de n° ? ils n’étaient que 150 en 2007…), mais sur la seule foi d’un contrôle automatisé. Une forme de présomption de culpabilité faisant fi de la présomption d’innocence, et des droits de la défense…
Comment qualifier un système qui offre le choix entre reconnaître une infraction et payer 90€ d’amende, ou la contester et risquer de devoir la payer 180€… voire bien plus ? Impression de devoir « jouer » à la roulette russe…
Vous trouverez donc ci-après le courrier que j’aurais voulu envoyer pour pouvoir me défendre, et éviter que de nombreux autres conducteurs soient ainsi sanctionnés après avoir été induits en erreur, tout en espérant pouvoir contribuer à une meilleure sécurité routière… mais que j’hésite donc (très) fortement à envoyer.
Madame, Monsieur,
Je suis respectueux du code de la route, n’ai pas le souvenir d’avoir jamais eu de contravention pour excès de vitesse, et c’est la première fois de ma vie que l’on me retire un point de permis suite à un contrôle automatisé.
Etant respectueux du code de la route, je ne comprends pas ce pourquoi le radar automatique a flashé mon véhicule à 56km/h, pour un vitesse retenue de 51km/h. J’ai donc cherché à comprendre, et découvert que de nombreux autres automobilistes, eux aussi flashés par ce même radar, s’en plaignent depuis des années.
Ils estiment en effet avoir été induits en erreur par un panneau de limitation de vitesse à 70 km/h se trouvant moins d’1 km après la 4 voies où ils circulaient à 110 km/h, et quelques dizaines de mètres seulement avant l’entrée dans le village de Saint-Maurice-lès-Charencey, où a été placé le radar automatique en question.
La physionomie de ce village est elle aussi à prendre en considération. En effet, le panneau indiquant que l’on entre dans le village est situé le long d’une route boisée, en pente, bordée de champs, loin des premières habitations placées de ce côté de la route, l’entrée de ce village étant par ailleurs caractérisée par le fait que s’y trouvent bien plus d’arbres, de talus et de verdure que de maisons… situation pouvant, elle aussi, prêter à confusion.
J’ai de plus et aussi découvert qu’un radar pédagogique indiquant la vitesse des véhicules avait été installé 70 mètres seulement avant le radar automatique, et comprends donc encore moins ce pourquoi j’aurais été flashé à 56km/h… sinon que 70 km/h, cela fait 20 mètres/seconde, et que ceux que le panneau limitant la vitesse à 70 km/h a pu induire en erreur, qui n’ont pas bien compris qu’ils entraient dans un village, et qui ne réalisent qu’il leur faut ralentir qu’à l’approche de ce radar pédagogique, n’ont donc que 2-3 secondes pour réduire la vitesse de leur véhicule de 20 km/h.
securite-routiere.gouv.fr précise par ailleurs que « tous les radars vitesse fixes sont maintenant signalés par des panneaux d’annonce radars« , mais aussi que « les radars pédagogiques précédemment installés en amont des radars fixes ont été redéployés vers des zones de danger non équipées de radars automatiques ».
J’ai refait le trajet sur Google Street View. Je ne sais si la situation a changé depuis (les photos datent de juillet 2013), mais je n’y ai trouvé aucun panneau de signalisation du radar fixe.
Je ne sais si le radar pédagogique a depuis été retiré, si un panneau de signalisation du radar fixe a depuis été installé, si un camion me précédant aurait pu m’empêcher de voir les panneaux limitant la vitesse à 70 km/h et/ou d’entrée du village, mais le nombre de personnes qui se plaignent de ce radar, couplé au fait qu’il serait le second au « palmarès » des radars de l’Orne, indique que ce radar automatique ne résout donc pas le problème de sécurité routière rencontré dans ce village, qui avait à l’époque fait l’objet d’un reportage expliquant que ces radars avaient été demandés par ses habitants, vu le nombre de véhicules empruntant la RN12.
Je profite donc de l’occasion pour vous demander s’il vous serait possible, à ce titre, de faire remonter cette missive à qui de droit, de sorte d’améliorer la sécurité routière dans ce village, mais également pour que d’autres automobilistes ne se retrouvent plus dans cette désagréable situation.
Le classement de ce radar automatique au « palmarès » des radars de l’Orne, alors même qu’il est pourtant précédé d’un « radar pédagogique« , révèle s’il en est que les conducteurs ne comprennent pas bien (ou alors trop tard) qu’ils entrent dans un village. De fait, de nombreux conducteurs flashés estiment avoir été « piégés » par le panneau limitant la vitesse à 70 km/h, et/ou le panneau d’entrée dans le village situé bien avant les premières maisons qu’ils croiseront.
Je ne conteste pas la vitesse à laquelle votre radar automatique a flashé mon véhicule, mais plaide des circonstances atténuantes. Au-delà de mon cas particulier, le fait que ce radar automatique flashe tellement de conducteurs me semble en effet démontrer que le problème relève moins du fait qu’ils ne respectent pas le code de la route que du fait que, plus de six ans après l’installation des radars, nous soyons encore aussi nombreux à être induits en erreur de la sorte.
Il suffirait en effet probablement d’un panneau supplémentaire limitant clairement la vitesse à 50 km/h, et/ou d’un panneau indiquant la présence d’un radar automatique, pour que les conducteurs induits en erreur ne soient plus pris de court comme je l’ai semble-t-il été, contribuant d’autant à la sécurité routière de ce village.
L’installation de ces deux radars avait pour vocation de faire ralentir les conducteurs. J’espère avoir pu, par ce courrier, vous expliquer ce pourquoi, six ans plus tard, tel n’est toujours pas le cas, au détriment tant des habitants que des conducteurs induits en erreur.
« L’objectif des radars est qu’ils ne génèrent plus d’amende, ce qui signifierait que le comportement des usagers aurait évolué« , écrivez-vous sur le site securite-routiere.gouv.fr.
Je me plais à penser que ce radar n’est probablement pas le seul à avoir été ainsi installé d’une façon telle qu’il ne répond pas pleinement à la mission qu’il était pourtant censé remplir.
Le fait de découvrir qu’il pourrait m’en coûter (au moins) deux plus cher d’attirer votre attention à ce sujet (en contestant l’infraction qui m’est reprochée) que de reconnaître l’infraction (qui me semble pourtant pouvoir être contestée) m’incite également à penser que de nombreux autres dysfonctionnements de ce type ne vous sont pas remontés, ce qui va à l’encontre même des objectifs de la sécurité routière.
En l’espèce, nombreux sont les conducteurs induits en erreur de la sorte et qui, plutôt que de vous alerter sur de tels dysfonctionnements en contestant l’infraction qui leur est reproché, préfèrent s’acquitter de l’amende, et donc laisser le dysfonctionnement perduré, tout en ayant le sentiment d’avoir été pénalisé à tort. Double peine qui ne correspond nullement à l' »objectif » de ces radars, non plus qu’aux missions de la sécurité routière.
Puisse ce courrier y contribuer.
Alain Hertay, maître-assistant à la Haute Ecole de la Province de Liège, avait voulu m’interviewer l’été dernier, dans le cadre du projet FORMEAM, plateforme liégeoise de formation en matière d’éducation aux médias qui a pour objectif de faire poser aux étudiants bacheliers un regard critique sur le Web et les réseaux sociaux.
Il voulait que je revienne sur la génèse d’Une contre-histoire de l’Internet, le documentaire qui m’avait permis d’interviewer (notamment) Julian Assange, Benjamin Bayart, Valentin Lacambre, Andy Müller-Maghun,Richard Stallman, Phil Zimmermann… entre autres défenseurs des libertés. C’était juste avant les révélations Snowden qui, sur ces questions, a notablement contribué à changer la donne.
L’interview n’étant pas encore publiquement accessible, et alors que ce fut l’une des plus longues qu’il m’ait été donné d’accorder (voir aussi la page Interviews & docus TV, en #replay), Alain m’a autorisé à la republier sur ce blog.
Une contre–histoire de l’Internet : entretien avec Jean-Marc Manach
Né en 1971, Jean-Marc Manach est un pionnier du journalisme d’investigation sur l’internet et du « datajournalisme ». Il a beaucoup écrit sur la sécurité informatique et la protection des sources, aux sujets desquels il est intervenu à Science Po, Reporters sans frontières, au CF(P)J, à l’ESJ et dans plusieurs écoles de journalisme… Il est notamment blogueur au Monde (Bug Brother), animateur du #14h42 pour Arrêts sur Images et NextInpact, ex-grand reporter au Vinvinteur sur France 5… Il a aussi travaillé à Owni, InternetActu, Transfert.net, Vendredi… Il a contribué à plusieurs sites et campagnes de défense des droits de l’homme et de la vie privée.
Nous l’avons rencontré pour évoquer son parcours, la genèse du film Une contre-histoire de l’Internet dont il est l’auteur, ainsi que ses projets à venir.
1. Une contre-histoire de l’Internet : entre contre-culture et histoire populaire
Tout d’abord, pouvez-vous nous raconter quelle est l’origine du film Une contre-histoire de l’Internet ? Comment celui-ci a-t-il été produit et réalisé ? En quoi ce film s’inscrit-il dans votre trajet journalistique ?
Tout est parti de David Dufresne. En 1995, au tout début du Web, il a commencé en créant un webzine qui s’appelait La Rafale. Il n’avait pas un profil journalistique. Il venait de la contre-culture comme moi. A la base, j’ai une formation de cinéaste et de critique cinéma. Donc, comme lui, je n’ai pas du tout un profil journalistique. David est ensuite devenu journaliste à Libération puis Mediapart où il a beaucoup travaillé sur Tarnac et il a fait pas mal de web-docs. Si je vous parle de cela, c’est parce que, à la fin des années 90, je faisais partie d’un groupe de webmasters comme on disait à l’époque, groupe qui défendait la liberté d’expression, et qui s’appelait le Mini-rézo. On avait créé un site pour défendre les questions de liberté sur Internet.
Or, à la fin des années 2000, Nicolas Sarkozy voulait civiliser Internet, ce que j’ai traduit par : « Cela veut dire que les internautes sont des barbares ». En réponse à cette campagne assez haineuse et à cette incompréhension crasse d’Internet, je me suis dit que cela serait intéressant de raconter comment, dès les années 90, des particuliers, des internautes, des webmasters, donc des gens qui n’étaient pas journalistes à la base, ont commencé à défendre la liberté d’expression et les libertés sur Internet. La Contre-histoire, initialement, c’était ça. C’était raconter cette histoire qui n’a jamais été racontée : comment, en France, dès les années 90, des gens ont essayé de se battre pour des valeurs qui sont devenues depuis des valeurs grand public avec les révélations de Snowden.
A l’époque, David Dufresne est parti vivre au Canada pour faire ses web-docs. On n’a pas pu travailler ensemble sur le film même s’il est interviewé dans le documentaire. Je me suis retrouvé à récupérer ce projet. Je travaillais alors à owni.fr, un site web où on expérimentait beaucoup les nouvelles formes de journalisme, notamment, le datajournalisme sur Internet. On était vus comme une sorte de laboratoire de recherches et de développements de la presse sur Internet. Il y avait plein de gens qui défilaient en permanence à la rédaction pour venir nous rencontrer et notamment les gens de Premières lignes : Paul Moreira et Luc Hermann. On a parlé de notre projet de documentaire pour raconter la défense des libertés sur Internet. Ils ont été intéressés. Ils étaient en contact avec ARTE qui a dit : « Oui, à condition que vous racontiez cela à un niveau mondial et pas seulement au niveau français ». Moi, je n’avais pas envie de voyager, je n’aime pas voyager, je préfère être devant mon écran d’ordinateur et je trouvais que raconter les défenses des libertés au niveau mondial, c’était quasiment impossible à faire en 90 minutes. Sauf qu’ARTE nous a bien coachés avec Premières lignes et, de fil en aiguille, cela a donné La contre-histoire de l’Internet.
D’où vient le choix du titre ?
Le titre du film est un hommage au livre Une Histoire populaire des Etats-Unis d’Howard Zinn. C’est un historien américain qui a fait l’inverse de ce que font la majeure partie des journalistes et des documentaristes : il n’a pas raconté l’histoire des Etats-Unis du point de vue de ceux qui ont gagné la guerre mais du point de vue des Indiens, des esclaves, des suffragettes, des syndicalistes qui ont été pour certains fusillés par la garde civile américaine ou matraqué par des nervis payés par les patrons américains… C’est pour cela qu’il appelle son livre Une Histoire populaire des Etats-Unis, parce que c’est vu du côté du peuple et non pas du côté du pouvoir. Ce livre m’avait influencé à l’époque pour La contre-histoire de l’Internet. C’était cette même idée. Je voulais raconter l’histoire de l’Internet du côté de ceux qui l’ont fait.
Ceux qui ont fait Internet, c’est en bonne partie des hackers. C’est pourquoi le film commençait notamment par raconter pourquoi, contrairement à ce qui est dit souvent dans les médias, Internet n’a pas été créé par l’armée américaine dans les années 60 pour résister à une bombe nucléaire soviétique. A l’époque, l’armée américaine finançait énormément de projets technologiques dont la majeure partie ont été oubliés dans les poubelles de l’histoire, sauf qu’Internet a fonctionné. Internet a été créé par des gens qui avaient un esprit de hackers, des bidouilleurs qui étaient proches de l’underground, qui connaissaient des gens qui prenaient du LSD, voire en prenaient eux-mêmes… On ne peut pas comprendre Internet si on ne comprend pas que cela vient aussi de la contre-culture. C’est le livre Aux sources de l’utopie numérique : De la contre-culture à la cyberculture de Fred Turner, livre fondamental pour comprendre cela. Avec cette nuance qu’un certain nombre des acteurs qui faisaient partie de la contre-culture dans les années 70-80 et qui ont ensuite développé la cyberculture, même si je n’aime pas le terme, sont aujourd’hui des libertariens avec un côté anarchiste de droite. C’est assez étonnant de la part de gens qui venaient de la contre-culture et étaient plutôt gauchistes. Internet est donc la rencontre improbable entre le complexe militaro-industriel et les hippies qui prenaient du LSD. Ce n’est donc pas du tout une histoire de câbles et de tuyaux.
Une Contre-histoire de l’Internet raconte donc cette histoire comme étant une histoire sociale plutôt que technologique ?
J’ai publié sur Owni un article, également repris sur Rue 89, où j’expliquais comment, en 92-93, avant l’arrivée du Web, quand j’étais étudiant en cinéma, je faisais comme job d’étudiant « animatrice Minitel rose ». Je me retrouvais la nuit devant quatre minitels à me faire passer pour une femme et à inventer des scénarios. Pourquoi je parle de cela, c’est parce que j’ai eu un rapport à la télématique qui m’a permis très tôt de comprendre que ces histoires d’interconnexions, de réseaux, le fait d’être devant un écran pour parler avec des gens, ce n’est pas une histoire de câbles, c’est avant tout une histoire d’êtres humains. Avant même d’avoir une connexion Internet, j’avais découvert à quel point le fait de pouvoir parler avec des gens par clavier et écran interposés permettait de libérer la parole, permettait d’entrer dans l’intimité des gens comme jamais je n’aurais pu le faire… Jamais je ne pourrai avoir de discussions aussi intimes, aussi enflammées que ce que j’ai pu avoir lorsque j’étais « animatrice Minitel rose ». Cela a été pour moi quelque chose de très important dans mon approche d’Internet. La technique, c’est un moyen. Internet, c’est quelque chose de profondément humain. Dans le web-doc qui est associé au documentaire, Une contre-histoire des internets au pluriel, j’y explique que « les Internets », c’est Internet moins les tuyaux : c’est à dire les êtres humains.
Quelle évolution peut-on voir entre le Minitel et Internet ?
Le minitel était centralisé, internet est décentralisé, et ça change tout. La France avait fait le choix de la centralisation avec le Minitel et les Etats-Unis de la décentralisation avec TCP/IP. D’un point de vue géopolitique, le fait de décentraliser fait que tout un chacun est habilité à s’exprimer. Le fait que tout soit centralisé avec le Minitel fait que tout un chacun n’était pas habilité à s’exprimer. Quand le Minitel a été lancé en 1981, il y a eu une expérimentation à Strasbourg avec un serveur appelé Gretel. Cela permettait aux gens de pouvoir se connecter à des serveurs pour pouvoir lire de l’information, un peu comme la télévision où on est spectateur. On ne peut pas interagir avec ce qui se passe à la télévision. Comme c’était une expérimentation, les concepteurs avaient ouvert un canal de discussions qui permettait de poser des questions à l’administrateur. Il fallait bien pouvoir répondre en temps réel aux problèmes des utilisateurs du Minitel. Sauf que, assez rapidement, l’administrateur de Gretel s’est aperçu qu’une nuit, un adolescent ou quelqu’un qui se faisait passer pour un adolescent, on n’a jamais réussi à l’identifier, avait réussi à pirater le canal qui permettait de poser des questions à l’administrateur pour faire de telle sorte que les utilisateurs du Minitel puissent communiquer entre eux de façon one to one, donc de façon horizontale et non plus verticale. Les créateurs du Minitel ont laissé les gens parler entre eux et ça a donné le Minitel rose qui a été la vache à lait de France Telecom. C’est l’endroit où énormément de gens qui allaient être des pionniers d’Internet ont commencé à se faire de l’argent, le plus connu étant Xavier Niel.
C’est plus qu’une anecdote, cela relève de l’histoire. C’est fondamental pour comprendre ce que permet la télématique, ce que permet Internet. c’est quelque chose de l’ordre de l’horizontalité et non pas de la verticalité comme l’était le Minitel. On raconte ça dans le film. Jean Guisnel a écrit un livre au début des années 90, Guerres dans le cyberespace : services secrets et Internet, sur comment les services de renseignements se faisaient déjà la guerre dans le cyberespace. Il avait des contacts au sein de la police, de l’armée, des services de renseignement qui avaient accepté de répondre à ses questions mais il n’arrivait pas à parler aux gens de France Telecom. A la fin de son bouquin, il arrive enfin à décrocher un rendez-vous avec un des patrons de France Telecom qui lui dit : « Mais pourquoi est-ce que tu veux faire un bouquin sur Internet ? On va l’interdire ! » Voilà ! En 1993, France Telecom était encore dans la logique de vouloir interdire Internet pour privilégier le Minitel. C’est le côté vertical, centralisé de la culture française.
Votre trajet personnel vous avait donc préparé à cette approche d’Internet ?
Je me souviens que, dans les années 80, il y avait plein de gens qui considéraient que les enfants qui découvraient la vie en regardant la télévision, en regardant Goldorak et Club Dorothée, ne pourraient être que décervelés. On était une génération sacrifiée parce qu’on avait grandi avec la télévision. On ne pourrait pas devenir des intellectuels. C’était tous les Bernard Pivot, les Télérama qui n’arrêtaient pas de parler de « génération sacrifiée » parce qu’on regardait la télévision. Moi, ça me révoltait, cette façon de considérer qu’on était une génération sacrifiée parce qu’on avait la télévision. Je sais que mon rapport aux écrans a commencé comme ça. Il y avait des vieux cons qui considéraient que les écrans posaient problème et il y avait des petits cons qui regardaient la télévision. Ces petits cons, ils peuvent devenir vendeurs chez MacDo comme ils peuvent devenir professeur d’université. Le fait de regarder la télévision n’est pas quelque chose de décervelant. Plus tard, quand j’ai commencé à m’intéresser au cinéma, c’était le cinéma expérimental, l’art vidéo, tout ce qui n’était pas commercial, tout ce qui sortait des sentiers battus… Donc, après, quand est arrivé Internet, ce qui m’a intéressé, c’était les hackers. J’ai compris très rapidement que les hackers n’étaient pas des pirates informatiques. Ce n’étaient pas des méchants. C’étaient eux qui avaient fabriqué Internet. Ils développaient, inventaient des nouveaux modules, de nouveaux logiciels, de nouvelles façons de penser… ça, ça m’a profondément marqué ! Donc, je viens de la contre-culture et d’un rapport contre-culturel aux écrans. Ceci explique aussi l’origine du film.
2. Julian Assange, Wikileaks et l’impact des révélations Snowden
Dans ce film, vous rencontrez un certain nombre d’acteurs essentiels de l’histoire d’Internet ? Ces rencontres ont-elles été faciles à obtenir ? Y a-t-il des intervenants que vous regrettez de ne pas avoir rencontrés ?
Il en manque bien évidemment. Le premier jour de tournage, on est allé interviewer Laurent Chemla qui n’apparaît pas au montage. C’est quelqu’un de très important dans ma compréhension d’Internet. Son livre, Confession d’un voleur, est très important pour comprendre Internet (livre disponible en ligne ici). C’est un très grand vulgarisateur, qui s’exprime très bien à l’écrit. Quand je l’ai interviewé, ça a duré une heure et demie. Une fois sorti de l’interview, Sylvain Bergère, le réalisateur du film, m’a dit : « Ecoute, Jean-Marc, tu n’as jamais fait de documentaires, mais plus jamais tu ne me fais un coup comme ça ! On a vingt-six personnes à interviewer et, généralement, un documentaire, c’est sept ou huit personnes par documentaire. Tu en as choisi vingt-six, ce n’est pas dans les standards de la télévision et si, en plus, tu me fais des interviews d’une heure et demie, moi, je ne m’en sortirai jamais au montage. » Cela a commencé comme ça, assez frontalement avec le réalisateur. Au final, on a interviewé une cinquantaine de personnes. Donc, on a doublé le nombre d’intervenants. Même si je n’ai pas fait beaucoup d’interviews d’une heure et demie, il s’est retrouvé avec 60-70 heures de rushes. C’était un boulot titanesque ! Sauf qu’il m’a remercié au final en me disant : « Il y a tellement de matière dans les interviews que tu as faites qu’on a de quoi faire un bon documentaire! »
Pour moi, c’était évident que si je voulais parler d’Internet, il fallait que j’aille voir ceux qui sont considérés comme de grandes figures de cette contre-culture. Je ne sais même pas finalement si c’est de la contre-culture ou si c’est de la culture. Pour moi, c’est la culture d’Internet : on a fait la contre-histoire, mais, en fait, c’est l’histoire d’Internet. Si j’ai appelé le film « contre-histoire », c’est parce qu’il y a un côté contre-culturel. Ce qui était étonnant pour moi, c’était de voir que, lorsque le film a été diffusé en mai 2013, les gens que j’ai filmés étaient perçus comme étant du côté de la contre-culture, du côté des protestataires. Il se trouve qu’il y a eu les révélations Snowden à partir de juin 2013. Les révélations Snowden ont changé le statut d’une partie des gens que j’ai interviewés. Avant Snowden, ils faisaient partie du problème, car ils râlaient contre l’état qui mettait trop de surveillance et pas assez de liberté. Or, depuis les révélations Snowden, les gens que j’ai interviewés sont maintenant perçus comme étant du côté de la solution. Ils sont ceux qui apportent des solutions aux problèmes de la surveillance et des atteintes aux libertés sur Internet. Si le documentaire avait été diffusé après les révélations de l’affaire Snowden, j’aurais dû refaire le montage probablement, voire ajouter des interviews. Cela aurait donné un film complètement autre. Avant Snowden, si on regarde l’e-G8 qu’avait organisé Nicolas Sarkozy, les acteurs essentiels de l’Internet, c’était ce qu’on appelait la net-économie, les start-ups, Facebook, la French Tech… : les acteurs de l’économie capitalistique d’Internet. Pour moi, ce n’est pas ça. Internet : ce n’est pas une question de technologie, ce n’est pas une question d’économie. Internet, c’est quelque chose qui relève beaucoup plus de la sociologie et c’est de la politique !
Vous avez notamment réussi à interviewer Julian Assange pour votre film ?
C’était la personne la plus compliquée à interviewer pour des raisons faciles à comprendre. Il était enfermé dans l’ambassade d’Equateur. Il ne pouvait pas sortir. Lui, il n’est pas parano. Il est surveillé en permanence ! Je ne sais plus combien de millions sont dépensés chaque année pour surveiller l’ambassade d’Equateur à Londres. C’est une High Value Target. Donc, ça a été très compliqué pour obtenir un rendez-vous avec lui. Quand j’ai obtenu ce rendez-vous, il m’a accordé initialement vingt minutes. Il est arrivé avec une demi-heure de retard et était très énervé. Il m’a dit : « Je vous donne un quart d’heure ! » J’ai commencé à lui poser des questions et, au bout d’une heure et demie, j’ai dû lui demander d’arrêter l’interview parce que j’allais rater mon train ! Il voulait que je reste pour continuer à lui poser des questions. J’étais assez honoré de voir que quelqu’un qui était énervé au départ m’accordait finalement une heure et demie d’interview. ça montrait que les questions que je posais l’intéressaient.
Ce que j’ai essayé de faire, c’est d’accoucher la parole de ces gens qui, pour une fois, étaient interviewés par quelqu’un qui comprenait leur combat. La majeure partie du temps, quand Assange et d’autres sont interviewés, ils sont interviewés par des gens qui ne connaissent pas ce dont ils parlent. C’est un travers majeur du journalisme que je vis au quotidien. énormément de journalistes parlent de choses qu’ils ne connaissent pas. C’est ce à quoi je suis confronté depuis deux ans avec la Loi renseignement ou avec Snowden. J’ai été interviewé un grand nombre de fois et la meilleure interview à laquelle j’ai été soumis, c’est lorsque j’ai été interviewé par un journal qui s’appelle Article 11 : le journaliste a réussi à me faire dire des choses auxquelles je n’avais jamais pensé, que je n’avais encore jamais réussi à formuler de cette façon–là.
3. De la surveillance de masse à la paranoïa généralisée
Vous articulez l’histoire d’internet autour de quelques axes dont celui de la liberté (d’expression, de création, de partage) et celui du contrôle et de la surveillance. Depuis la sortie de votre film, vous venez de l’évoquer avec les révélations Snowden, ce sujet a-t-il fait l’objet d’une évolution ?
J’ai fait deux conférences l’année dernière et l’année d’avant à Pas Sage en Seine, un festival de hackers à Paris. On peut en trouver la retranscription sur mon blog pour Le Monde. J’avais intitulé cette conférence De la surveillance de masse à la paranoïa généralisée. Je vais essayer de résumer. Avant les révélations Snowden, des gens comme moi ou ceux que j’ai interviewés, on passait pour des contestataires, pour des paranos, éventuellement pour des gauchistes… Depuis les révélations Snowden, tout le monde est devenu parano. Paradoxalement, je me retrouve de plus en plus à essayer d’expliquer aux gens que non, la NSA ne surveille pas l’intégralité de la population ! Il faut arrêter les délires ! Je suis consterné par le niveau de débat, notamment dans les médias et, bien évidemment, dans la classe politique. Ils en parlent comme si la NSA, la DGSE, les services de renseignements, surveillaient l’intégralité des internautes. On parle beaucoup de la « surveillance de masse ». C’est la nouvelle expression en vogue depuis les révélations Snowden. Moi, je ne suis pas d’accord avec cette expression. Il y a des systèmes de collecte d’informations de masse qui ont été mis en place par les services de renseignement. Cela ne veut pas dire que c’est de la surveillance de masse. L’expression « surveillance de masse » laisserait entendre que les services de renseignement surveilleraient toute la population, ce qui n’est absolument pas le cas. Matériellement parlant, c’est juste impossible ! Pour l’instant, je fais un module vidéo pour France 4 qui s’appelle What the Fact qui devrait sortir dans les semaines qui viennent. Il expliquera que le volume de données échangées chaque jour, que ce soit en France ou dans le monde, est tellement important qu’il est financièrement, humainement, matériellement, techniquement impossible de tout surveiller. De plus, ce n’est pas ce que réclament les services de renseignements. Ils ont autre chose à faire. Il y a suffisamment de menaces comme ça pour ne pas vouloir surveiller l’intégralité de la population.
Dans cet avant et cet après Snowden, paradoxalement, moi qui travaille depuis une quinzaine d’années sur les questions de surveillance et donc sur les services de renseignement, je me retrouve plus proche de gens qui travaillent ou ont travaillé dans les services de renseignement que du côté d’un certain nombre de défenseurs des libertés. C’est assez paradoxal puisque je suis plutôt pote avec les gens de la Quadrature du Net et qu’on perçoit, je pense, les prises de positions politiques que je peux avoir au regard du documentaire Une contre-histoire de l’Internet. Paradoxalement, les révélations Snowden ont provoqué quelque chose de très bien : les questions de liberté, de vie privée, de sécurité informatique ne sont plus marginalisées. Elles sont vraiment prises en compte. De plus en plus de trafic est chiffré grâce à Apple, à WhatsApp, à Facebook, à Google qui chiffrent maintenant leurs communications. De plus en plus d’internautes apprennent à chiffrer leurs communications. C’est le côté positif de Snowden. Le côté négatif, c’est que de plus en plus de gens sont complètement paranos. Au lieu de comprendre ce que font les services de renseignement, ils en ont peur. Je n’ai pas peur des services de renseignements. Je n’ai pas peur de la surveillance.
Quelles nuances faites-vous entre « surveillance » de masse et « collecte » de masse ?
Parce que Snowden et Greenwald ont un agenda politique, la notion de surveillance de masse s’est substituée à la notion de collecte de masse. On a un débat sémantique avec des gens de la Quadrature depuis maintenant deux ans. Ils considèrent qu’à partir du moment où il y a de la collecte de masse, cela relève de la surveillance de masse, même s’il n’y a pas d’êtres humains qui regardent les données collectées. Il y a de fait des systèmes de « collecte de masse », mais ça ne veut pas dire que les services de renseignement surveillent tout le monde. Si on regarde la Loi renseignement en France, les dispositifs de collecte de masse utilisés par la DGSE n’ont pas le « droit », pour le coup, de surveiller des Français : les identifiants rattachés au territoire national doivent en effet être écrasés, sauf s’ils figurent dans les « cibles » préalablement identifiées par les services de renseignement.. Si jamais il y a un identifiant rattaché au territoire national, que ce soit un numéro de téléphone, une adresse mail ou une adresse IP, ils n’ont légalement pas le droit de regarder les données ou les métadonnées. Toute surveillance d’un Français doit être ciblée, validée par Matignon, après avis de la CNCTR qui est la commission de contrôle des techniques de renseignement. Pour un certain nombre de thuriféraires de Snowden, ils considèrent qu’à partir du moment où les données sont collectées et traitées par des algorithmes, quand bien même il n’y a pas de traitement humain derrière, ça relève de la surveillance. Je ne suis pas d’accord avec ça. On parle beaucoup, depuis Snowden, de « surveillance de masse », mais les systèmes de « collecte de masse » des services de renseignement ne permettent, -ni ne visent à-, surveiller massivement « tout le monde »… à l’exception des pays où les Etats-Unis (voire la France ?) « font » la guerre, comme la Syrie ou l’Afghanistan, par exemple.
Cette surveillance ou collecte de données est-elle efficace ?
Je vais être concret. La NSA, combien d’attentats terroristes a-t-elle déjoués grâce à ce système de collecte de masse ? Concrètement, quand la question a été posée par le parlement américain à la NSA, celle-ci a commencé par répondre 80 attentats. Ensuite, quand les parlementaires ont posé la question : « Mais des attentats où ? », la NSA a reconnu des dizaines d’attentats qui auraient été déjoués dans d’autres pays que les Etats Unis. Concrètement, sur le territoire américain, sachant qu’il y a des collectes de masse des métadonnées des Américains (c’est une des révélations Snowden), il y a une seule personne qui a été condamnée à quinze ans de prison. C’était un réfugié somalien qui vivait aux Etats Unis depuis des années et qui, comme beaucoup de réfugiés, renvoyait de l’argent à son pays pour fabriquer des écoles, des dispensaires, pour aider l’économie locale. Il se trouve que son village, un jour, a été conquis par la milice Al-Shabbaab considérée comme une milice terroriste par les Etats-Unis. Grâce à la surveillance des métadonnées, la NSA a identifié qu’il y avait quelqu’un sur le territoire américain qui communiquait avec quelqu’un sur un territoire contrôlé par Al-Shabbaab. Ils l’ont accusé d’avoir envoyé 3.500 dollars. J’avais fait une enquête pour Arrêt sur images là-dessus il y a deux ans. Donc, pour avoir envoyé cet argent, il a été condamné à quinze ans de prison. Il n’a jamais été démontré que le réfugié somalien en question savait qu’il envoyait de l’argent à des gens qui étaient sous la domination d’une milice terroriste. Il n’a jamais été démontré donc qu’il finançait le terrorisme. Il n’en n’a pas moins été condamné. C’est la seule condamnation sur le territoire américain basée sur la surveillance des métadonnées. Est-ce que c’est efficace ? Clairement, non !
Et en France ?
Je ne sais pas ce que font les services de renseignement. Je ne suis pas dans le secret des Dieux. Ce que je sais, c’est qu’on parle de 3000 profils menaçants en France. Là, je ne parle que du djihadisme. Ils sont 3500 à la DGSI, le contre-espionnage. Pour surveiller quelqu’un H24, il faut entre 10 et 20 personnes. Or, la DGSI ne fait pas que de la lutte contre le terrorisme islamiste : elle a beaucoup de travail contre la criminalité organisée, contre l’espionnage industriel, etc. Donc, ils sont tellement débordés par toutes les tâches qui leur sont confiées que c’est complètement invraisemblable de laisser entendre que les services de renseignements français surveilleraient massivement les Français. Ils ont franchement autre chose à faire. Cela me semble évident. Les rapports de l’autorité de contrôle des services de renseignement révèlent qu’en moyenne par an, ce sont 6000 cibles qui sont écoutées. Cela peut être une cellule islamiste de plusieurs personnes, cela peut être une personne avec dix téléphones portables… C’est en moyenne 6000. Il y a un quota de 2800 interceptions simultanées qui est attribué par Matignon. Il n’a jamais été dépassé, signe que les services n’ont donc pas besoin de pouvoir surveiller plus de 2800 personnes en simultané, et qu’il n’y a donc pas tant de « menaces » que cela. On a eu l’année dernière avec la Loi renseignement énormément de gens qui disaient qu’avec les boites noires, la Loi renseignement allait surveiller tous les Français. Ce que je sais moi, c’est que le quota de 2800 interceptions simultanées n’a jamais été atteint. Donc il n’y a pas un besoin si impérieux que ça des services de renseignement de surveiller massivement les gens. C’est quelque chose que j’ai découvert depuis les révélations Snowden. Je ne vous l’aurais pas dit si vous m’aviez interviewé en mai 2013. Quand les révélations Snowden sont arrivées, plein de journalistes n’y connaissaient rien en techniques de renseignements, NSA et compagnie… Je travaillais depuis longtemps là-dessus. J’ai donc commencé à suivre les révélations Snowden de près et à m’intéresser à ce que faisaient les services de renseignement en France.
Les services de renseignement ne peuvent pas surveiller « tout le monde ». Une part de votre travail repose cependant sur la nécessité de protéger ses données. Pourquoi ?
Sauf dans quelques pays en guerre avec les USA, ainsi que dans des dictatures, la « surveillance de masse » (aka surveiller tout le monde) est quasi-impossible et ne servirait pas à grand chose. Les services ont autre chose à faire.
A contrario, comme lesdits services ne s’en arrogent pas moins le droit et la possibilité de pouvoir surveiller tous ceux qui communiquent avec ceux qui communiquent avec leurs « cibles » : n’importe qui peut être surveillé, même s’il n’a « rien à cacher ». La question, le problème, n’est pas de savoir si on a « rien à cacher ». On ne peut plus se réfugier derrière cet argument. Aujourd’hui, on est tous à +- 6 niveaux de séparation de n’importe quel autre être humain et, si on est sur Facebook, à +- 3.5 niveaux de séparation de n’importe quel autre utilisateur de Facebook. Or, la NSA et ses partenaires anglo-saxons ont conceptualisé la notion de « three hops« , à savoir le fait de pouvoir surveiller ceux qui communiquent avec ceux qui communiquent avec leurs « cibles ». Un ancien patron de la NSA avait ainsi expliqué que « les méta-données tuent », expliquant que la CIA avait tué un terroriste, via un drone, après que la NSA ait réussi à surveiller les mails d’une amie de sa femme, et donc de remonter jusqu’à lui. Ladite amie n’était pas terroriste et n’avait peut-être « rien à cacher »… mais c’est en la surveillant que la NSA est remontée jusqu’à la femme du terroriste (l’histoire ne dit pas si sa femme a aussi été tuée dans l’attaque du drone).
En France, le Parlement a adopté, en juillet dernier, la possibilité de recueillir en temps réel des données de connexion d’une personne « préalablement identifiée (comme) susceptible d’être en lien avec une menace »… Donc, ce n’est pas parce que la surveillance de masse ubiquitaire me semble plus constituer un fantasme paranoïaque. Comme dit précédemment, les services de renseignement des pays démocratiques ne peuvent pas (légalement, techniquement, financièrement… sans parler de la masse salariale que cela devrait représenter) surveiller « tout le monde ». De plus, ils doivent obtenir une autorisation pour espionner toute personne se trouvant sur leur territoire national même et y compris s’il s’agit d’un étranger, a fortiori s’il s’agit d’un ressortissant. A contrario, ils font ce qu’ils veulent/peuvent pour ce qui est de la surveillance des étrangers… à l’étranger. Ils peuvent, légalement, financièrement et techniquement, surveiller « n’importe qui », et sont de plus en plus amenés à surveiller des gens qui n’ont « rien à cacher », mais qui sont en contact avec des gens qui sont en contact avec leurs « cibles »… Ce pourquoi il faut aussi apprendre à protéger ses données et communications, nonobstant le fait que « n’importe qui » peut donc aussi être surveillé par des services de renseignement étranger : le simple fait de communiquer avec le secrétaire particulier d’un PDG du CAC40, des employés d’une start-up prometteuse, d’un cabinet ministériel, d’un syndicat, d’un parti politique ou d’une ONG, même et y compris si vous n’évoquez jamais leurs vies professionnelles, pourraient vous valoir d’être espionné.
Internet en général, et l’informatique en particulier, n’ont pas été conçus pour sécuriser nos données et télécommunications. Ce pour quoi il faut apprendre à se protéger, nonobstant le fait que vous risquez par ailleurs et bien plus d’être surveillé, voire espionné, par votre conjoint, vos collègues et supérieurs qui peuvent physiquement accéder à vos ordis et téléphones portables, des concurrents de votre employeur ou encore et surtout par des « pirates informatiques » en quête notamment de vos numéros de login ou votre mot de passe de carte bancaire… Les services de renseignement ne sont pas, loin de là, la principale « menace » à laquelle doit faire face les internautes. Ils en constitueraient même la portion congrue. La surveillance est aussi un bizness. Même si vous n’avez « rien à cacher », même si vous pensez ne communiquer qu’avec des gens qui ne pourraient être considérés comme des « cibles » par des espions oeuvrant pour un pays ou des barbouzes travaillant pour des entreprises privées ou publiques, la majeure partie des gens qui sont placés sous surveillance, voire espionnés, le sont par des « proches » ayant un accès « physique » à leurs ordinateurs et/ou smartphones.
En matière de sécurité informatique, et de protection de la vie privée, le problème, ce n’est pas tant la NSA et ses soi disant super-pouvoirs surestimés que le fait que, par défaut, nos données ne sont pas sécurisées. Ce pourquoi il faut apprendre à se protéger. La sécurité informatique est un métier, somme toute très complexe et donc compliqué. Edward Snowden, ou encore les récentes révélations des « Shadow Brokers« , ont démontré que même la NSA, la plus puissante des agences de renseignement technique, pouvait être espionnée.
En attendant, et par défaut, partez du principe que vous êtes « à poil », et que ce que vous faites sur l’internet y circule « en clair » même si plus de 80% des requêtes Google sont par ailleurs « chiffrées » et donc, a priori, indéchiffrables, y compris par la NSA. En terme de « parano » post-Snowden et de « modèle de menace » (aka « Qui pourrait vouloir vous espionner ? »), la NSA est l’ »idiot utile » de la sécurité informatique. Donc, partez du principe qu’il y a bien plus de « risques » que vous soyez surveillé, voire espionné, par des gens qui vous connaissent et qui disposent d’un accès physique à votre ordinateur ou smartphone que par la NSA et Cie…
J’avais développé un concept qui a été repris par Reporters Sans Frontières dans son guide de sécurité informatique. C’est la notion de quart d’heure d’anonymat. Si j’ai quelque chose que je veux faire sur Internet, mais que je ne veux pas laisser de traces ou que je ne veux pas que ce soit exploité par Google, par Facebook, par des régies publicitaires, par des services de renseignements…, c’est à moi de m’en donner les moyens et d’utiliser des systèmes de protection de la vie privée, de sécurité informatique. C’est la référence à la phrase de Warhol. En 68, il avait déclaré : « A l’avenir, tout le monde aura le droit à son quart d’heure de célébrité ». Avec la télé-réalité dans les années 90 et 2000, on y a eu droit. Ce n’était encore qu’une infime partie de la population. Maintenant, avec Internet, c’est tout un chacun qui peut avoir son quart d’heure de célébrité. La question aujourd’hui, à l’ère d’Internet, à l’ère de la transparence et à l’ère de la surveillance, c’est : « Comment avoir son quart d’heure d’anonymat ? »
4. Comment les médias parlent d’Internet ?
D’où vient cette incompréhension de beaucoup de médias devant Internet ?
Il y a une anecdote qui n’est pas dans le film et que je raconte dans une BD sortie l’an dernier intitulée Grandes oreilles et bras cassés. Dans la foulée des révélations Snowden, le Monde a titré en une que la DGSE surveillait les communications de tous les Français. J’ai essayé de savoir comment ce serait possible techniquement, financièrement et légalement de surveiller tous les Français. Il faudrait mettre des boites noires dans 50.000 DSLAM. Quand j’ai découvert que c’était impossible techniquement, humainement, financièrement et légalement, j’ai demandé aux ingénieurs informaticiens qui travaillaient au coeur des réseaux Internet pourquoi ils n’avaient pas réagi à l’article du Monde. Ils m’ont répondu : « On est tellement habitué à ce que les journalistes racontent n’importe quoi sur Internet qu’on ne réagit même plus ». C’est catastrophique. Internet est de plus en plus au coeur de nos vies. Le problème, c’est qu’un nombre de plus en plus important de gens qui travaillent au coeur d’Internet ne réagissent même plus quand les médias racontent des conneries. C’est un vrai problème de déficit démocratique et géopolitique de compréhension de ce qu’est Internet. Ce que j’ai essayé de faire avec Une contre-histoire de l’Internet, c’était ça : moi qui connais un petit peu la question, je suis allé voir des gens qui connaissent bien la question pour qu’on en parle. Je pense que la réussite du film, c’est d’aller au-delà des propos de comptoir pour essayer de parler vraiment de ce que c’est Internet (#oupas).
Votre film développe différentes formes de détournements politiques d’Internet dont l’hacktivisme rencontré durant le Printemps arabe. Celui-ci serait-il encore possible aujourd’hui ?
Oui, mais ça prend de nouvelles formes. Durant le Printemps arabe, je me souviens que l’Egypte, à un moment, avait coupé Internet pour éviter que les gens ne se rassemblent grâce à Facebook. Cela n’a pas empêché Facebook d’être massivement utilisé durant le Printemps arabe. Aujourd’hui, on a de plus en plus de pays qui censurent Internet. WhatsApp a été censuré au Brésil. Il y a de plus en plus de censures et, en face, on a de plus en plus de réponses. Aujourd’hui, on parle beaucoup de Telegram parce que Telegram aurait été utilisé par le terroriste qui a égorgé un prêtre il y a quelques jours. Il y a eu une enquête dans L’Express le 14 juillet dernier qui montrait que de plus en plus de responsables politiques utilisent eux aussi Telegram. Pour l’instant, je n’arrête pas d’être interviewé par la presse autour de Telegram. J’explique que les terroristes sont des internautes comme les autres. Depuis les révélations Snowden, de plus en plus d’internautes chiffrent leurs communications. Il y a 100 millions d’utilisateurs de Telegram et, dans les 100 millions d’utilisateurs, il y a des défenseurs des libertés, beaucoup de simples particuliers, beaucoup de politiques et puis il y a quelques terroristes. Donc, on associe Telegram aux terroristes sauf que les 100 millions d’utilisateurs ne sont pas 100 millions de terroristes. Je fais souvent cette analogie : la totalité des terroristes qui se réclament du djihadisme se réclament d’une interprétation de l’Islam, mais il serait absurde, contre-productif et insultant de dire pour autant que tous les musulmans sont des terroristes. Sur les hackers ou sur les gens qui, sans être des hackers, utilisent des logiciels de chiffrement, c’est la même chose : ce n’est pas parce qu’ils sont des terroristes ou des délinquants. Ce sont juste des gens qui veulent protéger leur vie privée. Tout simplement.
Pour revenir au Printemps arabe, c’était les réseaux sociaux : à savoir de la communication publique. Aujourd’hui, de plus en plus, ce sont les moyens de communication chiffrée qui sont utilisés. Il n’y a pas très longtemps, j’ai contribué à un documentaire avec un réalisateur israélien sur le Dark Web. Ce qui était très intéressant pour moi, c’est qu’il a notamment interviewé une journaliste en Egypte qui rigolait en découvrant que la majeure partie du temps, dans les médias occidentaux, quand on parle du Dark Web ou de Tor, on parle des gens qui les utilisent pour acheter de la drogue ou des pédophiles. Elle nous disait : « C’est hallucinant ! Chez nous, en Egypte, la majeure partie des gens qui utilisent le Dark Web et Tor, c’est parce que ce sont des gens de la communauté LGBT ou des démocrates… Parce qu’on sait qu’en Egypte, les communications sont surveillées. Donc, on passe par Tor et on va sur le Dark Web pour défendre nos libertés ».
Je me rappelle du premier reportage qui avait été consacré à Facebook sur France 2 dont le pitch était : « Facebook permet à des adolescentes de montrer leurs décolletés et d’acheter du cannabis ! » C’est ainsi que la télévision française a commencé à présenter Facebook ! A la fin des années 90, Françoise Giroud, une des grandes figures du journalisme en France, avait dit qu’Internet était un danger public parce que n’importe qui peut dire n’importe quoi. C’était hallucinant, sinon scandaleux ! Alors, la démocratie, c’est aussi un danger public puisque n’importe qui peut voter pour n’importe qui. Soit on accepte le jeu de la démocratie, soit on le refuse. J’ai très rapidement perçu Internet comme étant quelque chose d’émancipateur et cela a été confirmé dans les faits. Interdire Facebook, c’est le voir remplacé par Tor et si on interdit Tor, les gens passeront par d’autres canaux. La révolution est en marche et je pense qu’on ne pourra plus l’enrayer. Le Printemps arabe a démontré que Facebook ne servait pas qu’à montrer son cul, mais que cela allait bien au-delà : Facebook était réellement quelque chose qui changeait la donne d’un point de vue politique et d’un point de vue sociétal. Aujourd’hui, il y a de plus en plus de systèmes de surveillance, donc les gens vont de plus en plus vers le Dark Web et vers le chiffrement. ça n’en finira jamais et c’est toujours nous, les défenseurs des libertés, qui gagnerons à la fin.
En 1997, dans son ouvrage Cyberculture, le philosophe Pierre Lévy considérait qu’Internet incarnait certains idéaux révolutionnaires des Lumières.
Je vous parlais tout à l’heure de Laurent Chemla. Une des raisons pour laquelle il a été très important pour moi, c’est que dans son livre, Je suis un voleur, il explique qu’en 1789, la Déclaration universelle des droits de l’homme, a inscrit la liberté d’expression comme étant un des socles fondateurs de la démocratie. Jusqu’à Internet, les seules personnes qui pouvaient faire valoir cette liberté d’expression, c’était les gens qui avaient accès aux médias. Or les gens qui avaient accès aux médias, c’étaient des artistes, des intellectuels, des hommes politiques, des gens qui gagnent beaucoup d’argent… C’était une forme d’élite. Ce qu’Internet a changé, c’est que tout le monde a accès à la liberté d’expression. Tout le monde peut enfin s’exprimer et être entendu. Des exemples, on en a pléthore. Internet est la concrétisation d’une promesse qui date de 1789, mais qui, jusqu’à Internet, était restée virtuelle. Paradoxalement, Internet concrétise un droit de l’homme qui était virtuel avant Internet. J’emploie le mot « virtuel » à escient au sens où énormément de gens disent qu’Internet est un monde virtuel, ce qui pour moi est complètement faux. Ce n’est pas un monde virtuel ! Au contraire, c’est on ne peut plus réel : il n’y a jamais eu autant de gens qui se parlent ! Il n’y a jamais eu autant de gens qui lisent et s’informent et qui prennent la parole pour s’exprimer ! Alors après, oui, il y en a plein qui disent des conneries ou qui disent des choses avec lesquelles on n’est pas d’accord. Là, on en revient à Voltaire : « Je ne suis pas d’accord avec vous, mais je me battrai pour que vous ayez le droit de le dire ».
5. Diffuser, enseigner la contre-histoire de l’Internet
Comment avez-vous envisagé la réception de votre film ? Avez-vous eu l’occasion de participer à des projections suivies d’échanges avec le public ? Quelles étaient les réactions ? J’ai le sentiment que beaucoup de jeunes gens ou d’adultes ne perçoivent pas ces enjeux liés à Internet.
Je n’ai pas fait énormément de projections-débats, mais j’ai le même sentiment que vous : la majeure partie des gens ne comprennent pas les tenants géopolitiques d’Internet. Le film aide à les comprendre. Je me souviens d’un texte brillant, il y a quelques années, de Jean-Noël Lafargue, un universitaire français. Il avait écrit dans Libération sur le fait que la génération Y, qui a grandi avec des tablettes, des smartphones et des ordinateurs, est à tort perçue comme étant des hackers. La génération d’avant présume que, comme ces jeunes ont grandi avec un ordinateur dans la main, ce sont de brillants informaticiens capables de casser Internet. C’est complètement faux ! Ceux qui ont grandi avec un smartphone dans la main savent appuyer sur des boutons, mais ils ne savent pas ce que ça veut dire ! Ils ne savent pas comment ça fonctionne. Quand j’ai commencé à me connecter à Internet dans les années 90, il fallait écrire du code HTML pour faire des pages web. Aujourd’hui, on fait des blogs, on va sur les réseaux sociaux et on n’a pas besoin de connaître du HTML. Donc, les pionniers de l’Internet ont dû mettre la main dans le code. Je pense qu’on ne peut pas comprendre Internet si on ne comprend pas un minimum le code. Or il y a très peu de gens dans la génération Y qui savent ce qu’est le code source d’une page web ou qui ont commencé à apprendre à coder.
La meilleure réponse que je peux vous donner quant à la réception du film, c’est que j’ai été très agréablement surpris le soir de la diffusion en suivant les réactions des gens sur Twitter. Le meilleur compliment qu’on a pu me faire, c’était des hackers, des geeks, qui me remerciaient en me disant : « Enfin, je vais pouvoir expliquer à mes parents qui je suis ! » C’était un très beau compliment parce que j’arrivais à faire le lien dans le film entre des hackers, des geeks, des gens qui comprennent le code, qui comprennent les tenants géopolitiques d’Internet et un public qui ne le comprend pas. Il n’y avait pas vraiment eu de film auparavant qui permettait d’expliquer au grand public ce pourquoi on défend les libertés sur Internet. Je ne m’attendais pas à ça. Je n’y avais pas pensé !
N’y a-t-il pas un paradoxe dans le fait qu’Internet soit aujourd’hui le principal média utilisé et qu’il ne fait pas l’objet d’un enseignement spécifique alors que le cinéma ou la télévision ont pu être introduits dans le cursus des lycées ?
Cela commence à se faire. Je ne suis pas spécialiste de l’enseignement donc je ne sais pas vous dire jusqu’où va cette éducation au média. à l’époque où j’ai fait le film, il y avait eu la fameuse loi française Création et Internet qui a produit Hadopi. Cette loi visait à réprimer le téléchargement de fichiers. Un amendement avait été adopté au parlement qui prévoyait une sensibilisation aux dangers d’Internet. Il s’agissait d’expliquer aux adolescents de ne pas faire ci ou ça sur Internet pour ne pas tomber sur un pédophile ou de ne pas télécharger et voler le pain des artistes. A l’époque, l’essentiel de la sensibilisation à Internet, c’était un peu comme si on faisait un cours d’éducation sexuelle et qu’on ne parlait que de la syphilis et du sida. C’est-à-dire créer un climat anxiogène où Internet fait peur, ce qui est complètement contre-productif. Bien évidemment, quand quelqu’un vient devant un adolescent en lui disant de ne pas faire quelque chose, que va faire l’adolescent ? En règle générale, il va faire ce qu’il ne faut pas faire car ça peut être tentant.
Ce que je vois poindre depuis un ou deux ans, c’est de plus en plus d’enseignants qui, dans le cadre de leurs cours, font des sensibilisations concernant les rumeurs et les théories de la conspiration. Les théories de la conspiration quand je suis arrivé sur Internet à la fin des années 90, c’était les Illuminatis, les Chemtrails et tout ce qu’on a vu après le 11 Septembre… C’était de petites communautés, mais ça me faisait déjà un peu peur parce que je voyais que de plus en plus de gens étaient sensibilisés à ça. Aujourd’hui, c’est catastrophique ! Aujourd’hui, c’est dans les cours des collèges qu’on parle des illuminatis et c’est massif ! Je ne sais pas comment cela se passe en Belgique mais les théories de la conspiration ont vraiment conquis les adolescents et pas que les adolescents d’ailleurs. Donc, de plus en plus de professeurs aujourd’hui font des cours ou des séminaires de sensibilisation pour expliquer comment interpréter une rumeur, un complot et comment les combattre. J’ai l’impression qu’aujourd’hui l’enseignement à Internet passe par ça.
Maintenant, est-ce qu’il y a une volonté politique du côté de l’éducation nationale de faire des cours d’éducation au média telle que vous l’entendez : comprendre la géopolitique d’Internet ? Non ! A ma connaissance, il n’y a pas de volonté du gouvernement d’expliquer comment fonctionne Internet. J’en veux pour preuve quelque chose que je dénonce depuis une dizaine d’année et qui relève d’une schizophrénie gouvernementale. On a d’un côté l’ANSSI qui est l’agence en France en charge de la cyber-défense qui explique aux voyageurs d’affaires que, quand ils vont à l’étranger, ils doivent chiffrer leurs disques durs et leurs communications, utiliser des VPN et des logiciels de chiffrement, car ils risquent d’être victimes d’espionnage industriel. De l’autre côté, on a la CNIL qui est plus grand public. Lorsque vous allez sur leur site pour protéger votre vie privée, on va vous apprendre à gérer vos cookies et à paramétrer Facebook. Ils n’expliquent pas comment utiliser un VPN, comment utiliser PGP, comment utiliser Signal, comment utiliser un logiciel de chiffrement… Encore aujourd’hui, pour beaucoup, dès qu’on parle de chiffrement, cela veut dire que l’on va expliquer aux gens comment devenir des gangsters, des terroristes ou des pédophiles. Pour moi, cela relève d’une forme de schizophrénie. Soit on explique aux gens comment se protéger, soit on ne leur explique pas. Les pouvoirs publics sont encore très réticents par rapport au chiffrement. La quasi-totalité du temps, quand un homme politique parle de Telegram, de Signal, du Dark Web ou de Tor, c’est en référence aux terroristes, aux gens qui veulent acheter de la drogue ou aux pédophiles alors que la majeure partie de l’utilisation du chiffrement ne relève absolument pas du terrorisme, de la pédophilie ou du trafic de drogue. C’est un épiphénomène. On en revient à l’analogie que je faisais tout à l’heure. Il y a une diabolisation d’Internet que j’essaye de fustiger dans le documentaire et qui, néanmoins, continue et va continuer encore très longtemps.
Quels sont vos projets actuels ? Avez-vous d’autres projets de films ou de livres qui prolongeraient Une contre-histoire de l’Internet ?
On m’avait proposé de faire un livre d’Une contre-histoire de l’Internet mais un livre prend beaucoup de temps. C’est un exercice que je n’aime pas trop. J’ai décliné la proposition. J’ai d’autres projets. L’un a été diffusé à l’automne dernier sur France Télévision. On peut encore le voir sur Youtube. C’est un numéro de Cash Investigation, le magazine de France 2, consacré aux marchands de technologies de surveillance. Je parlais de vidéosurveillance, de biométrie… C’était donc un peu une contre-histoire des technologies de surveillance. Sous Nicolas Sarkozy, il y a quelques années, la loi a été modifiée pour faire de telle sorte qu’on ne parle plus de « vidéo-surveillance » en France mais de « vidéo-protection ». C’était comme si les caméras, sur leurs poteaux, pouvaient protéger des êtres humains victimes d’agressions. Nice était la ville la plus « vidéo-protégée » de France. Dans les jours qui ont précédé l’attentat, cela n’a pas empêché un terroriste de se balader plusieurs fois sur la Promenade des Anglais avec un camion alors que c’est interdit. Il y a des caméras. Elles ne l’ont pas identifié. Estrozi avait déclaré au moment des attentats de Charlie Hebdo que si Paris s’était inspiré du modèle niçois en matière de vidéo-protection, les frères Kouachi n’auraient pas franchi quatre carrefours. Il l’avait dit au conseil municipal à Nice. La preuve en est que les caméras à Nice n’ont pas empêché quelqu’un de franchir deux kilomètres sur la Promenade des Anglais et de faire 80 morts. L’émission pour Cash a été faite avant l’attentat mais j’y parlais de la vidéo-surveillance comme quelque chose qui crée un faux sentiment de protection. Un peu comme tous ces discours anxiogènes sur Internet, la majeure partie des discours qui sont tenus concernant la biométrie, la vidéo-surveillance et les technologies soi-disant censées nous sécuriser, créent un sentiment de sécurité mais n’améliorent pas sensiblement la sécurité. Ce n’est pas de la vidéo-protection ! Au mieux, c’est de la vidéo-élucidation parce que les images de vidéosurveillance peuvent éventuellement contribuer à « élucider » des crimes ou des délits, mais en aucun cas à « protéger » les gens qui en sont les victimes !
J’ai d’autres projets de l’ordre de la contre-histoire appliquées aux fichiers policiers. En France, une personne sur six est fichée comme « défavorablement connue des fichiers de police ». Quasiment personne ne le sait ! Une personne sur six, c’est juste hallucinant ! La réalité du fichage policier en France, c’est ça. J’ai aussi des projets concernant la preuve par l’ADN. Pour beaucoup de gens, la preuve par l’ADN, c’est la preuve ultime, la reine des preuves. C’est scientifique. En fait, la preuve par l’ADN, c’est exactement comme la biométrie : c’est un calcul de probabilité. Un calcul de probabilité, c’est des maths, ce n’est pas de la science. La majeure partie des gens ne le savent pas. Il y a des erreurs judiciaires qui ont été documentées : des gens ont été inculpés à tort parce qu’un expert a dit : « C’est son empreinte génétique qu’on a retrouvé sur la scène de crime ! » et il s’était trompé dans ses calculs de probabilité.
Quelque chose sur lequel je travaille depuis pas mal d’années maintenant, c’est sur ce qu’on appelle les morts aux frontières : tous ces exilés qui essayent de trouver refuge en Europe. On en arrive à 30.000 morts documentées depuis l’an 2000. « Documentées », cela veut dire qu’il y en a beaucoup plus en réalité. J’ai commencé à faire un travail là dessus parce que, depuis Schengen, l’essentiel de la politique européenne et de l’argent des instances européennes va dans la sécurisation des frontières. Or plus on sécurise les frontières, plus cela fait de morts. La solution ne peut pas être de ce côté là.
Dans Les Saintes du scandale (Folio, Gallimard, 2013), l’écrivain Erri De Luca évoque le musée d’Ellis Island qui documente les vagues de l’émigration américaine. Selon lui, à Lampedusa, les autorités ont détruit tout ce qui aurait pu faire partie d’un futur musée de l’émigration. Internet pourrait-il être un espace où se constitueraient ce musée et cette mémoire ?
Il y a un monument et un cimetière à Lampedusa. Une partie de la population fait un travail remarquable. Ils sont vent debout contre les instances européennes. J’ai contribué à faire sur Owni un mémorial des morts aux frontières à une époque où, lorsqu’on parlait des réfugiés morts, c’était du fait divers. à l’époque, il n’y avait que des ONG qui comptabilisaient les migrants. En 2014, on a fait un projet avec Nicolas Kaiser-Bril et d’autres journalistes européens qui s’appelle The Migrants Files. On a fusionné deux bases de données faites par un bloggeur italien et par une ONG aux Pays-Bas. On en est arrivé à ce chiffre, en 2013-2014, de 30.000 morts comptabilisés depuis l’an 2000. Une des choses que nous racontions dans notre enquête, c’est qu’aucune des instances nationales ou internationales, l’Europe, Frontex, les Nations Unies, l’Organisation internationale pour les migrations, ne comptabilisait les morts aux frontières. J’avais contacté un des officiers responsables de Frontex, l’agence en charge de la sécurisation des frontières extérieures de l’Union européenne, pour lui demander comment cela se faisait que, dans leurs rapports annuels, il y avait des tonnes de chiffres sur tous les migrants interceptés, placés en camps de rétention, refoulés dans leur pays et zéro chiffre sur les morts aux frontières. En off, cet officier m’a dit : « Mon boulot, c’est de lutter contre l’immigration illégale. Ces gens-là sont morts, donc ce ne sont plus des migrants. » Pour moi, c’était révélateur de la différence fondamentale de perception géopolitique du monde : j’ai en face de moi quelqu’un payé avec notre argent pour sécuriser les frontières qui, face à quelqu’un qui est mort, ne se pose pas de questions sur les raisons de sa mort. Il est dans une logique verticale. Moi, simple être humain, par ailleurs journaliste, quand je découvre qu’il y a 30.000 morts aux frontières, ça me révulse ! Je ne comprends pas que les instances européennes laissent faire ce massacre sans réagir. Pour cet officier, la question ne se posait même pas. C’est la banalité du mal. C’est Hannah Arendt. Dans le monde horizontal d’Internet tel que je le perçois, on doit réagir contre le monde vertical et cette banalité du mal…
Notre enquête a fait du bruit. Depuis, nos chiffres ont été récupérés par les Nations Unies et par l’Organisation internationale pour les migrations. Aujourd’hui, ces instances comptabilisent au jour le jour les morts dont on arrive à retrouver la trace. Ils ont repris notre travail. C’est probablement une des choses dont je suis le plus fier d’un point de vue journalistique et simplement en tant qu’être humain ! Notre enquête a contribué à changer la donne. Une des hypothèses que j’avais formulées, c’est qu’on ne pourra pas résoudre ce problème des morts aux frontières si on ne le documente pas. Avant l’enquête, ce n’était pas documenté. Depuis, ça l’est par les autorités. C’est un premier pas !
Cette approche qui place l’humain au centre de votre travail est donc constante ?
Pour moi, tous mes projets participent de ce travail de déconstruction qui fait référence au travail d’Howard Zinn évoqué précédemment : généralement, l’histoire est racontée par celui qui a gagné la guerre et ce qui m’intéresse c’est de raconter l’histoire du point de vue de l’être humain. Quand j’ai commencé à me connecter à Internet, Laurent Chemla m’avait dit : « La grosse différence entre Internet et la télévision, c’est que Bill Clinton (il était alors président des Etats-Unis) a une adresse email et toi aussi. » Sur Internet, on est tous égaux ! Ce n’est pas le cas dans les autres médias. Une bonne partie de mon travail journalistique part de ce postulat : ne pas être dans la logique top-down mais dans la logique bottom-up. C’est ce que j’ai essayé de montrer dans La contre-histoire de l’Internet.
Entretien réalisé par Alain Hertay, le 29 juillet 2016
Cash Investigation diffusera ce soir une enquête sur le contrat, qualifié d’« open bar », passé entre Microsoft et le ministère de la défense, et basé sur des documents que j’avais rendu publics en 2013 sur le site du Vinvinteur, une émission de télévision quelque peu déjantée qui m’avait recruté, mais dont le site web a disparu. Je me permets donc de republier ladite enquête, consultable sur archive.org, qui archive le web, mais qui n’est pas indexé par Google (& Cie). Il eut été dommage de laisser cette enquête disparaître… Ceux qui voudraient en savoir plus peuvent aussi consulter le site de l’association April de promotion des logiciel libres, qui suit et documente ce contrat depuis des années.
« L’armée capitule face à Microsoft » : confirmant une information du site PCInpact -qui avait levé le lièvre dès 2008-, le Canard Enchaîné a révélé mercredi dernier que l’armée française était sur le point de reconduire un contrat, sans appel d’offres, avec Microsoft. Problèmes : il « coûte cher, augmente les risques d’espionnage et se négocie… dans un paradis fiscal » .
L’association April de défense des logiciels libres, qui dénonce depuis des années l’opacité de ce contrat, et aujourd’hui le fait que l’OTAN imposerait Microsoft et les backdoors de la NSA au ministère de la Défense, vient de recevoir une version censurée de certains des documents évoqués par le Canard Enchaîné. Le Vinvinteur, qui avait ces documents depuis des mois, et qui avait déjà évoqué cet étrange pacte de l’armée française avec Microsoft, a donc décidé de les rendre publics.
En 2007, Microsoft proposait au ministère de la Défense de centraliser les multiples contrats passés entre l’éditeur de logiciels américain et l’armée française. En 2008, un groupe de travail constitué d’une quinzaine d’experts militaires était chargé d’analyser la « valeur du projet » de Microsoft.
Leur rapport, intitulé « Analyse de la valeur du projet de contrat-cadre avec la société Microsoft » et que le Vinvinteur a décidé de rendre public, déplorait que la procédure, passée sans appel d’offres, écartait de facto tout autre concurrent, contrairement à l’esprit et à la lettre du code des marchés publics. Les experts pointaient également du doigt le risque d’ « accoutumance » , de « dépendance » et même d’ « addiction » aux produits Microsoft.
Ils constataient la situation de « monopole confirmé » de l’éditeur, mettant l’armée « à la merci de la politique tarifaire » de l’éditeur de logiciels, et constataient qu’en cas de non-renouvellement du contrat, le ministère de la Défense devrait s’acquitter d’un « droit de sortie équivalent à 1,5 années de contrat » .
Les experts militaires déploraient également le risque de « perte de souveraineté nationale » et de « contrôle par une puissance étrangère » des systèmes informatiques de nos armées. Evoquant le fait que la NSA, le très puissant service de renseignement américain chargé de l’espionnage des télécommunications, « introduit systématiquement des portes dérobées ou « backdoors » dans les produits logiciels » , le rapport estimait que le système informatique de l’armée française serait dès lors « vulnérable car susceptible d’être victime d’une intrusion de la NSA dans sa totalité » …
Les auteurs du rapport concluaient enfin que « la seule certitude » de l’offre de Microsoft était qu’elle « entraînera un accroissement de 3 M€/an des dépenses de logiciel » , sans qu’aucun gain n’ait été identifié au profit du ministère en matière de retour sur investissement. Et tout en contribuant à un « affaiblissement de l’industrie française et européenne du logiciel » …
Pour les experts militaires, l’offre de Microsoft « est la solution qui comporte le plus de risques rédhibitoires » :
Non contents de constater que l’offre Microsoft (S2) comportait « dix risques rédhibitoires » , les experts militaires pointaient également du doigt « trois critères destructifs » , censés se caractériser par « un seuil au delà duquel le scénario est rejeté » .
En conséquence de quoi, le groupe de travail concluait son rapport en qualifiant l’offre faite par Microsoft de « scénario le plus risqué » , avec un « ROI (retour sur investissement -NDLR) incertain » , ce pourquoi il concluait en écrivant que « ce scénario est donc fortement déconseillé » .
L’armée française et le paradis fiscal irlandais
En dépit de cette « analyse de la valeur » particulièrement sévère de la proposition de contrat, l’armée française n’en signait pas moins un « acte d’engagement » portant sur un marché de « maintien en condition opérationnelle des systèmes informatique exploitant des produits de la société Microsoft avec option d’achat » avec… la filiale irlandaise de l’éditeur américain. Les mauvaises langues disent que cela aurait permis à l’éditeur de logiciels, qui dispose pourtant d’un siège à Paris, juste en face des studios de TF1, d’échapper à la fiscalité française.
Vers « un parc pérenne en solutions Microsoft »
Un courrier estampillé « diffusion restreinte » , signé du général Patrick Bazin, qui commande la Direction interarmées des réseaux d’infrastructure et des systèmes d’information (DIRISI), et daté de janvier 2013, explique ce pour quoi le ministère de la Défense a décidé de renouveler le contrat.
On y apprend ainsi que « le premier contrat cadre du ministère de la défense avec la société Microsoft a pris fin le 22 décembre 2012 » , et que le marché, arrivant à terme en mai 2013, le comité des achats du ministère de la défense mandaté la DIRISI, en février 2012, « pour négocier avec la société Microsoft un nouvel accord-cadre » .
On y découvre également que le choix de solutions Microsoft ne conduit pas « à une dépendance vis-à-vis de cet éditeur » , mais également que « les solutions dites libres n’offraient pas de gain financier notable » .
Dit autrement : le contrat avec Microsoft coûte quand même plus cher que si l’armée avait opté pour des logiciels libres, mais la différence n’est pas suffisamment notable pour que le ministère de la Défense fasse le choix de ne pas renouveler le contrat avec l’éditeur américain.
La DIRISI explique en effet que « les contraintes opérationnelles et d’interopérabilité avec nos alliés imposent des choix Microsoft » , dans la mesure où « l’OTAN a fait le choix des solutions Microsoft pour ses postes de travail » . Et c’est, de même, « dans un souci d’interopérabilité et d’économie » , que la DIRISI demande « d’utiliser les applications de l’OTAN » , ce pour quoi les nouveaux Systèmes d’Information Opérationnels et de Communication (SIOC) français « sont développés et sont en cours de déploiement sur des technologies Microsoft » .
L’argument est pour le moins étonnant, l’interopérabilité désignant précisément la capacité que possède un système informatique à fonctionner avec d’autres produits ou systèmes informatiques, existants ou futurs, et quels que soient les systèmes d’exploitation et logiciels utilisés.
On imagine sans peine les cris d’orfraie que pousseraient militaires, marchands d’arme, sans parler des politiques, des médias et de l’opinion publique, si d’aventure le responsable des achats de l’armée française décidaient de ne plus acheter que des armes made in USA, au motif que la France fait désormais partie de l’OTAN.
Dans le même temps, la DIRISI révèle également dans ce document que plusieurs ministères ou organismes ont « affiché leur volonté d’adhérer au contrat en préparation » , à savoir les ministères du travail et de la santé, ainsi que le Commissariat à l’énergie atomique, la Cour des Comptes et la Direction générale des finances publiques.
Après avoir vérifié auprès de la Direction des Affaires Juridiques (DAJ) « que les conditions d’exclusivité de la société Microsoft étaient toujours réunies, la DIRISI a conduit une négociation en gré à gré » avec Microsoft, ce qui lui permet de nouveau de ne pas procéder à un appel d’offres public.
L’article 35-II-8 du Code des Marchés Publics précise en effet que « les marchés et les accords-cadres qui ne peuvent être confiés qu’à un opérateur économique déterminé pour des raisons techniques, artistiques ou tenant à la protection de droits d’exclusivité » peuvent en effet être négociés « sans publicité préalable et sans mise en concurrence » .
Evoquant des « raisons de confidentialité industrielle et de finalisation des négociations« , le document ne fournit pas d’éléments chiffrés, mais précise néanmoins qu’ « après quatre tours de négociation, la DIRISI est sur le point d’obtenir une réduction des prix de 49% par rapport au tarif SELECT D (en tenant compte d’une remise additionnelle de 20% sur ce dernier, ce qui reste actuellement la meilleure offre constatée pour l’administration) » , ce qui permettra au ministère de disposer d’ « un parc pérenne en solutions Microsoft » .
La transparence de la « grande muette »
Signes supplémentaires de l’opacité de ce contrat, le cabinet du ministre de la Défense a expliqué au Canard Enchaîné n’avoir jamais entendu parler du rapport du groupe d’experts militaires qui avaient « fortement déconseillé » l’offre de Microsoft.
L’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’autorité nationale en matière de sécurité et de défense des systèmes d’information, en charge des questions de cyberdéfense, n’a quant à elle pas été sollicitée pour émettre un avis concernant la pertinence de ce contrat.
La Direction interministérielle des systèmes d’information et de communication (DISIC), chargée de coordonner les actions des administrations en matière de systèmes d’information (notamment en matière d’interopérabilité, et de sécurité), mais également d’encourager les ministères à l’adoption des logiciels libres, nous a expliqué n’avoir elle non plus pas été sollicitée.
Enfin, la gendarmerie nationale, que nous avions sollicité pour expliquer, devant les caméras du Vinvinteur, ce pour quoi elle avait décidé de migrer son parc informatique sur des logiciels libres, entraînant une réduction du budget de 70%, tout en garantissant son indépendance vis-à-vis de tout éditeur, a préféré décliné notre invitation, évoquant un contexte « un peu trop sensible » …
Nous avons tenté de comprendre ce pour quoi un tel contrat, si vertement critiqué par les experts militaires, a pourtant été signé. Pourquoi il a été signé avec Microsoft Irlande, et pas avec sa filiale française. Pourquoi il va être renouvelé, alors que sous couvert d’anonymat, de nombreux militaires le qualifient de « scandale » . Pourquoi le ministère de la défense s’enferre à acheter des logiciels propriétaires, alors que Jean-Marc Ayrault a signé, en septembre dernier, une circulaire (.pdf) dressant les orientations en matière d’usage des logiciels libres dans l’administration. Pourquoi l’armée française, dont le budget, sur fond de crise et de politique d’austérité, est le seul à avoir été sanctuarisé, préfère enrichir une société américaine plutôt que de faire des économies budgétaires, tout en contribuant au développement d’une industrie française des logiciels libres.
Et le moins que l’on puisse dire, c’est que cette affaire soulève plus de questions qu’elle n’apporte de réponses…
Jean-Marc Manach (@manhack sur Twitter).
Voir aussi le Vinvinteur 25 consacré à cette question, les interviews de l’ancien député Bernard Carayon, de Jeanne Tadeusz, de l’APRIL, et tous les liens du Vinvinteur 25.
Les documents
Plusieurs documents avaient déjà été mis en ligne, en 2011, sur un site créé pour analyser la politique de Microsoft en matière d’interopérabilité (cf French Defense IT system under US company control & MS and Public Procurement – Files). A l’exception de PCInpact, qui avait rendu public le rapport (très critique) de la Commission des marchés publics, ils avaient jusque là été injustement ignorés :
Analyse de la valeur du projet de contrat-cadre avec la société Microsoft
Projet de contrat cadre avec la société Microsoft
La loi renseignement, adoptée dans la foulée des révélations Snowden sur la « surveillance de masse« , a été présentée par ses opposants comme permettant « une interception de l’ensemble des données des citoyens français en temps réel sur Internet« . La DGSE espionne-t-elle tous les Français ? En a-t-elle le droit, les moyens techniques, et financiers ? #Oupas…? [tl;dr : non]
C’est le sujet du dernier n° de What The Fact, la websérie qu’IRL (la chaîne des « nouvelles écritures » de France Télévisions) m’a proposé de consacrer au fact-checking.
La vidéo, diffusée sur Rue89, dure 6’30, mais du fait de la complexité du sujet, je ne pouvais pas (vu le format, la durée) y partager toutes les informations (et liens) que j’avais compilé à ce sujet, ce que je vais donc tenter de faire dans ce billet.
Les (très nombreux) opposants à la loi renseignement dénonçaient une « surveillance généralisée d’Internet« , et plus particulièrement une « surveillance massive de l’ensemble de la population » française, au motif que « le projet de loi Renseignement contient deux articles qui permettent une interception de l’ensemble des données de tous les citoyens français en temps réel sur Internet, dans le but de faire tourner dessus des outils de détection des comportements ‘suspects’« .
De fait, je fus l’un des tous premiers journaliste à avoir mentionné les deux articles en question, dans un article intitulé « Pourquoi le projet sur le renseignement peut créer une « surveillance de masse » (j’avais alors mis en gras les passages litigieux) :
Le nouvel article 851-3 du code de la sécurité intérieure autoriserait ainsi, « pour les besoins de la détection précoce d’actes de terrorisme, la collecte, en temps réel, sur les réseaux des opérateurs, de la totalité des données, informations et documents relatifs aux communications de personnes préalablement identifiées comme des menaces« .
L’article 851-4 prévoit de son côté, toujours « pour les seuls besoins de la prévention du terrorisme« , de pouvoir « imposer » (sic) aux intermédiaires et opérateurs techniques la mise en œuvre « sur les informations et documents traités par leurs réseaux d’un dispositif destiné à révéler, sur la seule base de traitements automatisés d’éléments anonymes, une menace terroriste« .
Dit autrement, il s’agit de pouvoir installer des « boîtes noires » -pour reprendre l’expression formulée au Figaro par des conseillers gouvernementaux- au coeur des réseaux de télécommunications, chargées d’identifier les « comportements suspects« … expression vague s’il en est.
Tout juste sait-on que l’article 851-4 précise que « si une telle menace est ainsi révélée, le Premier ministre peut décider de la levée de l’anonymat sur les données, informations et documents afférents« .
Dans la foulée des révélations Snowden, Le Monde avait déjà affirmé, en « Une », que « la Direction générale de la sécurité extérieure (DGSE, les services spéciaux) collecte systématiquement les signaux électromagnétiques émis par les ordinateurs ou les téléphones en France, tout comme les flux entre les Français et l’étranger : la totalité de nos communications sont espionnées« , ce que j’avais alors fact-checké, pour en arriver à la conclusion qu’une telle « surveillance de masse« , sur le territoire national, serait techniquement improbable, financièrement impossible, et légalement interdite (nonobstant le fait que la DGSE est en charge de l’espionnage… à l’étranger).
Depuis, j’ai été amené à effectué cinq autres factchecks d’autres « Unes » du Monde tendant à valider différentes formes de « surveillance de masse » des Français, qui toutes se sont révélées être fausses, en tout cas biaisées, pour en arriver à la conclusion que les révélations Snowden sur la « surveillance de masse » avaient également eu pour contre-coup de créer un climat de « paranoïa généralisée« , qui n’avait pas forcément lieu d’être (cf De la surveillance de masse à la paranoïa généralisée).
Je n’en ai pas moins continuer à creuser, pour tenter de comprendre si la loi renseignement pouvait permettre, comme l’affirmaient ses opposants, l' »interception de l’ensemble des données de tous les citoyens français en temps réel sur Internet« , #oupas.
La France compterait quelques 55 millions d’internautes, près de 37 millions de lignes de téléphonie fixe, plus 70 millions de cartes SIM, dont 22 millions de cartes 4G, permettant de surfer sur Internet depuis son mobile, et dont le succès est tel que le volume de données consommées a presque doublé l’an passé (source ARCEP).
Pour mieux mesurer l’ampleur que représenterait une telle tâche, il faut savoir que le volume de données échangées sur Internet, en France, correspondait à l’équivalent du contenu de 4 milliards de DVD (par an), 308 millions (par mois), soit près de 422 346 DVD (par heure), que le trafic de données mobiles, de son côté, représentait l’équivalent de 13 millions de DVD (par mois), ou 148 millions de SMS (par seconde). A quoi il faudrait rajouter le trafic téléphonique… celui qui, accessoirement, intéresse le plus les « grandes oreilles« .
Parlons-en, des « grandes oreilles » : d’après l’académie du renseignement, la DGSE dénombrerait quelque 6000 employés, 3200 à la DGSI, et 127 au Groupement interministériel de contrôle (le GIC, chargé de procéder aux « interceptions administratives« , du nom donné aux écoutes téléphoniques effectuées à la demande des services de renseignement).
Admettons que tout ce beau monde, faisant fi de la vague d’attentats qui touchent la France (notamment) depuis janvier 2015, ainsi que de toutes les autres menaces qu’ils sont pourtant censés tenter de contrer, décide de ne plus surveiller les terroristes (et plus si affinités) à l’étranger, de ne plus écouter djihadistes, dealers et proxénètes en France, pour se focaliser sur l' »interception de l’ensemble des données de tous les citoyens français en temps réel sur Internet« .
Dans l’hypothèse improbable où ils travailleraient 24h/24 7j/7, ils devraient, chacun, surveiller 5 896 internautes, et se taper le contenu de 45 DVD, par heure, ou de 15 868 SMS, par seconde… S’ils ne travaillaient qu’aux 35h, ils devraient, chacun, surveiller 28 300 internautes, et vérifier l’équivalent de 216 DVD par heure, ou 76 166 SMS par seconde. Une paille, pour nos SuperDupont.
Certes, ce qui intéresse le plus les services de renseignement, ce sont les méta-données (qui communiquent avec qui, d’où, quand ?), et la surveillance pourrait être automatisée. Encore faudrait-il que les services puissent intercepter, stocker et analyser toutes ces données. Sauf qu’en France, le trafic Internet est particulièrement décentralisé. En l’espèce, et pour pouvoir surveiller tout le trafic Internet en France, il faudrait, « au bas mot« , déployer… 50 000 « boîtes noires« .
MaJ : réagissant à la mise en ligne de la vidéo, ledit ingénieur précise que « Ça dépend vraiment de ce que tu veux capter. Disons qu’en 12 points tu chopes 70%, le reste est diffus« . Ce qui reste à fact-checker, nonobstant le fait que surveiller massivement 70% du trafic Internet franco-français coûterait une blinde (le placement sous surveillance des télécommunications internationales via la vingtaine de câbles sous-marins aurait coûté quelque 500M€), serait a priori illégal, sauf à passer par les fameuses « boîtes noires, qui… n’existent toujours pas (voir plus bas), qui sont limitées à la seule lutte anti-terroriste (contrairement aux systèmes de « collecte de masse » sur les câbles sous-marins), et qui ne permettent de désanonymiser que des « menaces » avérées (contrairement -bis- aux systèmes de « collecte de masse » sur les câbles sous-marins).
Cherchant à estimer le coût d’untel système bouzin, un ingénieur travaillant au cœur des réseaux avait calculé que, pour pouvoir surveiller -et stocker- 1% du trafic Internet français, il faudrait investir, sur 10 ans, quelque 6 milliards d’euros en matériels de stockage, électricité, sondes d’interception, datacenter… et hors frais de personnel. Pas de soucis : le budget annuel de la DGSE est de 700 millions d’euros (dont 60% en frais de personnel), et puis c’est pas comme si c’était la crise.
TL;DR Ca fait 6G€ d'argent public (avec le MTBF stockage) pour voir ma bite. Il suffisait pourtant de demander 16/. pic.twitter.com/bcga8Kds1V
— Jérôme Nicolle (@chiwawa_42) April 8, 2015
Depuis les révélations Snowden, la « surveillance de masse » fait certes peur, mais elle est aussi et de plus en plus rendue impossible, le trafic Internet étant de plus en plus chiffré : Google vient ainsi de révéler que 90% des requêtes effectuées depuis la France étaient chiffrées, tout comme 86% des messages gmail à destination d’autres fournisseurs (et 100% des messages d’utilisateurs de Gmail à d’autres utilisateurs de Gmail), et donc a priori indéchiffrables par la NSA, la DGSE & Cie…
Nonobstant le fait que, et au-delà de ces défis logistiques et techniques, une note de bas de page du rapport 2015 de la délégation parlementaire au renseignement (DPR), publié en février 2016, précise que « les techniques de suivi en temps réel des personnes préalablement identifiées comme présentant une menace et de l’algorithme » (les fameuses « boites noires« ) sont « très compliquées à mettre en oeuvre et (qu’)actuellement, aucun de ces deux instruments n’est mis en oeuvre« … information confirmée par Le Monde, qui écrivait
L’an passé, des milliers d’articles ont été consacrées à ces fameuses « boîtes noires« , qui avaient cristallisé l’opposition au projet de loi renseignement. Le fait qu’elles « n’étaient pas encore opérationnelles » n’a eu les faveurs que de deux articles : un dans Le Monde, un autre dans NextInpact, après que la mission d’information sur les moyens de Daech a elle-même appris que « ces algorithmes destinés à filtrer les communications sont en cours d’élaboration par les services« .
La DGSE dispose bien, cela dit, de systèmes de « collecte de masse » déployés sur la vingtaine de câbles sous-marins qui relient les réseaux de télécommunication français à l’étranger, afin de pouvoir surveiller les communications internationales), via un système mis en place à partir de 2008 et qu’avait très bien décrit le journaliste Vincent Jauvert, dans L’Obs. Il est en effet plus simple de surveiller les communications lorsqu’elles sont ainsi centralisées que d’installer 50 000 « boîtes noires« , et puis c’est moins coûteux : 500M€, quand même…
La loi du 30 novembre 2015 relative aux mesures de surveillance des communications électroniques internationales, qui légalise la « surveillance des communications qui sont émises ou reçues à l’étranger » prévue par la loi renseignement, n’en précise pas moins que « lorsqu’il apparaît que des communications électroniques interceptées sont échangées entre des personnes ou des équipements utilisant des numéros d’abonnement ou des identifiants techniques rattachables au territoire national, y compris lorsque ces communications transitent par des équipements non rattachables à ce territoire, celles-ci sont instantanément détruites. »
La question reste de savoir comment, et plus particulièrement de savoir si ces procédures de « minimisation » sont réellement efficaces. Un rapport vient ainsi de révéler que le BND, le pendant allemand de la DGSE, filtrait bien les n° de téléphone commençant par +49 et les adresses mails de type .de, mais qu’elle serait incapable de proprement « minimiser » les données des Allemands utilisant des serveurs situés à l’étranger, avec des adresses en .com ou .org, et communiquant en anglais… Reste que, et comme l’a montré la prétendue « affaire » de surveillance de Thierry Solère, la DGSE a bien identifié, et mis un terme, à ce qui constituait un « détournement frauduleux des moyens techniques » de la DGSE.
La loi renseignement légalisait par ailleurs l’installation de mouchards, ou logiciels espion, par les services de renseignement, à l’instar de ceux qui avaient été légalisés en 2011 avec la LOPSSI de Nicolas Sarkozy, mais à l’époque pour le seul bénéfice des officiers de police judiciaire. Or, une autre note de bas de page du rapport de la DPR précise que ce dispositif « n’a été que très rarement mis en oeuvre (…) en effet, le passage préalable devant une commission administrative pour autoriser les logiciels entraîne des délais tels que ce dispositif n’a été mis en oeuvre que six fois depuis 2011« . 6 fois, en 5 ans… ça ne nous dit pas combien de logiciels espions ont été exploités par les services de renseignement, mais ça relativise aussi quelque peu la « surveillance de masse« .
Enfin, le rapport 2014 de la Commission nationale de contrôle des interceptions de sécurité (CNCIS), chargée d’autoriser (#oupas) les écoutes téléphoniques « interceptions administratives » réclamées par les services de renseignement, explique que « dans son souci de conserver un caractère exceptionnel aux interceptions de sécurité, le législateur a opté pour une limitation sous forme d’un encours maximum, protecteur des libertés publiques, dans le but d’ «inciter les services concernés à supprimer le plus rapidement possible les interceptions devenues inutiles, avant de pouvoir procéder à de nouvelles écoutes »« , et qui prend la forme d’un quota, ou « contingent maximum« , de cibles écoutables, fixé par le Premier ministre.
De 1180 lignes écoutables en simultané en 1991, ce quota est passé à 1540 en 1997, 1670 en 2003, puis en 2008 à 1840 « cibles » (une « cible » pouvant correspondre à plusieurs cartes SIM utilisées par un seul et même individu), 2190 en 2014 et, suite aux attentats de janvier 2015, à 2700 cibles écoutables en simultané. La CNCIS n’en précisait pas moins que « le nombre d’abonnés à des services mobiles en France était de son côté passé de 280 000 en 1994 à 78,4 millions en juin 2014« , mais également qu' »il convient en outre de souligner l’absence de cas récent de l’emploi de la totalité du contingent général« . En clair : le quota n’a jamais été atteint, sinon dépassé.
En moyenne, ces dernières années, on dénombre ainsi un peu plus de 6000 « interceptions administratives« , par an, et encore : plusieurs d’entre-elles sont des renouvellements, les autorisations étant de 4 mois renouvelables. On est, là encore, bien loin d’une « surveillance de masse« .
En juin dernier, alors que l’on venait tout juste de tourner le module vidéo, Reflets & Mediapart révélaient que le GIC avait déployé, dès 2009, plusieurs milliers de « boîtes noires« . J’en avais entendu parler, mais je n’avais pas réussi à le recouper.
Leur nom de code, « Interceptions Obligations Légales » (IOL), laisse entendre qu’elles seraient encadrées, sinon par la loi, tout du moins par la désormais fameuse jurisprudence créative » de la CNCIS, expression qualifiant ce qu’elle a vérifié, et validé, quand bien même aucun texte de loi, discuté au Parlement, ne l’ait autorisé : je ne peux que le déplorer, et n’ait de cesse de tenter de le documenter, mais en matière de renseignement (ainsi que de fichiers policiers), les « techniques de renseignement » sont généralement mises en oeuvre avant que d’être légalisées.
En tout état de cause, ni la loi renseignement, ni l’infrastructure décentralisée de l’Internet en France, ne permettent (techniquement et financièrement) ni n’autorisent (légalement) une « interception de l’ensemble des données de tous les citoyens français en temps réel sur Internet« , a fortiori par la DGSE, chargée de l’espionnage à l’étranger.
Pour autant, et comme j’ai tenté de l’expliquer en commentaires d’un autre article de Reflets consacré à IOL, une chose est de se doter des moyens susceptibles de permettre au GIC de pouvoir « surveiller n’importe qui« , une autre est de vouloir « surveiller tout le monde« … La vidéosurveillance n’a pas pour vocation de faire de la « surveillance de masse« , et je ne vois pas ce pourquoi les techniques de renseignement en iraient autrement.
En juillet dernier, une énième loi anti-terroriste a autorisé le recueil en temps réel des données de connexion des personnes, non seulement « préalablement identifiée comme présentant une menace » comme ce fut le cas avec la loi renseignement, mais aussi des personnes « préalablement identifiée (comme) susceptible d’être en lien avec une menace« .
La question n’est plus de savoir si l’on a « rien à cacher » : il suffit en effet de communiquer avec quelqu’un qui communique avec une « cible » pour pouvoir être surveillé. De N+1, on passe à N+2 -la NSA allant, de son côté, jusqu’à N+3 (voir Pourquoi la NSA espionne aussi votre papa (#oupas)).
Depuis des années, je n’ai de cesse de déplorer la diabolisation d’Internet en général (cf Les internautes, ce « douloureux probleme », ou notre documentaire, Une contre-histoire de l’internet), et du chiffrement en particulier (cf Les terroristes sont des internautes comme les autres, ou Crypto: pourquoi l’ex-chef de la NSA défend Apple).
Je ne peux de même que déplorer la diabolisation des services de renseignement. Pour le coup, et depuis les révélations Snowden, je vois autant de propos biaisés et caricaturaux au sujet du chiffrement que de propos plutôt parano au sujet des services de renseignement.
La notion de « surveillance de masse » a pu laisser entendre que les services de renseignement surveillaient, massivement, des pans entiers de la population. C’est probablement vrai sur certains théâtres d’opération et zones de guerre, quand bien même il est raisonnablement difficile d’imaginer que quelques milliers de personnes puissent réellement surveiller des dizaines de millions d’internautes et d’utilisateurs de téléphone portable.
Ce qui intéresse vraiment les services de renseignement, ce n’est pas de surveiller massivement la population, mais de disposer de systèmes de « collecte de masse » leur permettant de pouvoir « surveiller n’importe qui« , ce « n’importe qui » étant par ailleurs et bien souvent des ordinateurs, plus que des êtres humains.
Bernard Barbier, l’ex-directeur technique de la DGSE, l’explique très bien dans la conférence qu’il avait accordé à Supélec en juin dernier, et où il expliquait notamment comment, en 2008, il avait reçu 500M€ et pu recruter 800 ingénieurs afin de déployer le système français de surveillance de l’Internet, profitant de « la capacité de stocker pas cher, et de calculer pas cher« , ce qu’il qualifie de « bon technologique absolument fondamental » :
« Ce qu’on appelle le ‘Big Data’ amène une capacité d’intrusion énorme sur les citoyens : on peut savoir quasiment tout ce que vous faites avec vos téléphones portables et ordinateurs; effectivement, on est un ‘Big Brother’. Maintenant, c’est aux hommes politiques, et aux citoyens, de décider ce que l’on veut faire.
Moi, en tant qu’ingénieur, j’ai expliqué aux politiques ce que l’on peut faire : jamais l’homme n’a eu une capacité d’intrusion telle, qui n’a jamais existé dans l’histoire de l’humanité, après c’est à vous de décider quelle est la balance entre votre vie privée et votre sécurité. »
Dans l’interview parue dans Libé qu’il avait accordée à Pierre-Olivier François pour son documentaire « Cyberguerre, l’arme fatale ? » (que vous pouvez toujours voir sur YouTube et auquel, full disclosure, j’avais contribué), Barbier expliquait que « les Chinois ont bon dos : beaucoup de pays se font passer pour des Chinois !« . Et c’est précisément au sujet des Chinois que vient l’un des passages les plus intéressants. A 49’30, interrogé sur la menace que représenterait la Chine en matière de cyber-attaques, il revient sur ce pourquoi la Chine, au-delà du Big Data, s’était elle aussi lancée dans la guerre et l’espionnage informatique :
« Tout est écrit. Un colonel de l’armée chinoise a écrit un mémoire en 1995 qui explique que la Chine n’arrivera pas à dépasser les Américains, en matière de course à l’armement, avant 50-60 ans, au vu de leur avance technologique, et du coût gigantesque que cela représente.
Or, l’informatique devient quelque chose de prégnant dans tous les systèmes militaires, et une des solutions pour revenir au niveau des Américains, c’est la guerre et l’espionnage informatique, parce que le coût est faible, parce qu’il faut des cerveaux, et qu’il y en a beaucoup plus en Chine qu’aux USA.
L’armée populaire de Chine a donc créé une cyber-army à partir des années 1997-1998. Ils se sont aperçus que les Américains étaient très mal protégés, ils ont recruté des milliers de hackers, et ils ont lancé des attaques extrêmement massives sur toutes les sociétés d’armement. Pour la petite histoire, ils ont par exemple complètement espionné Areva. »
Étrangement, on voit que la vidéo a été coupée à cet instant précis (52’20), sans que l’on sache s’il s’est agi d’un problème technique, ou d’une coupe motivée par les propos tenus par Bernard Barbier, et qui ne sauraient être rendus publics. L’attaque d’Areva avait été révélée le 29 septembre 2011 par L’expansion, qui évoquait alors une « origine asiatique » et, pire, qu’elle durait depuis deux ans.
Plus tard, un étudiant lui demanda si la DGSE avait repéré l’attaque visant Areva en surveillant Areva : « Non, ce n’est pas en surveillant Areva : si vous avez des « grandes oreilles », vous voyez passer tous les paquets IP, vous prenez les méta-données, que vous analysez pour pouvoir remonter à des attaques informatiques, à des signatures » :
« Beaucoup de malwares (logiciels malveillants -NDLR), pour faire fuir les informations en toute discrétion, vont établir un tuyau avec un serveur de command and control (CC) et les faire remonter de façon chiffrée. Or, le fait de chiffrer les informations apporte une signature, et quand vous avez ces signatures dans votre ‘Big Brother système’, dans vos pétaoctets de données, vous savez que ce malware a été injecté dans un ordinateur à tel endroit.
Quand vous prenez une fibre optique qui transporte des millions de communications, vous prenez toute la fibre optique, donc vous voyez tout passer; après il peut y avoir un débat, nous notre rôle c’était de traiter et d’analyser ces méta-données pour identifier ce qui pouvait représenter une menace pour la France.
Le problème de l’Internet, c’est que les flux IP, ils passent n’importe où, avec les routeurs, le protocole BGP, donc si vous voulez avoir une capacité importante, il faut quasiment tout prendre, et pour la cyberdéfense c’est extrêmement important parce que vous voyez tous les flux qui viennent vous attaquer. »
C’est la première fois qu’est ainsi décrit, succintement mais publiquement, le système de surveillance de l’Internet mis en place par la DGSE, qualifié de « Big Brother » par celui-là même qui l’a mis en place, en 2008, même si, comme il l’explique à 1’05’10, « Je pense que ‘Grandes oreilles’ c’est mieux que ‘Big Brother’ : je suis très très fier d’avoir créé ces ‘grandes oreilles’ françaises parce que c’est quelque chose de fondamental actuellement. »
Revenant sur l’attaque informatique de l’Elysée, Bernard Barbier raconte également qu’alertée par son responsable informatique (un ancien de la DGSE), la direction technique y avait placé des « sondes » sur la passerelle (« gateway« ) reliant le réseau élyséen à Internet, qu’elle y observa des « choses anormales, de faux paquets IP« , et qu’elle y reconnu la signature d’un logiciel espion (« malware« ) qu’elle avait déjà identifié lors d’une précédente attaque informatique visant la Commission européenne, en 2010.
A l’époque, ses équipes de rétro-ingénierie avaient conclu, au vu de la complexité de l’attaque, qu’elle ne pouvait provenir que des Américains ou des Russes. Entre-temps, explique Barbier, les capacités d’interception des flux Internet de la DGSE avait augmenté :
« Dans le système, ce qui est assez redoutable, c’est que quand vous interceptez massivement, vous ne conservez pas le contenu, c’est impossible, avec les conversations téléphoniques, y’a trop de mégabits, on ne conserve que les métadonnées, qui expliquent tout ce que vous faites sur Internet.
Avec ce stock de données, on peut faire plein de choses, et on a pu retracer la signature de ce malware, les pays où il avait été utilisé, et j’en ai conclu, compte tenu de sa complexité, que ça ne pouvait être que les Etats-Unis. »
Der Spiegel a depuis révélé, en 2013, que l’attaque émanait en fait du GCHQ, le partenaire et homologue britannique de la NSA, avec qui il partage cette suite de logiciels espions, qu’Edward Snowden nous a permis de découvrir qu’elle répondait au nom de code Quantum.
En tout état de cause, le système présenté par Barbier s’apparente plus au système XKeyscore de la NSA, à savoir un système de « collecte de masse » des méta-données permettant aux analystes du renseignement de rechercher des signatures, des traces, des identifiants, qu’à un système de « surveillance de masse » de la population, façon « Big Brother« .
Placés dans de mauvaises mains, détournés par des individus mal intentionnés, de tels systèmes pourraient bien évidemment être utilisés pour espionner des quidams lambda. Il est à ce titre plutôt étonnant de voir qu’il a fallu attendre ce mois d’août, trois ans après le début des révélations Snowden, pour que The Intercept publie la première histoire d’un quidam lambda espionné par la NSA, au motif qu’il participait à des réunions pro-démocratie aux îles Fidgi.
Les révélations Snowden montrent l’ampleur des moyens techniques déployés par la NSA et ses pairs pour pouvoir « collecter » un maximum de données, à la manière des « experts » de la police technique et scientifique, pas qu’elles « surveillent » massivement des pans entiers de la population façon « Big Brother« .
Ce que n’expliquent pas, ou mal, les révélations Snowden, c’est que si la NSA ou la DGSE peuvent être ainsi amenées à chercher, de leurs propres chefs, les « signatures » de tels ou tels ordinateurs ou malwares, impliqués dans des attaques cyber telles que celle qui avait visé le réseau informatique de l’Élysée, les êtres humains qui sont « ciblés » (et donc surveillés, voire espionnés) par les services de renseignement, le sont parce qu’ils ont été désignés comme tels par leur hiérarchie et, in fine, par le pouvoir exécutif.
Dit autrement : le problème, ce n’est pas tant la NSA, ou la DGSE, que ce que les pouvoirs publics leur demandent de faire. En l’espèce, le Parlement a donc autorisé, en juillet dernier, nos services de renseignement à surveiller les N+2, et donc ceux qui communiquent avec ceux qui communiquent avec les « cibles » validées par les autorités.
Pour autant, il ne s’agit pas d’une « surveillance massive de l’ensemble de la population » française, de façon indiscriminée. Mais d’une potentielle « surveillance de masse » des méta-données de tous ceux qui communiquent avec des personnes qui communiquent avec les quelque 20 000 personnes fichées S, voire plus si affinités, les « cibles » des services de renseignement ne se bornant pas aux seuls « fichés S« .
Reste que la probabilité que vous communiquiez avec quelqu’un qui communiquerait avec une « cible (ou) menace) » résidant à l’étranger est moindre que celle que vous communiquiez avec une « cible » résidant sur le territoire national, que vous risquez donc plus d’être surveillé par la DGSE que par la DGSI, et que vous risquez encore plus d’être surveillé par la NSA, le GCHQ & Cie (qui n’ont pas à respecter le droit français), et encore plus d’être espionné par vos conjoints, employeurs, collègues et parents qui, eux, disposent d’un accès physique à vos ordinateurs et téléphones, et pourraient donc y installer un logiciel espion.
Mai 2008, mon tout premier tweet : « Vous êtes en état d’interception. Toutes vos télécommunications pourront être retenues contre vous. »
"Vous êtes en état d'interception : toutes vos télécommunications pourront être retenues contre vous"
— jean marc manach (@manhack) May 9, 2008
2015, la dernière planche de ma BD, « Grandes oreilles et bras cassés » (voir les bonnes feuilles) :
Les terroristes djihadistes qui ont frappé en France ont acheté des armes dé- puis re-militarisées, des couteaux, mais aussi des pizzas, de l’essence, des billets d’avion… Ils ont aussi loué des voitures, un camion, des chambres d’hôtel, reçu et envoyé SMS, appels téléphoniques, utilisé la messagerie instantanée Telegram, Twitter et Facebook, et donc souscrit des abonnements téléphoniques et Internet. Certains percevaient même des allocations sociales.
Il est possible que certains aient utilisé des logiciels de chiffrement afin de sécuriser leurs télécommunications, mais rien n’indique que cela ait pu jouer un rôle clef dans la préparation de leurs attentats, ni que cela ait pu empêcher les autorités de les anticiper, et entraver.
The Grugq, l’un des plus fins observateurs des moyens utilisés par les djihadistes pour sécuriser leurs télécommunications (#oupas, en fait), n’a de cesse de documenter le fait qu’ils ne s’y connaissent pas vraiment en matière de sécurité informatique, et qu’ils privilégient surtout le fait d’utiliser des téléphones portables à carte prépayée et non reliés à leur identité.
Pour autant, et depuis le massacre de Charlie Hebdo, politiques & médias n’ont de cesse de fustiger Internet en général, et les logiciels de chiffrement en particulier. Olivier Falorni, député divers gauche, vient ainsi de déclarer que « les géants du Net sont complices tacites, collaborateurs passifs de Daech« , et qu' »on a l’impression qu’un certain nombre d’applications sont devenus des califats numériques » (sic)…
Je n’ai jamais entendu dire que les loueurs de voiture et de chambres d’hôtel, les opérateurs téléphoniques et fournisseurs d’accès Internet, les vendeurs de pizzas, de couteaux et d’armes démilitarisées payaient des gens pour lutter contre le terrorisme, contrairement à Google, Facebook et Twitter qui, eux, paient certains de leurs salariés pour surveiller voire effacer des contenus incitant à la haine (qu’elle relève du terrorisme, du harcèlement ou du racisme).
En quoi les « géants du Net » seraient-ils plus des « califats numériques complices tacites, collaborateurs passifs de Daech » que les loueurs de voiture ou de chambres d’hôtel, opérateurs téléphoniques, fournisseurs d’accès Internet, vendeurs de pizzas, de couteaux et d’armes démilitarisées ?
Pourquoi ceux qui fustigent de la sorte Internet en général, et certaines app’ en particulier (a fortiori lorsqu’elles sont étrangères), ne s’offusquent-ils pas de même du fait que les terroristes ont pu louer, en toute impunité, voitures et chambres d’hôtel, acheter des téléphones et s’abonner auprès de fournisseurs de téléphonie (a fortiori alors qu’il s’agit là d’opérateurs français opérant sur le territoire national qui, et contrairement à Google, Facebook & Twitter, ne paient personne pour lutter contre le terrorisme) ?
Et n’est-il pas un tantinet ironique de voir que ces mêmes contempteurs des internets voudraient que des entreprises privées, de droit (généralement) américain, se substituent à la Justice française en censurant des contenus de manière préemptive, au risque de les voir censurer des comptes tout à fait légitime ?
Il y a quelques années, j’avais écrit que « les internautes sont les « bougnoules » de la république« , que « le problème des internautes, c’est ceux qui n’y sont pas ou, plus précisément, ceux qui s’en défient et n’en ont qu’une vision anxiogène, ceux pour qui les blogs et réseaux sociaux du « web 2.0 » sont la « banlieue du Net, une cité de la peur« où ne peuvent aller que ceux qui y ont grandi… et encore » :
« Encore plus précisément, le problème ce sont tous ces décideurs politiques et relais d’opinions médiatiques qui n’ont de cesse de faire du FUD, acronyme de Fear Uncertainty and Doubt (littéralement « peur, incertitude et doute), technique de « guerre de l’information » initiée par IBM et consistant à manipuler l’opinion en disséminant des informations négatives, biaisées et dont l’objet est de détourner l’attention de ce que la technologie en question offre de perspectives constructives. »
Adel Kermiche, l’un des deux tueurs du prêtre de Saint-Etienne-du-Rouvray, utilisait ainsi Twitter et Facebook, mais ce qui semble aujourd’hui intéresser les médias, c’est Telegram, parce qu’il s’agit d’une messagerie instantanée permettant -par ailleurs- de communiquer de façon sécurisée, parce que chiffrée.
Corinne Audouin, sur France Inter, explique ainsi qu' »il y communiquait avec 200 personnes, grâce à des messages chiffrés qui ne passent pas par un serveur« … quand bien même la FAQ de Telegram précise que les messages partagés en groupes (« jusqu’à 200 membres« ) y sont chiffrés sur le « cloud » (et donc les serveurs) de Telegram, contrairement aux « chat secret » qui, eux, sont effectivement chiffrés sur les téléphones portables de leurs utilisateurs…
Rien n’indique par ailleurs qu’Adel Kermiche ait communiqué via ce genre de « secret chat« , son utilisation de Telegram se bornant (à ce stade de l’enquête) au fait de partager ses états d’âme sur un « groupe » qui, censé être sécurisé et permettre des conversations auto-destructibles, n’a pas empêché L’Express d’en publier des copies d’écran…
Les terroristes sont des internautes comme les autres. Ils cherchent donc à protéger leur vie privée, à l’instar des 100 millions d’autres utilisateurs mensuels de Telegram, ou encore de ces responsables politiques qui, eux aussi, et comme le soulignait récemment L’Express, utilisent Telegram pour se protéger d’une éventuelle interception des communications.
Les logiciels de chiffrement sont devenus mainstream « grand public » depuis les révélations Snowden. Il y a un avant et un après Snowden, et il serait temps d’en prendre la mesure : seule une infime minorité des utilisateurs de messageries chiffrées se réclament de l’État islamique.
Est-il besoin de rappeler que l’ANSSI, en charge de la cyberdéfense en France, recommande de sécuriser et de chiffrer ses données ? Ou encore que plusieurs hauts responsables du renseignement, dont l’ex-chef de la NSA, prirent la défense d’Apple dans son combat contre le FBI, au motif qu’il est impératif de pouvoir chiffrer -et donc sécuriser- ses données ?
Quand le sage regarde la lune, le singe regarde le doigt. La paille, la poutre… Ce que j’ai tenté d’expliquer sur France Info, qui voulait m’interviewer à cet effet. L’article qu’ils en ont tiré ne reflétant pas les subtilités de ce que j’essayais d’expliquer, en voici la version in extenso (si le player ne se lance pas, vous pouvez allez l’écouter sur archive.org) :
Accessoirement, il faudrait aussi rappeler que, et contrairement à ce que l’on entend ici ou là, le darknet est trop compliqué pour les terroristes, et ils ne s’en servent guère, comme l’expliquait récemment Mireille Ballestrazzi, directeur central de la police judiciaire, auditionnée à l’Assemblée : « le dark web, qui apparaît peu adapté au prosélytisme de masse, est, de ce fait, relativement peu utilisé par l’organisation« .
Si les terroristes s’y connaissaient vraiment en sécurité informatique, ils n’utiliseraient pas Telegram, mais plutôt WhatsApp ou, mieux, Signal. En tout état de cause, et si vous désirez les utiliser de façon sécurisée, suivez les conseils de thegrugq pour correctement paramétrer Telegram, WhatsApp et Signal.
Voir aussi les bonnes feuilles de ma BD, « Grandes oreilles et bras cassées« , et sur ce blog :
#SolereGate : s’il vous plaît… dessine-moi un espion !
Le darknet est trop compliqué pour les terroristes
Crypto: pourquoi l’ex-chef de la NSA défend Apple
Valls tragique à Milipol : 100 morts (pour l’instant)
De la surveillance de masse à la paranoïa généralisée
Surveillance: pourquoi je suis assez optimiste
(à moyen terme en tout cas)
Les terroristes sont des ratés comme les autres
Une semaine après que Le Monde ait révélé que la DGSE a « surveillé » et même « espionné » Thierry Solère en mars 2012, lorsqu’il fut exclu de l’UMP pour avoir osé se présenter contre Claude Guéant, qui était à l’époque ministère de l’Intérieur, l’affaire commence à faire pschitt. Il suffit en effet de comparer les titres avec le contenu des articles du Monde pour voir que l’affaire a été pour le moins survendue. Elle n’en soulève pas moins plusieurs questions (voir aussi la MaJ suite au classement sans suite de l’enquête judiciaire).
Dans son enquête intitulée « Comment la DGSE a surveillé Thierry Solère« , Le Monde précisait en effet que « des moyens de la DGSE ont été utilisés, hors de tout contrôle, pour surveiller M. Solère, candidat dissident« , mais également que « la surveillance n’a été interrompue qu’après la découverte fortuite de son existence par la direction technique (DT) de la DGSE (qui) a les moyens de remonter la piste de toutes les requêtes« , tout en laissant entendre que ce n’était pas la DGSE en tant qu’administration qui avait espionné le futur député, mais un (ou plusieurs) bras cassés de sa direction du renseignement qui auraient intercepté « les communications de Français – ce qui leur est interdit« .
L’article précise à ce titre que « Pascal Fourré, le magistrat attaché à la DGSE, prend parti pour la direction technique, et milite aussi pour que ces interceptions sur les citoyens français ne puissent plus être faites « en premier rang », c’est-à-dire sans être soumises à la Commission nationale de contrôle des interceptions de sécurité (CNCIS)« , ce que confirme dans la foulée Erard Corbin de Mangoux, directeur de la DGSE qui, toujours d’après le quotidien, « tranche en faveur de la direction technique et de M. Fourré« , et bloque la possibilité technique de pouvoir surveiller des identifiants français.
Premier pschitt : l’article explique donc le contraire de ce qu’avance le titre. La DGSE, en tant qu’administration, n’a pas « surveillé Thierry Solère« , mais découvert qu’il l’avait été, en toute illégalité, par un ou plusieurs de ses analystes du renseignement, et mis fin à cette surveillance. Reste que c’est moins vendeur que de laisser entendre que « la DGSE a surveillé Thierry Solère« .
Le lendemain, dans un article intitulé « Comment la DGSE a pu espionner des Français« , Le Monde se faisait d’ailleurs encore plus clair, évoquant cette fois un « détournement frauduleux des moyens techniques de ce service de l’Etat« , et la découverte, par la direction technique de la DGSE, que « des officiers de la direction du renseignement peuvent procéder à des interceptions d’identifiants français, sans contrôle et sans justification« , en entrant sur leurs recherches « des 06 et des adresses françaises, une pratique qui a pu être détournée au profit de surveillance n’ayant aucun rapport avec leur mission« .
La DGSE est en effet, et comme son nom l’indique, en charge du renseignement extérieur. Et l’on peine en effet à comprendre pourquoi et comment Claude Guéant (qui nie toute implication dans cette affaire), aurait pu faire une telle requête auprès de la DGSE (qui n’a de compétence qu’à l’international, et relève du ministère de la défense), et non aux renseignements généraux de la préfecture de police de Paris, ou à la DGSI (alors dirigée par le fidèle Squarcini), seuls compétents sur le territoire national et dépendants, eux, du ministère de l’Intérieur… et donc de Claude Guéant.
L’article du Monde se conclue en notant qu' »au terme d’un vif débat interne à la DGSE, la direction technique installera, à la fin de l’été 2012, des filtres sur les consultations informatiques interdisant d’y introduire « en première requête », des identifiants français« . Or, ladite DT, dont les techniques de renseignement utilisées sur le territoire nationale doivent être validées par la Commission nationale de contrôle des interceptions de sécurité (CNCIS), chargée de contrôler les demandes d’écoute émanant des services de renseignement, et contrôlées par le Groupement interministériel de contrôle (GIC), en charge des interceptions administratives (les écoutes téléphoniques réclamées par les services de renseignement), avait mis en place de tels filtres dès 2008, comme l’avait souligné le journaliste Vincent Jauvert dans l’Obs lorsqu’il avait révélé, en juillet 2015, que la DGSE avait à cette date déployé un système de surveillance des télécommunications internationales.
Evoquant un accord passé entre la DGSE et la CNCIS, un « officiel » alors interrogé par Jauvert expliquait que « si, par le hasard des routes internet, on tombe sur un échange entre des interlocuteurs ayant des identifiants (numéro de téléphone, adresse IP…) français, cette communication est automatiquement rejetée du système. Si l’un d’eux seulement est dans ce cas et s’il intéresse les services, la DGSI prend le relais de l’écoute après autorisation de Matignon et de la CNCIS« . L’Obs soulignait cela dit qu’il était « impossible de savoir si cette clause est respectée, ni même si la commission de contrôle est capable de vérifier qu’elle l’est« .
L’article du Monde montre que la DT n’en aurait pas moins détecté une utilisation frauduleuse du système, en 2012. Et la loi relative à la surveillance internationale, adoptée en novembre dernier, entérine cette pratique qui, jusqu’alors, n’était encadrée que par un décret secret, précisant à ce titre que « lorsqu’il apparaît que des communications électroniques interceptées sont échangées entre des personnes ou des équipements utilisant des numéros d’abonnement ou des identifiants techniques rattachables au territoire national, y compris lorsque ces communications transitent par des équipements non rattachables à ce territoire, celles-ci sont instantanément détruites. »
Le Monde évoquait également l’article 20 de la loi de 1991 sur les écoutes téléphoniques, qui excluait du champ de compétence de la CNCIS « la surveillance et le contrôle des transmissions empruntant la voie hertzienne« , laissant entendre que la DGSE pouvait surveiller « des numéros français ou des adresses Internet rattachées à la France« . Or, la jurisprudence de la CNCIS était très claire, et ce depuis la fin des années 1990 : en aucun cas l’article 20 de la loi de 1991 ne peut être invoqué pour recueillir les données personnelles non plus que des « communications individualisables« , comme l’avait rappelé Jean-Paul Faugère, directeur de cabinet de François Fillon, fin 2010 après que la DCRI s’en soit servi pour accéder aux fadettes de Gérard Davet, le journaliste du Monde qui enquêtait sur les affaires Woerth-Bettencourt.
Or, et c’est le deuxième effet pshitt, si ce que d’aucuns qualifient de « SolereGate » a entraîné des tombereaux d’articles dans la presse, aucun journaliste ne semble avoir fait l’effort de demander à Thierry Solère quel était, à l’époque, son opérateur téléphonique. Il suffisait pourtant de le lui demander, et pour le coup, il s’agit d’Orange, tout comme Gérard Davet.
Et il serait d’autant plus douteux et improbable que les responsables des obligations légales d’Orange, qui venaient d’avoir eu chaud aux fesses pour avoir accepté, dans le dos de la CNCIS et du GIC, de confier les fadettes de Davet à la DCRI, aient pu ainsi accepter de collaborer de la sorte avec la DGSE, alors même que Bernard Squarcini venait précisément d’être mis en examen, en octobre 2011, soit quelques mois avant l’affaire Solère, pour « atteinte au secret des correspondances », « collecte illicite de données » et « recel du secret professionnel » dans l’affaires des fadettes de Davet (il a depuis été condamné à 8000€ d’amende pour « collecte de données à caractère personnel par un moyen frauduleux, déloyal ou illicite », passible d’une peine maximale de cinq ans de prison et 300 000 euros d’amende, et n’a pas fait appel).
La remise en contexte du timing est d’autant plus importante que, début décembre 2011, Le Monde avait également révélé que l’inspection générale des services (IGS) avait elle aussi exploité les fadettes de Gérard Davet et de… Jacques Follorou, le journaliste du Monde à l’origine de l’affaire Solère, rendant d’autant plus improbable un éventuel détournement de l’article 20 de la loi de 1991 en mars 2012.
Une source proche des services de renseignements a déclaré la semaine passée à l’AFP que les services extérieurs français « vont faire preuve de toute la transparence et l’ouverture nécessaire » dans l’enquête ouverte par le parquet de Paris après les révélations du Monde, et même que « la DGSE se réjouit de l’ouverture de cette enquête (et) espère que toute la lumière sera faite et l’exacte vérité rétablie« .
Mieux : la DGSE qui, après vérification dans ses fichiers, nie en bloc, « espère que les conclusions de cette enquête conduiront chacun à rendre compte de ses propos, au besoin devant la justice« , sans que l’on sache si c’est Le Monde qui, accusant la DGSE au premier chef, avant d’évoquer un « détournement frauduleux des moyens techniques de ce service de l’Etat« , serait visé, ou bien tous ceux qui, dans la foulée, ont bêtement copié/collé son titre erroné et sensationnaliste, sans rappeler que la DGSE n’a ni demandé ni obtenu de placer Thierry Solère sous surveillance mais bien, dixit Le Monde lui-même, mis précisément un terme à cette surveillance.
Reste donc, cela dit, à savoir comment cette surveillance, illégale, aurait été techniquement rendue possible sans que le GIC ni la CNCIS ne s’en rendent compte, jusqu’à ce que la DT de la DGSE n’y mette un terme.
Mais aussi pourquoi ni le GIC ni la CNCIS n’en auraient alors été tenues informées.
Pourquoi les filtres et mécanismes censés écraser les communications des identifiants français n’auraient pas fonctionné, et ce qui aurait changé suite à cette affaire, voire depuis l’adoption de la loi sur la surveillance internationale.
Et, comme vient de le souligner le Canard Enchaîné, pourquoi Matignon n’a pas voulu saisir l’Inspection des services de renseignement (ISR) dont la création, en 2014, s’inscrivait pourtant dans « un processus visant à garantir l’équilibre entre les objectifs de sécurité et le respect des libertés individuelles et de la vie privée« , soit précisément ce que révèle aussi en creux cette affaire Solère.
Le Canard révèle également que Francis Delon, le président de la Commission nationale de contrôle des techniques de renseignement (CNCTR, qui a succédé à la CNCIS) allait elle aussi mener des investigations à ce sujet, « pour s’assurer que les faits allégués par Le Monde ne peuvent pas se produire aujourd’hui« . On en saura donc plus lors de la publication de son premier rapport, à l’automne prochain.
MaJ : En réponse à un recours des éxégètes amateurs portant sur la « surveillance secrète par la DGSE (2008-2015), le ministère de la défense vient de prétendre (.pdf) qu' »aucun décret non publié relatif aux mesures de surveillance des communications internationales n’a été édicté, que ce soit antérieurement ou postérieurement à l’adoption de la loi n° 2015-1556 du 15 novembre 2015« … Je peine à croire que la DGSE ait pu déployer de tels systèmes de « collecte de masse » sans se border par un texte signé par les responsables politiques d’alors (aka Nicolas Sarkozy).
L’avocat de Thierry Solère, de son côté, vient d’annoncer qu’il allait porter plainte.
MaJ : l’enquête à été classée sans suite le 30 novembre 2016 pour « absence d’infraction », au motif que « les investigations approfondies (…) n’ont démontré l’existence d’aucune surveillance technique de Thierry Solère par la Direction générale de la sécurité extérieure » (DGSE).
La question reste donc de savoir pourquoi Le Monde s’était-il d’abord fait l’écho d’un placement sous surveillance de Thierry Solère par la DGSE, avant d’évoquer, le lendemain, un « détournement frauduleux » de ses moyens techniques, auquel la DGSE avait mis un terme…
Ladite « absence d’infraction » pose également la question de savoir s’il y a bien eu « détournement frauduleux », dans la mesure où l’on peine à croire que, s’il a eu lieu, il n’ait pas été sanctionné en interne, voire notifié à la CNCIS et/ou au Conseil d’État.
Parce qu’en l’espèce, cette « absence d’infraction » peut se traduire de deux façons : soit Le Monde a monté en épingle un incident ne pouvant être qualifiée d’infraction, soit la DGSE (voire la CNCIS, et le Conseil d’État) a fait le ménage en interne de sorte d’éviter que ledit incident ne puisse être qualifié d’infraction devant la justice… l’un n’excluant pas forcément l’autre.
Force est cela dit de constater que, et contrairement à ce qui se passe en Grande-Bretagne et aux Etats-Unis par exemple, les précédents rapports de la CNCIS ne comportaient aucune information concernant les mésusages des techniques de renseignement, qu’il s’agisse de détournements frauduleux ou d’erreurs par inadvertance ou inattention. La CNCTR gagnerait à être plus transparente à ce sujet, et permettrait de répondre à ces questions.
MaJ : voir aussi De la surveillance de masse à la paranoïa généralisée, qui reprend l’ensemble de mes 7 fact-checks ès-DGSE &/ou NSA.
Voir aussi les analyses de Jean Guisnel, « A qui profite cette fable ?« , et Jean-Dominique Merchet, pour qui, « Boulevard Mortier, on reste très interrogatif sur cet article, jugé à la fois « faux » et « insultant » » et, sur ce blog :
Crypto: pourquoi l’ex-chef de la NSA défend Apple
Le darknet est trop compliqué pour les terroristes
DDAI, la discrète cagnotte des « fonds spéciaux »
Surveillance: pourquoi je suis assez optimiste
(à moyen terme en tout cas)
« Ceux qui nous frappent utilisent le Darknet et des messages chiffrés pour accéder à des armes qu’ils acquièrent en vue de nous frapper », affirmait récemment Bernard Cazeneuve à l’Assemblée. Or, Cryptopolitik and the Darknet, une étude de Thomas Rid et Danny Moore, respectivement professeur et thésard en cybersécurité au département de la guerre du King’s College London, vient tempérer ce genre d’affirmations péremptoires.
Après avoir développé un robot pour analyser et indexer les « services cachés » en .onion uniquement accessibles grâce au navigateur et réseau sécurisé Tor, les deux chercheurs ont découverts que la majeure partie de ces sites web anonymes (2 482) étaient inaccessibles ou inactifs, 1021 n’avaient rien d’illicite, 423 relevaient du trafic de drogue, 327 du blanchiment d’argent, de fausse monnaie ou de n° de CB volés, 140 d' »idéologies extrêmistes« , 122 de pornographie illégale, 118 de portails indexant les sites accessibles en .onion, et 42 la vente d’armes.
« La chose la plus surprenante fut de découvrir une si faible présence des militants et extrêmistes« , a déclaré Thomas Rid au magazine Quartz. De fait, l’une des découvertes les plus notables de leur étude est précisément « notre confirmation de la quasi-absence de l’extrémisme islamique sur les services Tor cachés, avec moins d’une poignée de sites actifs ».
Pour les deux chercheurs, cette faible présence s’explique par le fait que les terroristes sont des internautes comme les autres et que « les djihadistes utilisent internet comme tout le monde », comme le soulignait récemment David Thomson.
« Les services cachés sont lents, et pas aussi stables qu’on pourrait l’espérer. Ils ne sont pas si faciles à utiliser, et il existe d’autres alternatives« , explique Rid à Quartz. « En terme de propagande et de communication, ils sont moins utiles que d’autres alternatives« .
De plus, et contrairement aux réseaux sociaux et aux sites web classiques, ils ne touchent pas grand monde, on ne peut pas les trouver par hasard ou via Google.
Reste que sur les 2723 sites actifs, 1547 relevaient de contenus illicites, soit 57%. Ce qui signifie aussi, et à rebours de ce que l’on entend d’ordinaire dès qu’il s’agit du darknet, que 43% des sites en .onion n’ont rien d’illicite…
Une autre étude, plus récente, portant sur 13 000 sites, révélait que seule la moitié relevait d’activités illégales, déconcertant là aussi son auteur : « Cela nous a vraiment surpris. On pensait que ce serait bien pire« , expliquait Eric Michaud, CEO de Darksum, une entreprise spécialisée dans la surveillance du darknet, qui a également découvert que les services cachés étaient régulièrement utilisés par des communautés cherchant des espaces ultraprivés pour se socialiser, évoquant notamment des forums de fandom furry, qui aiment se déguiser en animaux à fourrure :
« Ces gens veulent rencontrer des personnes partageant les mêmes intérêts, sans qu’ils puissent être reliés à leurs véritables identités, parce que cela pourrait se retourner contre eux. Par exemple, il existe des forums pour les trans’, qui y partagent les détails de leurs vies quotidiennes.«
Un documentaire sur le Darknet qui sera prochainement diffusé sur France 4 fait de même parler une journaliste arabe qui ironise sur la diabolisation qui est faite du Darknet, dans la mesure où c’est précisément là que vont se réfugier militants ou personnes LGBT notamment, de sorte de pouvoir converser sans risquer d’être arrêtés et inculpés, comme ils pourraient l’être s’ils discutaient « en clair« .
Le fait que, en octobre 2014, Facebook ait lancé son propre https://facebookcorewwwi.onion/, accessible uniquement via TOR, n’est donc qu’un des nombreux exemples illustrant le fait que, suite notamment aux révélations Snowden, de plus en plus de gens ont besoin de pouvoir rester anonymes pour se socialiser, discuter et échanger. Reste qu’on ne pourra plus réduire le Darknet à ses seules utilisations illégales ou illicites.
Maj, 10/11/2016 : Researchers Claim the Darknet Has More Legal Sites Than Illegal Ones.
Le fait que le FBI ait pu débloquer l’iPhone du tueur de San Bernardino ne signe pas, loin de là, la fin de la saga opposant le FBI à Apple (et autres acteurs de la Silicon Valley en particulier, et du chiffrement en général). On vient ainsi d’apprendre que le FBI aurait fait 63 autres demandes plus ou moins similaires, un peu partout aux Etats-Unis (voir l’enquête (et la carte) de l’ACLU, une des principales ONG de défense des droits de l’homme aux USA)…
Dans une interview vidéo accordée à l’American Enterprise Institute, un think tank conservateur, Michael Hayden, qui dirigea la NSA de 1999 à 2005, puis la CIA entre 2006 et 2009, expliquait récemment ce pourquoi il comprenait et même soutenait Apple face à la demande du FBI, qui voulait pouvoir disposer d’un logiciel permettant de passer outre le mécanisme de chiffrement des iPhone.
Etrangement, ladite vidéo ne recense que 4270 « vues« , et tout aussi étrangement, les médias francophones ne semblent pas avoir relayé son point de vue, pourtant largement relayé par les médias anglo-saxons.
L’analyse de Michael Hayden est d’autant plus instructive que c’est lui qui développa une bonne partie des programmes de surveillance de la NSA mis en cause par Edward Snowden, celui qui expliqua que les USA « tuaient des gens à partir des méta-données » (vous pouvez activez les sous-titres en anglais si vous n’êtes pas parfaitement bilingue) :
« Je défends Apple. Du point de vue de la sécurité, au vu de la variété de menaces auxquelles l’Amérique doit faire face, je pense qu’il faut être prudent, parce que cela ouvrirait largement les possibilités de dégrader son système incassable de chiffrement point à point.
Jim Clapper, le directeur du renseignement américain, a déclaré que la première menace à laquelle nous faisons face, c’est la menace cyber. En tant que professionnel de la sécurité, je pense qu’on ferait mieux de ne pas introduire de trou de sécurité dans un système sécurisé de chiffrement. »
Interrogé sur le fait que les autorités ont pourtant le droit d’entrer dans les maisons des personnes considérées comme « suspectes« , Michael Hayden rétorque que « oui, mais là vous êtes en train de demander aux compagnies technologiques de fabriquer une clef permettant d’entrer dans les 320 millions de maisons… Cette clef n’ouvrirait pas que ma maison. Cette clef ouvrirait toutes les maisons. »
Udo Helmbrecht, le directeur de l’ENISA (l’Agence européenne chargée de la sécurité des réseaux et de l’information), qui s’oppose lui aussi à la création de « portes dérobées » qui permettraient aux services de sécurité d’accéder aux systèmes de communication chiffrés, ne dit pas mieux :
« Ce que nous entendons aujourd’hui est la réaction typique après un incident, les gens réagissent et utilisent parfois les événements pour leurs propres objectifs. Nous avons déjà des règles pour ce type d’affaires, mais elles ne sont pas assez utilisées.
Si vous créez une porte dérobée dans les systèmes de cryptage, comment pouvez-vous vous assurer que les criminels et terroristes ne l’utiliseront pas ? C’est comme de quitter sa maison en sachant que quelqu’un d’autre a la clé. »
Michael Hayden reconnaît que les services de renseignement et de sécurité auront certes un accès moindre au contenu des télécommunications et de nos « ordiphones« , mais « l’accès au contenu sera de plus en plus difficile, quoi que nous fassions dans cette affaire » :
« C’est le sens inévitable du progrès technologique, mais si l’on obligeait les compagnies US à satisfaire à la demande du FBI, les solutions de chiffrement se délocaliseraient à l’étranger.
Regardez : Apple collabore régulièrement avec les autorités, et leur a confié énormément de données, parce qu’Apple y avait accès parce que les suspects utilisaient des produits Apple. Elles étaient dans le système Apple.
Si on force Apple à collaborer, les entreprises étrangères récupéreront le marché, et nous aurons encore moins accès aux données. »
Revenant sur la Clipper chip, cette puce conçue par la NSA permettant à ses utilisateurs de sécuriser leurs données (mais aussi à la NSA de pouvoir y accéder), que l’administration Clinton avait tenté (en vain) d’imposer dans les 90, Michael Hayden explique également que cet échec ouvrit paradoxalement les « 15 plus belles années en matière de surveillance électronique« , dans la mesure où, confiants de pouvoir utiliser du matériel informatique exempt de backdoor, les internautes ont dès lors commencer à créer des « océans de données et de méta-données, et qu’avec les méta-données, on peut faire énormément de choses » :
« Donc pour répondre à votre question, nous aurons accès à moins de contenu. Mais cela ne veut pas dire que nous aurons accès à moins de renseignement. »
Voir aussi, à ce titre, « DON’T PANIC » Making Progress on the « Going Dark » Debate, un récent rapport qui montre que, si de plus en plus d’internautes chiffrent leurs données (même et y compris à l’insu de leur plein gré : 83% des messages de Gmail à destination d’autres fournisseurs, 73% des messages d’autres fournisseurs à destination de Gmail, et 77% des requêtes effectuées sur les serveurs de Google -81% en France- sont chiffrées), l’explosion de l’internet des objets, et des méta-données associées, permettra aux services de sécurité et de renseignement de continuer à pouvoir enquêter, surveiller voire espionner.
MaJ : Robert Hannigan, le directeur du GCHQ (l’équivalent britannique de la NSA) s’est lui aussi prononcé contre l’insertion de backdoor dans les logiciels de chiffrement. La CNIL aussi, le SGDSN également.
Le Canard Enchaîne de ce 23 mars 2016 révèle que depuis plus de 10 ans, les services de renseignement abondent leurs « fonds spéciaux » en puisant dans une discrète cagnotte destinée à couvrir des « dépenses accidentelles et imprévisibles« .
L’info figure dans le rapport annuel de la Délégation Parlementaire au Renseignement, et plus précisément dans le tout « premier rapport public de la commission de vérification des fonds spéciaux » (CVFS), composée de 4 parlementaires, créée en 2002 et qui a été rattachée à la Délégation Parlementaire au Renseignement suite au vote de la loi de programmation militaire en 2013 :
« Depuis son premier exercice en 2002, la CVFS n’avait jamais publié de rapport public, la loi ne le prévoyant pas mais ne l’interdisant pas explicitement non plus. Le présent document constitue donc une première dont la survenance paraît nécessaire.
En effet, (…) nous estimons que le contrôle parlementaire s’exerce certes au profit du Parlement, mais avant tout à destination de nos concitoyens qui ont le droit et le besoin de connaître – pour reprendre une terminologie juridique fréquente en ce domaine – les actions conduites en leur nom ou, à tout le moins, les supports financiers de ces opérations ».
La CVFS n’en déplore pas moins que « la réforme de 2001 s’est traduite par un recul dans les capacités de contrôle des fonds spéciaux en même temps que par un élargissement de la liste des services soumis à ce contrôle ».
Elle attire également l’attention du Premier ministre « sur l’impérieuse nécessité de revaloriser au moins à hauteur de 50% le montant octroyé aux services de renseignement [recommandation n°10] » dans la mesure où « les budgets octroyés aux services de renseignement ont connu une progression appréciable et conforme à la reconnaissance de la fonction stratégique assumée ainsi qu’à la hausse de leur activité, la Commission constate que les fonds spéciaux n’ont pas bénéficié d’une revalorisation alors même qu’ils financent la partie la plus sensible de l’activité de ces administrations« .
La CVFS a en effet découvert que, pour faire face à cette situation, les services de renseignement (la DGSE en tête) ont, sinon détourné depuis des années, tout du moins procédé à un « recours routinisé » (sic) aux « DDAI« , une ligne budgétaire de « décrets de dépenses accidentelles et imprévisibles » initialement conçus pour des motifs écologiques et humanitaires :
« Conçus pour faire face à des dépenses urgentes et imprévisibles telles les catastrophes naturelles ou sanitaires, ces décrets sont pris en application du programme budgétaire 552 (Dépenses accidentelles et imprévisibles), l’une des deux composantes de la mission Provisions.
Ce programme se caractérise par une souplesse avantageuse : contrairement aux autres leviers d’aménagements budgétaires à disposition de l’exécutif (loi de finances rectificative, décrets d’avance, virements et transferts entre programmes, dégel de crédits mis en réserve) qui supposent de recueillir l’avis et/ou l’accord de différentes institutions, les DDAI ne sont pas soumis aux mêmes obligations. En effet, les fonds affectés au programme 552 relèvent d’un simple décret du Premier Ministre pris sur rapport du ministre chargé des Finances.
Ces documents ne font pas nécessairement l’objet d’une publication, notamment lorsqu’ils relèvent de la Défense nationale. Ils sont d’ailleurs fréquemment utilisés pour financer des opérations extérieures, s’éloignant quelque peu de l’épure du droit selon la Cour des comptes. Dans le même ordre d’idées, ils ont permis, depuis 2009, d’acquérir un immeuble, de financer la campagne de vaccination contre le virus H1N1, de consulter les habitants sur le projet du Grand Paris, de payer des crédits de personnel en fin d’année…
En sus de sa souplesse, le programme se caractérise par l’absence d’évaluation et de contrôle prévus par la LOLF au regard des objectifs poursuivis (parer à l’imprévisible). Seul le contrôle des fonds spéciaux, lorsque des DDAI concernent des services de renseignement, introduit une nuance à ce propos. »
Or, « la CVFS a constaté le recours systématique à des DDAI afin de financer, au-delà du déclenchement de la crise, des dépenses qui, avec le temps, deviennent prévisibles », ce que la CFVS qualifie de « cercle vicieux dans la mesure où la crise dure généralement plus longtemps que le décret (…). En conséquence, la Commission réaffirme son désir de voir la dotation en fonds spéciaux accrue de manière conséquente afin d’intégrer le montant cumulé des DDAI et d’offrir aux services concernés une gestion plus saine et sereine de leurs budgets sur le moyen terme. Pareille décision permettra de limiter le recours aux DDAI et de le restreindre à son objet principal : la gestion temporaire de l’imprévisible [recommandation n°18]. »
En 2007, un rapport de la commission des finances rappelait que si la dotation des DDAI, « comme son nom l’indiquait clairement, avait pour objet de prévoir les crédits nécessaires à des dépenses accidentelles, imprévisibles et surtout urgentes (…) liées à des catastrophes naturelles, en France ou à l’étranger, ou à des événements extérieurs qui nécessiteraient le rapatriement de ressortissants français (…) votre rapporteur spécial et la Cour des comptes se rejoignent pour juger qu’il est peu orthodoxe d’utiliser une dotation pour dépenses accidentelles et imprévisibles pour régler des dettes pourtant bien prévisibles ».
Évoquant une « mauvaise utilisation des crédits (qui) menace le principe de la sincérité budgétaire« , le rapporteur mettait alors en garde « contre les éventuels « détournements » dont cette dotation aurait pu faire l’objet« , pratique qui avait d’ailleurs déjà « été dénoncée par la Cour des comptes dans son rapport sur les résultats et la gestion budgétaire de 2006″, et qui « ne devrait plus se reproduire à l’avenir. »
En novembre 2008, Yves Fromion, président de la Commission de vérification des fonds spéciaux, n’en proposait pas moins, de son côté, d’avoir précisément recours aux DDAI pour abonder les fonds spéciaux : « la justification de l’emploi des fonds spéciaux s’est révélée satisfaisante (et) toutes les dépenses contrôlées paraissant correspondre strictement à un objet opérationnel bien défini. Quant au montant de la dotation des fonds spéciaux, qui s’établit dans le projet de loi de finances à 48,9 millions d’euros, elle me paraît répondre à l’essentiel des besoins, en particulier de la DGSE, sous réserve naturellement des compléments que pourrait nécessiter la gestion de crises, par nature imprévisibles. Les ressources destinées à ces abondements pourraient d’ailleurs, si nécessaire, être versées aux fonds spéciaux par répartition de la dotation pour dépenses accidentelles et imprévisibles »…
De fait, les DDAI ont dès lors abondé les fonds spéciaux :En 2008, la commission des finances relevait ainsi que trois DDAI avaient « permis d’abonder, à hauteur de 7,46 millions d’euros (en AE et CP), les fonds spéciaux employés au financement d’opérations menées par la direction générale de la sécurité extérieure (DGSE) ».En 2009, 19 millions d’euros ont été prélevés sur la provision pour dépenses accidentelles et imprévisibles : 11,5 millions d’euros pour indemniser certaines collectivités locales de dégâts provoqués par des intempéries ; 7,5 millions d’euros pour abonder les fonds spéciaux.En 2010, la dotation des fonds spéciaux s’élevait en LFI 2010 à 53,9 M€, mais plusieurs DDAI l’ont abondé de 11,2M€ supplémentaires.En 2011, la dotation de la sous-action « Fonds spéciaux et GIC » s’élevait en à 53,9 M€. Et si la Cour des Comptes relevait (.pdf) qu »‘aucun décret pour dépenses accidentelles ou imprévisibles n’a été publié en 2011″, elle n’en relevait pas moins que « seuls deux décrets non publiés allouant des crédits de paiement aux fonds spéciaux de 11,28 M€, montant constatable par la différence entre les crédits ouverts et les crédits restants, ont été pris »… tout en constatant que les DDAI représentaient désormais plus de 20% du montant des fonds spéciaux :
« Il est d’usage que des dépenses d’opérations extérieures de la DGSE soient financées sur la mission provision. La direction du budget n’est pas informée des motifs précis d’utilisation de ces fonds, les rapports de motivation des décrets étant couverts par le « secret défense ». Sans remettre en cause le caractère urgent et imprévisible des demandes formulées par la DGSE, la Cour constate que les crédits affectés aux fonds spéciaux en 2011 représentent 21 % du budget des fonds spéciaux votés en 2011 (53,9 M€) ».
En novembre 2012, la Commission des Finances relevait que « Les crédits ouverts en loi de finances initiale pour 2012 s’élevaient à 51,7 millions d’euros. Ils ont par la suite été modifiés sous l’effet d’un dégel de la réserve de précaution, de deux décrets pour dépenses accidentelles et imprévisibles et d’un décret de transfert en provenance du ministère de la Défense et portés à 65 millions« , tout en soulignant qu' »Il est habituel que des abondements en gestion interviennent. La DGSE en demeure la principale bénéficiaire« .
En 2013, la Commission des Finances entérinait le dispositif : « les crédits programmés initialement en 2013 s’élevaient à 49 725 077 euros. La prévision de consommation, sous l’effet de trois décrets pour dépenses accidentelles et imprévisibles (9 966 000 euros), a été portée à 59 691 077 euros et devrait atteindre 68 804 077 euros. Il est habituel que des abondements en gestion interviennent. La DGSE en demeure la principale bénéficiaire. »
En 2014, elle relevait que « des abondements de crédits ont majoré les dotations des fonds spéciaux de 23,5 millions par cinq décrets pour dépenses accidentelles et imprévisibles et un décret de transfert. La consommation des crédits de fonds spéciaux s’est élevée à 73,4 millions d’euros, en augmentation au regard de celles de 2013 (68,8 millions) et 2012 (68,3 millions), pour une dotation initiale de crédits de 49,9 millions ».
La commission des finances anticipait même la prévisibilité du recours aux décrets de dépenses accidentelles et imprévisibles : « Les crédits programmés initialement en 2015 s’élevaient à 49,9 millions d’euros, comme en 2014. La prévision de consommation, sous l’effet de deux décrets pour dépenses accidentelles et imprévisibles (14 millions) a été portée à 58,4 millions d’euros. »
Plus généralement, elle remettait également en question l’utilité même de la présente mission : « L’absence de doctrine d’emploi, la faiblesse des montants inscrits sur la mission et l’existence d’autres dispositifs permettant de faire face à des dépenses urgentes et imprévues (mise en réserve, auto-assurance) conduisent à s’interroger sur la nécessité de doter la mission ».
Pour autant, cette routinisation du détournement des DDAI rencontrait quelques résistances ces derniers temps. En 2013, la commission des finances avait ainsi rappelé que la Cour des comptes jugeait « globalement irrégulière l’utilisation des crédits en 2012 » et qu’elle préconisait de « limiter l’utilisation de la dotation pour dépenses accidentelles de la mission « Provisions » aux situations de calamités ou aux dépenses réellement imprévisibles ».
Dans sa Note d’analyse de l’exécution budgétaire 2014, la Cour des comptes relevait de son côté que « l’utilisation des crédits (DDAI, NDLR) n’est qu’accessoirement en rapport avec l’objet de la mission tel que défini à l’article 7 de la LOLF : la gestion des calamités et les rémunérations décidées tardivement« , tout en concédant « un usage modéré de cette souplesse : une trentaine de millions d’euros de CP et entre une dizaine et une centaine de M€ en AE consommées par an pour traiter un nombre limité de situations d’urgence : crises humanitaires, attribution des fonds spéciaux, signature des baux dont la signature n’est possible qu’en disposant rapidement d’autorisations d’engagement couvrant la totalité de leur durée, résolution de dysfonctionnements informatiques inopinés sur les rémunérations ».
La Cour des comptes n’en rappelait pas moins que « lors de la discussion du projet de loi de finances initiale pour 2008, le ministre du Budget, des Comptes publics et de la Fonction publique s’était engagé à «réserver l’utilisation de la provision pour dépenses accidentelles et imprévisibles aux seules dépenses présentant un caractère d’urgence et résultant de la survenance d’aléas climatiques et sanitaires». »
Dans son rapport 2015, la CVFS relève que « ces positions sont réaffirmées chaque année dans le rapport sur l’exécution du budget de l’Etat par mission et programme« … et demande donc à y mettre terme. Sauf que pour y parvenir, il faudrait donc « revaloriser au moins à hauteur de 50% le montant octroyé aux services de renseignement« …