mars 2015 (15)

dimanche 29 mars 2015

A propos de la loi Renseignement

camera_liberte_egalite_fraternite_par_Hermiston.jpg

Photo par Hermiston, avec autorisation de l’auteur

Quelques liens pour se tenir au courant de la loi Renseignement, qui tente d’imposer la surveillance de masse d’Internet par des algorithmes. (Voir aussi à ce sujet Loi Renseignement : un vendredi à Matignon).

vendredi 27 mars 2015

Loi Renseignement : une revue de presse

Le moins qu’on puisse dire, c’est que le projet de loi Renseignement fait l’unanimité contre lui… Pour le prouver, voici une rapide compilation de quelques articles et communiqués de presse compilés ces derniers jours. Il en manque sûrement beaucoup.

A toutes fins utiles, on rappellera que la “surveillance de masse” telle que la pratique la NSA n’a permis d’incarcérer qu’une seule personne, qui fut condamnée, non pas pour avoir préparé un attentat, mais pour avoir transféré 8500$ afin d’aider sa famille, restée dans son pays (la Somalie), et qui auraient été utilisés par une organisation terroriste…

mercredi 25 mars 2015

Loi Renseignement et surveillance de masse : l'analyse de l'article L. 851.4

J’ai un drame dans ma vie en ce moment : je ne suis pas juriste. C’est un drame, toutes proportions gardées, car je me retrouve telle la poule ayant trouvé un couteau, face au projet de loi Renseignement (PDF, 1,5Mo). Moi qui suis informaticien de formation, je suis bien incapable de déchiffrer ce document de 39 pages (12 pages d’explications, 5 pages d’avis du Conseil d’État, le reste pour le projet de loi lui-même). J’ai tout de même décidé de me focaliser sur une partie précise, celle qui instaure la surveillance de masse à des fins de lutte contre le terrorisme.

Pour ceux que ça intéresse, c’est page 21 du document communiqué à la presse (Article 2).

Ce qui est intéressant, ce sont les articles L. 851-3 et L. 851-4. Je décrypte[1] et je partage ici le résultat de ce que j’arrive à percevoir. Il n’est pas exclu que je fasse des approximations. S’il y a des juristes parmi mes lecteurs, je serai ravi de corriger ce texte là où il le mérite (contactez-moi par mail : tristan à mon-nom-de-famille point com ou dans les commentaires ci-dessous).

Article L. 851-3 : écoute ciblée en temps réel sur Internet

De quoi parle-t-on exactement ?

  1. Pourquoi : « pour les seuls besoins de la prévention du terrorisme ».
  2. Demandée par : des agents des services de renseignement.
  3. Quoi : La collecte en temps réel des données relatives « à des personnes préalablement identifiées comme présentant une menace ».
  4. Où ça : sur les réseaux des opérateurs de communications électroniques (Fournisseurs d’accès Internet et téléphonie mobile) et fournisseurs de services en ligne.

Article L. 851-4 : surveillance de masse d’Internet par des boites noires

C’est cet article-là qui sort vraiment du lot à mon sens, dans la mesure où il met en place les premiers mécanismes permettant une surveillance de masse d’Internet, non pas centrée sur des individus, mais sur les comportements de tous les utilisateurs d’un service. Voyons plus en détails :

  1. Pourquoi : « pour les seuls besoins de la prévention du terrorisme ».
  2. Demandé par : un fonctionnaire désigné par le premier ministre, après avis de la CNCTRS.
  3. Quoi : une surveillance algorithmique des méta-données pour détecter une suspicion d’attaque terroriste.
  4. Où ça : sur les réseaux des opérateurs de communications électroniques (Fournisseurs d’accès Internet et téléphonie mobile) et fournisseurs de services en ligne.
  5. Ensuite : levée de l’anonymat de ces méta-données et des données pour traiter ces personnes comme des terroristes supposés (donc surveillance dans la vraie vie et sur Internet).

L’exposé des motifs présente ceci sous un jour forcément plus favorable, sa vocation étant de « vendre » le projet de loi :

l’article L. 851-4 prévoit que le Premier ministre peut ordonner aux opérateurs de communications électroniques et aux fournisseurs de services de détecter, par un traitement automatique, une succession suspecte de données de connexion, dont l’anonymat ne sera levé qu’en cas de révélation d’une menace terroriste.

Ce qu’il faut bien comprendre ici, c’est que cet article prévoit la mise en place de boites noires chez les fournisseurs d’accès Internet (Free, Orange & co), et chez les fournisseurs de services Internet (les hébergeurs, les grands services opérant depuis le territoire français) d’ordinateurs chargés de nous surveiller pour pointer du doigt les personnes ayant un comportement suspect. C’est exactement la définition de la surveillance de masse, laquelle a un impact terrible sur nos libertés, comme l’explique Glenn Greenwald, dans son livre sur les révélations Snowden :

la surveillance de masse crée une prison dans l’esprit qui est bien plus subtile mais bien plus efficace pour favoriser la conformité aux normes sociales, bien plus effective que la force physique ne pourra jamais l’être.

Une totale inefficacité

En acceptant la surveillance de masse, nous payons un prix délirant, celui de notre liberté, pour obtenir plus de sécurité. Pourtant, compte tenu des différents outils de chiffrement à la portée de tous, du VPN à TorBrowser en passant par la messagerie instantanée XMPP-OTR, les chances d’attraper les terroristes sont plus que minimes. Nous nous retrouvons dans la situation où la France paye très cher (en terme de libertés) pour finalement n’obtenir aucun résultat. Est-ce vraiment ce que nous voulons ?

Note

[1] Littéralement : retrouver le contenu d’un message sans en avoir la clé.

mardi 24 mars 2015

En vrac du mardi

jetée de Luc sur Mer

Jetée de Luc-sur-Mer, Calvados, France, par Tristan Nitot

samedi 21 mars 2015

Loi Renseignement : un vendredi à Matignon

Suite à mon billet précédent, Projet de loi Renseignement : peut-être du mieux, indéniablement du terrifiant, j’ai été gentiment invité à Matignon avec des collègues du CNNum cité dans le communiqué de presse Renseignement et des membres du SG. D’autres personnalités et associations étaient invitées, mais n’ont pas pu ou pas voulu participer.

Ça n’est pas anodin que d’être invité par les services du premier ministre suite à un billet de blog et une citation dans un communiqué de presse. Vérification d’identités par des policiers en gilet pare-balles et mitraillette en bandoulière. Nous sommes 4 du CNNum, trois permanents du Secrétariat Général et moi, seul membre ayant pu me libérer. En face, 8 représentants du gouvernement, du premier ministre, de l’intérieur et de l’économie numérique. Du lourd. On sent une certaine tension… Mais aussi une envie de séduire, de créer des liens, comme si on entendait “nous sommes des gentils, aidez-nous à faire un bon projet de loi, c’est pour lutter contre le terrorisme (mais pas que)”.

Si j’essaye d’être honnête, c’est un langage que j’ai envie d’entendre : si je me suis engagé bénévolement (faut-il le rappeler) au Conseil National du Numérique, c’est parce que j’ai envie d’aider mon pays à comprendre, mieux gérer et affronter les changements majeurs apportés par la déferlante numérique.

Essayons de faire le tri. Comme souvent, je vais commencer par le positif.

Un besoin de faire évoluer la loi encadrant le renseignement

Il y a une évidence : ces dernières années, les techniques de renseignement ont considérablement évolué, avec l’arrivée d’Internet et des téléphones portables. Là où on surveillait des allées et venues de suspects et des rencontres dans le monde réel ou sur des lignes téléphoniques fixes, on voit plutôt des gens qui se connectent à Internet depuis chez eux ou s’appellent sur des téléphones portables jetables (c’était le cas pour les terroristes de janvier). Evidemment, la loi n’était pas prévue pour cela et les les terroristes ont suivi les progrès technologiques. Les services ont souvent semble-t-il, profité de zones grises comme par exemple l’utilisation d‘IMSI-catchers (fausses antennes GSM permettant de localiser des téléphones et/ou des cartes SIM). L’utilisation d‘IMSI-catchers sans l’autorisation est en théorie interdite, mais si l’on en croit le Canard Enchaîné, c’est monnaie courante.

Il était temps de faire évoluer la loi encadrant le renseignement, et c’est la volonté de Manuel Valls, qui a toujours eu une fibre sécuritaire.

Nos interlocuteurs agitent le risque terroriste, justifiant l’urgence d’une nouvelle loi permettant aux services de renseignements d’opérer plus facilement, plus rapidement, plus efficacement et surtout plus dans la légalité. On retrouve l’argumentaire de Manuel Valls :

La menace terroriste est à un niveau sans précédent. Elle est protéiforme, émanant aussi bien de groupes évoluant à l’étranger que d’individus présents sur notre territoire. (…) Comme le disent souvent les services, le problème n’est pas de savoir s’il y aura un attentat à nouveau, en France, en Europe, mais de savoir quand et où.

Nous voilà prévenus. Vouloir limiter l’action des agents de renseignement, c’est devenir complice du terrorisme. Voilà qui ne pousse pas à une réflexion sereine. C’est dommage, les enjeux sont colossaux, et la loi concerne le renseignement, dont le champ est bien plus large que simple terrorisme.

Une envie affirmée de bien faire les choses

Dans la foulée des attentats Charlie Hebdo et de l’épicerie cacher, on pouvait redouter un Patriot Act à la française, déjà surnommé « Frenchiot Act », qui a bien le goût que son surnom laisse supposer. Il faut reconnaitre la volonté des auteurs de la loi d’avoir fait l’effort d’inventer un dispositif plus compliqué que ne l’ont fait les Américains en vue, du moins l’espèrent-ils, de protéger les libertés individuelles.

Mais on peut légitimement se demander si cette envie de bien faire les choses est bien sincère. Comme le remarque la Quadrature (l’emphase est de mon fait) :

Les concertations après coup sont un simulacre de prise en compte de la société civile, et ne servent qu’à entretenir l’illusion du dialogue. Si le gouvernement se souciait réellement de notre avis, il avait tout le loisir de nous le demander avant, en amont et pendant la rédaction du projet de loi.

Mais mettons de coté les intentions et concentrons-nous sur ce qui ne va pas dans cette loi…

Le vrai problème : les boites noires

C’est là le cœur du problème, ce qui est pour moi ce qui ne peut être admis dans la loi Renseignement : le plan qui consiste à obliger les services Internet et fournisseurs d’accès à mettre des boites noires dans le coeur du réseau pour observer le trafic et signaler tout comportement suspect, qui sera transmis aux services de renseignements.

Je vous le répète, tellement c’est énorme : un algorithme, forcément secret car classé défense, va surveiller Internet. Pour désigner ensuite les suspects. C’est dérangeant à plusieurs niveaux.

D’abord, il y a un problème sémantique : d’après le gouvernement, ça n’est pas de la surveillance de masse, vu que c’est un logiciel qui surveille, et compte tenu des limites techniques, il ne peut pas tout surveiller. Il ne peut surveiller qu’un échantillon de l’Internet français. (D’après moi, avec la loi de Moore et l’augmentation des budgets de lutte contre le terrorisme, le pourcentage ne va cesser d’augmenter, mais on me répond que le trafic augmente aussi. Soit.) Ensuite, il ne doit pas trouver “trop de suspects, sinon c’est rejeté par la commission CNCTR” (commission nationale de contrôle des techniques du renseignement) qui approuve la levée de l’anonymat des suspects avant de les passer aux services qui vont ensuite espionner de façon traditionnelle (filature, mais aussi éventuellement, et c’est une nouveauté, mettre un keylogger sur leur PC).

C’est un peu comme si on me disait que Google ne fait pas de surveillance de masse en lisant tout le courrier transitant par Gmail, parce que “ce ne sont pas des humains qui lisent le courrier, ce sont des ordinateurs”. (On me l’a vraiment faite, celle-là, promis !). Sauf que les courriers sont analysés, y compris les pièces jointes. Et c’est ainsi que Google a dénoncé un pédophile en Août dernier. C’est très bien que ce pédophile ait été arrêté, mais ça reste de la surveillance de masse.

La surveillance de masse, c’est la fin de la vie privée, par définition, et c’est une catastrophe, comme je l’explique ici : En faisant croire aux gens qu’ils sont observés en permanence, on arrive à leur imposer une façon de se comporter. Ce soir encore, George Moreas, commissaire de la police nationale, l’explique fort bien.

l’histoire de la toute petite brèche

Ensuite, c’est le problème de la brèche. Vous ne connaissez pas l’histoire de la brèche ? c’est normal, je l’ai inventée tout à l’heure.

Ça se passe dans une vallée en montagne où se trouve un barrage hydraulique. L’imposant barrage fournit de l’énergie à toute la région, mais voilà, un résident du coin aimerait avoir l’eau courante pour arroser son potager. Il propose de faire un trou dans le barrage tout proche pour y brancher un robinet et un tout petit tuyau. Donc il va faire un petit trou dans le barrage. Affolement de certains voisins qui comprennent bien qu’un trou, même tout petit, pourrait être dramatique pour la survie de toute la vallée qui est en aval du barrage. Le ton monte, le propriétaire du potager s’énerve, après tout, il s’agit juste d’un trou minuscule, et « à quoi bon avoir toute cette eau à proximité si on ne peut pas s’en servir ? ».

On imagine bien qu’un trou, sous la pression de l’eau, va s’agrandir avant de se transformer en brèche avant d’éventrer le barrage sur toute sa hauteur.

Quel rapport avec la loi Renseignement ? La boite noire. La ou plutôt les boites noires au cœur du réseau vont surveiller le réseau et les comportement des utilisateurs avant de les dénoncer. C’est de la surveillance de masse qui ne dit pas son nom. Mais attendez, c’est juste fait par un ordinateur, et pas un humain (forcément, pour traiter autant de données). Et c’est pour lutter contre le terrorisme ! Et puis c’est anonyme (jusqu’à ce que ça ne le soit plus).

Je pense que dans ce domaine, sous la pression de l’opinion publique qui veut lutter contre le terrorisme, le petit trou va s’agrandir.

Vous voulez un exemple ? Il y en a plein. Le filtrage d’Internet est d’ores et déjà un grand classique.

On part d’un problème sur lequel tout le monde est d’accord. Par exemple, le terrorisme. On met le mécanisme pour lutter contre en place. Et puis on l’étend, d’abord pour des causes aussi justes que la pédopornographie. Et puis on l’étend encore. Par exemple pour éviter que les mineurs ne tombent « par erreur » sur de la pornographie « normale » entre adultes consentants. Et puis derrière, ça se bouscule au portillon, on cherche à l’étendre encore plus, par exemple pour préserver les artistes qui meurent de faim à cause de ces salauds de pirates (si vous vous souvenez de ce que l’industrie de la culture a réussi à faire avec Hadopi, vous savez de quoi je parle). Dernièrement, on a même vu un élu demander à ce que les sites insultant les élus soient filtrés. C’est à peine croyable, une histoire pareille ? Et pourtant c’est ce qui se passe en Angleterre, où 20 % des sites les plus visités sont bloqués (le porno, c’est seulement 4 %)[1]. Le coup de l’élu qui veut censurer les sites injurieux, c’est français, par contre, et ça démontre que l’envie d’étendre le champ d’action des outils n’a pas de frontières.

Commencer à surveiller le net depuis des boites noires, juste pour le terrorisme, c’est ce début de brèche. Un début de brèche n’est pas innocent, parce qu’il va s’étendre à toute vitesse.

C’est exactement ce processus qui a fait dire à Benjamin Franklin :

Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l’une ni l’autre, et finit par perdre les deux.

Quelle efficacité ?

Il est un autre problème qui vient s’ajouter à celui de la surveillance de masse des boites noires, c’est celui de l’efficacité des mesures. Communiquer sur Internet de façon sécurisée est finalement facile. Rapide tour d’horizon :

  • Pour échanger des messages instantanées : XMPP avec OTR
  • Pour naviguer sur le Web : TorBrowser en HTTPS
  • Pour envoyer des emails : GPG / Enigmail ou ProtonMail
  • Pour passer inaperçu : VPN (en cherchant « VPN gratuit » dans Google, je viens d’obtenir « Environ 1 230 000 résultats »)

Donc toute personne voulant se cacher sur Internet peut le faire facilement. Tous les logiciels listés ci-dessus sont gratuits. Un VPN correct payant peut se trouver à 5€ par mois environ.

J’ai posé la question à mes interlocuteurs sur le problème de l’efficacité de cette surveillance. La réponse, laconique, fut « même si les terroristes peuvent se planquer derrière du chiffrement, faut-il pour autant ne pas essayer de les surveiller ? »

Le rapport prix / efficacité

La surveillance de masse a un coût énorme. Pas seulement un coût financier, mais avant tout un impact négatif sur la société, en ce sens que c’est la négation de la démocratie, de la liberté des individus. C’est ce qui fait qu’on passe d’une société où le peuple élit ses représentants à un modèle où des gouvernants surveillent des gouvernés. Je ne veux pas de ce modèle, surtout si c’est pour une efficacité proche du néant. Bien sûr, avec la surveillance de masse, on va attraper des apprentis-terroristes, mais ça ne sera que du menu fretin, le pauvre type pas très malin qui rêve du grand soir djihadiste, mais qui a un QI proche de sa température rectale, un peu comme le crétin qui a voulu mettre le feu à ses semelles pour faire sauter un avion.

Conclusion

Ces sujets, qui mêlent des aspects juridiques (libertés individuelles) et technologiques (surveillance informatique) sont difficiles à aborder en temps normal, tant ils demandent une expertise étendue : les juristes informaticiens ne sont pas légion. Le contexte, deux mois après Charlie Hebdo, tout juste trois ans après Mohamed Merah, fait que l’émotion l’emporte sur la raison.

Ça n’est pas une raison pour baisser les bras et laisser s’écrouler une des pierres angulaires de la démocratie, celle du respect de la vie privée, tellement importante qu’on la retrouve dans les textes de loi fondateurs. Saurons-nous, citoyens français, sortir de cette torpeur, de cette résignation, pour essayer de comprendre les enjeux de la loi Renseignement et s’opposer à elle dans ce qu’elle a de dangereux, tout en la modernisant là où c’est nécessaire ?

Note

[1] Voir aussi Blocked.org.uk.

jeudi 19 mars 2015

Projet de loi Renseignement : peut-être du mieux, indéniablement du terrifiant

Le projet de loi Renseignement devrait être présenté aujourd’hui en conseil des ministres. Et ça fait 3 jours qu’il m’empêche de dormir. Voyons pourquoi.

Il y a potentiellement (un peu) de bon. Peut-être. On ne sait pas. On va voir. Ou pas.

Commençons par le coté positif : on va remplacer la CNCIS par une autre commission, équipée de plus de ressources, la CNCTR (commission nationale de contrôle des techniques du renseignement). Ca tombe bien, la CNCIS, avec 3 malheureux membres, n’avait concrètement aucun moyen de s’imposer quand des agents de renseignements dépassaient les bornes. On sait ainsi (cf articles du Canard Enchaîné) que des équipements dits IMSI-Catchers (des fausses bornes GSM écoutant tout le trafic des téléphones mobiles) sont déjà utilisés sans autorisation d’un juge, donc hors du cadre de la loi. La CNCIS n’a rien fait ou pu faire contre cela. La voir être remplacée par une commission, la CNCTR, que l’on espère plus efficace et plus représentative de la société française est un pas en avant, à condition que cette commission soit plus qu’un cache-sexe visant à faire passer l’amère pilule décrite ci-dessous.

Le juge, encore moins impliqué

Dans le droit français, le juge est garant des libertés individuelles. C’est un principe incontournable (voir à ce sujet l’excellent rappel Qu’est-ce que la démocratie). Sauf qu’il est de plus en plus contourné, et que ça semble être une tendance lourde dans les lois proposées par le gouvernement. C’est très préoccupant. Le nombre de cas où le projet de loi Renseignement entre en action avec des décisions administratives (c’est à dire sans juge) est croissant et leur définition trop floue :

  • La défense nationale
  • Les intérêts de politiques étrangères
  • Les intérêts économiques ou scientifiques majeurs
  • La prévention du terrorisme
  • La prévention de la prolifération des armes de destruction massive
  • Les violences collectives pouvant porter gravement atteinte à la paix publique

Les intermédiaires du Net devineront les comportements suspects

Les opérateurs Internet (fournisseurs d’accès et grands services comme Google, Facebook, Twitter ou Skype) devront, je cite le Figaro « détecter, par un traitement automatique, une succession suspecte de données de connexion ». Pour cela, l’Etat fournira des boites noires qui devront être installées dans les locaux des opérateurs. Je vous le mets en clair :

tout le monde, en France, sera surveillé par un algorithme fourni par le gouvernement.

Le Figaro continue : “L’identité des personnes ne sera pas connue d’emblée, mais leur anonymat pourra être levé au cas par cas par autorisation du premier ministre, sans passage devant un juge”.

Cette partie de la loi renseignement me navre au plus haut point (je dis “navre” pour éviter d’écrire des gros mots). Le gouvernement français va surveiller tout le monde avec un algorithme. Je n’en reviens pas. Big Brother devient une réalité. Les bras m’en tombent.

Une porte dérobée pour retrouver les clés de chiffrement

Je cite le Figaro :

Le projet de loi renseignement aborde aussi sur les obligations à la charge des opérateurs et des plates-formes « en matière de déchiffrement des données ». Plus que jamais, la France veut disposer des clés permettant de lire des conversations interceptées, même si elles sont protégées.

On peut se lamenter de voir le gouvernement chercher encore et encore à percer le secret de nos vies privées, mais on peut aussi en rire, tellement l’idée est stupide : mettre en place des portes dérobées pour la France affaiblit le chiffrement des données pour tout le monde, exactement ce qui est reproché à la NSA. Alors qu’on cherche, je cite, à préserver « les intérêts économique ou scientifiques majeurs », on affaiblit ce qui permet de les protéger. C’est se tirer une balle dans le pied. Ou une rafale, peut-être.

Conclusion : « où est Charlie ? »

Nous étions nombreux en France, dans la foulée des attentats de janvier (Charlie Hebdo et l’épicerie cacher) à redouter un durcissement de la surveillance. Les manifestations « je suis Charlie » en faveur de la liberté d’expression ont fait penser qu’un tel sursaut de l’opinion publique permettrait de ne pas tomber dans le piège sécuritaire. Pourtant, en deux mois, nous sommes passés brutalement de la liberté d’expression à la liberté d’espionner tout le monde.

On pourrait dire que c’est 1984 à nouveau. En fait, ça l’est doublement. Non seulement nos écrans connectés nous espionnent, mais en plus on retrouve une autre particularité du roman de George Orwell : la novlangue, cette nouvelle langue technocratique qui appelle « Ministère de la vérité » le ministère de la propagande.

Nous y sommes désormais : on prétend protéger nos libertés en les restreignant, en frappant au cœur de ce qui nous rend libres et humains, la liberté de penser et de nous exprimer dans l’intimité.

Oui, il faut combattre le terrorisme. Mais accepter la réduction de nos libertés au nom de la lutte contre le terrorisme, c’est laisser ce dernier gagner.

Ils en parlent :

mercredi 11 mars 2015

Why I'm joining Cozy Cloud (hint: personal cloud matters)

Cozy Cloud

TL; DR : I am joining the leadership team of a very cool French startup called Cozy Cloud as Chief Product Officer. My book about online privacy and mass surveillance is almost finalized. The world needs Cloud solutions that enable users to have control over their data.

I’m joining Cozy Cloud as their Chief Product Officer.

It did not take me long to find a new very cool job. Cool, because it’s really aligned with my values. I suspect that most of my English readers haven’t heard about Cozy Cloud, so let me explain. In short, Cozy is a Free Libre Open Source piece of Software that runs on a personal server (such as a Rasbperry PI 2) and its goal is to offer a personal Cloud so that user can enjoy the benefits of the Cloud while retaining control of their data.

My role at Cozy Cloud will be to increase the number of users of the platform, engage with apps developers so that they build apps for the platform and also to find new contributors to the product.

Another cool side of this job is that the team is small, self-motivated and technically amazing. The energy they put into the project made me accept their offer. (They’re also very nice people).

My book (in French) on privacy and mass surveillance is almost done

What does it have to do with my new job? It’s simple: when writing the book, I thought about Information Systems that would Give Back Control to Users (in French, it becomes SIRCUS, which sounds a lot better than in English). Such systems must respect the 7 following principles:

  1. Open source software, so that we know what’s running and what’s happening to our data
  2. Server control, ideally with self-hosting
  3. Encryption, as the network cannot be trusted
  4. A sustainable business model (not based on targeted advertising, as it encourages services to profile users and gather as much personal data as possible)
  5. Great UX. (Worth repeating)
  6. Standards-based and inter-operable
  7. Unique value proposal for the user that differentiate the offer from centralized silos.

This one looks like a mystery until you study what Cozy is working on. The fact that users control the server enables completely new ways of using personal data. One can imagine mashing up phone bills details with an address book. Instead of having a long list of numbers called, we would get a list of names. This is just an example, but tons of other use cases can be imagined around electricity bills, bank statements, quantified self data and such…

The world needs cloud services that respect users

It became even more obvious when I was working on my book: centralizing personal data in huge silos in order to generate targeted advertising is not sustainable. As users, we’re trading our invaluable personal data against cheap service (Facebook costs roughly $5 a year per person). On top of that, centralizing data makes mass surveillance economically feasible. And we know how bad this can be.

This does not mean that we should all get rid of cloud services. They’re useful. We just should not have to trade all of our data to enjoy them.

Some perspective

In 2003, 13 years ago, I co-founded Mozilla Europe in order to launch Firefox because it was very clear that the Internet Explorer monopoly was killing the Web.

In 2015, it’s obvious that big proprietary cloud silos are a threat to our personal data and liberties. We need an alternative.

Is it reasonable, with a small startup to decide to challenge the Google, Facebook and other huge services? No it’s not. But it’s tempting and we could succeed. IT’s just like in 2003 when I told people around me that a non-profit with a handful of employees was going after the 95% market share of Internet Explorer by giving away open source software. It worked.

I’m walking in Oscar Wilde’s footstep in this respect:

Wisdom is to have dreams big enough not to lose sight when we pursue them.

Je rejoins Cozy Cloud

Cozy Cloud

TL; DR : Je rejoins l’équipe dirigeante de Cozy Cloud en tant que Chief Product Officer. Mon livre est presque terminé. Le monde a besoin d’un cloud respectueux des données des utilisateurs.

Vous êtes encore là ? Je détaille :

Je rejoins Cozy Cloud en tant que Chief Product Officer.

Je n’aurai donc pas tardé à trouver un nouveau job, et qui plus est un job parfaitement aligné avec mes valeurs : Chief Product Officer chez Cozy Cloud. Pour ceux qui ne connaissent pas, Cozy est un logiciel Libre qui tourne sur un serveur personnel. Son objectif : fournir un service de cloud personnel respectueux des utilisateurs en leur redonnant le contrôle de leurs données.

Mon rôle va être d’être à l’écoute des utilisateurs et des tendances du marché pour décider de l’avenir du produit. C’est aussi et surtout faire connaître la plateforme Cozy Cloud pour qu’elle gagne des utilisateurs, des contributeurs et des développeurs d’application (on peut écrire ses propres apps qui vont tourner sur votre serveur). En plus, l’équipe est fabuleuse, aussi compétente que sympa. Leur énergie fait plaisir à voir, et ca a beaucoup joué dans ma décision de les rejoindre.

Mon livre sur la vie privée et la surveillance de masse est presque terminé

Quel rapport avec Cozy Cloud ? C’est très simple : c’est en réfléchissant sur le concept de SIRCUS (Systèmes Informatiques Redonnant le Contrôle aux UtilisateurS) que j’ai réalisé à quel point Cozy répondait (ou pourra répondre) aux sept critères que j’ai énoncé au chapitre 21 de mon livre :

  1. Du logiciel libre
  2. Le contrôle du serveur
  3. Du chiffrement (Cozy y travaille)
  4. Basé sur un modèle économique durable et pas sur la publicité ciblée
  5. Une bonne ergonomie
  6. Compatibilité et respect des standards (HTML5, Caldav, Cardav, etc.)
  7. Un plus produit qui le différencie des silos propriétaires.

Sur ce dernier point je perçois un énorme différenciateur potentiel chez Cozy : le fait que les serveurs soient sous le contrôle des utilisateurs permet d’imaginer des usages innovants autours des données personnelles. On peut très bien imaginer un mash-up de la facturation détaillée d’opérateur téléphonique avec le carnet d’adresse : au lieu de voir une longue liste de numéros difficiles à interpréter, on pourrait les remplacer par les noms des personnes. Ca n’est qu’un exemple, mais on peut tout imaginer, avec l’accès aux relevés bancaires, avec les relevés d’électricité, le quantified self, etc.

Le monde a besoin d’un cloud respectueux des données des utilisateurs.

C’est devenu une évidence pour moi alors que je travaillais sur mon livre : la centralisation de nos données chez des géants de l’Internet à des fins de publicité ciblée est intenable à terme. On y laisse toute notre vie privée pour un service qui ne vaut pas grand chose (Facebook, c’est 5EUR par personne et par an). Et surtout, cette centralisation des données et le profilage des internautes rend économiquement possible la surveillance de masse, qui est la dernière étape avant l’avènement d’un État policier.

Les bénéfices du Cloud sont indéniables, compte tenu de la multiplication d’appareils tels que les smartphones, les tablettes et le PC. Partager ses fichiers, ses photos, synchroniser ses contacts, son agenda sont des services très utiles, mais il ne devrait pas être nécessaire de laisser toutes nos données à de grands sites pour en bénéficier.

Un peu de perspective

Il y a 12 ans, je montais Mozilla Europe pour lancer Firefox car il était évident qu’il fallait une alternative à Internet Explorer si on voulait donner un futur au Web.

En 2015, les grands clouds que sont les silos propriétaires sont une menace pour nos données personnelles et nos libertés. Il faut inventer une alternative.

Oh, bien sûr, avec une toute petite startup, est-il bien raisonnable de vouloir concurrencer les Google, Facebook et autres grands services ? Non. Ça n’est pas raisonnable. Mais ça se tente. Tout comme en 2003, on me regardait avec des yeux écarquillés quand je disais autour de moi que j’allais monter une association qui allait concurrencer Microsoft en donnant des logiciels gratuits (et libres). Et pourtant, ça a marché.

En cela, je suis les traces d’Oscar Wilde, qui disait :

La sagesse, c’est d’avoir des rêves suffisamment grands pour ne pas les perdre de vue lorsqu’on les poursuit.

Quelques liens complémentaires

Ils en parlent :

mardi 10 mars 2015

En vrac nocturne

Je profite d’une insomnie pour partager avec toi, cher lecteur, quelques liens trouvés ici et là. On pardonnera le ton parfois sarcastique lié à un manque avéré de sommeil !

Note

[1] Après vérification, Ph. Candeloro n’est pas mort.

lundi 9 mars 2015

Flicage-brouillon - Partie 3 chapitre 26 - Faire mieux que les systèmes centralisés

Si l’on construit des outils nous permettant d’avoir le contrôle sur nos données, des SIRCUS, il ne suffit pas qu’ils respectent les 4 principes listés dans les 4 chapitres qui précedent (logiciel libre, auto-hébergement, utilisation du chiffrement et indépendance vis-à-vis de la publicité ciblée). Il faut qu’ils aient du succès, qu’ils soient adoptés massivement et remplacent petit à petit les solutions actuelles, faute de quoi ils ne pourront pas renverser les tendances actuelles à la centralisation et au profilage, qui mènent à la surveillance de masse.

Pour assurer le succès des SIRCUS, trois critères supplémentaires doivent être remplis :

  1. Ergonomie
  2. Interopérabilité
  3. Plus-value pour l’utilisateur

Passons les en revue.

Intégrer ergonomie et cryptographie dès le départ

J’ai longuement abordé le sujet de l’ergonomie dans le chapitre « Le logiciel libre » de cette troisième partie, je ne vais pas m’étendre beaucoup plus dessus. Il convient juste de se souvenir que le logiciel doit être conçu pour l’utilisateur et pas pour son concepteur. Son utilisation doit être évidente et plaisante, ce qui rend les choses plus compliquées pour les développeurs : ce qui est simple à utiliser est bien souvent complexe à construire.

Le défi est particulièrement complexe dans la mesure où le respect de la vie privée donc d’une architecture distribuée et reposant sur la cryptographie ajoute des contraintes supplémentaires dont il faut tenir compte au niveau expérience utilisateur.

Les logiciels intégrant de la cryptographie sont parfois très complexes à utiliser, et les logiciels libres n’y font pas exception ; j’en veux pour preuve le chiffrement d’emails dans Thunderbird avec l’extension Enigmail et GPG, avec lesquels j’ai encore des soucis à l’heure où j’écris ces lignes.

Ca n’est pas toujours le cas : l’utilisation du protocole Web HTTPS (qui permet d’accéder à des sies Web de manière sécurisée) est très généralement transparente. Elle ne devient compliquée que lorsqu’on a affaire à des certificats auto-signés, mais ce problème est en passe d’être résolu avec des initiatives comme Let’s Encrypt. Let’s Encrypt est ouverte, distribuée et sécurisée.

Interopérabilité

Sous ce nom un peu barbare se cache une idée toute simple : être intéropérable, c’est être compatible avec les produits existants et à venir.

Wikipédia a une définition un peu plus complexe :

L’interopérabilité est la capacité que possède un produit ou un système, dont les interfaces sont intégralement connues, à fonctionner avec d’autres produits ou systèmes existants ou futurs et ce sans restriction d’accès ou de mise en œuvre.

L’interopérabilité est importante car l’informatique évolue sans cesse, et il est important de pouvoir quitter une solution pour une autre si le besoin s’en fait sentir. Cela peut se faire simplement pour certaines applications simples comme la sauvegarde de fichiers ou la gestion des contacts (il existe des standards pour cela). Cela peut être plus compliqué dans les cas où on utilise des applications plus complexes pour lesquelles aucun standard n’a été créé, comme par exemple un outil de gestion de blog où, à ma connaissance, la seule façon de migrer repose sur l’utilisation d’une « moulinette » ad-hoc qui lit les données dans un format pour les écrire dans un autre format.

Interopérabilité et réseaux sociaux

Dès lors que l’on touche aux fonctionnalités sociales des applications, les choses deviennent plus complexes. Si la migration d’un système de stockage fichier dans le cloud centralisé à un autre décentralisé ne concerne que l’utilisateur propriétaire des fichiers, le problème est autrement plus compliqué dès qu’il s’agit d’arrêter de publier sur Facebook pour publier sur son propre blog : le Web social, par essence, touche un utilisateur et tous ses contacts.

Pour convaincre, l’approche SIRCUS ne peut pas se permettre de demander aux nouveaux utilisateurs de choisir entre interactions sociales et respect de la vie privée.

En terme d’interopérabilité des fonctionnalités sociales, il y a deux initiatives intéressantes.

SocialWeb du W3C

Le W3C, l’organisme qui produit les standards du Web, a publié des travaux sur un « Web ouvert, respectueux de la vie privée et reposant sur les standards ». Sans rentrer dans les détails, car cela sortirait de l’objectif du présent ouvrage, ce document aborde nombre des problèmes rencontrés par les utilisateurs sur les réseaux sociaux :

  • Portabilité des données d’un système à l’autre
  • Identité
  • Capacité à faire des liens d’un réseau à l’autre
  • Vie privée.

IndieWebCamp

IndieWebCamp est une autre initiative sur un sujet comparable, mais menée d’une manière très différente, par des gens qui ont eux aussi été souvent impliqués dans les standards du Web.

L’approche d’IndieWebCamp repose sur la décentralisation (possession de son propre site avec son propre nom de domaine), le contrôle des contenus partagés et l’interfaçage avec les grands réseaux sociaux.

Parmi les concepts poussés par IndieWebCamp, POSSE est l’un des plus intéressants. POSSE signifie « Publish On your Own Site, Syndicate Elsewhere » (Publiez sur votre propre site, diffuser ailleurs). Dans le modèle POSSE, l’utilisateur publie une photo sur son site personnel, qui le diffuse aussi sur les réseaux sociaux de son choix, comme Flickr.com (site de partage de photos) et Facebook.com. De même, un billet de blog sera publié sur le site personnel et relayé sur les autres grands réseaux sociaux.

A chaque fois, les commentaires et réactions à ces publications sur les réseaux sociaux seront copiés sur le site personnel. Ainsi, le jour où l’utilisateur souhaitera quitter Facebook, il ne perdra pas ses photos, ses interactions, ses articles et autres.

Ce qui est peut-être le plus important dans l’approche POSSE, c’est qu’un utilisateur peut décider d’avoir son propre site indépendant pour reprendre le contrôle de ses données, tout en continuant à interagir avec ses contacts, en bénéficiant de l’audience des grands réseaux sociaux centralisés. Ainsi, il n’est pas nécessaire de choisir entre contrôle de nos données et interactions sociales. C’est une excellente nouvelle : un tel choix serait nécessairement défavorable aux approches décentralisées.

Offrir une plus-value immédiate à l’utilisateur

Soyons lucides : à part une petite frange de geeks, rares sont les utilisateurs qui ont envie de changer leurs habitudes informatiques. Peur du changement, de l’inconnu, de perdre un système qu’ils ont eu du mal à faire fonctionner, les utilisateurs sont rarement téméraires quand il s’agit de changer d’ordinateur et de logiciels.

C’est pourquoi, si on veut toucher les utilisateurs au-delà du cercle restreint des libristes militants (dont je fais partie), si on veut les convaincre de passer d’un modèle centralisé à un modère SIRCUS respectueux de leurs données et de leur vie privée, il va falloir offrir une véritable plus-value.

Mauvaise nouvelle : le contrôle des données, le respect de la vie privée ne sont pas suffisant, et ce pour une raison toute simple : ils ne sont pas tangibles ; il est très difficile de voir, de ressentir, que l’on contrôle nos données et que notre vie privée est mieux protégée. La preuve, les gens ont mis des années à comprendre qu’elle ne l’était pas quand ils sont passé sur Facebook.

Pour donner envie à un utilisateur de passer au modèle SIRCUS, il faut lui donne un avantage tangible, désirable et immédiat.

Offrir une expérience utilisateur comparable à celle de Google, de Facebook ou de Dropbox n’est pas suffisant : l’effort à fournir pour passer du modèle centralisé à l’approche SIRCUS est beaucoup trop élevé pour utilisateur. Pour le convaincre, il faut lui offrir un « moment Ahah », un moment où il se dira « Ah oui, c’est génial ce truc, je n’aurais pas pu le faire avec Facebook ou Google ». Les américains appellent cela la « killer feature », la fonctionnalité qui tue.

Tout le défi pour ceux veulent construire des offres SIRCUS se trouve là… et il reste encore à découvrir !

samedi 7 mars 2015

Flicage-brouillon - Partie 3 chapitre 25 - Penser le modèle d'affaires

Une chose est sûre : s’il faut, pour retrouver le contrôle de l’informatique et de nos données personnelles, tendre vers plus de logiciel libre, de cryptographie et d’auto-hébergement, il est un modèle d’affaire qu’il faut fuir : celui de la publicité ciblée.

En effet, la publicité ciblée est ce qui fait que les géants de l’Internet chercher à tout savoir sur chacun de nous : pour connaître nos centres d’intérêts, nos goûts, nos habitudes, notre pouvoir d’achat et vendre à des annonceurs des publicités sur lesquelles il y a plus de chance que nous cliquions.

Le souci, c’est que cette concentration de données personnelles et ce profilage rendent économiquement possible la surveillance de masse par les services de renseignement : au lieu d’avoir à pirater des millions de PC pour surveiller tout le monde, il leur suffit de faire des demandes à une poignée de grands acteurs du numérique qui ont déjà fait tout le travail pour eux.

Une solution toute simple (en apparence) existe : payer pour des services qui ne surveillent pas les utilisateurs. Comme expliqué au chapitre 15, opérer un service comme Facebook (développement, maintenance, équipements, plus le coût des commerciaux et marketeurs chargés de vendre la publicité) revient à moins de cinq euros par personne et par an, ce qui est moins cher qu’une place de cinéma ou 3 cafés. Par an.

La tentation de la gratuité

Curieusement, la gratuité a un attrait disproportionné sur le public, même si cela représente au fond une très mauvaise affaire. Cela tient à un trait de caractère très répandu chez l’humain, décrit par l’économiste comportemental Dan Ariely dans son livre C’est (vraiment ?) moi qui décide :

Quand c’est gratuit, ça fait toujours plaisir. De fait, zéro n’est pas un prix comme les autres, c’est un déclencheur d’émotion — une source d’excitation irrationnelle.

Pourtant, si on veut disposer d’un service respectueux de la vie privée et donc évitant la publicité ciblée, payer ce service avec de l’argent reste la meilleure des méthodes.

Mais la publicité ciblée m’est plus utile que la publicité normale

Il y a une objection fréquemment rencontrée sur la publicité ciblée : certains préfèrent la publicité ciblée à la publicité non ciblée. Pour ma part, je préfère l’absence de publicité, surtout si c’est pour économiser des sommes aussi réduites.

Il faut savoir qu’il y a des méthodes de personnalisation de la publicité qui ne passent pas par la collecte de données par les grands acteurs d’Internet. Il existe par exemple la notion de « Gestion de la relation vendeur » (en anglais « Vendor Relationship Management » (VRM) telle que pensée par Doc Searls dans son projet à l’université d’Harvard, Project VRM. Le principe consiste à donner aux consommateurs des outils qui font deux choses :

  1. donner de l’indépendance aux individus face aux grandes entreprise qui les pistes et les enferment dans leurs services.
  2. offrir aux consommateurs de meilleurs moyens pour qu’ils communiquent aux vendeurs ce qu’ils recherchent.

Suivant le principe du VRM, un consommateur peut décider ce qu’il l’intéresse. Si j’envisage d’acheter une moto à court ou moyen terme et que je m’intéresse à la musique Rock et au Rugby, je devrais pouvoir l’indiquer quelque part (probablement mon navigateur Web) pour que les publicités s’adaptent en fonction de mes goûts et besoins, sans avoir à être traqué pour autant.

En attendant que le principe du VRM permette une publicité respectueuse de l’utilisateur, il va nous falloir réapprendre à payer les services que l’on utilise au lieu d’échanger bêtement nos données personnelles contre des outils qui ne coûtent presque rien. À ce propos, je laisse la conclusion à un article du journal anglais The Guardian :

Quand viendra le temps où l’on écrira l’histoire de l’époque actuelle, nos arrière-petits enfants s’étonneront d’apprendre que des milliards de gens apparemment sains d’esprit ont accepté passivement ce marché lamentablement déséquilibré. (Ils se demanderont aussi sûrement pourquoi nos gouvernements n’ont porté à cette histoire qu’un intérêt très limité).

vendredi 6 mars 2015

Flicage-brouillon - Partie 3 chapitre 24 - Le recours à la cryptographie

La cryptographie est une des pierres angulaires du contrôle de nos données. Elle permet, en utilisant un secret appelé clé (généralement un mot de passe), d’assurer la confidentialité, l’authenticité et l’intégrité de données, qu’il s’agisse de fichiers ou de messages.

La cryptographie est essentielle aujourd’hui, car nos différents appareils (PC, smartphone, tablette, serveur) communiquent entre eux via des réseaux interconnectés sur lesquels nous n’avons pas le contrôle : il est possible qu’un tiers écoute nos données pendant qu’elles transitent et cherche à en récupérer une copie, souhaite modifier nos messages ou veule se faire passer pour quelqu’un qu’il n’est pas.

Un peu de vocabulaire

  • Chiffrer : transformer un contenu en clair à l’aide d’une clé (le mot de passe) en un contenu incompréhensible, le contenu chiffré.
  • Déchiffrer : transformer un contenu chiffré (donc incompréhensible) en contenu en clair à l’aide de la clé.
  • Décrypter : retrouver le contenu en clair à partir du contenu chiffré sans avoir la clé.
  • Crypter : ce verbe n’existe pas et ne devrait donc pas être utiliser en français (mais nos amis québécois l’utilisent à la place de chiffrer).

Mot de passe et cryptographie symétrique

L’utilisation d’un mot de passe relève de ce qu’on appelle le chiffrement symétrique. Le mot de passe permet de chiffrer un contenu, et le même mot de passe sera utilisé pour déchiffré le contenu chiffrer pour retrouver le contenu en clair. Le chiffrement symétrique est très pratique dans certains cas (chiffrer ses fichiers sur son disque dur, par exemple), mais peu pratiques dans d’autres cas, par exemple pour envoyer un message à des correspondants. En effet, il faudrait aussi envoyer le mot de passe en clair pour qu’ils puissent déchiffrer ce que je leur envoie. Ensuite, à l’usage, mon mot de passe serait connu de plus en plus de gens, ce qui, par définition, le rendrait de moins en moins secret et de plus en plus inefficace.

Cryptographie asymétrique : clé privée et clé publique

La cryptographie asymétrique, aussi appelée aussi cryptographie à clé publique a été inventée à la fin du 20e siècle pour répondre aux limitations de la cryptographie symétrique (à mot de passe) expliquée ci-dessus.

Le principe repose sur l’existence de deux clés complémentaires. L’une est publique, connue de tout le monde. l’autre clé est secrète, connue seulement de son propriétaire.

Le contenu chiffré avec une clé peut être déchiffré avec l’autre, c’est ce qui donne le caractère asymétrique à ce genre de cryptographie et le rend très utile, en particulier dès qu’il s’agit d’envoyer des messages secrets à des tiers.

Ainsi, si Alice veut envoyer un message à Bob, elle prend la clé publique de Bob, qui peut être publié sur le site Web de Bob, par exemple, et chiffre le message avec. Seul Bob, détenteur de la clé privée correspondante, peut déchiffrer le message. Cela permet de préserver la confidentialité du message.

A l’inverse, si Bob chiffre un message avec sa clé privée, il pourra être déchiffré par tout ceux qui ont sa clé publique (qui est facile à trouver). On sera donc sûr que ce message a bien été envoyé par Bob. C’est un mécanisme de signature numérique qui permet d’assurer l’authenticité du message.

Le diable est dans les détails

L’obsolescence des algorithmes de chiffrement

Il existe de nombreux algorithmes de chiffrement, qui sont autant de méthodes possibles pour chiffrer et déchiffrer des contenus. Certaines de ces méthodes sont moins sûres que d’autres : le chiffrement repose sur les mathématiques et les chercheurs de cette science font des progrès réguliers, ce qui fait que certains algorithmes autrefois sûr ne le sont plus aujourd’hui, mais on découvre de nouveaux algorithmes qui sont encore plus solides. Comme les serrures du monde réel, la technologie progresse et ce qui était sûr hier ne l’est plus autant aujourd’hui.

Chiffrer le contenu ou le tuyau ?

Quand on veut transmettre un message secrètement d’un endroit à l’autre, il y a en gros deux méthodes :

  1. On chiffre le message lui-même, ce qui le rend illisible, et on l’envoie à son destinataire. Peut importe que d’autres le lisent en court de route, le contenu est incompréhensible. C’est le chiffrement de bout en bout.
  2. On ne chiffre pas le message, mais on le transmet par un moyen qui est sécurisé. On peut en effet créer un genre de « tunnel » sécurisé entre un ordinateur et un autre (c’est ce que signifie l’icône du cadenas et le S de HTTPS dans le navigateur Web). C’est le chiffrement de point à point.

Cette distinction entre chiffrement de bout en bout et point à point peut sembler minime, mais elle ne l’est pas. Prenons l’exemple du stockage de mes fichiers dans un service de « cloud ». Si le logiciel que j’utilise chiffre ces données localement avec une clé connue de moi seul, avant d’envoyer ces fichiers sur un serveur distant, je suis le seul à pouvoir lire mes données. Même si un pirate arrive à pénétrer dans le serveur en question ou si les autorités de police en font la demande au service, mes données sont illisibles car chiffrées.

Il arrive que des services de cloud promettent la main sur le coeur que nos données sont protégées car chiffrées. Mais en regardant d’un peu plus près, on découvrent que seul le transport de ces données est chiffré. En effet, mes fichiers transitent par un « tunnel sécurisé » entre mon ordinateur (ou mon smartphone) et le serveur distant. Mais elles y sont stockées en clair. Autrement dit, les services de polices et les éventuels pirates peuvent y accéder sans aucun problème. Et bien sûr, mes données peuvent être analysées par le service de cloud pour construire un profil de mes activités.

C’est pour cela qu’il faut bien se renseigner avant de choisir de tels services.

Dans le même genre, le très populaire service DropBox de partage de fichier est particulièrement fier de son système : les données sont chiffrées sur mon ordinateur, transitent aussi de façon chiffrées et sont stockées chiffrées sur les serveurs. Pourtant, certaines personnes dont Edward Snowden (le lanceur d’alerte de la NSA) est très clair : « il faut abandonner Dropbox ». La raison est toute simple : Dropbox chiffre nos données avec un mot de passe qu’elle conserve. Elle peut donc déchiffrer ces données sans qu’on en soit prévenu.

Conclusion

La cryptographie peut sembler complexe de prime abord, mais elle est essentielle pour protéger notre vie privée et contrer la surveillance de masse.

jeudi 5 mars 2015

Flicage-brouillon - Partie 3 chapitre 23 - La maîtrise du serveur

Comment est-il possible d’avoir les fonctionnalités offertes par le Cloud, avec des applications disponibles en permanence, avec nos données, sans pour autant laisser nos données à des tiers qui veulent les récupérer ?

C’est tout à fait possible, à condition d’avoir la maîtrise du serveur sur lequel tournent ces applications et où sont hébergées nos données.

L’auto-hébergement

On peut imaginer dès aujourd’hui qu’au lieu de mettre toutes nos données chez Google ou des services comme Dropbox.com (stockage de fichiers), Evernote.com (stockage de notes), Flickr.com (partage de photos), on les mette sur des serveurs qui seraient physiquement chez soi, directement connectés à l’ADSL. Comme il s’agit d’un usage individuel, l’ordinateur n’a pas besoin d’être surpuissant, ce qui permet d’avoir recours à des machines à bas coût consommant très peu d’électricité et ne chauffant quasiment pas. Par exemple, il existe des machines comme le Raspberry Pi qui sont de la taille d’une carte de crédit, valent une quarantaine d’euros et ne consomment que quelques Watts (compter 70 euros environ pour un kit complet avec boitier et alimentation). En connectant une telle machine à un disque dur USB, il est possible de disposer d’un serveur personnel à un prix ridiculement bas.

Par ailleurs, il existe d’ores et déjà dans le commerce une catégorie de produits appelés NAS (Network-Attached Storage). Ce sont des boitiers pouvant accueillir plusieurs disques durs associés à un petit processeur permettant de faire tourner un système d’exploitation et des applications. Certains de ces systèmes font tourner des logiciels libres.

Les limites de l’auto-hébergement

le A d’ADSL

L’accès Internet haut débit se fait très souvent avec une technologie appelée ADSL, qui signifie « Asymmetric Digital Subscriber Line ». Le souci, c’est le A d’ADSL, qui signifie que le débit des données est asymétrique : les données arrivent vers l’abonné plus vite qu’elles n’en partent. On dit alors que le débit sortant est inférieur au débit entrant. Cela peut-être avantageux dans le cas où on reçoit plus de données qu’on n’en émet, mais c’est un handicap quand il s’agit d’avoir son propre serveur à la maison, qui émet plus qu’il ne reçoit.

Par ailleurs, les fournisseurs d’accès Internet ont le plus souvent dans le contrat qui les lie à leurs abonnés spécifié qu’il était interdit d’héberger un serveur à la maison. À la lumière de ces clauses, on imagine sans peine que le choix de la technologie asymétrique ADSL ne relève pas du hasard et vise plutôt à verrouiller le client dans une position de consommateur.

Cela dit, la fibre optique, technologie bien plus rapide que l’ADSL, commence à se répandre. Et même si elle est aussi asymétrique, on arrive à avoir des débits sortants qui sont tellement importants que cela n’est plus un problème.

L’alimentation électrique

Il est des régions où le courant est moins stable qu’ailleurs. Cela peut être gênant dans la mesure où cela affecte la disponibilité du serveur et de l’équipement réseau.

La sauvegarde des données.

Chaque installation serveur doit disposer d’une procédure de sauvegarde. On peut imaginer une sauvegarde chiffrée envoyée à d’autres systèmes de façon réciproque, chacun ayant une copie chiffrée. De tels systèmes distribués existent, comme par exemple MaidSafe.

L’administration du serveur

Les utilisateurs de Cloud sont habitués à ce que le sytème fonctionne directement et sans maintenance. En cas de problème, les équipes gérant le cloud résolvent le problème. C’est un défi que les solutions libres et décentralisées vont devoir relever : de telles solutions doivent être triviales à administrer pour qu’une grande partie des utilisateurs puisse s’en charger. Cela peut sembler utopique pour l’instant, mais cela n’est pas impossible à réaliser.

mercredi 4 mars 2015

Flicage-brouillon - Partie 3 chapitre 22 - Le logiciel libre

Le logiciel libre est une condition nécessaire (mais pas suffisante) pour avoir le contrôle et la maîtrise de l’informatique que nous utilisons. En effet, il est possible d’accéder au code du logiciel libre pour l’analyser, l’auditer, comprendre son fonctionnement et finalement se l’approprier en le modifiant si nécessaire. Cette transparence du logiciel libre est garante de la confiance que l’on pourra lui accorder.

À l’inverse, le logiciel propriétaire est une boite noire : on ne sait pas exactement ce qui est fait par ce logiciel. L’utilisateur en est réduit à croire sur parole le fournisseur du logiciel, lequel, pour différentes raisons, peut avoir introduit dans le produit fourni des portes dérobées, soit pour des raisons mercantiles, soit sous la pression de services de renseignements, soi à son insu.

Si le logiciel libre est infiniment supérieur au logiciel propriétaire pour ce qui est de la transparence, il a d’autre défis à relever, en particulier autour de l’ergonomie et du modèle commercial.

l’expérience utilisateur

Bien trop souvent, les logiciels libres souffrent d’un déficit d’ergonomie. Dans le jargon informatique, on parle d’« expérience utilisateur » (UX, User Experience) imparfaite. Ca n’est pas simplement un problème d’esthétique, mais plutôt de simplicité et d’intuition quand il s’agit d’accomplir une tâche avec le logiciel en question. Ce sont des questions qui touchent à la facilité d’usage, à l’évidence de l’interface, au fait que l’utilisateur n’a pas à réfléchir (ou le moins possible) pour se servir de l’outil.

C’est un sujet difficile à aborder pour la plupart des projets de logiciels libres, et ce pour plusieurs raisons.

D’une part, les développeurs de logiciels ont tendance à avoir internalisé le fonctionnement du logiciel sur lequel ils travaillent. Du coup, pour eux, il est évident qu’il faut passer par l’étape 1 avec de faire l’étape 2 puis la 3. C’est normal, ils ont eux-même conçu le logiciel. Ils connaissent son fonctionnement de l’intérieur.

Par contre, l’utilisateur final n’a pas cette connaissance intime du produit et de son architecture. Il a donc besoin d’être guidé autant que possible, besoin qu’on ne lui offre pas trop d’options inutiles à cette étape du processus.

Par ailleurs, les développeurs ont souvent un parti-pris pour des approches qui sont très efficaces mais qui peuvent rebuter l’utilisateur final. Je prends un exemple : la ligne de commande, ce mode d’interaction avec l’ordinateur qui consiste à taper des commandes dans un « terminal » au lieu de cliquer sur des boutons avec une souris. La ligne de commande peut-être formidable de puissance par sa concision. Elle peut aussi être reproduite facilement et programmée dans des « scripts ». Pour toutes ces raisons, elle est souvent très appréciée des développeurs. Mais voilà, elle rebute l’immense majorité des utilisateurs. C’est une parfaite illustration de ce fossé qu’il faut combler entre développeurs et utilisateurs, faute de quoi l’investissement réalisé par le projet libre pour créer une bonne technologie ne deviendra pas un bon produit capable de concurrencer des logiciels propriétaires.

Pour cela, il faut avoir que l’expérience utilisateur soit une préoccupation permanente au sein du projet de logiciel libre, et ce dès le début de ce projet.

Imaginer de voir travailler des développeurs et des UX designers ensemble pour faire du logiciel libre n’est pas quelques chose d’impossible. L’expérience utilisateur a été un grand facteur de différenciation pour le navigateur Web Firefox, ce qui lui a permis de concurrencer Internet Explorer. La distribution GNU/Linux Ubuntu a fait de l’ergonomie son cheval de bataille et a permis son adoption par des personnes qui n’auraient pas pu, auparavant, utiliser Linux.

Des applications Web libres comme l’outil de blog Dotclear et plus récemment, Known ont brillamment démontré que libre et ergonomie n’étaient pas antinomiques. Dans les deux cas, cela a été rendu possible par la collaboration de UX designers et de développeurs.

L’épineux problème du business model

L’utilisation de logiciels libres implique une (petite) contrainte pour l’utilisateur : comprendre comment le logiciel en question est financé. Puisqu’a priori ça n’est pas via la collecte de données personnelles, comment le projet peut-il vivre ? Certains projets, comme Dotclear, cité plus haut, sont 100% non-lucratif et reposent sur le travail de bénévoles. Cela peut permettre à un tel projet de survivre, pour peu que l’équipe soit motivée. Malgré quelques aléas, Dotclear va bientôt fêter ses 12 ans.

A l’inverse, le projet Wikipédia, qui est un projet libre (d’encyclopédie plutôt que logiciel), a besoin de revenus pour payer l’infrastructure (serveurs, location de data-center, connexion à Internet) et ses permanents. Pour cela, Wikipédia fait régulièrement des appels aux dons. Cela en fait une encyclopédie gratuite… pour laquelle il faut faire des dons.

De nombreux projets de logiciels libres reposent sur les dons, et il appartient aux utilisateurs de ces logiciels de donner régulièrement pour que les projets soient pérennes. Pour ma part, je donne quelques dizaines d’euros par mois à ces projets. C’est toujours moins que mon abonnement Internet, et tout aussi important. Je vous encourage à donner en fonction de vos moyens, mais si tout le monde donnait 3 EUR par mois, nos logiciels seraient bien meilleurs !

mardi 3 mars 2015

Flicage-brouillon - Partie 3 chapitre 21 - 7 principes pour reprendre le contrôle

Pour reprendre la main sur l’informatique, il faut inventer des systèmes informatiques contrôlables par l’utilisateur et seulement par lui. Appelons ces systèmes des SIRCUS (Systèmes Informatiques Redonnant le Contrôle aux UtilisateurS[1].

Pour qu’un SIRCUS puisse exister, il faut reprendre la main autant que possible sur chacun des composants : le matériel, le logiciel et les réseaux qui relie les différents composants.

J’établis là quelques grands principes qui faut explorer pour parvenir à une solution idéale. Notons qu’il n’est pas nécessaire d’avoir une solution parfaite pour commencer à avancer dans cette direction.

Trois principes de base : le fondement technologique

1 - Du logiciel libre

Commençons par l’essentiel : le logiciel. Pour que l’utilisateur sache ce qu’il fait (transparence), pour pouvoir le modifier si nécessaire, pour que nous en ayons le contrôle, le logiciel doit impérativement être un logiciel libre.

2 - Le contrôle du serveur

Ensuite, il faut contrôler le matériel sur lequel tourne le logiciel. Pour le PC et le téléphone, cela semble aller de soi. Mais si on veut disposer des fonctionnalités de type Cloud, avec des données accessibles en permanence depuis plusieurs appareils, il faut un serveur, une machine constamment connectée à Internet. La solution consiste idéalement à héberger soi-même son propre serveur. C’est ce qu’on appelle l’auto-hébergement.

3 - Du chiffrement, encore du chiffrement !

Enfin, puisque des données vont transiter entre notre serveur et nos appareils (PC, smartphone, tablette), il faut qu’elles soient protégées des oreilles indiscrètes. Pour cela, il faut utiliser du chiffrement (parfois appelée « cryptographie »), qui permet de rendre les données incompréhensibles pour les personnes non autorisées, soit quand elles sont stockées, soit quand elles transitent sur le réseau.

4 - Éliminer le problème de fond : le profilage nécessaire à la publicité ciblée

La publicité ciblée est la source du profilage de tous les internautes. Comme le dit Bruce Schneier, chercheur en sécurité, « La surveillance est le modèle commercial de l’Internet. Nous construisons des systèmes qui espionnent les gens en échanges de services. C’est ce que les entreprises appellent du marketing ». Il faut trouver un modèle économique pour l’Internet qui ne repose pas sur le profilage des utilisateurs qui échappe à leur contrôle.

Aller plus loin que les solutions existantes

Pour être adoptés, les futurs outils respectueux de la vie privée devront satisfaire à 3 conditions (respectivement les 5e, 6e et 7e principes) :

  • 5 - Proposer une ergonomie parfaite, qui intègre les contraintes de la cryptographie
  • 6 - Être compatible avec les systèmes existants et à venir
  • 7 - Apporter un plus produit concret et visible immédiatement qui les différenciera des offres actuelles.

Je vous propose d’explorer, dans les chapitres qui suivent, ces grands principes que nous tous, que nous soyons citoyens, développeurs, start-ups ou politiques, devrons explorer pour construire une informatique où l’utilisateur a le contrôle de ses données et où la technologie est au service de l’humain.

Note

[1] On me pardonnera le côté capillotracté de l’acronyme, que j’ai voulu facile à retenir.