mercredi 29 juin 2016

Cozy Cloud leve 4 millions

Cela fait plusieurs semaines déjà que je veux sortir ce billet sans trouver le temps de le faire ! Alors voilà, il arrive, enfin. Ca ne sera pas une annonce, mais plutôt un récapitulatif de ce qui s’est passé.

Mais je cesse de tourner autour du pot : la startup de Cloud Personnel pour laquelle je travaille, Cozy Cloud, vient donc de lever 4 millions d’euros auprès de la MAIF (l’assureur militant) et d’Innovacom (notre actionnaire historique).

Pour l’occasion, nous nous sommes fendus d’un communiqué de presse.

Qu’est-ce que ça change ? Pour faire simple, rien sauf que ça donne des ressources financières à Cozy pour se développer et embaucher de nouveaux développeurs pour avancer les développement du projet de logiciel libre Cozy.

Par ailleurs, cela ouvre la porte des grands comptes, qui souvent se sentent menacés par les GAFAs. C’est un sujet passionnant mais pas forcément facile à aborder, c’est pourquoi nous avons prévu un meet-up le 30 juin où nous pourrons répondre aux questions que pourraient se poser les utilisateurs de Cozy (ils pourront aussi les poser à Romain Liberge, CDO de MAIF, qui sera présent).

Enfin, cela donne un peu plus de visibilité et de légitimité à Cozy, en particulier grâce à la couverture presse qui a été généreuse :

mercredi 22 juin 2016

En vrac du mercredi

Fleur.jpg

lundi 6 juin 2016

À propos de Jacob Appelbaum

Jacob Appelbaum, développeur Tor, quitte le projet car il se retrouve au cœur d’un scandale de harcèlement (sexuel et psychologique) qui n’est pas sans rappeler l’affaire Baupin :

vendredi 3 juin 2016

En vrac du vendredi

Parc André Citroën

Parc André Citroën

  • Inquiétante vague de départs de chez OwnCloud… En quelques jours, 4 personnes ont annoncé leur départ : l’évangéliste, et trois développeurs importants. Cela suit le départ de Frank Karlitschek, le fondateur du projet, fin avril. Tous annoncent vouloir rester “dans la communauté OwnCloud”. Est-ce une figure de style façon Mozilla, ou est-ce l’annonce d’un fork potentiel ? La phrase du fondateur, “I am the ownCloud project lead until the community says otherwise” annonce plutôt un conflit autour de la communauté, ce qui évoque un fork (clonage du projet suite à des divergences au sein de la communauté). Mise à jour: il s’agit bien d’un Fork appelé NextCloud. Explications de son fondateur. De son coté, ownCloud annonce la fermeture de la branche US de la société et affirme vouloir préempter la communauté. Bref, le futur s’annonce mouvementé et très incertain pour les projets siamois ownCloud et NextCloud… À suivre !
  • Pour une république algorithmique : nationalisons le code !. Un papier intéressant d’Olivier Ertzscheid sur le deep learning. C’est important car cela permet de comprendre les problèmes posés par ces algorithmes apprenants dont les décisions sont liées aux données fournies lors de l’apprentissage. Cela fait que :
    • les résultats peuvent créer des discriminations illégales (racisme, sexisme etc.)
    • on est incapable d’expliquer la méthode qui a amené l’algorithme à prendre une décision. (Attention à ne pas reproduire des situations évoquant Le procès de Kafka).
  • Why you should bet big on privacy (“Pourquoi vous devriez parier gros sur la vie privée”).  ;
  • Enquête sur l’algo le plus flippant de Facebook ;

lundi 23 mai 2016

En vrac du lundi

Rogny les Sept Ecluses

Rogny les Sept Ecluses

Un peu de lecture pour oublier la pluie !

Je dois dire ma réelle fierté d’avoir été rapporteur de la loi relative au renseignement, car il s’agit d’une grande loi de liberté.

  • Soon We Won’t Program Computers. We’ll Train Them Like Dogs (“bientôt, nous ne programmerons plus les ordinateurs, nous les dresserons comme des chiens”), un article intéressant sur le changement de paradigme autour du logiciel. Au lieu de programmer des ordinateurs en leur donnant des instructions suivies très précisément, nous faisons des logiciels quasiment génériques qui, soumis à des jeux de données massifs, “apprennent” à reconnaitre des tendances, des associations. On pense bien sûr à la reconnaissance de formes, mais c’est déjà quelque chose qu’on utilise depuis longtemps (par exemple avec les algorithmes baysiens qui filtrent les spams des emails). Ça pose un problème éthique majeur dans la mesure où ce qui influence les résultats de l’algorithme, c’est plus le jeu de données qui est fourni lors de l’apprentissage que l’algorithme lui-même. Cela va dans certains cas générer un biais illégal (raciste ou sexiste ou religieux, par exemple) qui n’est pas du à l’algorithme. Exemple sorti de mon imagination (donc pas forcément vrai) : une compagnie d’assurance pourrait faire de meilleurs tarifs aux femmes qu’aux hommes parce qu’elles ont un taux d’accident moindre. C’est sexiste, et rien de cela n’est du à l’algorithme, seulement au jeu de données. Voir aussi en français : Demain, la fin du code ? ;

- page 1 de 903