Syndiquer le contenu
Mis à jour : il y a 11 heures 55 min

LibreOffice 4.4 : sous le capot

11 février, 2015 - 12:34

LibreOffice 4.4 a été publié le 29 janvier 2015. Cette nouvelle version est destinée aux utilisateurs expérimentés — les autres, comme les entreprises et les administrations, sont invités à rester sous LibreOffice 4.3.5.

Michael Meeks est un développeur qui travaille sur la suite bureautique LibreOffice pour l’éditeur Collabora.

Il vient de publier sur son blog une longue description du travail qui a eu lieu sous le capot lors de ce cycle de développement menant à la version 4.4 de LibreOffice. Cette dépêche est une traduction de son article, initialement publié dans le domaine public ou licence CC0.

Sommaire

Aujourd’hui, nous publions LibreOffice 4.4.0, avec plein de nouvelles fonctionnalités pour tous les goûts. Lisez et admirez les nouveautés apportées aux utilisateurs. Tout cela est réalisé par beaucoup de programmeurs talentueux. Mais, il y a, comme toujours, nombre de contributeurs dont le travail réside dans les coulisses sur bien des points qui ne sont guère connus. Ce travail est, bien sûr, primordial pour la santé du projet. Il peut être difficile de savoir ce qui ce passe sur plus de 11000 commits faits depuis LibreOffice 4.3. Alors, en voici le détail.

Refonte complète de l’interface utilisateur

La migration des boîtes de dialogue VCL vers Glade est désormais pratiquement terminée (après avoir pensé que nous avions fini, Caolan découvrit beaucoup de fenêtres qui nécessitent la poursuite du travail, mais toutes ont été migrées, à part deux). Il y eut également beaucoup de travail pour les nettoyer et les peaufiner. Un grand merci à Caolán McNamara (Red Hat) pour son incroyable travail et son leadership et à Adolfo Jayme Barrientos, Palenik Mihály (GSoC 2014), Olivier Hallot (EDX), Szymon Kłos (GSoc 2014), Rachit Gupta (GSoC 2014), Tor Lillqvist (Collabora), Jan Holesovsky (Collabora), Maxim Monastirsky, Efe Gürkan YALAMAN, Yousuf Philips et beaucoup d'autres. Merci aussi à nos traducteurs qui devraient désormais moins souffrir des modifications intempestives des chaînes de caractères.
Je rajoute que resource-compiler a subi un beau régime.

Backend initial de rendu OpenGL

Le passage à OpenGL dans VCL pour le rendu est une de ces choses qui devraient, idéalement, se dérouler de manière invisible, mais qui, au final, a un impact important sur le rendu visuel. Tout le travail a été réalisé ici par des ingénieurs Collabora, avec un gros ré-usinage et la gestion initiale de OpenGLContext par Markus Mohrhard, une grande partie de l'implémentation du rendu avec anti-crénelage par Louis-Francis Ratté-Boulianne et le travail de redimensionnement d'image par Lubos Lunak, divers correctifs liés aux fenêtres et du travail de portage de Jan Holesovsky et un peu de Chris Sherlock. Pendant ce temps, nous avons aussi implémenté une application VCL, une démonstration à peu près décente et de plus en plus complète pour s’exercer à faire du rendu. Des explications de ce travail avec des images : https://people.gnome.org/~michael/blog/2014-11-10-opengl.html

En passant à un modèle de rendu en pur OpenGL, nous pouvons accélérer les opérations qui ont grandement besoin de tirer parti de la puissance et du parallélisme de tous les transistors consacrés à l'APU sur les GPU modernes. Être capable d'interagir beaucoup plus directement avec le matériel graphique sous-jacent nous aide à la fois à rendre nos aperçus d'image en haute qualité et de ne pas sacrifier les performances de défilement et de zoom : on a, à la fois, le beurre et l'argent du beurre. Nous avons également utilisé une partie de cette puissance pour accélérer non seulement notre rendu d'image considérablement, mais aussi pour améliorer sa qualité par rapport à avant…

… et maintenant (si votre navigateur redimensionne les images, ça perd tout son sens : remettez le zoom à 1:1 et regardez le haut de la rosace, et d'autres parties en hautes fréquences) :

Il y a encore du travail pour que OpenGL soit dans un état acceptable, notamment à cause de quelques bugs bizarres du cycle de vie des fenêtres ; il faut paramétrer une variable d'environnement via un export SAL_FORCEGL=1 pour passer outre la liste noire, mais nous espérons résoudre ceci pendant le cycle de la 4.4.x. Certaines fonctionnalités sont encore en attente et devraient arriver pour la version 4.5. Par exemple un véritable gestionnaire de boucle d'attente par Jennifer Liebel et Tobias Madl ainsi qu'un travail en cours sur le canvas OpenGL (Michael Jaumann) et sur les transitions OpenGL (Stefan Weiberg). Ces travaux sont encadrés par Thorsten Behrens (SUSE).

Visualisateur Mobile / LibreOfficeKit

Le récemment annoncé Android Viewer (Beta) inclut un certain nombre d'éléments invisibles, en particulier l'amélioration de LibreOfficeKit : une façon simple de réutiliser les bienfaits du rendu et du format de fichier de LibreOffice, conçus par Andrzej Hunt et Kohei Yoshida (Collabora) pour créer le rendu par tuiles pour Impress et Calc au moins en version bêta (NdT: le rendu par tuiles consiste à segmenter l’affichage plutôt que de tout faire d’un coup). Vous pouvez en lire plus à propos du travail débuté sur le mode édition pour TDF. LibreOfficeKit est également devenu plus puissant dans l'extraction des méta-données des documents de la base, toujours plus vaste, de formats de fichier que LibreOffice gère, ce qui est important pour l’indexation des données non structurées.

Améliorations du build / de la plateforme Compilations sous Windows 30% plus rapides

Avec le nouveau système de compilation terminé, nous avons examiné son principal problème : le temps de compilation plutôt élevé sous Windows. Un examen et quelques benchmarks ont révélé que l'usage de Cygwin était la cause principale de lenteur et Michael Stahl (Red Hat) a fait en sorte de pouvoir construire LibO 4.4 avec une version native Win32 de GNU make, réduisant le temps total de compilation de près d'un tiers par rapport à un Cygwin de base et accélérant encore plus les re-compilations incrémentales.

Port vers Win64

Une autre amélioration majeure vient de David Ostrovsky (CIB), qui a réalisé un travail important pour terminer le portage Win64. Nous espérons une disponibilité pour la version 4.5 et cela devrait aider significativement, notamment, les utilisateurs Java et ceux ayant de très grosses feuilles de calcul. Jetez un œil à la page wiki Windows 64 bits pour plus de détails. Merci également à Mark Williams pour les travaux délicats de correction sur UNO et à Tor Lillqvist (Collabora) qui a posé les fondations de ce travail.

Travail autour de la qualité du code

Il y a eu beaucoup de travail sur la qualité, l'amélioration de la maintenabilité et la propreté du code. Merci aux quelques 59 commits de corrections d'erreurs cppcheck de Thomas Arnhold, Julien Nabet et Simon Dannner, parmi les commits quotidiens pour compiler sans aucun avertissement -Werror -Wall -Wextra sur beaucoup de plateformes avec des remerciements à Tor Lillqvist (Collabora), Caolán McNamara (Red Hat) et Thomas Arnhold.

Impressionnant Coverity

Nous avons parcouru l’énorme quantité de données analysée avec le "Coverity Scan". En particulier, Caolán McNamara (Red Hat) a réalisé un superbe boulot. Son blog à ce sujet est, comme à l’accoutumée, modeste.

Nous avons désormais une densité de défauts qui approche 0, bien que Coverity introduise de nouvelles vérifications et que le nouveau code commité fasse varier ce chiffre. Nous sommes actuellement à 0,02 c'est à dire, 2 avertissements de vérification statique pour 100 000 lignes. C'est extrêmement bien comparé à la moyenne des projets open source qui se situe à environ 65.

Les commits mentionnant Coverity sont au nombre de 1530 depuis LibreOffice 4.3 avec dans le top 3 des contributeurs après Caolán (1378 commits) : Norbert Thiebaud, David Tardon (Red Hat), Miklos Vajna (Collabora).

Augmentation de l'utilisation d'« asserts »

Dans la version 3.5, nous sommes passés d'un système maison de macros à des appels normaux d'« assert » pour assainir les vérifications d'invariants. Leur nombre augmente au fur et à mesure :

Tests de l'import et maintenant de l'export

Les tests de crash d'importation / exportation de Markus Mohrhard (Collabora) ont été élargis pour couvrir plus de 76 000 documents problématiques contre 55 000 à la dernière version, avec désormais une sélection d'images irrégulières (?) aussi incluse. Une autre grande victoire était la mise à disposition par TDF (merci à nos donateurs) d'une nouvelle machine 64 cœurs pour exécuter le chargement/l'enregistrement/la validation des tests ci-dessus. Ceci, combiné avec quelques retouches et un meilleur parallélisme des scripts Python qui dirige cela, a accéléré l’exécution de tests, réduisant le temps de cinq jours à moins de un, permettant une détection rapide de nouvelles régressions de façon beaucoup plus précise. Nous avons également été en mesure de lancer AddressSanitizer sur une série de documents, ce qui a conduit à plusieurs corrections, merci à Caolán McNamara (Red Hat) pour l'excellent travail effectué.

Greffons / outils d'analyse pour Clang

Nous avons continué à compléter notre collection de greffons Clang : un rapide "git grep" sur Registration dans le dossier "compilerplugins" montre que nous sommes passés de 27 à 38 greffons dans les six derniers mois. Ceux-ci vérifient de tout un tas de façons pleins de trucs piégeux dans notre code dans lesquels les gens peuvent tomber. Certains de ces greffons sont utilisés manuellement, mais beaucoup sont lancés automatiquement sur le Tinderbox et par certains utilisateurs pour trouver les erreurs rapidement. Merci à : Stephan Bergmann (Red Hat) et Noel Grandin (Peralex) pour le dur travail fourni sur ces outils d'analyse.

Les greffons font plein de choses, par exemple, Bjoern Michaelsen (Canonical) en a écrit un qui détecte les imbrications profondes de clauses conditionnelles comme ces monstres. Ils sont difficiles à lire et une plaie à débugguer. Certains des pires cas dans sw/ (NdT: Writer) ont été réécrits et le greffon peut facilement être utilisé ailleurs dans les sources.

Tests unitaires

Nous construisons et exécutons aussi plus de tests unitaires pour éviter les régressions lorsque nous changeons le code. Une recherche grep sur les macros TEST et ASSERT montre que le nombre de tests continue d'augmenter.

L'idéal est d'ajouter un test unitaire à chaque bug corrigé pour l'empêcher de revenir à jamais. Avec environ 1000 commits pour plus de 70 auteurs sur les tests unitaires dans la 4.4, il est difficile de lister toutes les personnes impliquées dans ce travail, mes excuses pour cela. Voici une liste triée des auteurs de plus de dix commits dans les répertoires qa/ : Miklos Vajna (Collabora), Caolán McNamara (Red Hat), Kohei Yoshida (Collabora), Michael Stahl (Red Hat), Stephan Bergmann (Red Hat), Zolnai Tamás (Collabora), David Tardon (Red Hat), Noel Grandin (Peralex), Matúš Kukan (Collabora), Luboš Luňák (Collabora), Markus Mohrhard (Collabora), Tor Lillqvist (Collabora), Thomas Arnhold, Andrzej Hunt (Collabora), Eike Rathke (Red Hat), Jan Holesovsky (Collabora).

Assurance Qualité / Bugzilla

Sur les six derniers mois, l'équipe QA [NDR : pour "quality assurance", assurance qualité] a grandi en taille et en efficacité. Réalisant un travail fantastique pour réduire le nombre de bugs non triés de mille (ce que nous pensions déjà bien) vers à peine plus de trois cents. Le tri de certains de ces bugs étant particulièrement difficiles car assez techniques ou très difficiles à reproduire, c'est un excellent travail. C'est assez difficile d'extraire la liste de ceux qui confirment les bogues, mais la liste des héros se chevauche avec la liste non-développeurs/top clôtureurs donnée ci-dessous.

L'une des métriques que nous regardons dans l'appel ESC est l'appartenance au top dix dans la liste récapitulative hebdomadaire freedesktop. Voici une liste des personnes qui sont apparues plus de cinq fois dans cette liste de ceux qui ont clôturé le plus de bogues (dans l'ordre de fréquence de d'apparence) : Caolán McNamara (Red Hat), Adolfo Jayme, tommy27, Julien Nabet, Jean-Baptiste Faure, Jay Philips, Urmas, Maxim Monastirsky, Beluga, raal, Michael Stahl (Red Hat), Joel Madero, ign_christian, Cor Nouws, V Stuart Foote, Eike Rathke (Red Hat), Robinson Tryon (TDF), Miklos Vajna (Collabora), Matthew Francis, foss, Sophie (TDF), Samuel Mehrbrodt, Markus Mohrhard (Collabora). Et merci à tous les autres d'avoir aidé à fermer autant de bogues pour cette version.

Bjoern Michaelsen (Canonical) a également écrit une « Assurance Qualité du nouvel an » qui vaut le coup d’être lue.

Un autre succès qui devrait nous aider à rendre notre bugzilla plus convivial et mieux structuré est la migration de l'infrastructure FreeDesktop vers TDF, en remerciant FreeDesktop pour avoir pris en charge notre gros bugzilla pendant toutes ces années. Le travail a été récemment terminé, donc désormais les bugs sont à déposer à http://bugs.documentfoundation.org/. Merci à Robinson 'colonelqubit' Tryon (TDF), Tollef Fog Heen et notre équipe d'administrateurs système pour ce travail. Même si cela est peut-être évident, Robinson travaille pour TDF (financé par nos généreux donateurs) à mi-temps pour aider à améliorer la situation côté QA.

Nettoyage de code

Le code sale doit être nettoyé - donc nous avons beaucoup nettoyé.

Nettoyage des commentaires en allemand

Nous avons continué a progresser, mais malheureusement peu, dans la traduction des commentaires allemands persistant dans le code en bon anglais technique précis. C'est un bon moyen de s'investir dans le développement de LibreOffice. Mille mercis à : Philipp Weissenbacher, Christian M. Heller, Jennifer Liebel (Munich), Chris Sherlock (Collabora), Michael Jaumann (Munich), Luc Castermans, Jeroen Nijhof, Florian Reisinger et de nombreux autres avec un seul changement à leur actif. De plus, la diminution des faux positifs signalés par bin/find-german-comments suggère qu'il ne reste que dix modules de premier niveau contenant de l'allemand, parmi eux, neuf méritant des efforts de traduction : i18npool, include, reportdesign, sc, scaddins, sfx2, stoc, svx, sw.

Une des contributions particulièrement encourageante à notre effort de traduction des commentaires allemand a été celle de Lennart Poettering qui semble avoir quelque chose de drôle en préparation.

Mise à jour vers (un peu de) sous-ensemble de C++11

Avec le temps, C++ s'améliore, et avec la mise à jour de Visual Studio, nous avons pu passer à un sous ensemble de C++11 (celui offert par VS2012) en tant que base. Nous avons aussi retiré plusieurs contournements (empêchant des optimisations) de bug présents sur des vieilles versions de GCC (qui de toute façon ne prennent pas en charge C++11), et donc GCC et MSVC peuvent tous les deux désormais compiler l'ensemble de LO avec toutes les optimisations. Merci à Stephan Bergmann (Red Hat) pour la recherche et la gestion de ce travail.

Nettoyage du tokenizer OOXML

Ce nettoyage s'appuie sur le travail de Miklos Vajna (Collabora) dans la dernière version. Un gros morceau de notre tokenizer OOXML était du code généré, ce qui est raisonnable, mais il a été généré en utilisant XSLT (qui a tendance à être en-dessous de cobol). Les 4200 lignes de XLST ont été réécrites en 1300 lignes de Python - pour produire le même résultat avec une forte augmentation de la hackabilité. Puis certaines optimisations ont été réalisées par Jan Holesovsky (Collabora pour CloudOn), pour réduire des parties inefficaces de la sortie générée par writerfilter DSO, faisant ainsi 2,2Mo d'économie sur 8Mo (dépouillé). C'est génial de voir ce genre de nettoyage de code, la taille du code et du binaire se réduisant en même temps. Vous pouvez en lire plus à ce sujet sur le blog de Miklos.

std:: containers

Un ensemble systématique d'améliorations à notre utilisation des conteneurs std:: est en cours dans le code. Des choses comme éviter l'héritage de std::vector, changer std::deque en std::vector et commencer à utiliser les nouvelles constructions C++ pour l'itération comme for (auto& it : aTheContainer) { ... }. Il y a beaucoup de gens à féliciter ici, merci à Stephan Bergmann (Red Hat), Takeshi Abe, Tor Lillqvist (Collabora), Caolan McNamara (Red Hat), Michaël Lefèvre, et bien d'autres.

Amélioration des performances

Les performances font partie de ces éléments assez difficiles à voir, néanmoins on les ressent viscéralement de cette manière : « pourquoi est-ce que je dois encore attendre ? ». Il y a un nombre encourageant d’améliorations de performances faites par différentes personnes dans LibreOffice 4.4 qui valent la peine d'être notées.

Performance de l'auto-correction

Pour des raisons qui me dépassent, certaines personnes aiment avoir d'énormes listes d'auto-correction. Elles sont stockées au format XML zippé. Daniel Sikeler (Munich) a amélioré de façon sympathique le chargement de celles-ci. Il a découvert en particulier que nous réanalysions notre BlockList.xml un grand nombre de fois, et résoudre ce bug a fait une grosse différence. Si on combine cela avec le passage à FastParser qui a été threadé et amélioré, on gagne encore plus. La liste d'auto-correction est chargée après la première touche appuyée, donc descendre de 4,3 secondes à 1,5 secondes (pour des listes énormes de correction) est une belle victoire.

Gestion des images

Tout en profilant la sauvegarde de différents types de fichiers, il a été découvert que nous échangeons fréquemment (i.e. rechargeons et re-décompressons) les images. Cela prend bien évidemment beaucoup de temps CPU, en particulier puisqu'ensuite on continue tout de suite à préserver les données (originales) dans le fichier. Dans certains cas cela prenait une grosse portion du temps de sauvegarde pour des présentations ayant beaucoup d'images. Merci à Tamaz Zolnai (Collabora) pour le nettoyage et la résolution de ce problème, et ainsi que la chasse à ces soucis récurrents de perte d'image.

Fast Serializer

En règle générale, toute classe nommée « Fast » dans le code hérité d'OpenOffice est atrocement mal nommée. Un grand merci à Matus Kukan (Collabora) pour avoir résolu cela. Nous avons découvert que 25% du temps d'enregistrement d'un fichier XLSX composé de grandes feuilles était consommé dans le « FastSerializer », qui, à notre grande stupeur, lance 9.900.000 appels système, chacun écrivant à chaque fois de minuscules fragments d'un attribut XML. Il sépare par exemple les écritures pour les ouvertures des balises, les noms d'éléments, les noms d'attributs, les espaces de noms, etc. Matus a réduit cela à 76.000 appels pour produire le même résultat, soit une baisse de 99%. Abstraction faite de la surcharge d'appels systèmes, nous avons réduit le nombre de cycles CPU cachegrind pour « SaveXML » de plus de douze milliards à moins de trois milliards pour un cas simple.

Empaquetage de libjpeg-turbo

On sait depuis plusieurs années que JPEG-turbo fournit des performances de décompression supérieures - « In the most general terms, libjpeg-turbo is 2.1 - 5.3x as fast as libjpeg v6b and 2.0 - 5.8x as fast as libjpeg v8d ». Naturellement les éditeurs Linux utilisent la ligpjpeg packagée dans leur système, mais quand on distribue pour Windows… Nous fournissons maintenant une accélération x2 sous la forme de libjpeg-turbo. Merci à Matúš Kukan (Collabora) avec quelques nettoyages de Stephan Bergmann (Red Hat). Des volontaires pour intégrer proprement jpeg-turbo sur Mac seraient fortement appréciés.

Performance du publipostage

Le publipostage fonctionne en construisant un énorme document contenant le résultat de tous les courriers à imprimer / fusionner vers un ficher unique. La pertinence est très discutable, mais merci cependant à Lubos Lunak & Miklos Vajna (tous deux Collabora pour Munich) qui ont fait un effort significatif pour accélérer substantiellement les fusions de gros documents, selon les cas de plusieurs ordres de grandeur. Malheureusement OpenOffice.org avait subi une grosse régression à ce propos dans la version 3.3, et ceci est globalement corrigé. On passe de plusieurs heures à quelques minutes pour 2000 enregistrements.

Performance de Calc

Il y a eu un certain nombre de gains de performance sympathiques dans cette version de LibreOffice, qui, une fois cumulés ont un effet assez bénéfique.

Améliorations des dépendances de plages (Range dependency re-work)

Pour les précédentes versions de LibreOffice Kohei Yoshida (Collabora) a passé beaucoup de temps à unifier l'exécution de formules similaires dans FormulaGroups - qui s'étendent tout le long d'une colonne - puisque c'est un cas courant des grands ensembles de données. Cela a permis une réduction importante de l'utilisation mémoire et beaucoup de partage de données. Cependant, la gestion de dépendance était découplée de cette opération et était encore effectuée cellule par cellule.
C'est particulièrement coûteux si vous envisagez une référence de plage qui est commune à tout le groupe de formules : cela aboutit à beaucoup de travail pour pas grand chose, essentiellement pour notifier tout le groupe de formules. Calc 4.4 ajoute un type de Listener qui est adapté pour ces groupes de formules - pouvant potentiellement transformer des dizaines de milliers d'entrées de structure de données complexes en une seule entrée. Cela permet d'économiser des gros bouts de mémoire et beaucoup de temps CPU sur les parcours des listes, il permet aussi d'économiser énormément de temps lors de la diffusion des changements. Il y a encore beaucoup de travail à réaliser pour développer toutes les possibilités de ce changement et, idéalement à l'avenir, nous devrions utiliser la même approche pour les références de cellule. Merci aussi à Eike Rathke (Red Hat) et Markus Mohrhard (Collabora) pour certains correctifs associés.

Détection du type d'écriture d'une cellule

Pour plusieurs raisons, la détection du type d'écriture d'une cellule est une opération coûteuse; est-ce un texte asiatique, un texte simple ou complexe (qui a un effet sur la police, sa taille et différentes métriques). Kohei Yoshida (Collabora) a trouvé que lors de différentes opérations courantes (ex: copier/coller de gros blocs de données) cette détection était répétée inutilement. De même, pour des types de donnée simple avec formatage standard (ex: de grands blocs de nombres à virgules), il était possible de simplifier significativement la détection du type d'écriture.

Différer la régénération des diagrammes

Un autre domaine qui cause (encore) quelques douleurs est qu'à chaque fois qu'une plage de données dont dépend un diagramme change, le diagramme entier est généré à nouveau. Cela implique de détruire de nombreuses formes graphiques et de les recréer, ce qui dans le cas d'un texte coûte particulièrement cher. Kohei Yoshida (Collabora) a implémenté une belle optimisation pour différer ce travail jusqu'à ce que le diagramme soit visible. Cela devrait avoir un effet agréable sur le temps d'édition d'un grand ensemble de données converti en diagrammes dans beaucoup d'autres feuilles comme sur l'exploitation de macros dans beaucoup de diagrammes.

S’impliquer

J’espère que vous comprendrez que de plus en plus de développeurs arrivent et se sentent comme chez eux parmi nous. Nous travaillons ensemble pour réaliser des travaux importants à la fois sous le capot et sur la carrosserie. Si vous voulez vous impliquer, il y a plein de gens compétents à rencontrer et avec qui œuvrer. Comme vous pouvez le constater, les indépendants ont un impact significatif sur la diversité de LibreOffice (la légende de couleurs se lit de gauche à droite, de haut en bas, ce qui représente les couleurs de haut en bas dans le graphique. [NdT: les indépendants, c’est le gros morceau orange au milieu.])

Et en ce qui concerne la diversité des correctifs, nous adorons voir le volume des contributions apportées par les indépendants, même si clairement ce volume et les équilibres changent selon les saisons, les cycles de publication, le temps libre / de travail des volontaires.

Naturellement, nous maintenons une liste de petites ou minuscules tâches sur notre page Easy Hacks dont vous pouvez vous emparer pour vous impliquer dans ce projet, avec des instructions simples d’installation ou de compilation. Il est extrêmement facile de compiler LibreOffice. Chaque « Easy Hack » indique où aller dans le code et représente une tâche simple à résoudre dans un cadre bien restreint. De plus, certaines de ces tâches sont des fonctionnalités vraiment utiles ou des améliorations de performance. S’il vous plaît, envisagez de vous impliquer sur quelque chose.

Autre chose qui aide vraiment : lancer les préversions et rapporter les bogues. Il suffit de télécharger et d’en installer une et vous êtes prêt pour contribuer avec l’équipe de développement.

Conclusion

LibreOffice 4.4 est la prochaine d’une série de versions qui vont améliorer progressivement non seulement les fonctionnalités, mais aussi les fondations de la suite bureautique libre. Ce n’est bien sûr pas encore parfait, c’est juste la première d'une longue série de versions 4.4.x mensuelles, qui apporteront chacune leur lot de correctifs et d’améliorations qualitatives dans les mois à venir, tandis que nous commençons à travailler sur LibreOffice 4.5.

J’espère que LibreOffice 4.4.0 vous plaira. Merci de m’avoir lu, et merci de soutenir LibreOffice. N’oubliez pas de consulter la page des nouveautés visibles.

Les données brutes de la plupart des graphiques ci‐dessus sont disponibles.

Télécharger ce contenu au format Epub

Lire les commentaires

Le projet Libre OS USB a besoin de vous

10 février, 2015 - 21:46

Objectif : offrir un véritable bureau portatif.

L'idée est simple, proposer une clef USB bootable Linux francisée avec persistance des données qui pourra démarrer sur toute machine 64bits, y compris les dernières générations ayant l'UEFI et le Secure Boot.

Sur la clef se trouveront les logiciels les plus courant pour l'utilisation d'Internet, la bureautique, et des jeux classiques.

Le projet est soutenu par la jeune société Libre Expert (SS2L Clermontoise) et peut être encouragé via son espace sur la plateforme Ulule.

Le projet est déjà en version Bêta. Le système sera basé sur Xubuntu avec l'avantage d'être léger, complet et rapide pour être passe-partout.

Sont présents sur la clef entre autres ces logiciels :

  • navigateurs Google Chrome et Firefox préinstallés ;
  • nombreux outils Internet (Skype, Filezilla, Bittorent, Teamviewer…) ;
  • nombreux jeux classiques ;
  • suite bureautique LibreOffice ;
  • lecteur vidéo et musique VLC ;
  • graphisme avec The Gimp et Inkscape ;
  • gravure et extraction de DVD et CD-Audio ;
  • outil de partitionnement avec GParted.
Télécharger ce contenu au format Epub

Lire les commentaires

Backup Checker 1.0, le vérificateur automatisé de sauvegarde

10 février, 2015 - 10:52

Backup Checker est le nouveau nom du projet Brebis, déjà présenté sur LinuxFr.org.

Pour rappel, Backup Checker est un vérificateur automatisé de sauvegarde. Le but de cet outil est de détecter les corruptions, pertes, modifications accidentelles ou intentionnelles des données des archives que nous utilisons habituellement pour nos sauvegardes. Cette vérification s'assure que les archives conservées seront exploitables le jour où vous en aurez besoin. Backup Checker ne créé donc pas d'archive, il les vérifie.

Pour accompagner le développement de ce projet, plusieurs changements importants viennent d'être effectués à l'occasion de cette version, qui sont détaillés dans la suite de cette dépêche.

La liste des changements en question :

  • Brebis se renomme Backup Checker afin de porter un nom plus explicite ;
  • le gestionnaire de versions passe de Mercurial à Git, plus couramment utilisé ;
  • la forge logicielle quitte un Redmine auto-hébergé vieillissant et arrive sur GitHub, plus populaire.

Au niveau de l'application elle-même dans cette version 1.0, il est désormais possible d'effectuer le contrôle du nom du propriétaire et du nom du groupe propriétaire d'un fichier dans une archive ou une arborescence de fichiers.

Ces fonctionnalités s'ajoutent aux changements apportés pour la récente dernière version 0.10 de Brebis publiée il y a 9 jours, à savoir :

  • par défaut la somme de hachage de chaque fichier de l'archive n'est plus évaluée, car ce comportement était très pénalisant sur les grosses archives ;
  • le comportement d'origine est toujours possible via la nouvelle option --hashes ;
  • il est désormais possible de calculer la somme de hachage de seulement certains fichiers d'une archive via l'option --exceptions-file qui prend en entrée une liste des fichiers à évaluer dans ladite archive, permettant ainsi de bien meilleures performances dans le traitement des archives de taille importante ;
  • la documentation du projet est désormais disponible sur Readthedocs.

Comme d'habitude, les membres du projet sont friands de retour de nos utilisateurs. N'hésitez pas à vous manifester dans les commentaires de cette dépêche, via les rapports de bugs de GitHub ou en contactant directement l'auteur.

Télécharger ce contenu au format Epub

Lire les commentaires

Revue de presse de l'April pour la semaine 6 de l'année 2015

10 février, 2015 - 00:56

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[L'OBS] La censure d'internet en France commence aujourd'hui

Par Boris Manenti, le vendredi 6 février 2015. Extrait:

Le gouvernement a adopté un décret prévoyant de bloquer les sites djihadistes et pédopornographiques, sans passer par la case justice.

Lien vers l'article original: http://tempsreel.nouvelobs.com/attentats-charlie-hebdo-et-maintenant/20150206.OBS1866/la-censure-d-internet-en-france-commence-aujourd-hui.html

Et aussi:

[01net.] Le chiffrement open source GnuPG, sauvé in extremis par les dons des internautes

Par Gilbert Kallenborn, le vendredi 6 février 2015. Extrait:

Tenue à bout de bras par un seul développeur, cette technologie essentielle pour la protection des communications sur Internet risquait de tomber aux oubliettes.

Lien vers l'article original: http://www.01net.com/editorial/644468/le-chiffrement-open-source-gnupg-sauve-in-extremis-par-les-dons-des-internautes

Et aussi:

[GinjFo] Windows 10 gratuit, Linux en danger?

Par Jérôme Gianoli, le mercredi 4 février 2015. Extrait:

L’annonce de Microsoft d’offrir Windows 10 peut-elle mettre en danger les distributions Linux pour PC?

Lien vers l'article original: http://www.ginjfo.com/actualites/logiciels/windows-10-gratuit-linux-en-danger-20150203

[La Tribune] L’Agence du numérique, mini budget, ambition extra large

Par Delphine Cuny, le mercredi 4 février 2015. Extrait:

Cette nouvelle agence, dont le décret de création vient d'être publié, regroupera la mission Très haut débit, la délégation aux usages de l’Internet et la mission French Tech de soutien aux startups. Un assemblage disparate et un budget réduit au service d’une vision inclusive et très large du «numérique pour tous.»

Lien vers l'article original: http://www.latribune.fr/technos-medias/20150204triba4f3e7151/l-agence-du-numerique-mini-budget-ambition-extra-large.html

Et aussi:

[Le Point] Tristan Nitot: "Si on renonce à nos libertés, les terroristes ont gagné"

Par la rédaction, le mardi 3 février 2015. Extrait:

Le patron de Mozilla en Europe va quitter son poste à la mi-février. Tristan Nitot, qui avait fondé la branche européenne de l'éditeur du navigateur libre Firefox avant d'en devenir un cadre mondial, souhaite se consacrer à l'écriture d'un livre sur la surveillance de masse dont sont victimes les citoyens, notamment en France. "Aujourd'hui, il y a une certaine résignation de la part des citoyens, qui pensent qu'ils ne peuvent rien faire, mais c'est faux, on peut commencer à faire quelque chose", nous a-t-il confié mardi matin par téléphone.

Lien vers l'article original: http://www.lepoint.fr/chroniqueurs-du-point/guerric-poncet/tristan-nitot-quitte-mozilla-et-denonce-le-flicage-des-citoyens-03-02-2015-1901955_506.php

Et aussi:

[Numerama] Droits d'auteur sur un logiciel: l'entreprise n'est jamais l'auteur

Par Guillaume Champeau, le mardi 3 février 2015. Extrait:

Dans un arrêt du 15 janvier 2015, la Cour de cassation a marqué le principe selon lequel un auteur d'un logiciel ne peut pas être une personne morale, mais nécessairement une ou plusieurs personnes physiques. L'entreprise n'est que propriétaire du logiciel et investie des droits.

Lien vers l'article original: http://www.numerama.com/magazine/32102-droits-d-auteur-sur-un-logiciel-l-entreprise-n-est-jamais-l-auteur.html

[ZDNet France] Dataporn, Snowden et autres autocollants: un projet d'"album Panini" pour libristes

Par Thierry Noisette, le samedi 31 janvier 2015. Extrait:

Les geeks libristes sont nombreux à décorer leurs ordis et leur environnement de stickers militants ou clin d'oeil. L'association Lorraine Data Network (LDN) lance un projet d'album pour les collectionner.

Lien vers l'article original: http://www.zdnet.fr/actualites/dataporn-snowden-et-autres-autocollants-un-projet-d-album-panini-pour-libristes-39813952.htm

[l'Humanité.fr] Logiciel libre et ESS, une économie à l’intention de tous

Par Pierric Marissal, le mardi 3 février 2015. Extrait:

Le logiciel libre propose des outils de travail en adéquation avec les valeurs et convictions de l’économie sociale et solidaire.
Mais les deux mouvements ont encore beaucoup à s’apporter et à apprendre l’un de l’autre.

Lien vers l'article original: http://www.humanite.fr/logiciel-libre-et-ess-une-economie-lintention-de-tous-564379

Et aussi:

Télécharger ce contenu au format Epub

Lire les commentaires

Soirée Linux-Alpes le 19 février 2015 à Digne-les-Bains - dessin sur ordinateur

9 février, 2015 - 10:56

Comme à son habitude, Linux-Alpes organise chez Xsalto à Digne-les-Bains une soirée consacrée à Linux et aux logiciels libres. La prochaine aura le 19 février 2015 et débutera à 20h.

Ce mois-ci, le graphisme et le dessin seront à l'honneur. Tablettes graphiques sous Linux, logiciels libres Mypaint, Krita et Gimp pour dessiner en toute liberté.

Comme toujours, cette soirée sera l'occasion pour tous de poser vos questions, et d'échanger autour du logiciel libre et de Linux.

Télécharger ce contenu au format Epub

Lire les commentaires

"Nos oignons" fournit 500 Mbits/s en plus pour le réseau Tor

8 février, 2015 - 23:46

Un an après les premiers nœuds ouverts par Nos oignons, nous avons lancé un nouveau nœud, hébergé chez l'association toulousaine Tetaneutral.

Ce nouveau relai, opérationnel depuis le samedi 15 novembre 2014, va progressivement monter en charge jusqu'à atteindre sa capacité théorique de 500 Mbits/s.

Nous l'avons nommé Marylou en référence au personnage du roman l'oiseau d'Amérique de Walter Tevis. Marylou rejoint donc les trois autres nœuds mis en place par Nos oignons.

Pour limiter l'encombrement et la consommation électrique, nous avons mis en œuvre Marylou sur un boîtier Intel NUC I5-4520, 8 Go de RAM DDR3 so-dimm, et un SSD Crucial M500 de 120 Go.

Merci à toutes celles et tous ceux qui ont permis de rendre possible sa mise en œuvre.

Grâce aux cotisations des membres et aux nombreux dons reçus, l'association a maintenant assez de trésorerie pour assurer ses services pendant six mois.

Nous voulons déployer des nœuds de sortie supplémentaires et chaque nouveau don compte. Participez pour aider au développement de Tor en France et défendre les libertés des communications électroniques !

Télécharger ce contenu au format Epub

Lire les commentaires

GnuPG utilisé, GnuPG oublié, mais GnuPG financé

7 février, 2015 - 23:24

Il s'est passé quelque chose d'assez extraordinaire ces derniers jours pour GnuPG, alors j'aimerais en parler pour que tout le monde soit au courant.

Sommaire Historique L'origine

C'est en 1991 que Philip Zimmerman (rien à voir avec le français Jérémie) écrit PGP, un logiciel permettant de chiffrer et déchiffrer les conversations entre personnes. À ma connaissance (et Wikipedia ne m'aide pas là-dessus) il n'existait pas de logiciel disponible au grand public permettant de le faire; il s'agissait donc d'une petite révolution, d'autant plus que le logiciel était gratuit, donc utilisable par tout le monde sans restriction.

L'enquête

Cela lui a d'ailleurs valu une enquête en 1993 par le gouvernement américain, parce que la "force" du chiffrement (128 bits minimum) était supérieure à la "force" maximale autorisée (40 bits à l'époque), enquête qui s'achève en 1996 sans suite (lire l'anecdote croustillante sur la technique utilisée par Philip pour contourner cette loi…)

Les évolutions jusqu'à la gloire

Après l'enquête, Philip a monté une boîte pour continuer le développement de PGP. Problème, certains algorithmes (RSA, par exemple) étaient couverts par des brevets, il y avait donc un risque de se faire attaquer en utilisant le logiciel… Philip a donc, avec sa boîte, proposé une spécification ouverte du fonctionnement de PGP sans aucun algorithme couvert par ces brevets, aboutissant à OpenPGP (je référence volontairement la dernière version, pas la version originale), une RFC tout ce qu'il y a de plus standard pour rester dans la transparence. Quelque temps après Stallman a fait une conférence en Allemagne, dans laquelle il a appelé tout le monde à créer une implémentation libre de ce protocole… ce qu'a fait un certain Werner Koch, présent dans l'assistance ce jour-là. C'est ainsi que GnuPG est né.

Les événements récents

GnuPG aura donc 18 ans cette année, et il aura vécu une vie assez tourmentée. Werner a lutté, plus ou moins seul, année après année pour maintenir un logiciel (qui est devenu un ensemble de logiciel) fonctionnel, gratuit, libre, le tout en vivant de dons et de contrats temporaires. Pas la joie. Il s'est même un jour posé la question d'arrêter, puis Snowden est arrivé avec ses révélations lui donnant le courage de continuer, et même de lancer une campagne de financement… qui lui rapportera au final même pas de quoi continuer pendant une année (~18 000 euros).

Son histoire et ses déboires sont racontés dans un article de propublica au titre quelque peu provocateur mais efficace: on y apprend que Werner a porté ce projet à bout de bras depuis le début et que le manque d'argent n'avait pas réussi à ébranler sa motivation, jusqu'à récemment.

Article publié le 5 février avec la discussion Hacker News associée dans la même journée. À ce moment-là le compteur de dons de GnuPG en est à même pas 40 000 euros, alors que la page explique qu'il faut au moins 120 000 euros pour payer les deux développeurs à temps plein nécessaire pour le bon fonctionnement de GnuPG. Mais grâce au passage sur HN, on assiste à quelque chose qui fait chaud au coeur:

  • la barre se remplit en même pas une journée.
  • la Core Infrastructure Initiative décide de donner 60 000 dollars à GnuPG (note: le contrat était signé avant l'article, mais divulgué seulement après)
  • Facebook et Stripe décident chacun de verser 50 000 dollars chaque année à GnuPG
La Core Infrastructure Initiative

Petit aparté: cette Initiative a été montée suite à Heartbleed par quelques grandes boîtes qui ont voulu payer pour assurer la survie de protocoles ultra-importants pour la sécurité: NTP, OpenSSH et OpenSSL. Il semble qu'ils ne considèrent pas GnuPG comme une brique importante de sécurité (privacy, peut-être, mais pas sécurité) ce qui l'empêche d'être inclus dans les bénéficiaires, mais heureusement pour tout le monde ils ont fait une exception temporaire ici.

La suite

Tout va bien dans le meilleur des mondes, donc: GnuPG est financé pour plus d'une année ! Mais est-ce que tout va vraiment bien ? Il aura fallu un nombre d'années de galère et un article évoquant presque la fin de GnuPG pour que les gens se bougent et donnent suffisamment (il y avait quand même eu une campagne de dons juste avant!). On se rappellera :

Tout s'est bien fini à chaque fois, mais est-ce qu'il y a vraiment besoin de pousser une gueulante, au point de menacer de fermer si les gens ne paient pas ? N'y a-t-il pas un moyen suffisamment simple pour connecter ceux qui demandent et ceux qui sont prêts à donner ne serait-ce que 10 euros par an ? J'ai pas eu l'occasion de bien tester Flattr, mais ça m'a l'air d'être une bonne chose pour les gens qui ont la flemme de sortir leur CB pour donner une petite somme, ou pour les créateurs qui ne veulent pas passer la moitié du peu de temps qu'ils ont dans de l'administration de comptes et de paiements. Je sais pas s'il y a des alternatives (notamment je sais que les associations préfèrent des abonnements réguliers aux dons ponctuels, parce que ça leur permet de prévoir et de planifier), mais on dirait que c'est quelque chose qui manque.

En bref, encore un projet sauvé par la générosité des internautes, mais combien de temps ce système pourra-t-il tenir ?

Note: Ce contenu est placé sous licence CC0

Télécharger ce contenu au format Epub

Lire les commentaires

NSA - À propos de BULLRUN

5 février, 2015 - 15:34

Voici la suite des « études » des leaks (fuites) de Snowden menées pour NSA-Observer. Dans cet article, nous allons revenir sur les révélations du Spiegel datant de fin décembre lors du 31c3 (Chaos Computer Congress) et du 17 janvier 2015 portant sur les moyens offensifs de la NSA ainsi que d'autres agences concernant la cryptographie.

La conférence « Reconstructing narratives » de Laura Poitras et Jacob Appelbaum présentant ces documents est visible ci-dessous (mais aussi sur le site du CCC) :

BULLRUN, qu'est ce que c'est ?

BULLRUN est un « programme » de la NSA exploitant différents moyens pour accéder à du contenu chiffré. Le New York Times avait abordé le sujet fin 2013 dans son article « Secret Documents Reveal N.S.A. Campaign Against Encryption » mais sans aucun détail (comme The Guardian ou encore propublica).

Sommaire Historique

On savait, à l'époque, que l'on pouvait distinguer en simplifiant trois méthodes utilisées par la NSA utilise pour pouvoir accéder à du contenu chiffré. La première méthode utilise les mathématiques, c'est-à-dire trouver de nouvelles méthodes pour réussir à casser un algorithme (par exemple pour « casser » RC4).

La deuxième méthode permet « simplement » d'accéder aux clés privées de la cible (pouvant être aussi bien une personne qu'une multinationale) ou aux informations demandées. On arrive là dans un ensemble d'autres programmes, un des plus secrets de la NSA (classification est « CORE SECRETS »). On trouve dans les documents, que les agents peuvent être sous couverture dans une entreprise (qu'elle soit américaine ou étrangère), ou encore que le programme TAREX (pour TARget EXploitation) conduit des opérations clandestines aussi bien SIGINT (renseignement d'origine électromagnétique) qu'HUMINT (renseignement humain) partout dans le monde pour exploiter des systèmes via différents moyens : « off net-enabling » (activité clandestine ou sous couverture sur le terrain), « supply chain-enabling » (modifier des équipements directement dans la chaîne logistique ou via le détournement de livraisons) et « hardware implant-enabling » qui semble regrouper un peu des deux précédents.

Les États-unis ne sont évidemment pas obligés de passer par ce genre d'opérations pour obtenir ce qu'ils veulent de leurs entreprises, il existe le « Foreign Intelligence Surveillance Act » (FISA) et les « lettres de sécurité nationale » qui sont des requêtes contraignantes et qui peuvent obliger une entreprise à permettre un accès à quelque chose en ayant l'obligation de ne pas en parler.

Ainsi, en 2013, l'entreprise Lavabit décida de fermer plutôt que de donner sa clé privée SSL/TLS au FBI, le tribunal la menaçait d'une amende de 5000 € par jour de retard. Lavabit hébergeait les mails d'Edward Snowden parmi ses 400 000 utilisateurs.

En 2008, Yahoo a été menacé d'une amende de 250 000 $ par jour de retard s'il ne donnait pas des données d'utilisateurs à la NSA.

La troisième méthode consiste à mettre en place ou profiter d'une mauvaise implémentation, comme le générateur de nombre aléatoire Dual_EC_DRBG, qui pourrait permettre, par exemple, de lire des flux SSL/TLS. Une méthode complémentaire consiste à payer une entreprise pour qu'elle utilise quelque chose en particulier, la NSA a payé 10 millions de dollars à l'entreprise RSA, pour utiliser Dual_EC_DRBG dans certains de ses produits (comme BSAFE).

Ainsi, la NSA (et sans doute les autres agences) a activement travaillé à insérer des vulnérabilitées dans des produits commerciaux, des réseaux (par exemple en se connectant à un routeur pour diminuer la crypto d'un VPN), des protocoles (vous pouvez lire les spéculations de John Gilmore sur la NSA et IPsec) ou directement sur des périphériques de cibles.

Le New York Times rapporte qu'en 2006, la NSA avait réussi à pénétrer les communications de trois compagnies aériennes, un système de réservation de voyages, un programme nucléaire d'un gouvernement étranger en craquant les VPNs les protégeant, et en 2010, EDGEHILL (l'équivalent Britannique de BULLRUN) avait réussi à "déchiffrer" le traffic de 30 cibles.

À propos de configurations

Pour ce que l'on en sait, il suffit d'une bonne configuration pour résoudre la majorité des problèmes (à noter tout de même : les documents datent de 2012, et énormement de choses ont pu changer depuis (Heartbleed, Poodle, nouvelles failles, etc).

SSL/TLS

Le cryptographe Matthew Green a fait un article sur les différents moyens que la NSA a pour "casser" SSL/TLS. Selon lui, la NSA peut utiliser plusieurs méthodes :

Bonnes pratiques :
  • dans la mesure du possible, centraliser la configuration SSL/TLS pour un logiciel sur le serveur : pour Apache 2, par exemple, vous pouvez mettre votre configuration (SSLCipherSuite…) dans /etc/apache2/mods-available/ssl.conf (pour Debian et ses dérivées), cette conf sera alors active pour l'ensemble de vos vhosts, et il faudra donc la changer uniquement en cas de besoin (et non vhost par vhost, au risque d'en oublier) ;
  • disposer d'une clé RSA égale ou supérieure à 2048 bits ;
  • utiliser des courbes elliptiques ;
  • activer Forward Secrecy ;
  • utiliser SSLHonorCipherOrder on ;
  • enlever les algorithmes de chiffrement faibles, obsolètes, voire dangereux (par exemple DES et RC4) ;
  • ne plus utiliser SSLv3, et s'assurer par la même occasion que SSLv2 est bien mort et enterré (SSLProtocol all -SSLv2 -SSLv3 pour Apache2 par exemple), TLSv1 est aujourd'hui le minimum acceptable ;
  • désactiver la compression, pour éviter l'attaque CRIME.

Pour vous aider dans la configuration de votre serveur web, vous pouvez utiliser le site JeVeuxHTTPS, et bien entendu le désormais célèbre SSL Labs qui permet de tester sa configuration.

Des outils comme sslscan, xmpp.net (XMPP/Jabber), StartTLS.info (mails) peuvent aussi être utiles.

SSH

La seule trace du terme backdoor dans les documents à propos d'openSSH est en fait un rootkit, ce qui signifie qu'il FAUT avoir réussi à rentrer dans le serveur et à être root pour pouvoir modifier le binaire et permettre l'accès à une clé ou à un mot de passe. À noter que cette modification empêche de voir les connexions « pirates » de ces comptes dans les logs.

Un problème concernant SSH pourrait être l'utilisation d'algorithmes de chiffrement obsolètes. Vous pouvez vérifier ceux proposés par votre serveur avec la commande ssh -vvv pour vous connecter. Une connexion sur un serveur donne quelque chose ressemblant à ceci comme résultat :

ssh -vvv skhaen@exemple.com [...] kex_parse_kexinit: ssh-rsa,ssh-dss kex_parse_kexinit: aes128-ctr,aes192-ctr,aes256-ctr,arcfour256,arcfour128,aes128-cbc,3des-cbc,blowfish-cbc,cast128-cbc,aes192-cbc,aes256-cbc,arcfour,rijndael-cbc@lysator.liu.se kex_parse_kexinit: hmac-md5,hmac-sha1,umac-64@openssh.com,hmac-sha2-256,hmac-sha2-256-96,hmac-sha2-512,hmac-sha2-512-96,hmac-ripemd160,hmac-ripemd160@openssh.com,hmac-sha1-96,hmac-md5-96 [...]

Arcfour est en fait un autre nom de RC4, qui pour le coup est cassé depuis un moment. La version 6.7 d'OpenSSH le supprime, et Microsoft recommande de le désactiver depuis 2013.

Pour améliorer la configuration de votre serveur SSH (il n'y a pas que le choix des algorithmes de chiffrement), vous pouvez vous référer aux trois articles ci-dessous. Faites très attention avant toutes modifications, elles peuvent vous empêcher de vous (re)connecter à votre serveur !

IPSec

Concernant IPSec et comment mieux le configurer, vous pouvez vous référer à l'article de Paul Wouters « Don’t stop using IPsec just yet » (en espérant que le problème se trouve bien là).

On peut résumer cet article en deux principales recommandations :

  • utiliser Perfect Forward Secrecy : pfs=yes ;
  • éviter les PreSharedKeys : authby=secret.
Je peux utiliser quoi alors ?

Il ne faut surtout pas tomber dans le piège « on est tous foutus, rien ne marche, on ne peut rien faire » : ce n'est absolument pas le cas. Dans les bonnes nouvelles, nous avons aussi la preuve que Tor, OTR, GPG, TAILS et Redphone sont sûr (du moins en 2012 ;-)).

  • Trivial : suivre le parcours d'un document sur Internet ;
  • mineur : enregistrer un chat privé sur Facebook ;
  • modéré : décrypter un email envoyé via le service de messagerie russe mail.ru ;
  • majeur : utiliser des services comme Zoho (?), Tor, TrueCrypt ou OTR ;
  • catastrophique : utiliser plusieurs protocoles en même temps, par exemple faire passer de la VoIP utilisant ZRTP par le réseau TOR, le tout à partir d'un ordinateur sous Linux.

On notera avec beaucoup d'intérêts qu'il n'y a aucune trace de logiciels commerciaux (bitlocker…) dans les documents.

  • Tor est un logiciel libre qui, grâce à une technique de routage en oignon, permet d’anonymiser les connexions sur Internet ;
  • OTR permet de chiffrer des communications, en particulier sur XMPP/Jabber, ne pas hésiter à l'utiliser avec du SSL/TLS par dessus.

  • GPG permet de chiffrer un mail, un fichier ou un dossier entier ; il permet aussi de signer un fichier (ou un mail) pour s'assurer de son authenticité.

  • TAILS est un système d'exploitation live, que vous pouvez démarrer, sur quasiment n'importe quel ordinateur, depuis un DVD, une clé USB, ou une carte SD. Son but est de préserver votre vie privée et votre anonymat, et de vous aider à utiliser Internet de manière anonyme et contourner la censure (toutes les connexions sortantes vers Internet sont obligées de passer par le réseau Tor).
  • Redphone est une application pour Android qui permet d'avoir des conversations chiffrées (on peut aussi s'intéresser à Textsecure, application Android de la même entreprise pour chiffrer les SMS).

Dans un autre document, le logiciel Truecrypt est aussi considéré comme « solide », il ne reste plus qu'à attendre que son fork soit prêt pour enfin pouvoir le réutiliser.

Le point commun de tous ces logiciels ? Ce sont des logiciels libres.

Les documents sont disponibles sur le site du Spiegel :

Télécharger ce contenu au format Epub

Lire les commentaires