Syndiquer le contenu
Mis à jour : il y a 2 heures 13 min

Sortie de Xen Orchestra 3.7, interface web pour Xen

8 mars, 2015 - 01:38

Une introduction à l'interface web pour Xen a déjà été réalisée ici-même.

Après plusieurs mois de gestation, voici donc la version 3.7 de Xen Orchestra, qui est -entre autres- une interface web pour gérer ses serveurs Xen (XenServer ou Xen avec la toolstack XAPI).

Celle-ci apporte de nombreuses nouveautés, aussi bien sur les fonctionnalités classiques que l'on peut attendre d'un outil d'administration, mais aussi d'autres qui commencent à ouvrir des possibilités de délégation de ressources (machines virtuelles).

Pour rappel, XenServer est une distrubution « clef en main » basée sur une CentOS, avec Xen et sa XAPI configurée. Cette API est très complète et souvent méconnue en terme de fonctionnalités, car originalement exposée via XenCenter, un outil de gestion en .NET qui ne fonctionne que sous Windows.

Plus d'infos en seconde partie de cette depeche.

Nouveautés Délégation de ressources

Première étape dans la délégation de ressource, et sous la forte pression de la communauté, car de loin la plus attendue et demandée. L'objectif est simple, il existe deux types d'utilisateurs :

  • les administrateurs, qui peuvent tout voir et tout faire
  • les utilisateurs, qui ne voient rien par défaut et auxquels il faut attribuer des objets (machines virtuelles, stockages etc.)

Très utile pour déléguer à votre équipe de développeurs la possibilité d'accéder à la console, redémarrer, faire des instantanés et revenir en arrière etc.

Le processus est simplifié au maximum, comme le montre cette vidéo, avec l'utilisateur "john" qui ne peut voir que sa machine attribuée :

Bien entendu, l'étape suivante est une connexion à un annuaire (OpenLDAP, AD ou autre LDAP) et la gestion d'ensemble de personnes (groupes) et de permissions (rôles).

Migration à chaud de machines virtuelles sans stockage partagé

La migration à chaud classique est connue : deux hôtes ayant un disque partagé (NFS ou iSCSI) peuvent s'échanger des machines virtuelles, il n'y a que la mémoire vive à déplacer entre eux.

Mais la XAPI permet de faire mieux : déplacer à chaud les disques sous-jacents de la machine virtuelle, puis la RAM, le tout sans interruption ! Le fameux Xen Storage Motion qui permet de littéralement promener votre machine où bon vous semble, sans être limité par des ressources partagées.

Dans Xen Orchestra, la manipulation est triviale : migrer la machine virtuelle sur l'hôte de votre choix. Si jamais le système détecte qu'il n'y a pas de stockage partagé, il vous propose de migrer le disque avec. C'est tout !

de disques

Cette fonctionnalité est aujourd'hui exposée et très simple à utiliser : sur la vue de votre la machine virtuelle, éditez les disques, et changez sur quel Storage ils se trouvent.

Exemple concret : votre machine virtuelle possède un disque qui est attaché à un SAN iSCSI. Vous souhaitez migrer vers un nouveau SAN plus rapide (à base de SSD par exemple), mais sans arrêter celle-ci. Eh bien, sélectionnez le nouveau SAN dans le menu déroulant des stockages disponibles pour cette machine, et le tour est joué !

Exemple en vidéo d'une migration d'un disque sur un stockage distant en iSCSI vers le stockage local de la machine (un SSD) :

Ajouter des stockages

Cette fonctionnalité n'était pas présente dans les versions précédentes de Xen Orchestra. Dorénavant, vous pouvez ajouter des Storage Repositories depuis l'interface web. Le système détecte si ces stockages ont servi par le passé pour stocker des machines virtuelles au format de XenServer : le cas échéant, vous n'avez plus qu'à le rattacher sans le formater. Vidéo de démonstration

Gestion des consoles virtuelles en HTTPS

Un gros travail a été réalisé pour remédier à certaines limitations inhérentes aux consoles virtuelles dans XenServer. Pour cela, a été implémenté un système de proxy, qui non seulement est plus sécurisé, mais permet aussi de résoudre des limitations à cause d'un NAT ou de certains pare-feu.

Affichage des tâches actives

Cet ajout permet de savoir exactement quelles sont les tâches en cours sur votre infrastructure : migration, copie de disques, importations etc. avec leur progression respective. Un grand pas en avant en terme de confort d'utilisation. Ces tâches sont visibles dans la barre de navigation, elles sont donc accessibles à tout moment sur toutes les vues.

Divers

D'autres fonctionnalités mineures sont aussi de la partie, comme :

  • l'ajout de Suspend/Resume pour les machines virtuelles (comme une hibernation)
  • divers changements d'interface pour une meilleure convialité
  • plus d'informations importantes remontées
  • et d'autres encore.

L'article original (en anglais) est plus détaillé.

Téléchargement

Comme d'habitude, deux solutions :

  • utiliser XOA, une machine virtuelle avec Xen Orchestra installé dedans, au format XVA (que l'on peut importer directement dans la XAPI, soit via XenCenter, la ligne de commande XE ou encore une version précédente de Xen Orchestra), disponible sur le site du projet Xen Orchestra
  • ou l'installer manuellement via les dépôts Git du projet : l'un pour la partie serveur du logiciel, xo-server, et l'autre xo-web pour la partie… web !
Télécharger ce contenu au format Epub

Lire les commentaires

Textsecure : les SMS et MMS chiffrés, c'est fini

7 mars, 2015 - 19:40

C'est une mauvaise nouvelle qui vient à nous ce soir concernant TextSecure, l'application Android permettant d'échanger des SMS et MMS de façon chiffrée. Il faut savoir que TextSecure permet trois choses : envoyer des SMS/MMS non chiffrés comme le ferait une autre application classique, envoyer des SMS/MMS chiffrés en passant par le réseau mobile et envoyer des messages chiffrés en passant par le réseau Internet.

Aujourd'hui, les développeurs annoncent qu'ils arrêtent le support de la partie SMS/MMS chiffrés à partir de la prochaine version (2.7.0) .

    Pourquoi ?

    Les raisons évoquées sont les suivantes (traduction quasi-directe) :

    • l'envoi des SMS/MMS chiffrés ne peut se faire de façon transparente : les utilisateurs doivent manuellement créer un premier échange de clés. Le problème est que les gens ne savent pas tous ce que représente réellement "une clé", ce qui rend moins efficace ce genre de solution.
    • l'arrivée de la compatibilité iOS : avec Signal, iOS se voit disposer d'une solution compatible avec TextSecure. Cependant, iOS ne possède pas d'API qui permet à Signal d'envoyer/recevoir des SMS programmés rendant impossible la lecture des SMS chiffrés. Cela peut donc perturber les utilisateurs.
    • SMS et MMS sont un désastre concernant la sécurité : aucune métadonnée ne peut passer autrement qu'en clair sur le réseau mobile. Ainsi, tous les réseaux télécoms sont capables d'intercepter les SMS et d'en examiner les métadonnées, révélant beaucoup trop d'informations même si le contenu est indéchiffrable. Les développeurs ne veulent pas avoir mauvaise conscience en sachant que des gouvernements peuvent oppresser des dissidents qui utilisent ce genre de solution.
    • paranoïa sécuritaire : en voulant se focaliser sur la sécurité des SMS et MMS, les développeurs n'ont plus de temps à accorder au développement de TextSecure afin de la rendre meilleure.

    C'est l'ensemble de ces sus-citées raisons qui poussent Open WhisperSystems à abandonner le support des SMS/MMS chiffrés (via le réseau mobile).
    Il est vrai que la façon dont sont conçus les SMS/MMS ne permet pas de conserver un minimum de vie privée et de sécurité : les métadonnées des SMS/MMS peuvent très souvent suffire à en savoir beaucoup sur le contenu du message qui transite, ce qui reste gênant.

    Du coup, que puis-je faire ? Je trouvais ça cool, TextSecure !

    Oui, moi aussi. Mais il est vrai que vouloir sécuriser (et conserver sa vie privée avec) les SMS/MMS est peine perdue.
    Cependant, TextSecure permet l'envoi de messages via le transport TextSecure, qui lui protège les métadonnées. Bon, c'est pas aussi pratique que les SMS/MMS car il faut avoir une connexion internet active (Wifi ou bien Data), mais ce n'est pas ce qui manque de nos jours (enfin dans certains pays c'est plus compliqué).

    En espérant que TextSecure continuera de fournir les SMS/MMS chiffrés sans accorder de support, ou qu'un fork naisse. En tous cas, merci aux devs d'avoir donné de leur temps, en cette ère post-Snowden !

    source

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Le mkframework, découvrez un framework php très différent

    7 mars, 2015 - 19:39

    Il existe aujourd'hui beaucoup de frameworks php, mais un seul d'entre eux se différencie par sa rétrocompatibilité. Contrairement aux autres frameworks qui n'hésitent pas à changer de version en obligeant leurs utilisateurs à repasser sur l'ensemble des applications pour les "migrer" vers la nouvelle version, le mkframework, lui, est rétro compatible depuis sa publication en 2009

    Il continue d'évoluer en restant compatible avec l'ensemble des applications l'utilisant depuis son lancement.

    Ce framework est opensource, hebergé par le site developpez.com et proposé sous licence LGPLv3. Il est également disponible sur github et via composer

    Une prise en main facilitée Un générateur web

    La courbe d'apprentissage des frameworks est souvent un frein à leur utilisation. Ici, grâce à un générateur web, vous pouvez en seulement quelques clics avoir une base utilisable pour votre application.

    En effet le générateur web vous permet par exemple de

    • générérer la couche modèle
    • générer un module CRUD[1]
    • générer une gestion d'authentification
    • ajouter une gestion de droits à votre application
    Des vidéos d'explication

    Pour faciliter la prise en main, une vingtaine de vidéos montrent comment utiliser le framework.
    Les utilisateurs peuvent également proposer des idées de vidéos.

    De nombreux articles et tutoriaux

    Vous pouvez retrouver des tutoriaux sur developpez.com, openclassrooms.com mais également dans le magazine papier PROGRAMMEZ.

    Des tutoriaux plus ou moins complexes permettant aussi bien de découvrir le framework que de developper un réseau social, un twitter-like par exemple, et ceci très facilement.

    Une gestion modulaire à sa création

    Ce framework utilise des modules depuis 2009 quand d'autres les ont seulement implémenté depuis 1 ou 2 ans, en effet on peut imbriquer/moduler ses développements très facilement et ainsi capitaliser sur son travail. Quelques modules sont téléchargeables sur le site, permettant simplement d'utiliser Google Maps ou de générer des tableaux avec la librairie Guriddo, …

    La sécurité au coeur du framework

    Travaillant régulièrement avec des cabinets d'audits de sécurité, j'ai intégré les mesures conseillées par ces cabinets au framework au fil des années.
    Il y a même une page consacrée sur le sujet: http://mkframework.com/security.html

    Conclusion

    L'essayer c'est l'adopter: même si la formule est un peu facile, la plupart des utilisateurs actuels reconnaissent que ce framework les a conquis dès le départ contrairement à d'autres qui leur paraissaient plus difficiles à prendre en main.

    [1] tableau de listage + formulaires d'ajout/modification/suppression d'enregistrements

    Télécharger ce contenu au format Epub

    Lire les commentaires

    [L'informatique de demain] 1. Introduction : les types d'ordinateurs

    7 mars, 2015 - 17:41

    Julien.D se lance dans une série « L'informatique de demain ». Cet article est le premier de la série, il sert d'introduction et présente les différents types d'ordinateurs actuels et futurs avec leurs caractéristiques, leurs avantages, leurs inconvénients et leurs tendances dans les années à venir. Au fil de l'épisode on ira de l'informatique personnelle du passé (les ordinateurs fixes et les portables), à celle du présent (les ordinateurs tout en un, mini ou nano, les tablettes et les ordiphones) et jusqu'à celle du futur (ordinateurs autour de nous et en nous).

    La série L'informatique de demain a objectif de faire le point sur l'informatique, principalement personnelle, ses avancées ces dernières années et faire des hypothèses pour l'avenir. Le sujet sera axé sur le matériel, même si le coté logiciel sera nécessairement mentionné.
    Elle traitera probablement de certains "nano-ordinateurs" avec une séance de métrologie et de sur-cadençage avec une analyse plus pointue sur les possibilités réelles, l'évolutivité, les limites, les avantages et inconvénients de chacun.

    Sommaire

     

     

     

    Introduction

    L'informatique est un domaine où les choses évoluent très rapidement. Les ordinateurs deviennent de plus en plus puissants, de plus en plus présents, avec des capacités de stockage sans cesse croissantes et sont reliés par des connexions toujours plus rapides.

    • Quelles sont les différentes formes d'ordinateurs ?
    • Quel est l'avenir pour les formes existantes ?
    • Et quelles sont celles qui peuvent émerger dans les années à venir ?
    Il y a quelques années Les ordinateurs « fixes »

    Ils peuvent posséder une grande puissance de calcul pour un particulier, mais nécessitent de la place à cause du boitier, se font généralement entendre à cause des ventilateurs de l'alimentation et du processeur. Cependant ils offrent une évolutivité très grande et un panel de fonctionnalités et de possibilités que ne possèdent pas les autres formes d'ordinateurs en facilitant l'ajout et le changement de pièces. La consommation électrique est élevée (refroidissement, rendement électrique) et n'est pas toujours justifiée pour l'usage qui en est fait. Leur présence ou non dans les années à venir est une question d'usage. L'utilisation navigation web / bureautique / films ne nécessite plus ce genre d'équipement. Il existe cependant des domaines qui prennent parti de cette puissance de calcul : traitement d'images, modélisation 3D et développement (séances de compilation) notamment. Quant au jeu, il semble incertain de faire des hypothèses, mais il est très probable qu'il restera une raison supplémentaire pour laquelle les ordinateurs fixe seront encore présents dans les années à venir (sauf si le cloud gaming venait à massivement se développer).

    Les ordinateurs « portables »

    Ils sont capables de fonctionner plusieurs heures sans alimentation grâce à une consommation réduite et permettent une utilisation nomade sans offrir l'évolutivité des ordinateurs fixes (bien que la modification de la mémoire et du support de stockage reste possible). Mais ils répondent aux besoins de l'informatique actuelle pour une large majorité. Dans un monde qui sans cesse accélère, la mobilité est un défi qui se pose à l'informatique depuis plusieurs années et les ordinateurs portables sont devenus la référence en matière d'ordinateur en représentant 68% des parts de marché1. Il est évident qu'ils seront présents à l'avenir avec des espoirs de performances et d'autonomie en hausse.

    Aujourd'hui

    Depuis quelques années, le marché informatique accueille de nouveaux types d'ordinateurs qui contrastent avec l'existant en montrant que les usages évoluent et se développent.

    Les ordiphones

    Couramment appelés smartphones et démocratisés en 2007 par l'iPhone, ils n'ont eu de cesse de voir leurs ventes augmenter jusqu'à envahir presque chaque poche. Malgré leur taille, ils peuvent très bien être considéré comme de véritables ordinateurs, par exemple en 2011 Motorola présente l'Atrix, un téléphone qui possède un dock pour une utilisation comme ordinateur portable. Ces ordinateurs de poches peuvent être très utile : navigation web, baladeur audio, gps, jeux et également téléphone, et ils offrent ces fonctionnalités de la façon la plus proche possible de l'utilisateur : dans sa poche. Cependant ce sont des ordinateurs qui n'ont aucune évolutivité, bien que certains s'essayent à changer cela, notamment Google avec son projet Ara.

    Les ordinateurs « tout en un »

    (Bien que l'idée ne soit pas nouvelle, par exemple - merci à Sidonie Tardieu - Imlac a commercialisé le PDS-1 en 1970, et Apple le Macintosh 128K en 1984 et l'iMac G3 en 1998, qui correspondent à cette description, on assiste depuis seulement quelques années à l'arrivée massive de cette gamme de produit sur le marché des ordinateurs).

    Ils ont la particularité d'intégrer dans l'écran les composants normalement mis dans la tour. Cela permet de gagner en place et en esthétique, et comme dit précédemment l'informatique moderne peut se permettre ce choix d'ingénierie sans pour autant renoncer aux performances.
    Malgré ça, ce choix pose un gros problème d'évolutivité, et à plusieurs échelles : les composants internes ne sont que rarement remplaçables et c'est également le cas pour l'écran qui d'un élément dont le changement était jusqu'alors simple devient le synonyme de changement de l'ordinateur.
    Si ce marché se développe, c'est qu'il y a des clients et que leurs demandes trouvent une réponse dans ce genre de produits. C'est en réfléchissant à ces demandes que l'on peut se poser des questions sur l'avenir de l'informatique. Qu'elles sont elles ? La suppression de la tour, lourde et encombrante et peu importe l'évolutivité, pourvu que l'intégration soit belle et légère.

    Les tablettes

    Démocratisées en 2010 par l'iPad, les tablettes sont tout à fait semblables aux ordiphones, la seule différence étant la plus grande taille et toutes les caractéristiques qui en découlent. Elles souffrent également des mêmes problèmes que les ordiphones. En 2013, les ventes de tablettes dépassent celles des ordinateurs. Elles permettent de répondre à des usages nouveaux auxquels les autres types d'ordinateurs ne répondaient pas pleinement, par exemple la possibilité de lire un contenu ou visionner des vidéos de façon nomade et agréable.

    Les « mini » ordinateurs

    De taille similaire à une box internet, ils sont à la rencontre des ordinateurs fixe et des ordinateurs portables : pas d'écran et performances comparable à un pc portable. La consommation est de l'ordre de 75W2. Ils peuvent être connectés à une télévision pour servir de media center, à un écran d'ordinateur classique, ou même à rien pour fournir un NAS à votre réseau local ou un mini serveur. Les possibilités qu'ils offrent sont relativement élevées pour la consommation, le bruit (souvent fanless) et la place occupée. Ils souffrent eux-aussi de la non-évolutivité. Il semblerait que ça soit cette forme d'ordinateur qui va se développer dans les foyers car ils ont beaucoup à offrir et il est difficile de trouver une raison qui empêcherait leurs arrivées sur le marché. Ils risquent cependant de se confronter aux ordinateurs « tout en un » dont la simplicité et l'intégration encore plus poussée peut davantage attirer la clientèle.

    Les « nano » ordinateurs

    Annoncés comme étant des ordinateurs low cost mais capable de pas mal de choses, ils sont les vedettes de l'actualité spécialisée dès qu'un nouveau modèle vient à sortir. Il y a beaucoup de confusion, mais aussi d'intérêt parmi les curieux de ce domaine. Ils sont une porte ouverte aux développeurs et aux bidouilleurs pour s'amuser, découvrir un nouveau monde et réaliser des projets, mais ne visent pas le grand public. Leur prix est certes attractif, mais il ne faut pas oublier que leurs performances sont faibles et que la bidouille est dans leur code génétique, ils ne répondent pas aux besoin du grand public. Ce qui ne les empêchent pas de toucher un public toujours plus grand.

    Demain Ces ordinateurs autour de nous

    La domotique et l'internet des objets sont des domaines en pleine effervescence actuellement qui font la promesse de connecter les objets de la vie de tous les jours pour permettre de gérer au mieux la lumière, le chauffage et suivre la consommation d'eau et d'électricité. Ils ouvrent un nouveau marché qui nécessite des ordinateurs d'un nouveau genre : miniatures et dont la consommation doit être très faible. D'autres usages peuvent émerger comme la gestion de la musique dans la maison, la vidéo-surveillance ou encore la commande vocale. Sans compter les usages non domestiques comme l'éclairage urbain, les affiches publicitaires et d'autres usages à développer.

    Ces ordinateurs en nous

    L'idée semble très futuriste pourtant il existe déjà certains objets expérimentaux qui rentrent dans cette catégorie. On peux déjà mentionner les ordiphones qui sont très souvent à proximité directe de leur propriétaire. Mais cela n'a rien de sensationnel, ce qui n'est pas le cas de certains projets :

    Conclusion

    L'informatique montre encore une fois qu'elle n'arrête pas d'évoluer dans de nouvelles directions sous différentes formes pour atteindre des objectifs sans cesse renouvelés. Elle promet pour les années à venir de grandes avancées si des réponses sont trouvées aux défis qui se posent à nous comme l'autonomie et l'intégration de la technologie dans les objets de la vie quotidienne. Mais certains usages posent des questions, notamment sur l'acceptation de l'intégration de puces dans le corps ou tout simplement sur le verrouillage des ordinateurs d'un point de vue logiciel et matériel.

     

    Écrit de façon à être le plus neutre possible, cet article ne reflète pas nécessairement l'avis personnel de son auteur.
    L'article qui devrait suivre prochainement sera plus technique et répondra aux exigences des technophiles.

    1. évolution des volumes de ventes de PC en 2012 

    2. donnée moyenne obtenue en comparant plusieurs puissance de chargeurs fournis par les constructeurs de ce type d'ordinateur. La puissance réellement consommée est donc inférieur la plupart du temps pendant le fonctionnement. Cette valeur n'est donnée qu'à titre indicatif. 

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Livre papier, livre numérique, TVA et DRM

    7 mars, 2015 - 12:58

    La France avait adopté un taux de TVA à 5,5% sur le livre numérique. La Cour de Justice de l’Union européenne (CJUE) vient de statuer qu'un taux réduit ne peut s'appliquer. Alors qu'une campagne de lobbying sur le thème « un livre numérique est comme un livre papier » a été lancée par le Syndicat National de l'Édition (SNE), l'association April soutient qu'un livre verrouillé par un DRM ne peut être comparé à un livre imprimé. Quelle position adoptera la Commission européenne sur la fiscalité à appliquer à chacun des trois formats de livres qui se côtoient ?

    Plus de détails dans la suite de la dépêche.

    En France, l'abaissement du taux de TVA à 5,5 % sur le livre numérique avait été adopté dans le cadre du projet de loi de finances pour 2011 avec entrée en vigueur le 1er janvier 2012. Cependant, avec cette décision, le pays contrevenait à la directive européenne « TVA » de 2006 : sur les livres papier s’applique un taux de TVA réduit, sur les services électroniques que sont les livres numériques, s'applique le taux normal de TVA.

    Comme on pouvait s'y attendre, puisque récemment l'Espagne a été contrainte de relever à 21 % le taux de TVA sur les livres numériques, le 5 mars 2015 la Cour de Justice de l’Union européenne (CJUE) a rendu son arrêt : le taux réduit de TVA ne peut pas s'appliquer à la fourniture de livres électroniques, la France est bien en situation d'infraction.

    Immédiatement, le Syndicat National de l'Édition (SNE) s'est engagé dans un énorme travail de lobbying. Pour ce syndicat, un livre est une œuvre qui ne change pas, quel que soit le support.

    Mais ce raisonnement présente une faille due à une omission de taille, celle des DRM ou verrous numériques, qui trompent les clients. Ceux-ci pensent avoir acquis un livre qui leur offrira toutes les possibilités que leur donne un livre papier, alors qu'en fait, ils ont acquis un service très étriqué : possibilité de lire l'ouvrage uniquement sur des supports portant des noms exotiques, restrictions concernant la durée de ce service, impossibilité d'imprimer, interdiction de prêter le fichier, impossibilité de lire sur un autre système…

    Pour qu'un livre numérique soit réellement comparable à un livre papier, il doit être fourni sans DRM, dans un format ouvert, interopérable, offrant ainsi à son lecteur tout ce qu'il est en droit d'attendre du produit acquis.

    La Commission européenne devra élaborer une position commune (28 pays) sur la fiscalité à appliquer à chacun des trois formats de livres qui se côtoient. Mais laquelle ? Une proposition de bons sens a été proposée par la députée française Isabelle Attard : les livres indemnes de verrous numériques sont soumis au taux réduit de TVA, comme les livres papier et participent alors à la plus large diffusion de la culture. Les autres sont soumis au taux de TVA normal, comme des services qu'ils sont.

    Cette solution serait un excellent compromis entre les agissements des acteurs américains qui pratiquent les DRM, les éditeurs français qui ont opté pour des solutions ouvertes, et le respect des utilisateurs dans un de leurs droits les plus élémentaires, l'accès à la culture.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Drupal Developer Days 2015 à Montpellier du 13 au 19 avril

    6 mars, 2015 - 16:08

    L’association Drupal France & Francophonie organise son plus gros événement en France en 2015, du 13 au 19 avril prochain à Montpellier.

    Les Drupal Developer Days, c’est un format unique : une semaine pour organiser des ateliers de travail collaboratif, ainsi que des conférences. Cet événement est spécialement organisé pour la communauté internationale des développeurs Drupal, environ 350 personnes sont attendues cette année.

    C’est la conférence technique annuelle des développeurs et qui, cette année est portée par la France, soutenue par l’association Drupal France et francophonie et organisée par une équipe de bénévoles.

    Les Drupal Developer Days se dérouleront sur le site de la faculté de Sciences de Monpellier (infos pour s'y rendre). La billetterie est ouverte : de 70€ à 105€ le ticket pour la semaine.

    Une semaine en deux temps :

    • en fil rouge de cette semaine, seront organisés des ateliers de travail, autrement appelés “Sprints” et des ateliers de discussions informelles, ou “BoF” (pour Birds of a Feather).
    • les jeudi, vendredi et samedi seront les trois jours de temps forts de cette édition, pendant lesquels des conférences seront présentées.

    Les objectifs de cette manifestation sont multiples : offrir un lieu de rencontre à la communauté Drupal grandissante et internationale, apporter support et nouveauté aux développeurs spécialisés, faire progresser le logiciel alors que sa nouvelle version (la version 8) est très prochainement attendue et en voie de finition.

    Les Drupal Dev Days s’ouvrent à tous les niveaux et à tous les univers.
    La communauté s’organise autour de cet événement et tous les développeurs et personnes souhaitant participer à l’amélioration de ce logiciel libre sont les bienvenus, pas seulement les plus téméraires. En suivant le principe du mentorat, les nouveaux venus seront accompagnés dans cette semaine initiatique.
    De même, lors des conférences, tous les publics trouveront des sujets d’intérêt à leur niveau.

    Vous êtes curieux(se) de découvrir Drupal 8 ? plutôt intéressé(e) par la mise en forme ? les retours d’expérience ? les configurations avancées ? ou les techniques de développement ? Découvrez notre programme

    Participer à cette conférence est une occasion unique de prendre goût à la contribution et une opportunité à saisir pour mettre le pied à l’étrier de Drupal 8. Vous y ferez des rencontres car c’est la richesse de ces événements.

    L’organisation des Drupal Developer Days n’aurait pas été possible sans la participation de la Faculté de Sciences de Montpellier qui accueille l’événement, de nos sponsors bienveillants et du support de l’association Drupal France et francophonie.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Cartopartie participative et saisie-partie OpenStreetMap à Montpellier les 7 et 10 mars 2015

    6 mars, 2015 - 02:07

    Une cartopartie participative OpenStreetMap Montpellier des quartiers Clémenceau, Gambetta et Rondelet aura lieu le samedi 7 mars 2015 de 14h30 à 17h00 à La Fabrique, située au 10, rue Chaptal à Montpellier (tramway lignes 3 et 4, arrêt Saint-Denis).

    En attendant le printemps, nous comptons une nouvelle fois sur vous pour être nombreux lors de cette journée citoyenne et solidaire, pendant laquelle nous relèverons les données essentielles aux déplacements des personnes à mobilité réduite.

    Cette journée sera suivie d’une saisie-partie OpenStreetMap qui nous permettra l’alimenter les bases de données de la ville de Montpellier via l’open data de Montpellier Territoire Numérique. Elle se déroulera le mardi 10 mars 2015 de 18h à 22h, au Cowork’in Montpellier, situé au 19, rue de l’école de droit à Montpellier, tramway ligne 3, arrêt Plan Cabane. Une initiation sera possible pour les débutants, ce qui permettra à toute personne de pouvoir contribuer ultérieurement

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Un peu plus de sécurité sous Linux

    5 mars, 2015 - 22:37

    Un problème qui revient souvent lorsqu'on débute sous (GNU/)Linux concerne la sécurité de sa machine, que ce soit un serveur ou un ordinateur de bureau. Faut il installer un antivirus ? un firewall ? et les malwares ? les mises à jour ? Des sauvegardes ? Mais mon ordi va bien non ?

    Certain-e-s d'entre vous ont sans aucun doute des configurations intéressantes et/ou exotiques, n'hésitez pas à les partager, tous le monde en sortira gagnant.

    Et donc, au programme de cet article (testé sur Debian Wheezy) :

    • Mises à jour : cron-apt et checkrestart
    • Sécurité
      • virus : clamav,
      • malwares maldet,
      • rootkits rkhunter, chkrootkit, lynis
      • vérification de l'intégrité des paquets : debsums
    • nettoyage : deborphan, …
    • backups
    Sommaire

    IMPORTANT :

    • la plupart des commandes ci-dessous nécessitent d'être root ou d'utiliser la commande sudo
    • tous ces logiciels ont normalement des logs dans /var/log, et c'est très utile pour trouver pourquoi ça ne marche pas
    • il faut avoir un logiciel de courriel configuré (comme postfix) pour pouvoir envoyer des courriels
    • n'oubliez pas de relancer le programme après une modification pour la prise en compte
    mises à jour : cron-apt

    cron-apt permet d'alerter quand une ou plusieurs mises à jour sont disponibles pour le serveur mais aussi de les faire automatiquement en envoyant ou non un courriel pour prévenir (à noter que apticron permet aussi d'alerter en cas de mises à jour disponibles).

    Pour commencer, le plus important : avoir des sources de mises à jour propres. Pour bien comprendre comment fonctionnent les sources.list, vous pouvez vous référer à la documentation de Debian, vous pouvez aussi vous aider du "Debian Sources List Generator" pour générer votre fichier.

    En cas de mises à jour automatiques, il est VITAL d'avoir des sources "propres", il faut éviter au maximum des conflits éventuels entre des paquets ou une configuration trop exotique. Mieux vaut réfléchir avant de mettre en place un système de mise à jour auto sur un système en production, en particulier si il y a une supervision avec une astreinte (et encore plus si c'est vous d'astreinte).

    • installer cron-apt :
    aptitude install cron-apt
    • éditer le fichier de configuration /etc/cron-apt/conf :
      • APTCOMMAND définit le gestionnaire de paquets que vous voulez utilisez (apt-get ou aptitude)
      • MAILTO l'adresse à laquelle le système va envoyer les courriels de notifications.
    APTCOMMAND=/usr/bin/aptitude MAILTO="mail@exemple.org"

    Par défaut, cron-apt est lancé chaque jour à 4 heure du matin. Libre à vous de modifier ce comportement dans le fichier /etc/cron.d/cron-apt.

    mises à jour automatiques

    Pour installer automatiquement les mises à jour disponibles, il est nécessaire de créer un fichier nommé 5-install dans le répertoire /etc/cron-apt/action.d/ puis d'y ajouter la ligne suivante :

    dist-upgrade -y -o APT::Get::Show-Upgraded=true

    Pour limiter le process aux mises à jour de sécurité, il faut créer un fichier nommé /etc/apt/security.list pour y mettre ceci :

    deb http://security.debian.org/ wheezy/updates main contrib non-free deb-src http://security.debian.org/ wheezy/updates main contrib non-free

    Il suffit alors de décommenter dans le fichier /etc/cron-apt/config la ligne suivante :

    OPTIONS="-o quiet=1 -o Dir::Etc::SourceList=/etc/apt/security.list"

    Dorénavant cron-apt utilisera uniquement le fichier security.list pour vérifier la présence de mises à jour, et ignorera donc les mises à jour autres que celles de sécurité.

    checkrestart (debian-goodies)

    Le paquet debian-goodies installe sur votre machine quelques scripts dont checkrestart, qui permet de trouver des processus utilisant de vieilles versions de bibliothèques logicielles. Ce genre de vérification est particulièrement critique après un patch sécurité important, comme pour libc6 en janvier 2015 (CVE-2015-0235).

    Pour installer le paquet debian-goodies (la commande checkrestart suffit pour le lancer par la suite) :

    aptitude install debian-goodies

    Le script est donc particulièrement utile, mais comme on peut souvent le voir, il ne sait pas reconnaitre et/ou relancer certains processus, on peut donc ajouter des fonctionnalités supplémentaires, c'est ce qu'a fait Octopuce via un script qui utilise checkrestart en y ajoutant des fonctionnalités.

    Ce script est disponible sur github et l'on peut trouver un article introductif sur le site d'Octopuce.

    Pour le mettre en place :

    cd /usr/local/bin/ wget https://www.octopuce.fr/octopuce-goodies/checkrestart/checkrestart.octopuce chmod +x checkrestart.octopuce

    On peut alors lancer le script de n'importe où sur le système (n'hésitez pas à remonter des bugs ou à modifier le code) :

    checkrestart.octopuce clamav (antivirus) et maldet (antimalwares)

    L'antivirus libre clamav est connu dans le monde du logiciel libre, et au delà, et son efficacité peut être améliorée en y ajoutant la base de signatures du Linux Malware Detector.

    clamav

    Pour l'installer :

    aptitude install clamav clamav-freshclam
    • mettre à jour clamav :

    éditer le fichier de configuration /etc/clamav/freshclam.conf selon votre choix (vous pouvez d'ailleurs voir une description rapide des options sur ce site) :

    DatabaseOwner clamav UpdateLogFile /var/log/clamav/freshclam.log LogVerbose false LogSyslog false LogFacility LOG_LOCAL6 LogFileMaxSize 0 LogTime true Foreground false Debug false MaxAttempts 5 DatabaseDirectory /var/lib/clamav DNSDatabaseInfo current.cvd.clamav.net AllowSupplementaryGroups false PidFile /var/run/clamav/freshclam.pid ConnectTimeout 30 ReceiveTimeout 30 TestDatabases yes ScriptedUpdates yes CompressLocalDatabase no Bytecode true # Check for new database 12 times a day Checks 12 DatabaseMirror database.clamav.net

    Vous pouvez ensuite lancer la mise à jour avec la commande freshclam.

    • lancer une analyse

    Vous pouvez créer un second fichier de configuration pour clamav sous le nom de /etc/clamav/clamd.conf. Ce fichier sert à donner une configuration par défaut pour les analyses. Vous trouverez ci-dessous un EXEMPLE de configuration, vous pouvez le modifier selon vos désirs :

    LogVerbose false PidFile /var/run/clamav/clamd.pid DatabaseDirectory /var/lib/clamav #OfficialDatabaseOnly true SelfCheck 3600 Foreground false Debug false ScanPE true MaxEmbeddedPE 10M ScanOLE2 true ScanPDF true ScanHTML true MaxHTMLNormalize 10M MaxHTMLNoTags 2M MaxScriptNormalize 5M MaxZipTypeRcg 1M ScanSWF true DetectBrokenExecutables false ExitOnOOM false LeaveTemporaryFiles false AlgorithmicDetection true ScanELF true IdleTimeout 30 CrossFilesystems true PhishingSignatures true PhishingScanURLs true PhishingAlwaysBlockSSLMismatch false PhishingAlwaysBlockCloak false PartitionIntersection false DetectPUA false ScanPartialMessages false HeuristicScanPrecedence false StructuredDataDetection false CommandReadTimeout 5 SendBufTimeout 200 MaxQueue 100 ExtendedDetectionInfo true OLE2BlockMacros false ScanOnAccess false AllowAllMatchScan true ForceToDisk false DisableCertCheck false DisableCache false MaxScanSize 100M MaxFileSize 25M MaxRecursion 10 MaxFiles 10000 MaxPartitions 50 MaxIconsPE 100 StatsEnabled false StatsPEDisabled true StatsHostID auto StatsTimeout 10 StreamMaxLength 25M LogFile /var/log/clamav/clamav.log LogTime true LogFileUnlock false LogFileMaxSize 0 Bytecode true BytecodeSecurity TrustSigned BytecodeTimeout 60000 Linux Malware detector (maldet)

    Installer maldet :

    wget http://www.rfxn.com/downloads/maldetect-current.tar.gz tar xfz maldetect-current.tar.gz cd maldetect-* ./install.sh

    Pour mettre la base de signatures à jour :

    maldet -u

    Pour affiner vos réglages, avoir des informations par courriel, configurer la mise en quarantaine, le fichier de configuration se trouve dans /usr/local/maldetect/conf.maldet

    ajouter la base de signatures de MalDet à Clamav :

    Il est possible de rajouter la base de signatures de maldet à clamav, ce qui permet de scanner une seule fois avec les deux bases de signatures. Après avoir installé maldet, vous pouvez faire la manipulation suivante :

    cd /var/lib/clamav ln -s /usr/local/maldetect/sigs/rfxn.hdb rfxn.hdb ln -s /usr/local/maldetect/sigs/rfxn.ndb rfxn.ndb /etc/init.d/clamd restart

    Vous pouvez utiliser la commande suivante pour lancer une analyse, --recursive permet de descendre dans l'arborescence, --infected permet de n'afficher que les résultats positifs lors de l'analyse pour éviter une sortie particulièrement verbeuse, et --log permet de définir un fichier ou le résultat de l'analyse sera écrit :

    clamscan --recursive --infected --log="/var/log/clamscan" rkhunter

    Pour l'installer puis le mettre à jour :

    aptitude install rkhunter rkhunter --update

    Pour dire à rkhunter de regarder l'état de certains fichiers de configurations et de les stocker pour détecter des altérations par la suite (à faire idéalement sur un système neuf) :

    rkhunter --propupd

    Pour lancer un test (n'oubliez pas que le résultat sera aussi dans /var/log/rkhunter.log) :

    rkhunter --check --skip-keypress --report-warnings-only

    Le fichier de configuration se trouve dans /etc/rkhunter.conf, vous pouvez y configurer, entre autre, votre adresse mail pour recevoir les alertes. rkhunter peut générer des faux positifs, vous pouvez trouver dans la documentation d'Ubuntu comment l'éviter.

    Plus de détails dans cet article très complet sur sublimigeek.com.

    chkrootkit

    chkrootkit est un anti-rootkit connu sous Linux, mais il faut noter que la version disponible dans wheezy est la 0.49 qui date de 2008, la 0.50, sorti en 2014 est disponible dans Jessie.

    aptitude install chkrootkit

    Le fichier de configuration /etc/chkrootkit/chkrootkit.conf :

    RUN_DAILY="true" RUN_DAILY_OPTS="-q" # -q=quiet mode DIFF_MODE="true" # garde un /var/cache/chkrootkit/log.old pour comparer la prochaine fois REPORT_MAIL=mail@example.net

    Pour le lancer :

    chkrootkit -q lynis

    Développé par le créateur de rkhunter, Lynis est un outil d'audit pour Unix. Il parcourt la configuration du système et crée un résumé des informations système et des problèmes de sécurité, utilisable par des auditeurs professionnels. Il peut aider à des audits automatisés.

    aptitude install lynis

    Pour lancer une vérification du système avec seulement l'affichage des warnings :

    lynis --check-all --quick

    Vous trouverez le rapport dans /var/log/lynis-report.dat et sa documentation pour aller plus loin sur le site officiel.

    debsums

    Debsums permet de vérifier l'intégrité des fichiers des paquets installés avec les sommes de contrôle MD5 installées par le paquet ou générées à partir d'une archive ".deb".

    Pour l'installer :

    aptitude install debsums

    Pour le lancer (vérifie les fichiers de configurations --all et n'affiche que les erreurs : --silent) :

    debsums --all --silent

    Vous avez bien entendu différentes options que vous pouvez voir dans les pages man (man debsums). Pour génèrer les sommes de contrôle MD5 à partir des fichiers .deb pour les paquets qui n'en fournissent pas : debsums --generate=missing (équivalent de -g). Cette commande est bien entendu à utiliser sur un système neuf.

    Nettoyer

    Quand vous désinstallez un paquet de votre machine, il arrive qu'il soit enlevé mais que les fichiers de configurations restent, il est alors marqué "rc" dans dpkg, pour supprimer définitivement ces paquets, vous pouvez lancer les commandes suivantes :

    • Afficher les paquets étant dans un état "rc" :
    dpkg -l |grep ^rc | awk '{print $2}'
    • Supprimer ces paquets :
    dpkg -l | grep ^rc | awk '{print $2}' | xargs dpkg -P

    À noter que cette commande peut éteindre MySQL pour effacer d'anciens fichiers de configuration, n'oubliez pas de de le relancer par la suite.

    deborphan

    Deborphan recherche les paquets orphelins sur votre système en déterminant quels paquets n'ont aucune dépendance sur eux et vous affiche la liste de ces paquets.

    aptitude install deborphan

    Je vous conseille grandement de vérifier ce qu'il propose d'enlever avant de supprimer les paquets :

    deborphan

    Et si ça vous semble correct, vous pouvez supprimer les paquets avec la commande dpkg :

    deborphan| xargs dpkg -P

    Il peut être nécessaire de le relancer plusieurs fois (en vérifiant ou non ce qu'il veut effacer à chaque fois).

    Des sauvegardes !

    C'est sans aucun doute la partie la plus importante de cet article :

    FAITES DES SAUVEGARDES !

    Octopuce a mis en ligne un petit script qui vous aidera à faire rapidement et simplement des backups sur un disque dur externe (ou une clé USB avec assez de place) : faire des backups facilement.

    Plus d'excuses, au boulot !

    Pour aller un peu plus loin

    faire écouter vos programmes en local s'ils n'ont pas besoin d'être atteint de l'extérieur. C'est normalement la configuration par défaut dans Debian, mais si vous installez des paquets externes, vous pouvez le vérifier facilement avec la commande netstat -lptn.

    Pour continuer cet article, n'oubliez surtout pas de vérifier et d'améliorer vos configurations régulièrement.

    N'oubliez pas non plus de vous tenir au courant :

    La configuration de ces différents utilitaires dépends évidemmment de vos besoins et de votre modèle de menaces. Envoyer des informations par courriel ou télécharger des paquets sur un canal non sécurisé peut donner des informations sur l'état de votre système. N'hésitez jamais à utiliser un outil comme Tor.

    Idéalement, les différents processus devraient être lancé automatiquement, régulièrement et envoyer un courriel immédiatement en cas de problème pour vous alerter.

    Cet article vise à donner des idées de pistes à suivre pour la maintenance d'un poste personnel ou d'un serveur, rien de plus.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Django 1.7, « le framework web pour les perfectionnistes sous pression »

    5 mars, 2015 - 15:27

    D'après Wikipedia : « Django est un framework open-source de développement web en Python. Il a pour but de rendre le développement web 2.0 simple et rapide. Pour cette raison, le projet a pour slogan « Le framework web pour les perfectionnistes sous pression ». Développé au départ pour les sites de la ville de Lawrence (Kansas), Django a été publié sous licence BSD à partir de juillet 2005. »

    La version 1.7 du framework web Django est sortie le 2 septembre 2014. La principale nouvelle fonctionnalité est la gestion intégrée des migrations de schéma. On notera la publication de la version 1.7.5 le 25 février 2015, et en même temps, la première bêta de la version 1.8.

    Nouveautés Migrations des schémas de base de données

    Django inclut, enfin, une gestion des migrations des bases de données. Jusqu'ici, la plupart des projets utilisaient South. L'auteur de cette application, Andrew Godwin, a pu financer l'intégration d'une refonte de South au sein de Django via une campagne Kickstarter.

    Pour les curieux, Andrew Godwin a présenté lors de la dernière PyCon US les choix opérés lors du développement. La vidéo est disponible sur YouTube.

    Refactoring du chargement des applications

    Le chargement des applications a été réécrit. Cette réécriture permet d'améliorer les points suivants :

    • Une application qui n'utilise pas de modèle n'est plus obligée d'inclure un fichier models.py vide.
    • Une application peut définir sa configuration. Cette configuration permet notamment de donner un nom verbeux à l'application (ce nom est utilisé par l'interface d'administration) et une méthode ready() qui est appelée au lancement.
    • L'ordre des imports est plus déterministe et permet de mieux diagnostiquer les problèmes d'imports circulaires. Ce changement peut entraîner des incompatibilités avec du code existant.
    Simplification des QuerySetManager

    Dans Django, lorsque l'on souhaite définir des requêtes réutilisables, il est recommandé d'étendre la classe QuerySet et d'y définir ses propres méthodes. Cette méthode fonctionne bien, mais elle pose problème quand l'on définit un QuerySetManager (raccourci dans l'écriture de requêtes). En effet, si l'on souhaite réutiliser les méthodes d'un QuerySet sur un QuerySetManager, il est nécessaire de redéfinir chaque méthode.

    Par exemple :

    class MouleQuerySet(models.QuerySet): def pas_fraiches(self): return self.filter(dlc_gte=datetime.datetime.utcnow()) def bretonnes(self): return self.filter(bassin='XXX') class MouleQuerySetManager(models.QuerySetManager): def get_queryset(self): return MouleQuerySet(self) def pas_fraiches(self): return self.get_queryset().pas_fraiches() def bretonnes(self): return self.get_queryset().bretonnes() class Moule(models.Model): bassin = models.CharField(max_length=50) dlc = models.DateTimeField() objects = MouleQuerySetManager() # utilisation # Moules bretonnes pas fraiches Moule.objects.bretonnes().pas_fraiches()

    Avec Django 1.7, il n'est plus nécessaire d'écrire de classe héritant de QuerySetManager. À la place, il suffit d'appeler la méthode QuerySet.as_manager() :

    # la classe MouleQuerySet ne change pas class Moule(models.Model): bassin = models.CharField(max_length=50) dlc = models.DateTimeField() objects = MouleQuerySet.as_manager() # l'utilisation ne change pas Moule.objects.bretonnes().pas_fraiches() Framework de vérification

    Un nouveau framework est disponible pour détecter les problèmes. Il remplace la simple validation des modèles (avec la commande validate) et permet de détecter :

    • les modèles invalides
    • l'utilisation de fonctionnalités dépréciées
    • les settings manquants ou invalides
    • les traductions à mettre à jour.

    Ce framework est extensible et chaque application peut définir ses propres contrôles.

    Moteur de templates

    Pas de grands changements :

    • Un nouveau filtre truncatechars\_html qui tronque une chaîne en tenant compte des balises HTML.
    • Les exceptions de type TypeError ne sont plus ignorées silencieusement.
    • D'autres modifications…
    Versions de Python supportées

    Le support de Python 2.6 a été retiré. Django est compatible avec les versions 2.7, 3.3 et suivantes. Plusieurs modules inclus pour assurer la compatibilité avec Python 2.6 sont dépréciés :

    • django.utils.dictconfig
    • django.utils.importlib
    • django.utils.unittest
    • django.utils.datastructures.SortedDict
    Autres changements

    La commande runserver exploite pyinotify sous Linux au lieu d'un polling bête et méchant. Le rechargement du serveur est donc plus rapide et consomme moins de ressources. De même, il se relance automatiquement après la compilation d'une traduction.

    JSON

    La nouvelle sous-classe JsonResponse facilite la création de réponses renvoyant du JSON.
    Les erreurs d'un formulaire peuvent être converties en JSON avec la méthode as_json().

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Découvrez le langage Go et Camlistore le 24 mars 2015 à Grenoble

    5 mars, 2015 - 08:40

    L'AlpesJUG propose une soirée d'introduction au langage de programmation Go au travers du projet libre Camlistore par Mathieu Lonjaret.

    La soirée est d'accès libre, on vous demandera juste de vous inscrire pour l'organisation.

    Dans un monde où de plus en plus de nos données personnelles sont hébergées (et appropriées?) par de puissantes tierces parties, Camlistore se veut être une solution pérenne qui vous permet d’interagir facilement avec vos données de n’importe où, tout en gardant le contrôle sur leur hébergement.
    Par ailleurs, ce projet doit beaucoup au langage Go, langage relativement récent mais connaissant déjà un fort succès. Et réciproquement, un certain nombre d’avancées du langage ont vu le jour suite aux « expériences » menées (notamment par Brad Fitzpatrick) dans Camlistore.

    Cette présentation sera donc un tour d’horizon du langage Go, dans le contexte d’un projet libre relativement large tel que Camlistore.

    Tous les détails: http://www.alpesjug.org/?p=2757

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Python meetup à Bruxelles - vendredi 6 mars 2015

    5 mars, 2015 - 08:40

    Un Meetup/AFPyro aura lieu le vendredi 6 mars 2015 à partir de 19h à la Mort Subite - Rue Montagne-aux-Herbes Potagères 7, Brussels.

    Pour s’inscrire : http://www.meetup.com/Belgium-Python-Meetup-aka-AperoPythonBe/events/220506641/

    En plus des francophones, des néerlandophones seront également présents.
    Chacun pourra parler sa langue pendant le drink, par contre, les présentations seront en anglais pour être compréhensibles de tous.

    Les présentations
    • AI: Curious Actors by Michael
    • Write and prod an efficient REST API with API-Hour in 5 minutes by Ludovic
    • Tool discovery : Plumbum by Fabien
    • Python Belgium Association by Stephane
    Prérequis

    Pour plus d’interactions pendant les présentations, vous pouvez venir avec votre laptop, en ayant installé au préalable:

    • wrk si vous voulez essayer de faire tomber le daemon API-Hour de Ludovic
    • plumbum et un serveur distant afin de tester les scripts proposés par Fabien
    Télécharger ce contenu au format Epub

    Lire les commentaires

    LAN et initiation Battle for Wesnoth à Lille les 6 et 20 mars 2015

    4 mars, 2015 - 22:50

    Sur la lancée des deux LAN 0 AD ce vendredi 6 et le vendredi 20 mars, on joue à Battle for Wesnoth de 19h à 22h sur les PC de jeu de la salle. 3€ pour 3h de jeu avec présentation du logiciel, petites astuces pour débuter si besoin et parties en réseau local pour terminer joyeusement un trolldi.

    La Bataille pour Wesnoth est un jeu de stratégie au tour par tour, publié sous GNU GPL v2+, traduit en français et prenant place dans un univers médiéval-fantastique. Il peut se jouer en solo via des campagnes ou en multijoueur sur Internet ou en local.

    Pour s'y rendre, c'est au 2 rue Colson, à l'angle avec la rue Nationale à Lille (lien OpenStreetMap).

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Gitlab achète Gitorious

    4 mars, 2015 - 21:10

    Gitlab achète Gitorious. Les utilisateurs ont jusqu'à fin mai 2015 pour importer leur projet sur Gitlab (en un clic).

    Selon les mots de Rolf Bjaanes, le CEO de Gitorious, dans le billet officiel, Gitorious.org n'était plus viable économiquement : «À Gitorious nous voyions de plus en plus d'organisations adopter Gitlab. À cause d'une baisse des revenus des comptes payants, il n'était plus tenable de maintenir l'instance gratuite Gitorious.org. Gitlab résolvait le même problème que nous, mais mieux.» ("At Gitorious we saw more and more organizations adopting GitLab. Due to decreased income from on-premises customers, running the free Gitorious.org was no longer sustainable. GitLab was solving the same problem that we were, but was solving it better.

    Rien n'est dit sur ce qui va advenir du code de Gitorious.

    C'est un logiciel totalement libre et sous licence AGPLv3 qui meurt, remplacé par un autre sous licence MIT avec une édition communautaire et une privée.

    Des pronostics pour quand Gitlab rachètera Github ?

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Une initiative à généraliser pour favoriser l'usage de solutions libres dans l'Éducation nationale

    4 mars, 2015 - 21:09

    La Délégation académique au numérique éducatif (DANE) de l'académie de Versailles a confié à Louis-Maurice De Sousa, enseignant de technologie, la tâche « d’accompagner les établissements scolaires, les personnels d’encadrement ainsi que les collectivités locales dans leurs projets de mise en œuvre des solutions libres et des formats ouverts ». Le rôle de Louis-Maurice De Sousa, selon la lettre de mission qui lui a été remise, est de « favoriser le développement des solutions libres, en particulier par l’échange, la formation des équipes et l’organisation de réunions thématiques ».

    Certes des progrès restent à accomplir pour que la solution utilisée dans l'Académie de Versailles se généralise, mais c'est la première fois qu'apparaît dans l'organigramme d'une académie une personne référente pour tout ce qui touche au Libre éducatif et aux formats ouverts. Il y avait certes un pôle de compétences logiciels libres au sein de feu le SCEREN-CNDP (Services, culture, éditions, ressources pour l’Éducation Nationale/ Centre national de documentation pédagogique) mais ce poste n'a malheureusement pas été reconduit.

    Même si elle regrette qu'un véritable poste, et non une décharge de quelques heures, ne soit dédié à cette mission, l'April a salué cette initiative et appelle chacune des académies à s'inspirer de cette bonne pratique afin d'accompagner la promotion et la diffusion de ressources libres auprès de tous ses personnels d'éducation et auprès des collectivités locales.

    Pour rappel, l'April dispose d'une liste de discussion "éducation et logiciels libres ouverte à tous, et dans laquelle Louis-Maurice De Sousa intervient régulièrement.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Initiative candidats.fr et élections départementales françaises

    4 mars, 2015 - 14:31

    Les élections départementales françaises auront lieu les 22 et 29 mars. Il s'agit d'élire les conseillers départementaux, tous en une fois, pour une durée de six ans, à la place des conseillers généraux, dans les 2 054 cantons issus de la nouvelle carte cantonale.

    À cette occasion l'association April relance l'initiative Candidats.fr afin de sensibiliser les candidats, et parmi eux les futurs élus, au logiciel libre.

    Chacun peut participer à cette initiative, en contactant, de la façon qu'il jugera la plus adaptée, des candidats pour les encourager à signer le Pacte du Logiciel Libre.

    Tous les renseignements utiles sont disponibles sur la page Départementales 2015 du site.

    Mobilisons-nous afin que les futurs conseillers soient le plus largement possible sensibilisés aux enjeux du logiciel libre, notamment au moment des décisions qu'ils auront à prendre au sein de leurs départements.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Premier Samedi du Libre à la Cité des Sciences le 7 mars 2015

    4 mars, 2015 - 12:53

    Le 7 mars 2015 de 14h à 18h aura lieu le PSL mensuel (Premier Samedi du Libre) à la CSI (Cité des Sciences et de l'Industrie), Paris 19e.

    Cet événement grand public est libre et gratuit. La pré-inscription est possible mais pas obligatoire. Nous n'aurons jamais trop d'installeurs pour l'install party !

    • install party. Les ISO des distributions les plus courantes ont été mises sur notre serveur, à la CSI, par Guillaume 'heraclide' Dondero.
    • deux conférences sont organisées par Parinux en salle Agora
      • 14h30 "Auto-hébergement Internet" avec Guillaume Dondero (Parinux).
      • 16h00 "Dégooglisons Internet" avec Frédéric Urbain (Framasoft).
    • déjeuner à 12h15 à la pizzeria Le Verona, 25 avenue Corentin Cariou
    • atelier Blender 3D du BUG Paris
    • wikipermanence Wikimedia
    • bidouille au Fab Lab
    Télécharger ce contenu au format Epub

    Lire les commentaires

    Open Source Innovation Spring du 13 mars au 3 avril 2015 #OSIS2015

    3 mars, 2015 - 17:19

    L'IRILL (Institut de Recherche en Informatique et Logiciel Libre) et le GTLL (Groupe Thématique Logiciel Libre du pôle de compétitivité francilien Systematic) lancent le premier printemps de l'innovation Open Source, avec le soutien de l'Inria et de l'Open World Forum.

    Le but de ce Printemps Open Source de l'Innovation, qui fédèrera des événements du 13 mars au 3 avril sur Paris et Palaiseau, est de mettre en valeur le travail d'excellence des équipes de chercheurs français, mais aussi la R&D des PME de pointe en logiciel libre, notamment auprès des industriels et des institutionnels. Il conjuguera donc plusieurs initiatives pour mettre en valeur des pépites innovantes issues de l’Industrie et de la Recherche française, dont le succès et la visibilité est mondial, sur des thèmes aussi variés que le Big Data, l'Internet des Objets, le Cloud Computing et la Qualité Logicielle.

    Détail des événements programme dans la suite de la dépêche

    Les quatres grandes thématiques retenues pour cette édition 2015 sont également autant de « grands défis » que le GTLL a identifiés pour contribuer à la compétitivité de l'économie française, et pour lesquels des projets d'innovation collaborative et des activités de soutien à l'écosystème des PME innovantes sont portés par le Pôle Systematic.

    Pour les participants à ces événements, la promesse est de :

    • Élargir et approfondir ses connaissances sur un ensemble de technologies clefs pour la transformation numérique et la compétitivité des entreprises, en interagissant directement avec les créateurs de ces technologies et les pionniers de leurs usages ;
    • Découvrir, en amont de la courbe d'adoption par le marché, les projets d'innovation académiques et industriels dont l'impact se fera sentir dans les années à venir ;
    • Comprendre comment appliquer dès aujourd'hui ces connaissances à leurs problématiques métiers – depuis la vision stratégique jusqu'aux détails d'implémentation rarement évoqués mais souvent cruciaux ;
    • Rencontrer ses pairs, nouer de nouveaux contacts, faire émerger de nouvelles collaborations.
    Programme de l'OSIS 2015 [Qualité logicielle] The Frama-C Day

    Le vendredi 13 mars 2015 de 9h-17h à Palaiseau

    Un atelier dirigé par Florent Kirchner du CEA sur une journée avec la communauté Frama-C, rassemblant tant chercheurs qu'utilisateurs de l'industrie, pour partager expériences et nouvelles perspectives.

    Intervenants :

    • F. Kirchner, CEA LIST
    • C. Marché, Inria
    • S. Duprat, Atos
    • N. Richer, EDF
    • D. Mentré
    • Mitsubishi Electric
    • D. Pariente and B. Kiss, responsable Dassault and Search Lab
    • D. Sheridan, Adelard
    • B. Monate, TrustInSoft
    • A. Tomb, Galois
    • J. Gerlach, Fraunhofer Fokus
    • M. Sighireanu, LIAFA
    [Internet des objets] L'Open Source pour l'IoT

    Le mardi 31 mars 2015 de 9h-16h à L'Usine IO, Paris

    Programme dirigé par Pierre Ficheux, directeur technique d'Open Wide

    Intervenants :

    • Pierre Ficheux Introduction to IOT - Protocols and OSes (RIOT, Contiki)
    • Emmanuel Baccelli & Cedric Adjih (Inria, RIOT team)
    • Jean-Marie Verdun (Splitted Desktop) Open Hardware's dev tools ; RuggedPOD & DaaP
    • B. Falise (The QT Company)
    • Bertrand Duplat (The wearable Belty by Emiota)
    • Jacques Lepine (SlowControl)
    [Cloud] Cloud open source

    Le mercredi 1er avril 2015 après-midi à la Cloud Computing World Expo qui se tiendra Porte de Versailles à Paris.

    Programme dirigé par Cédric Thomas et Olivier Bouzereau, OW2
    Demi-journée organisée par la communauté open source OW2 : technologies de cloud open source ; retour d'expérience sur le cloud hybride ; respect de la vie privée et sécurité ; interconnexion entre Big Data, Cloud et Internet des Objets…

    [Cloud] : Conteneurs open source – Docker

    Le jeudi 2 avril 2015 après-midi dans les locaux de Mozilla à Paris

    Programme dirigé par : Stéphane Vincent (Alter Way), Jonathan Clarke (Normation), Fabrice Bernhard (Theodo), Nicolas Chauvat (Logilab)
    Intervenants :

    1. État de l'art
      • Hervé Leclerc, CTO (Alter Way): Des conteneurs pour tout faire ? Usages d'aujourd'hui et perspectives illustrées avec Docker,
      • Jonathan Clarke, CPO (Normation) : Gérer la configuration dans un SI avec des conteneurs : les méthodes actuelles sont-elles adaptées ?
      • David Douard, directeur du département Outils & Systèmes (Logilab), Initialiser des conteneurs Docker à partir de configurations Salt construites à plusieurs grâce à Mercurial,
      • Émile Vauge (Zenika) : Création d'un pipeline de déploiement continu avec Docker sur Amazon
    2. Témoignages industriels
      • Fabrice Bernhard, fondateur et CTO (Theodo) : Mise en place d'une architecture microservices avec Docker dans une grande banque française
      • Hervé Leclerc, CTO (Alter Way) : Mise en oeuvre d’une plateforme d'intégration continue basée sur Docker pour un leader du secteur des médias français
      • Thomas Clavier, cofounder (Deliverous.com) : Retour d'expérience sur la mise en place d'un cloud Docker
    [Big Data] PyData Paris / Scikit Learn :

    Vendredi 3 avril 2015 toute la journée dans les locaux de Télécom ParisTech (Paris)

    Programme dirigé par Stéfane Fermigier, président du GT Logiciel libre de Systematic (Abilian), avec Nicolas Chauvat (Logilab), Jean-Paul Smets (Nexedi), Gaël Varoquaux et Alexandre Gramfort (Scikit-Learn)
    Intervenants :

    • Gaël Varoquaux (Inria): Scikit-learn for easy machine learning: the vision, the tools its development
    • Alexandre Gramfort (Telecom ParisTech): Linear predictions with scikit-learn: simple and efficient
    • Gilles Louppes (CERN): Tree models with scikit-learn: great learners with little assumptions
    • Julien Sananikone (PriceMinister), Benjamin Guinebertière (Microsoft), Samuel Charron (Data Publica), Thomas Cabrol (Dataiku), Jean-Paul Smets (Nexedi): Industrial uses of Scikit-Learn
    Télécharger ce contenu au format Epub

    Lire les commentaires

    Sortie de Subsurface 4.4.1 le 18 février 2015

    3 mars, 2015 - 15:00

    Subsurface est un logiciel libre qui sert de journal de plongée (mais pas seulement) disponible pour les systèmes à base de noyau Linux ainsi que pour les systèmes de type Windows et Mac. Il est distribué sous licence GPLv2.

    La reconnaissance et la prise en charge des ordinateurs de plongée se fait au travers de l'excellente bibliothèque libdivecomputer qui est sous licence LGPL. Il est aussi possible d'importer des journaux de plongée depuis d'autres programmes du même type, souvent propriétaires et exclusifs à une marque d'ordinateur de plongée.

    Sommaire Notes de versions

    Attention, c'est non exhaustif, axé suivant ce qui m’intéresse :-) et repris des "release notes" officielles (copier/coller quand c'est en français ou traduction approximative si c'est en anglais). J'ai repris depuis la 4.0 histoire de faire le lien avec la v3 qui est la dernière à avoir eu un coup de projecteur sur LinuxFr.org.

    4.0
    • Une nouvelle visualisation du globe pour localiser vos plongées
    • Possibilité d’éditer les informations relatives à une plongée directement en cliquant simplement sur l’élément à éditer
    • Plus de champs pour chaque plongée, tous éditables directement sans passer par une nouvelle fenêtre ou un menu
    • Meilleure intégration avec le projet divelogs.de (chargement et téléchargement)
    4.0.x

    Pour les versions 4.0.1, 4.0.2 et 4.0.3 il s'agit principalement de corrections de bugs et :

    • Ajout des données d'évènements (début de palier, vitesse de remontée au dessus du seuil, etc.) dans le dump mémoire généré par libdivecomputer
    • Ajout du support de la génération des logs et dump mémoires de libdivecomputer (libdivecomputer peut s'utiliser de manière autonome en ligne de commande, auparavant les logs et dump mémoires de libdivecomputer ne remontaient pas dans Subsurface)
    • Amélioration des fonctions d'import et d'export dans les autres formats de fichiers supportés par Subsurface (Subsurface ayant son propre format de fichier XML).
    4.1

    En plus de toutes les améliorations et corrections qu'apportent cette version j'ai surtout retenu :

    • Possibilité d'exporter en HTML la carte du monde avec les sites de plongées explorés.
    • Sauvegarde du fichier XML avant de l'écraser (auparavant pas de retour arrière possible)
    • N'affiche plus par défaut les bouteilles inutilisées dans l'onglet équipement.
    • Amélioration du support de Qt5
    4.2

    En dehors des problématiques sur les environnements Windows et Mac avec Qt, j'en retiens :

    • Nouvelle apparition (lors de la précédente tentative d'inclure ce type de fonctionnalités, l'outil de planification avait soulevé beaucoup de griefs car pas assez fiable et avec des planifications trop incohérentes avec les modèles de décompression connues) d'un outil de planification de plongée (très utile pour les plongeurs Tek) qui supporte notamment :
      • Utilisation de l'éditeur graphique de profils de plongée
      • Support de différentes vitesses de remontée
      • Gestion des changements/interruptions des gaz de fond pendant les phases de décompression
      • Impression du programme de plongée sans le graphique (très utile pour avoir son runtime qu'on imprime et emmène avec soi sous plastique, en général pour l'avoir sur l'avant-bras)
      • A court terme il est prévu de pouvoir rééditer une plongée planifiée précédemment (actuellement il est obligatoire de repartir de 0, point corrigé dans la v4.4)
    • Gestion des photos améliorée avec associations possible à un profil
    • Export HTML du journal de plongée amélioré devenant réellement utilisable.
    4.3
    • Amélioration des fonctions de filtres dans l'interface graphique
    • Amélioration des fonctions d'édition (ex : copier/coller pour de multiples plongées)
    • Le profil d'une plongée améliore la manière dont la saturation des tissus (ou compartiments suivant la sémantique de votre ordinateur) est visuellement présenté à chaque étape de la plongée.
    • Amélioration de la représentation visuelle des bouteilles de plongée et du gaz embarqué (afin de mieux différencier par exemple un gaz Air en début de plongée avec un gaz de déco en fin de plongée. A noter que la représentation du nom du gaz semble être la version américaine).
    • Pour les heureux possesseurs des formidables ordinateurs Heinrichs & Weikamp OSTC 2 et 3 (NDR : avis totalement subjectif :-) ) il est maintenant possible de configurer les différents paramètres de ces ordinateurs directement depuis l'interface de Subsurface (à utiliser avec de très grandes précautions, notamment tout ce qui impacte les algorithmes de décompression).
    • Début du support des Recycleur en circuit fermé (CCR) et en circuit semi-fermé (pSCR) avec notamment le Poséidon MkVI CCR :

    4.4 & 4.4.1

    De manière mélangée, quelques améliorations des versions 4.4 et 4.4.1 :

    • Amélioration de la gestion des coordonnées GPS
    • Amélioration du script de compilation/installation de Subsurface depuis les sources. Très utile car, depuis peu, Subsurface gère directement les paquets des distributions et pour ma part, étant sous Gentoo la dernière version disponible (hors layman) était la v3.0.
    • Permet de diffuser sur son profil Facebook (timeline) des images de profils de plongée avec les données les plus pertinentes (en espérant que cela n'entraîne pas une course au profil de plongée le plus extrême).
    • Sélection des plongées à importer (avant l'opération d'import, pratique car certaines interfaces de communications sont très lentes).
    • Les heureux possesseurs des formidables ordinateurs de plongée Heinrichs & Weikamp OSTC 3 et OSTC Sport (avis toujours autant subjectif) peuvent maintenant faire les mises à jour de microcode depuis Subsurface (seule solution technique existante sur les systèmes à base de noyau Linux).
    • Amélioration de la prise en charge des plongées de type pSCR, mais qui reste peu fonctionnelle.
    instant publicité

    En résumé, c'est un logiciel porté par de grands noms du monde Linux et c'est un plaisir de bon fonctionnement sous Linux, couplé à des ordinateurs de plongée type OSTC dont le microcode est libre sous licence GPLv3.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Quatre mini-conférences/débats à l'École Normale Supérieure le dimanche 8 mars 2015

    3 mars, 2015 - 14:38

    Dans le cadre de la semaine « S'exprimer contre la terreur » organisée à l'École Normale Supérieure à Paris (45 rue d'Ulm), le hacklab de l'ENS, hackEns, organise quatre mini conférences/débats. Elles porteront sur les liens entre la liberté d'expression, Internet, la censure et la lutte anti-terroriste (plus de détails dans la seconde partie de la dépêche).
    Antoine Champagne (kitetoa), Jérémie Zimmermann, Stéphane Vilboux (Yhargla) et Pablo Rauzy proposeront chacun une conférence, de 16h00 à 19h00, le dimanche 8 mars 2015.

    L'entrée est bien sûr libre et gratuite.

    La politique de terreur menée par les groupes extrémistes qui a conduit aux attentats des 7, 8 et 9 janvier 2015 vise à contraindre la liberté d'expression de chacun.

    Sous couvert de lutte contre ce terrorisme, les États ont mis en place dans les dernières années de nouvelles lois, dites « anti-terroristes », simplifiant et automatisant la surveillance et la censure d'Internet.

    Ces lois régularisent la surveillance de masse parfois déjà mise en place, établissent des possibilités de censure au nom de la lutte contre l'apologie du terrorisme sans recours à la justice et vont jusqu'à permettre la réquisition de données par les États.

    Bien que prises dans un but légitime, ces lois peuvent mener à nombre de dérives. La différence entre dissidence et terrorisme s'amincit et l'omniprésence de la surveillance mène les gens à l'autocensure. Le recours à la justice est négligé dans de plus en plus de cas, mettant en danger un des principes fondateurs des régimes démocratiques.

    La difficulté technique de la surveillance sur Internet et le risque de dérives associé permettent de douter de l'efficacité de ces lois. À quel point sommes-nous prêts à sacrifier nos libertés et notre indépendance et pour quelle sécurité ?

    Des moyens de parer les problèmes soulevés par ces lois existent, allant du rétablissement du caractère fondamentalement décentralisé d'Internet, au chiffrement plus systématique des communications. Même si ces solutions sont aujourd'hui techniquement réalisables, peuvent-elles devenir effectives ?

    • 16h00, Antoine Champagne (kitetoa) — Reflets.info « Le rôle de la France dans la surveillance globale au sein des dictatures et des États policiers »
    • 17h00, Jérémie Zimmermann — La Quadrature du Net « Guerre contre le terrorisme et libertés »
    • 18h00, Stephane Vilboux (Yhargla) — Franciliens.net « Franciliens.net, fournisseur d’accès à internet associatif en Île de France, pour la neutralité du net »
    • 19h00, Pablo Rauzy (p4bl0) — École normale supérieure et Telecom Paristech « Compromis entre liberté et sécurité, un exemple à taille humaine »

    Je vous invite également à consulter le reste du programme de cette semaine (du 7 au 14 mars), portant sur d'autres sujets plus généraux mais toujours en lien avec le terrorisme, comme la place de l'art, la géopolitique, la sociologie…

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Atelier « Découverte des Logiciels Libres Gimp » le samedi 14 mars 2015 à Marseille

    3 mars, 2015 - 14:38

    L’association CercLL en collaboration avec Julien, Éric et Marc vous invite à l’Atelier du Samedi Libre qui se déroule le samedi 14 Mars 2015 de 14h30 à 17h30, à la Fabulerie 4 rue de la Bibliothèque 13001 Marseille.  

    Ces ateliers se déroulent, en général, sur une séquence hebdomadaire de deux à trois séances de travail et sur un thème déterminé.

    Atelier « Découverte des Logiciels Libres Gimp »
    • Première séance le 14 Mars 2015 de 14h30 à 17h30
    • Deuxième séance le 21 Mars 2015 de 14h30 à 17h30
    • Troisième séance le 11 Avril 2015 de 14h30 à 17h30

    Comme le mot atelier le laisse présumer, dans ce cadre, nous proposons une approche pratique des outils libres. Nous avons décidé de nous adresser à un public débutant qui cherche à mieux connaître son ordinateur et les applications les plus courantes que tout un chacun utilise.

    Prérequis :
    • Les personnes qui veulent participer à ces ateliers devront s’inscrire sur notre site CercLL au https://cercll.wordpress.com/contact/
    • L’atelier n’aura lieu que si quatre personnes, au moins, sont inscrites. Places limitées à huit personnes.
    • L’inscription est de 20 euros pour les trois séances.
    Atelier « Découverte des Logiciels Libres Gimp »

    GIMP, acronyme de « GNU Image Manipulation Program », est un logiciel libre de dessin matriciel. Équivalent en version libre au logiciel Photoshop, il vous permet de dessiner, peindre et éditer des images.
    Plusieurs des outils et des greffons (plugins) disponibles dans GIMP sont semblables à ceux d’Adobe Photoshop, ou d’autres éditeurs d’image. GIMP est également compatible avec l’ensemble des extensions de fichier, et de leur format respectif dont les PSD, PSP, FLI, FLC, PDF…
    GIMP permet d’utiliser des scripts pour les opérations et les manipulations d’images compatibles avec les langages libres de scripts-fu.
    Enfin, ce qui fait la force de GIMP, c’est la communauté qui l'entoure : la quantité du contenu libre pour GIMP (les scripts, les tampons, motifs, brosses, etc.) est incommensurable.
    GIMP est également compatible avec le contenu (les brosses, etc.) de Photoshop3).

    Télécharger ce contenu au format Epub

    Lire les commentaires