Syndicate content
Mis à jour : il y a 21 min 18 sec

Agenda du Libre pour la semaine 25 de l'année 2025

15 juin, 2025 - 09:19

Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 46 événements (France: 42, internet: 3, Belgique: 1) est en seconde partie de dépêche.

Sommaire

Sortie de Datafari 6.2, moteur de recherche open source pour entreprise avec de l'IA

15 juin, 2025 - 09:19

Nous (NdM: France Labs qui porte datafari.com) sommes fiers de vous annoncer la mise à disposition de Datafari 6.2

Pour faire court, la grosse nouveauté vient de l’intégration simplifiée des outils tiers d’IA générative. Ces travaux ont été en partis financés par le projet Européen NGI Search Neural Datafari, qui a permi du coup également d'ajouter la recherche vectorielle bout en bout au projet Apache Solr.

Pour rappel, Datafari est une solution de recherche pour entreprise. Où que les connaissances se trouvent et sous quelque format que ce soit, elle permet aux employés de retrouver les données utiles.

Et désormais grâce à l’IA, de « discuter » avec ses connaissances. Plus concrètement, il s’agit de récupérer et d’indexer les données et documents depuis de nombreuses sources différentes et plusieurs formats de fichiers, et de permettre aussi de chercher des documents mais aussi d’utiliser une IA générative pour les questionner.

Pour cette dépêche, on se concentre sur la version libre et open source (mais il y a aussi d’autres nouveautés sur la version entreprise propriétaire).

Notre dernière dépêche datant de… Datafari 5.3, voici Les nouveautés et changements principaux par rapport à cette dernière:

  1. Ajout d’un module RAG (Retrieval Augmented Generation)
  2. Passage à Solr 9.8 avec recherche vectorielle
  3. Ajout d’un module d’appel de LLM à l’indexation
  4. Gestion automatique du chunking des documents indexés
  5. Création d’un module autonome d’analytics au lieu de Zeppelin pour optimiser les ressources
  6. Création d’un regex connector à l’indexation
  7. Refonte technique de l’interface graphique, en React
  8. Passage à la V2 des API REST de Datafari
  9. Prototype d’agent autonome pour héberger en local un modèle d’IA
  10. Du bugfix de partout
Comment démarrer ?

Pour voir à quoi ça ressemble, nous avons téléversé une courte vidéo de démonstration. Pour démarrer tout de suite, le mieux est d’aller lire le quick start guide. Nous mettons gratuitement à disposition notre documentation Datafari sur Confluence, qui couvre les usages, l’administration et le développement. Attention, les modules d’IA que nous avons développés, nécessitent la disponibilité d’un serveur exposant un modèle d’IA compatible. De base, Datafari n’héberge pas localement une IA. Le plus simple pour débuter est de le connecter par exemple à openAI pour se faire la main, et ensuite de passer à des modèles locaux hébergés par vos soins ou par des partenaires.

Pour rappel, voici les principales fonctionnalités de Datafari en tant que moteur de recherche :

Que peut‐on faire avec Datafari ?

Datafari est un moteur de recherche pour entreprise enrichi à l’IA : membres de la famille des outils de gestion des connaissances, les solutions de recherche fédèrent les connaissances en analysant et indexant tous les documents d’une organisation, aussi bien leur contenu que leurs métadonnées. Pour cela, le moteur de recherche doit être multi‐sources, multi‐formats, et gérer la sécurité. En outre, il faut permettre l’administration de l’outil.

Dans la version libre, on peut, côté admin :
  1. Administrer les connecteurs aux sources de données vers de nombreuses sources (nous utilisons Apache ManifoldCF avec tous ses connecteurs) dont Sharepoint, Confluence, Alfresco et les partages de fichiers ;
  2. Gérer l’algorithme de pertinence qui classe les documents pour leur affichage suite à une requête ;
  3. Activer les modules de recherche vectorielle et de RAG
  4. Mettre en avant des documents pour des requêtes identifiées ;
  5. Créer des utilisateurs et leur assigner des rôles ;
  6. Voir des statistiques d’usage de l’outil ;
  7. Créer l’équivalent de Google AdWords (appelés promoliens) ;
  8. Gérer des synonymes ;
  9. Plein d’autres choses accessibles depuis la documentation Confluence.
Côté utilisateur, on peut :
  1. Chercher de façon simple ou avancée ;
  2. Prévisualiser les résultats ;
  3. « Discuter » avec ses documents via le module RAG
  4. Bénéficier de la correction orthographique et de l’auto‐complétion ;
  5. Choisir et utiliser des facettes pour filtrer les résultats ;
  6. Mettre des résultats dans un panier de favoris ;
  7. Créer des alertes par courriel quand des documents modifiés ou nouveaux correspondent à une requête.
Et ensuite ?

Pour le reste de 2025, nous allons continuer à ajouter des fonctionnalités se basant sur les IA génératives pour multiplier les possibilités.

Des commentaires ?

Nous sommes en permanence à l’écoute des commentaires et suggestions pour faire avancer le produit, alors profitez-en, que ce soit d’un point de vue technique ou fonctionnel, ça nous intéresse. Ha et si vous êtes déjà un utilisateur, n’hésitez pas à en parler sur le web !

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

20 ans de Fedora-fr : huitième entretien avec Jean-Baptiste mainteneur de la traduction française

11 juin, 2025 - 10:44

Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.

Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au-delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d’application pour d’autres distributions.

N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.

Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.

L’entretien du jour concerne Jean-Baptiste Holcroft, un des mainteneurs de la traduction française de Fedora.

    Sommaire

    Bonjour Jean-Baptiste, peux-tu présenter brièvement tes contributions au projet Fedora ?

    Gêné par des traductions partielles de logiciels que je trouve super, j’ai aidé d’abords en signalant des problèmes, puis en traduisant, et ne voyant pas les traductions arriver, à fluidifier le processus de traduction.

    Ayant compris le fonctionnement, grâce à la communauté, j’ai voulu aider cette communauté à être plus efficace, en migrant sur la très bonne plateforme de traduction Weblate, en permettant la traduction de la totalité de la documentation de Fedora (on parle ici de 3,5 millions de mots, de milliers de pages).

    Transifex, la plateforme précédente, ne permettait pas un travail collectif efficace (entre les traducteurices et entre traducteurices-projets de développement).

    Avec l’expérience, j’ai constaté que la communauté du logiciel libre propose une expérience désastreuse pour les traducteurs, le coût de traduction vs l’effort nécessaire pour traduire tout un système d’exploitation est monstrueux, j’ai maintenant voulu rendre cela perceptible et accessible à tous (ce site est moche, sa valeur est la mesure de traduction transverse).

    Qu’est-ce qui fait que tu es venu sur Fedora et que tu y es resté ?

    Ses valeurs en tant que communauté m’ont intéressées.

    Fedora accueille les contributeurs, leur permet de gagner en responsabilité, de financer des initiatives et de grandir en tant que personne. Si mon implication varie dans le temps, ce n’est qu’une question de temps disponible.

    Pourquoi contribuer à Fedora en particulier ?

    La ligne est claire, au plus proche des créateurs de logiciels libre, en collaboration, que du logiciel libre et très fiable.
    C’est une mentalité que je trouve excellente et dans laquelle je me sens à l’aise.

    Contribues-tu à d’autres Logiciels Libres ? Si oui, lesquels et comment ?

    J’ai contribué pendant quelque temps au projet YunoHost sur les thèmes de la traduction, de l’internationalisation et de l’empaquetage de logiciels.
    Ce projet est mature et autonome sur ces deux sujets, ayant moins de temps, j’ai arrêté d’y contribuer.
    Je continue à l’utiliser au quotidien, car je le considère aussi stable que Fedora pour gérer mon serveur personnel avec mes courriels, mes fichiers, mes contacts, etc.
    Aujourd’hui, je m’intéresse plutôt à notre efficacité collective plutôt qu’un projet en particulier.

    Est-ce que tes contributions à Fedora sont un atout direct ou indirect dans ta vie professionnelle ? Si oui, de quelle façon ?

    Toute la culture technique gagnée en lisant l’actualité des projets, en contribuant via des rapports de bugs, des traductions, des développements m’ont aidé pour obtenir mon emploi actuel, et pour mon travail au quotidien.

    Le logiciel libre et le fait d’y contribuer, même modestement est un lien réel, concret et palpable, très loin de l’informatique fantasmée qui ne fait le bonheur que du porte-monnaie et du pouvoir des puissants.

    Dans le travail, qu’il soit lucratif, amical ou militant, je veux du concret qui nous aide à avancer, et c’est une valeur très forte du logiciel libre.

    Tu as maintenu la traduction française de Fedora pendant des années, peux-tu nous expliquer l’importance de la traduction et même de l’internationalisation dans ce genre de projets ?

    Le logiciel libre est un outil de lutte contre l’appropriation des communs par une minorité.
    Si on veut qu’il soit un outil d’émancipation des masses, on veut réduire les barrières à l’utilisation, tout en respectant les singularités de ses utilisateurs et utilisatrices.
    Un utilisateur de logiciel ne devrait pas avoir à apprendre une nouvelle langue pour utiliser un outil émancipateur et respectueux, d’où l’intérêt de ces activités.

    Traduire un logiciel est une activité complexe, quelles sont les difficultés rencontrées lors de cette activité ?

    Traduire est la partie facile, ça consomme très peu de temps, ce qui est compliqué c’est :

    • savoir où traduire - trouver quel logiciel affiche la chaîne, trouver où il est hébergé, comprendre quelle version est à traduire, etc
    • demander de pouvoir traduire un logiciel - tout n’est pas traduisible, notre pouvoir pour faire évoluer ça en tant que traducteurice est faible
    • comprendre comment traduire - l’idéal c’est Weblate directement lié au dépôt de logiciel du dépôt, le pire c’est l’ouverture de Pull Request
    • maintenir les traductions dans le temps - pour chaque projet

    Tu as participé à la migration de la plateforme de traduction Zanata vers Weblate, peux-tu revenir sur cette tâche et les motivations derrière cette décision ?

    Weblate est un outil de traduction performant, qui facilite la vie des créateurices de logiciels et des traducteurices. Cet outil est proche du dépôt de code source et permet beaucoup d’autonomie aux traducteurices pour s’organiser comme iels le souhaitent, tracer les modifications, être notifiés, etc.

    Zanata, ben c’était un objet OK pour traduire, mais c’est tout, tout le reste était déficient.
    À titre d’illustration, pour savoir si une traduction a été modifiée, je devais aller regarder sur chaque phrase l’historique des modifications.
    Sur Weblate, l’historique est transparent et efficace, et permet de filtrer par langue, projet, composants et type de changements. Voici par exemple l'historique des changements de traduction en français sur tous les projets.
    Quand Weblate est arrivé, j’ai activement démontré la pertinence de ce projet et poussé le sujet pour que nous soyons plus efficaces.

    Tu as également participé à obtenir des statistiques de traduction au sein du projet Fedora, quel intérêt à cela et comment cela a été mis en œuvre ?

    C’est un sujet génial, mais c’est légèrement compliqué, voici une simplification :
    Une distribution Linux, c’est l’assemblage de milliers de logiciels, des lignes de code contenues dans les paquets.
    Chaque paquet est disponible au téléchargement sur des miroirs, on y retrouve même les paquets d’il y a plusieurs années (j’arrive à exploiter les données jusqu’à Fedora 7 sortie en mai 2007).

    En suivant de près le fonctionnement de Weblate, je me suis rendu compte que le créateur de Weblate a créé des petits outils pour : avoir des listes de tous les codes de langues connus, et d’auto-détection des fichiers de traduction.

    La mécanique va donc :

    • télécharger chaque paquet existant dans Fedora
    • en extraire le code source
    • lancer l’auto-détection des fichiers de traduction
    • calculer pour chaque fichier le pourcentage d’avancement
    • agréger les résultats par langue grâce aux codes connus
    • puis générer un site web pour afficher les résultats

    Avec mon ordinateur, cela m’a pris plus de dix jours de calcul en continu, et le téléchargement de 2 To de données pour réussir à avoir une vue sur plus de 15 ans de la distribution Fedora. Je n’ai malheureusement pas encore eu le temps d’en faire une rétrospective pertinente dans le cadre d’une conférence, faute de temps pour analyser les données. Pour l’instant, la seule partie visible est le site https://languages.fedoraproject.org. J’espère avancer sur ce sujet pour la rencontre annuelle 2025 du projet Fedora et le FOSDEM 2026.

    La traduction est une activité spécifique pour chaque langue mais tout le monde a des problèmes communs vis-à-vis de l’outillage ou des situations complexes, y a-t-il des collaborations entre les différentes équipes de traduction dans Fedora ?

    D’une façon générale, résoudre un problème pour une langue résous systématiquement un problème pour une autre langue.
    Les traducteurs et traductrices se soutiennent beaucoup notamment pour ces raisons, soutenez-les vous aussi !

    L’absence de centralisation dans cette activité rend la cohérence des traductions dans l’ensemble des logiciels libres très complexe. Peux-tu nous expliquer ces difficultés ? Est-ce qu’il y a une volonté francophone notamment d’essayer de résoudre le problème en collaborant d’une certaine façon sur ces problématiques ?

    Un logiciel est une création, sa communauté peut être plus ou moins inclusive et pointue sur certaines traductions.
    La cohérence vient avec les usages et évolue comme la langue de façon progressive et délocalisée.
    On pourrait imaginer proposer des outils, mais si c’est un sujet très important, ce n’est pour l’instant pas mon combat.
    Je vois ça comme un problème de privilégié, car spécifique aux langues ayant suffisamment de traduction, alors que la quasi-totalité des langues en ont très peu et sont incapables de tenir le rythme exigé par l’évolution de nos logiciels libres.

    Je voudrais d’abord démontrer et faire acter à la communauté du logiciel libre qu’il y a urgence à améliorer notre efficacité avec des changements de processus et de l’outillage. Cet outillage pourrait sûrement permettre d’améliorer la cohérence.

    Fedora n’est sans doute pas le projet le plus avancé sur la question de l’internationalisation malgré ses progrès au fil des ans, qu’est-ce que le projet Fedora pourrait faire à ce sujet pour améliorer la situation ?

    Si on veut faciliter la vie des traducteurices, il faudrait envisager de permettre de traduire à l’échelle de Fedora, de façon distincte des traductions de chaque projet, comme le fait Ubuntu.
    Le problème, c’est qu’Ubuntu utilise des outils médiocres (Launchpad) et n’a pas de moyen automatisé pour renvoyer ce travail aux créateurs de logiciels.
    Fedora pourrait innover sur ce sujet, et réussir à faire les deux avec une bonne plateforme de traduction (Weblate) et beaucoup d’outillage pour partager ce travail avec les différentes communautés, les utilisateurices y gagneraient en confort, les traducteurices en efficacité et les projets en contributions.

    Quelque chose à ajouter ?

    Un grand merci à la communauté francophone de Fedora, à la communauté Fedora et à l’ensemble des communautés qui collaborent tous les jours pour nous permettre d’avoir des outils émancipateurs et qui nous respectent. Le travail réalisé au quotidien est exceptionnellement utile et précieux, merci, merci et merci.

    Gardons à l’esprit que le logiciel n’est qu’un outil au service d’autres luttes dans lesquelles nous devons prendre notre part.

    Merci Jean-Baptiste pour ta contribution !

    Conclusion

    Nous espérons que cet entretien vous a permis d’en découvrir un peu plus sur la traduction de Fedora.

    Si vous avez des questions ou que vous souhaitez participer au Projet Fedora ou Fedora-fr, ou simplement l’utiliser et l’installer sur votre machine, n’hésitez pas à en discuter avec nous en commentaire ou sur le forum Fedora-fr.

    À dans 10 jours pour un entretien avec Nicolas Berrehouc, contributeur de Fedora-fr et mainteneur de sa documentation.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Playlist de musiques libres — « Libre à vous ! » du 3 juin 2025 — Podcasts et références

    11 juin, 2025 - 07:28

    249e émission « Libre à vous ! » de l’April. Podcast et programme :

    • sujet principal : playlist de musiques libres
    • chronique de Benjamin Bellamy sur « Wikipédia a monté les marches du Festival de Cannes »
    • chronique de Vincent Calame sur « La guerre de l’information » de David Colon (2e partie)

    Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 MHz en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune. Vous pouvez nous laisser un message sur le répondeur de la radio : pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur : +33 9 72 51 55 46.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Elpe, un compromis entre NixOS et Ubuntu

    10 juin, 2025 - 11:49

    Je travaille depuis quelque temps sur Elpe, un projet qui vise à obtenir les bonnes propriétés de Nix/NixOS (les mises à jour atomiques, la reproductibilité), mais avec des paquets Ubuntu.

    Le code : https://nest.pijul.com/pmeunier/elpe

    L'idée est de définir des recettes de compilation en OCaml et de les envoyer à un backend Rust, qui se charge de les exécuter dans un conteneur sans réseau, en exposant uniquement le contexte nécessaire à la bonne exécution de la compilation. Les produits du build sont indexés par le contenu de la recette du build, et indexés une deuxième fois par le résultat : c'est ce deuxième hash qui est utilisé dans les dépendants du paquet, ce qui permet de construire un arbre de Merkle du système complet (et non seulement de ses sources), qui rend toute modification ultérieure facilement détectable.

    De plus, le système de base provient des dépôts de paquet Debian ou Ubuntu. Cependant, tous les chemins sont hard-codés (comme dans Nix), ce qui permet de garantir la reproductibilité, au détriment toutefois du coût de mise à jour en termes d'espace et opérations disque.

    Si le choix de Rust devient relativement consensuel par les temps qui courent, OCaml est plus surprenant. Après divers essais avec plusieurs langages, je l'ai choisi parce que c'est le seul langage avec à la fois :

    • Une bonne approximation du système de types dont j'avais besoin: typage nominal et aussi structurel, entre autres.
    • Un système de types relativement simple (pas de typeclasses ni de monades comme en Haskell, de borrow checkers comme en Rust ni de types dépendants comme en TypeScript).
    • Du late binding, nécessaire pour exprimer des "overrides" et des "hooks", courants quand on veut compiler des choses (autoconf et make ont plein d'options de ce type, par exemple).
    • Un compilateur ultra-rapide.
    • Un bytecode, pour (dans le futur) contrôler aussi l'isolation du code de build de façon très légère.

    La simplicité et l'expressivité d'OCaml sont bien adaptés à ce projet: les fonctions simples à concevoir y sont relativement claires à énoncer.

    Pourquoi pas NixOS, me direz-vous ? En tant qu'utilisateur et contributeur depuis environ 10 ans, un certain nombre de problèmes plus ou moins récents m'ont motivé à explorer une alternative:

    • En termes de gouvernance, la communauté a traversé dans la dernière année plusieurs crises de différentes tailles (Anduril, Devenv…). On pourrait y voir un signe de maturation ou au moins de croissance du projet, mais plusieurs éléments me permettent d'en douter, dont les réactions répétées de la fondation Nix, qui semble avoir beaucoup de mal à comprendre les messages pourtant clairs des contributeurs.

    • Je vois aussi les choix de design imposés par les fondateurs du projet depuis quelques années comme un bien mauvais signe: les flakes (en 2020) étaient une première incarnation de cette tendance, et plus récemment la "distribution propriétaire" de Nix est clairement une mauvaise idée, alors que la qualité de code de Nix n'est pas au niveau où on l'attendrait et que le gros du projet repose depuis plusieurs années sur le travail pharaonique des contributeurs de Nixpkgs.

    • On pourrait parler longtemps de la sécurité de Nix, qui me fait de plus en plus peur y compris pour mon usage personnel. Les process de gestion des rapports ne me conviennent pas, de même que l'opacité de certains choix techniques (les flags de compilation désactivés sur certaines plateformes, entre autres), souvent bien cachés dans les entrailles de Nixpkgs.

    • Enfin, le langage trop complexe à utiliser (principalement par manque de typage statique et de messages d'erreurs pertinents) rend Nix difficile à utiliser au sein d'une organisation d'une taille importante, et encourage les comportements peu inclusifs (éviter d'écrire de la doc, inventer des casse-têtes pour faire des choses simples…). Je suis bien sûr conscient que des entreprises (comme Anduril) et des ONGs (comme Médecins Sans Frontières) l'utilisent, mais je ne pense pas que ce soit généralisable aux situations où j'aimerais voir ce genre de projet utilisé.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Nouvelles sur l’IA de mai 2025

    8 juin, 2025 - 21:03

    L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

    Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

    Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

    Sommaire Résumé des épisodes précédents

    Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

    • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
    • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
    OpenAI dévoile Codex et codex-1

    Les modèles actuels commençant à être relativement compétents sur les tâches de programmation, la ruée vers l’or arrive : comment en faire de véritables programmeurs, autonomes ou semi-autonomes ?

    La première génération consistait à poser des questions à l’IA sur l’interface de chat, et copier-coller des bouts de code, ainsi que d’assistants à l’auto-complétion.

    La seconde génération, Aider (open-source), Cline (également), Cursor, Claude CLI ou Codex CLI consistait à donner un accès direct à votre projet à l’IA, lui permettant de consulter et d’éditer le code ; soit intégré à un IDE, soit en ligne de commande.

    La troisième génération revient aux racines de la première, où l’interface entre l’utilisateur et l’IA est à nouveau un simple chat dans le navigateur. Mais cette fois, l’IA clone votre projet dans un environnement de développement virtualisé et travaille dans cet environnement. Vous pouvez la superviser, ou la laisser travailler quelques temps.

    C’est en tout cas ce que propose OpenAI avec Codex. L’annonce officielle :

    Today we’re launching a research preview of Codex: a cloud-based software engineering agent that can work on many tasks in parallel. Codex can perform tasks for you such as writing features, answering questions about your codebase, fixing bugs, and proposing pull requests for review; each task runs in its own cloud sandbox environment, preloaded with your repository.

    Traduction :

    Aujourd'hui, nous lançons un aperçu de recherche de Codex : un agent d'ingénierie logicielle basé sur le cloud qui peut travailler sur de nombreuses tâches en parallèle. Codex peut effectuer des tâches pour vous telles que l'écriture de fonctionnalités, répondre à des questions sur votre base de code, corriger des bogues et proposer des demandes de fusion pour révision ; chaque tâche s'exécute dans son propre environnement sandbox cloud, préchargé avec votre dépôt.

    OpenAI couple cette sortie avec un modèle spécialisé pour la programmation, codex-1, avec sa System Card (pas très intéressante, mais notons qu’elle a le mérite d’exister).

    La force de ce mode de fonctionnement est le parallélisme : vous pouvez demander à l’IA de travailler sur plusieurs choses à la fois, voire lancer plusieurs sessions pour la même tâche et choisir le meilleur résultat.

    Les réactions sont mitigées : la fiabilité n’est pas toujours au rendez-vous, mais quand elle l’est, le gain de temps est loin d’être négligeable. Et si vous avez les poches profondes, lancer plusieurs tentatives en parallèle est une bonne manière de pallier au manque de fiabilité.

    Google I/O 2025

    Google I/O est la conférence annuelle de Google, présentant leurs nouveaux produits. C’est à Google I/O 2008 qu’Android avait été présenté.

    Pour cette édition 2025, sans surprise, c’est l’IA qui est sur le devant de la scène.

    Sur la création audiovisuelle, tout d’abord :

    • Veo 3 est un modèle permettant de générer une vidéo (avec son).
    • Veo 2, la version précédente, gagne certaines capacités : en plus d’instructions textuelles, le modèle est maintenant capable de prendre des images ou une vidéo de référence, pour reprendre le style ou les détails d’un personnage (ou d’un objet, ou d’une scène). Un contrôle plus fin de la caméra (zoom/rotation) est également fourni à l’utilisateur.
    • La génération d’image du nouveau modèle d’OpenAI avait fait parler d’elle en mars dernier. Google propose sa propre solution avec Imagen 4.
    • Lyria 2 est un nouveau modèle de génération de musique (paroles comprises).

    Pour lutter contre les nouvelles possibilités de désinformation offertes par ces outils, Google lance également SynthID, un outil pour détecter les contenus multimédia générés par les modèles d’IA de Google (et seulement de Google). Sur invitation uniquement, Google craignant probablement qu’un acteur malicieux puisse juste modifier le contenu jusqu’à ce que SynthID réponde « non-IA » si l’outil est publiquement accessible.

    Sur les modèles plus classiques :

    • Gemini 2.5 Flash, une version plus légère, rapide, moins chère, et moins puissante de Gemini 2.5 Pro.
    • Jailbreaké immédiatement, ce que je ne prendrai pas la peine de noter s’il n’y avait l’ironie que ce jailbreak arrive le même jour que la présentation de Google DeepMind nommée « Advancing Gemini’s security safeguards ».
    • Gemma 3, le modèle open-weights, gagne plusieurs variantes pour des tâches plus spécialisées : Gemma 3n, pour tourner sur des smartphone ; MedGemma spécialisé dans la médecine ; SignGemma pour le langage des signes et… DolphinGemma pour communiquer avec les dauphins ?
    • L’annonce également d’un nouveau mode pour Gemini 2.5 Pro, Deep Think, consistant apparemment à lancer plusieurs chaînes de pensée en parallèle. Apparemment une bonne avancée sur les problèmes mathématiques, moins impressionnant sur d’autres tâches. Accessible sur invitation uniquement également.

    Sur les IA « agentiques », capables d’utiliser des outils pour réaliser des tâches variées :

    Également proposés : plus d’intégration de l’IA dans les services classiques de Google (Search, Mail, Chrome…). Un usage notable : traduction en temps réel dans Google Meet.

    Présenté quelques avant Google I/O, AlphaEvolve est un système pour découvrir de nouveaux algorithmes, utilisant Gemini en tant que sous-composant. L’utilisateur fournit une description textuelle du problème avec une solution naïve et une méthode pour évaluer un solution, et le système se charge de trouver de meilleurs algorithmes pour résoudre le même problème.

    Ce système a trouvé de meilleures solutions relativement à l’état de l’art sur plusieurs problèmes évalués, par exemple en découvrant un moyen de multiplier deux matrices 4x4 à l’aide de 48 multiplications scalaires au lieu de 49.

    Dans la catégorie innovations, Gemini Diffusion explore un paradigme entièrement différent pour les modèles de langage. Les modèles de langage actuels sont basés sur des transformeurs, suivant la méthode maintenant célèbre de « prédire le prochain token à partir des précédents ». Dans la génération d’image, c’est un paradigme complètement différent qui est suivi, celui de diffusion (qui a donné le nom au modèle StableDiffusion), où le modèle est essentiellement un modèle de « dé-bruitage » qui transforme une image bruitée en une image plus claire, et qui commence par du simple bruit blanc. Gemini Diffusion est une tentative d’adapter ce paradigme de « diffusion » à la génération de texte : un texte complet est présenté au modèle, et sa tâche est de l’« affiner » incrémentalement (où le texte initial est complètement aléatoire). Les premiers résultats sont encourageants, ce premier prototype arrivant au même niveau de capacités que Gemini 2.0 Flash.

    Anthropic publie Claude 4

    L’annonce officielle :

    Today, we’re introducing the next generation of Claude models: Claude Opus 4 and Claude Sonnet 4, setting new standards for coding, advanced reasoning, and AI agents.

    Claude Opus 4 is the world’s best coding model, with sustained performance on complex, long-running tasks and agent workflows. Claude Sonnet 4 is a significant upgrade to Claude Sonnet 3.7, delivering superior coding and reasoning while responding more precisely to your instructions.

    Traduction :

    Aujourd'hui, nous présentons la prochaine génération de modèles Claude : Claude Opus 4 et Claude Sonnet 4, établissant de nouveaux standards pour le codage, le raisonnement avancé et les agents IA.

    Claude Opus 4 est le meilleur modèle de codage au monde, avec des performances soutenues sur des tâches complexes et de longue durée ainsi que des flux de travail d'agents. Claude Sonnet 4 est une amélioration significative par rapport à Claude Sonnet 3.7, offrant un codage et un raisonnement supérieurs tout en répondant de manière plus précise à vos instructions.

    Tout comme Google et OpenAI, Anthropic se focalise sur la course aux agents, souligné par le choix des benchmarks présentés par Anthropic pour vendre leur modèle : « Agentic coding » (SWE-bench-verified), « Agentic terminal coding » (terminal-bench), « Agentic tool use » (TAU-bench). Claude Opus 4 donne un nouveau état de l’art sur tous ces benchmarks, tout en restant au niveau de l’état de l’art (OpenAI o3 / Gemini 2.5 Pro) sur les tâches plus classiques. Ne vous attendez pas à un gros bond en avant, il s’agit là d’une amélioration incrémentale, contrairement à ce que pourrait laisser penser la numérotation de version.

    À noter un benchmark sur lequel Claude 4 montre un gros progrès : LoCoDiff, qui cherche à mesurer la capacité des modèles à maintenir de bonnes performances sur un long contexte.

    Une bonne nouvelle : OpenAI o3 avait cassé la tendance « les modèles plus avancés hallucinent moins », où o3 hallucinait plus que ses prédécesseurs. Anthropic a réussi à éviter cet écueil, avec un taux d’hallucinations en baisse. En baisse également (sans pour autant disparaître), la tendance des modèles à « tricher ».

    L’événement le plus intéressant de cette publication se trouve principalement dans la politique de sécurité des modèles. N’ayant pu déterminer avec confiance que Opus 4 ne possédait pas de capacités dangereuses (telles que « capacité à aider significativement à la création d’armes chimiques/biologiques ») nécessitant des précautions supplémentaires (contrairement à Opus 3 ou Sonnet 4), Anthropic a décidé de mettre en place ces précautions (AI Safety Level 3 ou ASL-3), au moins provisoirement (le temps de déterminer plus précisément les capacités du modèle sur ces points), et pour Opus 4 uniquement. Ce qui signifie principalement : surveillance (automatisée) des requêtes et restrictions supplémentaires sur les requêtes acceptées. Pour plus de détails, je vous renvoie à la System Card et à la politique de sécurité des modèle d’Anthropic.

    Ce qui n’a pas empêché Opus 4 d’être jailbreak immédiatement. Pour la défense d’Anthropic, la System Card mentionne explicitement que le but de ces précautions supplémentaires n’est pas de rendre plus difficile le jailbreak sur les requêtes « classiquement » interdites.

    En vrac

    Chatbot Arena est l’un des benchmarks les plus connus, utilisé notamment comme critère d’arbitrage sur les marchés de prédiction. Sa pertinence est de plus en plus remise en question, où le classement ne semble pas réellement refléter les capacités des modèles, sur d’autres benchmarks ou des évaluations privées/subjectives. Un papier publié sur arXiv, The Leaderboard Illusion, analyse l’impact de certaines pratiques pouvant expliquer ces différences. Les mainteneurs de Chatbot Arena répondent sur Twitter.

    Le gouvernement américain ouvre une consultation publique sur la politique à suivre concernant l’IA.

    Un chiffre intéressant: Cursor, un assistant de code, produit actuellement 1 milliard de lignes de code par jour.

    DeepSeek publie DeepSeek-Prover-V2, un LLM spécialisé dans les preuves mathématiques. Surpasse tous les modèles actuels sur PutmanBench.

    Dans la sécurité des modèles, "Scalable Oversight" désigne la technique suivante : utiliser un modèle considéré comme sûr pour évaluer la sécurité d’un modèle plus sophistiqué. Se posent diverses questions comme : "jusqu’à quel point un modèle moins sophistiqué peut juger un modèle plus sophistiqué" ? Ce papier tente de répondre à cette question (et d’autres adjacentes).

    Google DeepMind met à jour son modèle le plus avancé, Gemini 2.5 Pro. De meilleures performances sur les tâches de programmation, mais au prix de moins bonnes sur… presque tout le reste ?

    Le Copyright Office aux US publie un premier brouillon sur l’utilisation de données publiques pour l’entraînement des IA. Verdict temporaire: c’est un usage transformatif (autrement dit: pas du plagiat), mais ne rentre pas dans la doctrine du « fair use » (ce qui permettrait aux développeurs d’IA de ne pas offrir de compensation). Une victoire préliminaire pour les créateurs de contenu s’estimant lésés. Cependant, le directeur du Copyright Office aurait été limogé peu après la publication de ce rapport.

    ARC-AGI-2 est publié. ARC-AGI est un benchmark spécialement conçu pour être dur pour les IA actuelles, se reposant principalement sur des tâches de type raisonnement visuel. Malgré ceci, o3 est arrivé à 75%, dépassant les performances des évaluateurs humains. Cette seconde édition tente un nouveau format mais garde le même objectif, « difficile pour l’IA, facile pour les humains ».

    Quelque chose que je n’ai pas couvert jusqu’ici car un point secondaire dans beaucoup d’annonces plus importantes, mais qui mérite sa mention du fait justement d’être aussi commun : MCP (Model Context Protocol) est une tentative d’uniformiser la communication entre un modèle et d’autres systèmes (IDEs, sites internet,…). Développé par Anthropic (les développeurs de Claude), adopté par OpenAI et Google DeepMind, il devient de plus en plus un standard de fait.

    Dans la série « l’IA fait de la recherche », des chercheurs font leur propre système, nommé Robin, où l’IA propose des hypothèses et des expériences pour les tester, les chercheurs réalisent les expériences, et l’IA se charge de l’analyse des résultats et des prochaines étapes (plus d’expériences, plus d’hypothèses, ou tirer une conclusion). Premier résultat : un candidat pour traiter la forme atrophique de la dégénérescence maculaire liée à l’âge.

    OpenAI o3 découvre une faille de sécurité dans Linux.

    Le mois dernier, nous avions brièvement mentionné que OpenAI 4o était flagorneur, au point d’opiner sur des prompts relevant manifestement de l’épisode psychotique. Un utilisateur anonyme explore la même tendance à un moindre niveau Opus 4, et travaille à mesurer ça plus précisément. Il mentionne que ses résultats préliminaires montrent que les modèles plus avancés ont plus tendance à exhiber ce comportement.

    Dario Amodei, le patron d’Anthropic, prévient que l’IA pourrait supprimer la moitié des postes « débutants » dans des domaines tels que la technologie, la finance ou le droit d’ici 1 à 5 ans.

    Pour aller plus loin

    Non couvert ici :

    En audio/video :

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Agenda du Libre pour la semaine 24 de l'année 2025

    8 juin, 2025 - 21:02

    Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 46 événements (France: 41, internet: 4, Belgique: 1) est en seconde partie de dépêche.

    Sommaire

    Conférence OW2con'25, 17-18 juin à Paris

    5 juin, 2025 - 13:01

    La 16ᵉ édition d’OW2con rassemble des développeurs, entreprises, universitaires et organisations à but non lucratif. La conférence met également en lumière trois projets OW2 avec les "OW2con'25 Best Project Awards" distinguant des réussites dans plusieurs domaines : technologies, marché, communauté. L'inscription est gratuite et les conférences sont en anglais.

    Thème 2025 : L'IA open source et responsable

    Thème 2025 : L'IA open source et responsable

    Pour cette édition, les organisateurs mettent l'accent sur le thème de l'IA open source et responsable, en abordant des sujets tels que les biens communs, la souveraineté des données, la vie privée, l'explicabilité, le cadre juridique, la pile technique, le financement, la durabilité, la recherche, l'éducation, et l'impact sur le travail et la société. D'autres sujets seront abordés également : gouvernance et financement de l’open source, projets technologiques OW2 ou autres, cloud-edge, les données et la cybersécurité.

    Parmi les temps forts, 5 keynotes :

    • Artur Queiroz, Responsable d’Unité pour la Commission Européenne, partagera une vision prospective d’une Europe portée par l’IA ;
    • Yann lechelle, Fondateur de la startup Probabl.ai, fera une présentation autour du thème « Maitrisez votre IA » ;
    • Alberto Pace, Responsable au CERN, viendra parler de (r)évolution autour de la science des données ;
    • Matthieu Porte, Coordonnateur IA pour l’IGN, abordera les challenges liés à l’Intelligence Artificielle pour l’Institut National de l’information géographique.

    Des « breakout sessions » ponctueront les 3 jours :

    • Le CRA (Cyber Resilience Act) et son impact sur les acteurs open source, le 17 juin de 15h à 18h
    • L'open source dans l'éducation, la science et la recherche, le 18 juin, journée entière
    • Programme Européen NGI : "Success Stories" et NGI Innovators Meetup, le 18 juin, de 9h à 12h30

    Enfin, un débat animé par Clément Oudot de Worteks, sur le thème de “souveraineté et open source” en Europe viendra conclure cette édition 2025.

    Logistique

    Cela se déroulera comme chaque année dans les locaux d’Orange Gardens Innovation Center à Châtillon en banlieue parisienne. L'inscription est gratuite (voir le lien ci-dessous). Pour des raisons logistiques et de places limitées, si vous devez annuler votre présence, merci de nous prévenir pour libérer votre place).

    Sponsors

    L’édition 2025 est soutenue par 12 sponsors proches d’OW2 : Centreon, Dropsolid, Groupe BPCE, Huawei, Linagora, Linphone, MAIF, NGI, OnlyOffice, OpenUp, Thales et Worteks.

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Nouveautés de juin 2025 de la communauté Scenari

    5 juin, 2025 - 11:50

    Scenari est un ensemble de logiciels open source dédiés à la production collaborative, publication et diffusion de documents multi-support. Vous rédigez une seule fois votre contenu et vous pouvez les générer sous plusieurs formes : site web, PDF, OpenDocument, diaporama, paquet SCORM (Sharable Content Object Reference Model)… Vous ne vous concentrez que sur le contenu et l’outil se charge de créer un rendu professionnel accessible et responsive (qui s’adapte à la taille de l’écran).

    À chaque métier/contexte son modèle Scenari :

    • Opale pour la formation ;
    • Dokiel pour la documentation ;
    • Optim pour les présentations génériques ;
    • Topaze pour les études de cas ;
    • et bien d’autres…

    Open Source Experience : REX de l'édition 2024 et appels en cours pour #OSXP2025

    4 juin, 2025 - 16:03

    Open Source Experience (OSXP), a lancé son appel à conférence pour sa 5e édition autour du thème « L’open source, clé de l’autonomie stratégique de l’Europe ». Profitons-en aussi pour faire l'appel à stand du village associatif ainsi qu'un (petit) retour sur la quatrième édition qui s'est tenue les 4 et 5 décembre derniers au Palais des Congrès de Paris. L'événement était cette fois couplé à DevOpsREX qui a fait son grand retour. Et encore une fois, nous étions là pour vous rencontrer, interagir avec la communauté et vous faire plaisir !

    Cette année, Open Source Experience déménage à la Cité des Sciences et de l'Industrie, porte de la Villette (toujours à Paris) et se tiendra les 10 et 11 décembre 2025. Cela nous permettra d'avoir quelques stands de plus pour le village associatif !

    Sommaire

    (Début de) la fin de Windows (10)

    3 juin, 2025 - 14:56

    La prise en charge de Windows 10 se termine le 14 octobre 2025, forçant ses utilisateurs à passer à Windows 11 qui requiert des performances beaucoup plus élevées tout en poursuivant la prise de contrôle de ses utilisateurs.

    La campagne « End of 10 » (fin de [Windows] 10) initiée il y a quelques mois vise à dénoncer le gaspillage de ressources (en forcant le remplacement anticipé de machines), et incite à un passage à Linux.

    Le lancement de la campagne sur les réseaux sociaux (i.e. Mastodon) a démarré le 28 mai.

    De bonnes raisons

    La campagne est axée sur cinq arguments principaux :

    • les économies financières : pas de coût de licence, pas d'obligation de renouveler son matériel de manière anticipée.
    • l'amélioration du respect de la vie privée : s'affranchir des publicités et logiciels espions intégrées de force dans Windows.
    • l'écologie : éviter un remplacement d'ordinateur a un impact carbone direct.
    • bénéficier d'un support adapté : communautaire ou professionnel, en ligne ou en physique.
    • reprendre contrôle de son ordinateur : bénéficier des libertés des logiciels libres pour utiliser votre ordinateur comme vous le souhaitez.
    La philosophie de la campagne

    La campagne est née du groupe de travail KDE Eco réfléchissant sur les impacts environnementaux des logiciels, cependant il est important de noter que dans le cadre de cette campagne la communication doit promouvoir « Linux » de manière générale et non promouvoir telle ou telle distribution. L'objectif premier est de quitter Windows.

    Le partage sur les réseaux sociaux vise à faire connaître l'initiative de manière plus large, cependant le succès est principalement attendu en s'appuyant sur des acteurs locaux existant : cafés réparation, boutiques informatiques, …

    Le site de la campagne fourni à la fois un registre des lieux et des dates où il est possible de se renseigner et se lancer. Plusieurs dizaines de possibilités ont déjà été ajoutées.

    Participer !

    De nombreuses façons de participer sont possibles :

    • prendre contact avec les structures locales (repair cafés, GULL, associations, …)
    • aider lors d'une install party ou en organiser une près de chez vous (et déclarer l'évènement sur le site)
    • en parler avec vos proches
    • relayer les messages Mastodon

    Microsoft a ouvert la porte pour faire de 2025 l'année Linux ! À nous de mettre le pied dans la fenêtre !

    Télécharger ce contenu au format EPUB

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    20 ans de Fedora-fr : septième entretien avec Johan ancien contributeur à Fedora-fr

    3 juin, 2025 - 14:53

    Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.

    Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d'application pour d'autres distributions.

    N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.

    Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.

    L'entretien du jour concerne Johan Cwiklinski (pseudo trasher), ancien contributeur de Fedora-fr.org et actuel mainteneur du logiciel de gestion Galette.

      Sommaire

      Bonjour Johan, peux-tu présenter brièvement ton parcours ?

      Je suis principalement développeur (PHP, Python, Java), et un peu administrateur système - complètement autodidacte. J'ai découvert le monde de GNU/Linux en 1998 en achetant avec deux camarades de fac une distribution Red Hat 5.2 :D

      Ce n'est que quelques années plus tard, en 2002, que je reviendrai à Linux ; rapidement comme OS principal. J'ai testé durant cette période différentes distributions comme Red Hat, Fedora, Mandrake et Ubuntu - pour revenir définitivement à Fedora en 2006.

      Peux-tu présenter brièvement tes contributions au projet Fedora ?

      J'ai traduit de la documentation et des logiciels pour le projet.
      J'ai rédigé de la documentation pour le projet officiel (un peu) et pour le communauté francophone (beaucoup plus).
      J'ai rédigé des articles pour des magazines divers.
      J'ai empaqueté et maintenu différents logiciels dans les dépôts.
      J'ai participé à la mise en place et maintenance de certaines versions du site internet de la communauté francophone.
      J'ai participé à plusieurs salons informatiques dans le Nord ainsi qu'à Paris et à Bruxelles (FOSDEM), avec d'autres contributeurs francophones de l'époque.
      J'ai été responsable de la mise en place de la documentation "Fedora-fr" pendant plusieurs années.

      J'ai mis en place avec l'aide d'autres contributeurs différents canaux pour apporter des contributeurs francophones à participer au packaging sur Fedora - via la rédaction d'une documentation assez complète, des présentations lors d'évènements sur Paris, un canal IRC dédié, …,

      Et j'ai aidé à monter l'association "Fedora-fr" - pour laquelle j'ai été trésorier la première année d'existence.

      Qu'est-ce qui fait que tu es venu sur Fedora et que tu y es resté (si tu t'en sers encore) ?

      Alors, oui, je tourne encore sous Fedora ; que ce soit sur mon ordinateur personnel ou celui du boulot. J'ai même une Fedora sur un serveur dédié que j'administre

      Nouvelle version de NumCalc, la calculatrice scientifique en ligne de Fabrice Bellard

      3 juin, 2025 - 12:55

      Fabrice Bellard vient de mettre à jour NumCalc, sa calculatrice scientifique et graphique en ligne, qui utilise maintenant un nouveau code indépendant de QuickJS (je vous renvoie à la dépêche qui abordait cette question).

      Le nouveau code est un mix entre Javascript, Python et Julia. Le code Javascript utilise la bibliothèque LibBF (MIT). L'interface a été retravaillée mais reste minimaliste pour être pratique et légère. Elle est devenue responsive et s'affiche très bien sur un mobile. Elle accepte maintenant des entrées en syntaxe Calc et Javascript.

      NumCalc est rapide, ça m'a impressionné. La réactivité vient aussi du navigateur et de l'ordinateur puisque tout se passe sur votre poste, rien n'est envoyé au serveur. C'est surtout une sensation. Par exemple l'application Qalculate! me parait moins nerveuse, comme on dit d'une voiture. Bref, NumCalc est agréable.

      Les deux précédentes versions sont toujours disponibles.

      Télécharger ce contenu au format EPUB

      Commentaires : voir le flux Atom ouvrir dans le navigateur

      Revue de presse de l’April pour la semaine 22 de l’année 2025

      3 juin, 2025 - 09:17

      Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

      Photos et traces gps dans un blog statique

      2 juin, 2025 - 13:51

      Cette dépêche va présenter une méthode pour afficher sur un site personnel les traces, récits et photographies de balades (pédestres, cyclistes par exemple).

      Comme le contenu à afficher est diversifié (texte, photographies, cartes), la solution retenue sera un blog. Dans un soucis de sobriété numérique, le site sera sans base de données.

      Pour l'aspect esthétique, la barre de navigation et les cartes seront situées dans la partie gauche des pages et surtout, la carte ne bougera pas avec la navigation dans la page.

        Sommaire

        N'ayant pas trouvé d'alternative libre à Polarstep, la solution retenue se base sur les briques logicielles libres suivantes :

        • un moteur de blog static : pelican (AGPL v3.0)
        • des thèmes pour le blog
        • des bibliothèques cartographiques : leaflet (BSD 2)
        1 - Préparation de pelican

        Pelican propose d'écrire chaque billet de blogs dans un fichier texte indépendant (au format markdown ou reStructuredText).

        Pelican les convertit en html et l'organisation du site ainsi généré (catégories, mots-clefs, archivage) se fait par le biais de gabarits (qui sont dans un sous-répertoire templates)

        a) Le moteur

        L'installation ne sera pas développée ici, pelican étant disponible dans de nombreuses distributions.

        Il faut créer la structure de travail (dans le répertoire personnel de notre choix) :

        pelican-quickstart b) Installation du thème graphique

        En allant sur le dépôt des thèmes de pelican, il est possible de trouver le style graphique qui nous convient le mieux.

        Nous allons utiliser le thème pelican-blue (sous licence MIT 2.0), qui a l'avantage d'être simple, et commençons son installation :

        • création du répertoire theme dans notre structure de travail
        • décompression de l'archive du thème dans le répertoire « theme »
        • modification du fichier pelicanconf.py pour configurer notre site. Il faut adapter quelques variables :
        SITENAME = 'Mon blog' SITEDESCRIPTION = 'Mes souvenirs de vacances' THEME = "./theme/pelican-blue" STATIC_PATHS = ['images', 'gpx']
        • modifications propres au thème. Souvent l'auteur d'un thème propose de le personnaliser à partir de variables déclarées dans le fichier de configuration.
        c) Écriture du premier billet

        On va créer notre premier billet

        Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Slug: depart Tags: bonjour, balade Bonjour tout le monde ! Quelle chouette sortie j'ai faite. d) Génération de notre site

        On lance la première compilation :

        make clean make html

        On peut voir le résultat :

        • soit en ouvrant directement le fichier index.html (présent dans le répertoire output)
        • soit en lançant un mini serveur web (make serve) et lancer son navigateur web à l'adresse http://localhost:8000/

        Pour plus de renseignements sur pelican, je vous invite à vous rendre sur la documentation du projet.

        2 - Peaufinage de base

        On va maintenant nettoyer le code des gabarits, en supprimant les choses que l'on trouve inutiles ou qui nous déplaisent. Tout se passe dans le répertoire templates de notre thème.

        • il y a les fichiers analytics.html et disqus.html
        • une recherche par mot nous informe des éventuelles références à Google, Twitter, Facebook

        On supprime les parties qui ne nous conviennent pas.

        3 - Gestion cartographique

        Nous attaquons désormais notre objectif : rendre visibles sur des cartes des fichiers de trace.

        a) Gestion des cartes

        On va maintenant configurer la gestion des cartes, par l'intermédiaire de leaflet. Comme l'indique sa page wikipédia, leaflet est très largement utilisé et très pratique.

        On va donc

        • le télécharger,
        • le décompresser dans le répertoire static de notre thème
        • modifier les entêtes de nos gabarits (cela se fait le plus souvent dans le fichier base.html) pour y ajouter au niveau <head> les références à leaflet :
        <link rel="stylesheet" href="{{ SITEURL }}/theme/leaflet/leaflet.css" integrity="sha256-p4NxAoJBhIIN+hmNHrzRCf9tD/miZyoHS5obTRR9BMY=" crossorigin=""/> <script src="{{ SITEURL }}/theme/leaflet/leaflet.js" integrity="sha256-20nQCchB9co0qIjJZRGuk2/Z9VM+kNiyxNV1lvTlZBo=" crossorigin=""></script>

        Comme on a récupéré en local les fichiers, on met des chemins propres à notre arborescence (via {{ SITEURL }}/theme/).

        b) Gestion des fichiers de trace (gpx)

        Elle va se faire par l’intermédiaire d'un module supplémentaire https://github.com/mpetazzoni/leaflet-gpx (BSD 2).

        De la même manière qu'on a intégré dans nos entêtes l'intégration de leaflet, nous allons ajouter une ligne pour faire référence à leaflet-gpx (bien vérifier le nom du fichier javascript) :

        <script src="{{ SITEURL }}/theme/leaflet-gpx/gpx.js"></script>

        Par rapport à la documentation officielle, on retire l'attribut defer (puisque nous utilisons les fichiers locaux et non distants).

        Pour tester notre environnement, on va déposer dans notre répertoire gpx un fichier de trace, puis on va ajouter dans notre billet les éléments de cartographie de notre voyage :

        <div id="map" style="width: 600px; height: 400px;"></div> <script> var map = L.map('map'); L.tileLayer('http://{s}.tile.openstreetmap.org/{z}/{x}/{y}.png', { attribution: 'Carte et données : <a href="http://www.osm.org">OpenStreetMap</a>' }).addTo(map); var gpx = '/gpx/FICHIER.gpx'; new L.GPX(gpx, {async: true}).on('loaded', function(e) { map.fitBounds(e.target.getBounds()); }).addTo(map); </script>

        On regénère notre site web, et on peut visualiser notre billet

        Globalement, ça fait le boulot.

        Mais on peut améliorer la chose : on peut par exemple cacher les marques de début et de fin d'itinéraire en insérant la ligne suivante après le async: true

        markers: {startIcon: null, endIcon: null, }

        Mais surtout, nous souhaitons que pelican génère automatiquement la partie consacrée au fichier de trace (alors que dans notre test, nous avons dû l'ajouter nous-même) !

        c) Modification des gabarits

        Si l'on veut simplement ajouter notre fichier de trace et que notre gabarit le traite, on va ajouter cette information dans les entêtes de notre fichier markdown ! En effet pelican permet de créer des variables qui seront utilisables dans nos gabarits.

        Nous allons donc créer et utiliser une variable (qui s'appellerait… Gpx par exemple), qui stockera le nom du fichier gpx à afficher (les chemins sont relatifs à notre site web)

        Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Gpx: /gpx/monfichier.gpx Slug: depart Tags: bonjour, balade

        Nous modifions ensuite notre gabarit article.html pour qu'il génère la carte à partir de notre variable.

        Pelican est très souple : basé sur Jinja2, il permet les boucles, les conditions et les variables.

        Tous les éléments qu'il utilise sont insérés dans des accolades. Le fonctionnement est facilement lisible et compréhensible.

        On va donc conditonner (avec if) l'insertion de leaflet.

        {% if article.gpx %} <div id="map" style="width: 600px; height: 400px;"></div> <script> var map = L.map('map'); L.tileLayer('http://{s}.tile.openstreetmap.org/{z}/{x}/{y}.png', { attribution: 'Carte et données : <a href="http://www.osm.org">OpenStreetMap</a>' }).addTo(map); var gpx = '{{ article.gpx }}'; new L.GPX(gpx, {async: true, markers: {startIcon: null, endIcon: null, } }).on('loaded', function(e) { map.fitBounds(e.target.getBounds()); }).addTo(map); </script> {% endif %}

        Bien entendu, nous supprimons ces références du fichier markdown correspondant à notre billet de test.

        On regénère notre site web, et on peut visualiser notre billet… qui n'a pas changé : tout fonctionne. Pour chacune de nos sorties, il suffit donc d'indiquer le fichier de trace dans les entêtes pour que la carte soit insérée automatiquement dans notre billet.

        Passons maintenant à l'intégration de nos photos.

        4 - Gestion des photographies associées à notre cartographie

        Nous avons besoin :

        • d'une image
        • de ses coordonnées géographiques (latitude et longitude)

        Pour cela, nous allons procéder de la même manière que pour le fichier trace : nous allons créer et utiliser des variables dans les entêtes des fichiers markdown.

        a) Fichier des billets

        Nous modifions encore une fois les entêtes en ajoutant autant d'informations (image, latitude et longitude) que de photos à afficher en miniatures.

        Title: Première sortie Date: 2025-05-01 Modified: 2025-05-01 Category: Lieux Gpx: /gpx/monfichier.gpx Slug: depart Img: /images/image1.jpg Lat: 49.895517 Lon: 2.295983 Img: /images/image2.jpg Lat: 49.89443 Lon: 2.30137 Tags: bonjour, balade

        On remarque ici que l'on a mis plusieurs images avec les mêmes noms de variables.

        b) Modification des gabarits

        Nous allons ensuite modifier les gabarits de pelican pour qu'ils positionnent des miniatures des photos sur notre trajet.

        Nous allons à nouveau modifier notre fichier article.html, en y ajoutant (à la suite de notre précédente modification, dans la condition {% if article.gpx %}) le code suivant :

        Nous commençons par indiquer l'icône qui s'affichera sur la carte à chaque photo mise en valeur

        var MonIcone = L.icon({ iconUrl: '/images/app-photo.png', iconSize: [36, 36] });

        Puis nous codons l'affichage du marqueur (qui sera géré par leaflet).

        {% if article.img %} {% if article.img is string %} imageTxt = 'Description'; L.marker([{{ article.lat }}, {{ article.lon }}], {icon: MonIcone}).bindPopup(imageTxt + '<br><img src="{{ article.img }}" width="200px"><a href="#bal5">plus de détail</a>').addTo(map); {% else %} {% for n in range(article.img| length) %} imageTxt = 'Description'; L.marker([{{ article.lat[n] }}, {{ article.lon[n] }}], {icon: MonIcone}).bindPopup(imageTxt + '<br><img src="{{ article.img[n] }}" width="200px"><a href="#bal5">plus de détail</a>').addTo(map); {% endfor %} {% endif %}

        La difficulté réside dans la gestion des éléments répétitifs :

        • s'ils sont plusieurs, on peut utiliser les méthodes python des listes.
        • s'il n'y en a qu'un seul, cette méthode renvoie toutes les lettres de notre variable ! Il a donc fallu tester si celle-ci est une chaine de caractères ou une liste.

        Les choix sont ici purement personnels ou démonstatifs :

        • on a laissé une variable imageTxt en dur, elle pourrait être passée dans les entêtes de nos fichiers markdown
        • le texte du popup peut être adapté (on pourrait y ajouter un lien direct vers notre image par exemple)
        • le lien (ancre) est à créer dans notre fichier markdown
        • la taille de l'image du popup est en dur (on peut passer par une feuille de style css)

        On regénère notre site web, et on peut visualiser notre billet :

        Et lorsqu'on clique sur une icône d'appareil photo, on voit bien notre popup :

        c) Gestion des photographies

        Comme indiqué plus haut, la taille des miniatures affichées peut se gérer :

        • par CSS
        • ou créer des miniatures (avec imagemagick) pour diminuer la charge de notre serveur (afficher une photo de 3000 pixels à 200 pixels n'est pas optimal). Dans ce cas, il suffira d'adapter notre gabarit pour lui indiquer où aller chercher les petites images (/images/miniatures/ par exemple)

        Par contre, le point le plus compliqué est la gestion des coordonnées des photographies : il faut les rentrer à la main !

        • Pour les photographies qui n'intègrent pas les coordonnées dans leurs métadonnées, il n'y a pas d'autre solution que d'aller chercher sur une carte (openstreetmap par exemple) et de trouver le lieu de la prise de vue et de repérer les coordonnées.

        • Pour les photographies qui contiennent leurs coordonnées géographiques, on peut utiliser l'outil exiftool pour les récupérer. On peut éventuellement faire un script bash qui affiche les lignes d'entête pour notre billet (on n'a plus qu'à les recopier ou les rediriger vers un fichier texte) :

        for photo in $(ls ./content/images); do echo "" echo "Img: /images/"$photo LAT=$(exiftool -n -s3 -gpslatitude ./content/images/$photo) echo "Lat: "$LAT LONG=$(exiftool -n -s3 -gpslongitude ./content/images/$photo) echo "Lon: "$LONG done

        Nous avons utilisé les options -n qui affichent les valeurs numériques au format décimal (celui utilisé par openstreetmap pour les coordonnées) et -s3 pour avoir la valeur du champ sans le nom de son attribut.

        5) Dernières modifications

        Nous venons de voir les différentes techniques qui permettent d'avoir le rendu que nous souhaitions. Et le résultat est déjà agréable à regarder.

        Nous pourrions nous arrêter ici, mais vous voulons que la carte reste en permanence dans le menu latéral. La solution est de la mettre dans une balise <aside>.

        a) Modifier les gabarits

        Notre thème comporte déjà une telle balise : elle est dans le fichier base.html… ce qui signifie qu'il ne peut pas voir les informations sur les articles (donc nos entêtes) !

        La solution va donc consister à déplacer, à l'intérieur du fichier article.html, tout notre code dans une section (que nous appellerons mamap :

        {% block mamap %} Mettre ici tout le code sur notre gestion cartographique {% endblock %}

        Et dans le fichier base.html, on va insérer à l'intérieur des balises <aside> son appel (qui ne tient que sur deux lignes) :

        {% block mamap %} {% endblock %} b) Ajuster les feuilles de style

        Il faut surcharger le comportement de la carte gérée par leaflet :

        .leaflet-container { width: 400px; height: 300px; max-width: 100%; max-height: 100%; margin: auto; }

        Et vérifier que les largeurs de la carte, et de <aside> soient compatibles.

        Le résultat avec nos dernières modifications est désormais le suivant

        6) Conclusion

        Il est temps de finir cette dépêche, dans laquelle nous avons pu découvrir la souplesse et la richesse des gabarits gérés avec jinja2, ainsi que la facilité d'utilisation de leaflet.

        Désormais, dans notre flux de travail, nos répertoires sont organisé ainsi :

        content + gpx : les fichiers de trace + images : les photos que l'on veut afficher sur notre blog fichierXX.md : les billets output : notre site web (généré par pelican) theme + pelican-blue : le thème choisi + static + css + leaflet + leaflet-gpx + templates

        Et la rédaction de nos billets consiste à :

        • ajouter le fichier gpx de notre trace dans les entêtes
        • ajouter les informations sur chaque photo que l'on veut voir (toujours dans les entêtes)
        • écrire notre billet normalement (en y ajoutant éventuellement d'autres photos ou des ancres de navigation)

        Cette dépêche démontre qu'il est possible d'avoir, avec les outils actuels, un rendu intéressant pour partager ses sorties. Et totalement utilisable en auto-hébergement.

        Les outils utilisés sont très personnalisables et je vous invite à lire leurs documentations ou à parcourir leurs extensions respectives et de vous les approprier selon votre usage.

        Malheureusement, la solution présentée ne conviendra qu'à une minorité d'utilisateurs. En effet, elle se base sur des éléments qui sont le plus souvent rendus invisibles (site web, transfert de fichiers, métadonnées) et elle est inutilisable sur téléphone.

        Télécharger ce contenu au format EPUB

        Commentaires : voir le flux Atom ouvrir dans le navigateur

        Netvibes.com au rancart, Pétrolette au rendez-vous

        1 juin, 2025 - 21:01

        « J'étais tranquille j'étais peinard / je réparais ma mobylette » / la nouvelle a surgi le soir / un truc pas vraiment super-chouette… » Eh oui, le couperet est tombé, les utilisateurs de l'agrégateur de flux Web Netvibes.com ont reçu le 15 avril un courriel de Dassault Systèmes leur annonçant que leur agrégateur préféré aller se désagréger définitivement dans l'atmosphère le 2 juin 2025 à midi, avec toutes leurs données, tel un Starship numérique. Si l'on en croit le début du message, cela est lié au développement d'un nouveau service de l'entreprise nommé 3D UNIV+RSES, avec plein d'IA et tout et tout. Le courriel d'avertissement indique certes comment sauvegarder ses données, mais « et maintenant, Papa / C'est quand qu'on va où ? »

        Sommaire Good vibrations 2.0 ou le cubisme informationnel

        Netvibes.com, lancé par une start-up en 2005 et racheté par Dassault Systèmes en 2012, était un lecteur en ligne permettant d'afficher les flux RSS ou Atom dans des petits cadres qu'on pouvait regrouper dans des onglets thématiques. Chaque cadre était configurable (longueur, affichage d'images ou non…) et déplaçable facilement. Les flux se mettaient automatiquement et régulièrement à jour. On pouvait aussi ajouter de petites applications (listes de choses à faire, accès courriels, accès à différents réseaux sociaux, etc.). Wikipedia décrit Netvibes.com comme « un portail Web personnalisable. Représentatif de ce qu'on appelle le Web 2.0 ». En tout cas, c'était un très bon outil de veille que j'utilisais tous les jours depuis belle lurette.

        Lancé en 1990, donc à peu près en même temps que le World Wide Web, le Courrier international nous permettait d'avoir accès à une pluralité de points de vue issus des journaux du monde entier. Un agrégateur de flux, c'est un peu l'équivalent informatique. Il permet un véritable cubisme informationnel. Avoir un onglet News agrégeant des flux de journaux d'horizons politiques différents et de plusieurs pays, c'est échapper à la bulle informationnelle, à la ségrégation sociale créée par les grands réseaux sociaux commerciaux. Car observer depuis le point de vue d'autrui est un bon exercice, même si ça peut parfois être désagréable comme du poil à gratter. Enfin, avec un agrégateur, l'algorithme c'est vous : votre œil survole l'ensemble des titres et capte au vol ce qui l'intéresse ou le surprend.

        J'ai rencard avec Pétrolette

        L'outil libre qui se rapproche le plus de Netvibes.com est Pétrolette, « la page d'actus qui ne sait rien de toi », développée par YPhil en JavaScript. Comme son nom l'indique, Pétrolette n'est pas un gros SUV qui fait tout, même le café, mais une application libre qui essaie de faire au mieux une seule chose : afficher des flux Web dans des cadres classés dans des onglets. Donc disons le tout de suite, il faut oublier les éventuelles autres applications que vous utilisiez dans Netvibes. D'après son CHANGELOG, Pétrolette est en version 1.7 depuis l'été 2023. Le GitLab de Pétrolette est indiqué comme étant un miroir de son Framagit mais est en fait plus à jour, la dernière activité remontant à Noël 2024. C'est là que le développement se passe.

        D'après le compte Mastodon de Pétrolette, suite à des problèmes d'hébergement, l'instance principale est depuis décembre 2024 https://petrolette.onrender.com/ bien que celle-ci soit considérée comme temporaire. Les plus admin pourront bien sûr héberger leur propre instance, soit en local soit sur le Web, par exemple sur https://place.de.ma.mob/ si le domaine n'est pas déjà réservé.

        Procédure migratoire

        Par défaut, quand on va sur l'instance principale, qui est une instance partagée, on a un certain nombre d'onglets pré-remplis, avec en tout plus de trois cents flux. On peut les personnaliser (ce sera stocké en local), mais ce qui nous intéresse ici, c'est migrer de Netvibes à Pétrolette. Voici la procédure :

        • Dans Netvibes.com, sauvegarder ses données en allant dans « Compte > Sauvegarder vos données », choisir le tableau de bord, cliquer sur Exporter (fichier XML).
        • Dans Pétrolette, supprimer tous les onglets par défaut (croix rouges), importer le XML avec « Flux > Ouvrir ».
        • Tous les onglets et flux sont récupérés. Le titre d'un flux apparaîtra quand on clique sur son icône pour le déployer.
        • Déplier et configurer chaque flux (mais on devrait éventuellement aussi pouvoir travailler à partir du .conf pour réduire ce travail fastidieux).

        La configuration est stockée localement sur l'ordinateur et non pas en ligne (on n'a donc pas de compte Pétrolette, donc elle « ne sait rien de toi », elle ne sait pas ce que tu lis). On peut l'exporter dans un fichier .conf au format JSON et l'importer sur un autre PC pour avoir la même configuration.

        Synchronisation ?

        Mais une telle synchronisation manuelle n'est pas idéale et l'application peut utiliser le protocole remoteStorage pour pouvoir partager la même configuration sur plusieurs PC, et en particulier vers l'application 5apps. D'après l'aide, l'instance principale de Pétrolette ne gère que 5Apps (mais le menu affiche également des icônes pour Dropbox et Google Drive, qu'on devrait donc pouvoir utiliser si on héberge sa propre instance).

        On peut s'enregistrer sur 5apps à partir d'un compte GitHub, Bitbucket, GitLab.com ou en se créant un compte (adresse email, identifiant, mot de passe). 5apps vous fournit une « adresse utilisateur » du type login@5apps.com. On peut alors aller dans le menu de Pétrolette, cliquer sur remoteStorage et entrer l'adresse utilisateur pour faire la connexion. Il n'y a plus qu'à autoriser Pétrolette à y accéder et faire de même sur tous vos PC. Pour cela, sur chaque machine, connectez-vous à votre compte 5apps puis dans la liste des « Connected Apps », cliquez sur le lien petrolette.onrender.com, dont l'URL est du type https://5apps.com/rs/oauth/token/123d3215c5484b9a78987e8/launch_app.

        Nouveaux développements

        Ça c'est la théorie, dans la pratique la synchronisation semble problématique, avec un fonctionnement très capricieux, et après discussion avec l'auteur il pourrait bien s'agir d'un bug où l'application s'emmêlerait les pinceaux entre stockage local et stockage distant. C'est la mauvaise nouvelle. La bonne nouvelle (scoop !) c'est que ça pourrait être résolu dans une future Pétrolette 2 à laquelle réfléchit l'auteur !

        Voilà une bonne raison de réfléchir à l'invitation à faire un don au projet Pétrolette dans la fenêtre pop-up qui surgit de temps en temps. Il est en effet possible de faire un don sur Liberapay ou de prendre un abonnement sur Ko-fi : à partir de 1 €/mois le pop-up disparaît. Au-delà, on peut demander à l'auteur de créer un nombre plus ou moins important de flux RSS pour des sites qui n'en proposent normalement pas. Rappelons-nous que dans surveillance://, Tristan Nitot nous avertissait sur notre fâcheuse tendance à aimer la gratuité.

        Retour d'expérience

        Commençons par les points négatifs, ce qui nous permettra de finir sur le positif !

        Points négatifs
        • Lenteur pour mettre à jour les flux : quand on affiche sa page Pétrolette, tous les flux sont mis à jour simultanément, c'est-à-dire même dans les onglets qui ne sont pas affichés.
        • Pas de mise à jour périodique des flux. On peut certes les mettre à jour individuellement en cliquant sur une icône. Mais malheureusement, recharger la page avec F5 permet certes de mettre à jour tous les flux mais nous remet systématiquement sur le premier onglet. Pétrolette 2 proposera peut-être des fonctionnalités pour faciliter les mises à jour des flux.
        • N'affiche pas l'heure de parution des actualités, contrairement à Netvibes. Mais la date et l'heure sont indiquées dans la fenêtre d'aperçu quand on survole un titre.
        Points positifs
        • Les aperçus du texte qui apparaissent au survol de la souris sont plus longs qu'avec Netvibes, et même parfois très longs, ce qui permet d'avoir un bon aperçu du contenu avant un éventuel clic, voire même de s'en passer.
        • La hauteur (en pixels) des cadres peut être réglée plus finement qu'avec Netvibes (où seules trois hauteurs standards étaient disponibles). Cela peut d'ailleurs être utilisé pour augmenter la distance verticale entre deux cadres, ceux-ci étant par défaut collés de façon un peu compacte.
        • Les titres longs apparaissent en entier sur plusieurs lignes, alors qu'ils sont coupés dans Netvibes. Cela peut-être un avantage mais parfois aussi un défaut avec certains sites qui proposent des titres à rallonge (du genre trois lignes sur Developpez.com !) que l'oeil a du mal à lire au vol.
        • Le menu principal propose de déposer un marque-page dans la barre du navigateur. Il contient un script qui d'un clic ajoutera le site de l'onglet courant dans votre Pétrolette.
        • Le champ de recherche permet de chercher un terme dans tous les titres de l'ensemble des onglets. Les zones où il est trouvé apparaissent encadrées en jaune.
        Prêts pour l’équipée sauvage ?

        « Dès que les vents tourneront nous nous en allerons… » Il le faudra bien, le 2 juin tout s'arrête. Et donc tout recommence. On a maintenant toutes les réponses à la question synthétique et sympathique « c'est quand qu'on va où ? » Quand ? On le sait depuis le début et on l'a répété, c'est le 2 juin ! Où ? On espère y avoir apporter une réponse dans cette dépêche.

        Et puis à l'heure où les algorithmes profiteurs des réseaux sociaux commerciaux tendent à enfermer l'utilisateur dans sa bulle informationnelle au seul motif d'optimiser les profits et où les moteurs IA sapent la sérendipité du Web, se balader humblement en mobylette RSS devient une véritable mesure d'hygiène mentale. En plus c'est libre.

        Figure 1 - « Quand j’me balade en mobylette / On dirait l’équipée sauvage ». Ouais, ça carbure librement avec « La Pétrolette » (Duncan & Suberbie, 1895 - 1898) [source : Wikimedia, domaine public].

        Télécharger ce contenu au format EPUB

        Commentaires : voir le flux Atom ouvrir dans le navigateur

        Agenda du Libre pour la semaine 23 de l'année 2025

        1 juin, 2025 - 17:26

        Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 49 événements (France: 41, Québec: 4, internet: 3, Belgique: 1) est en seconde partie de dépêche.

        Sommaire [FR Martigues] Culture WEB - Le lundi 2 juin 2025 de 17h00 à 19h00.

        Les Espaces publics numériques (EPN) vous proposent une séance pour découvrir l’actualité du net, mais également bien d’autres sujets !

        Présentation

        « Fake news », actualités, culture geek, réseaux sociaux, darknet, cryptomonnaie, l’univers du « libre », l’écologie numérique, l’impact du digital sur l’environnement, les réflexes à adopter… Une séance pour décrypter toute l’actualité du numérique en compagnie des médiateurs numériques.

        En savoir plus

        Cette activité fait partie de l’ensemble des ateliers collectifs proposés par les Espaces Publics Numériques (EPN) de la ville de Martigues.
        Ces ateliers vont vous permettre de découvrir dans la convivialité des outils et des usages numériques utiles en fonction de votre niveau.
        Il s’agit d’ateliers collectifs encadrés par des médiateurs numériques.

        [FR Saint-Nazaire-en-Royans] Permanence Rézine Cambuse - Le lundi 2 juin 2025 de 17h30 à 19h30.

        Rézine est un fournisseur d’accès à Internet qui défend une vision politique des technologies et des réseaux. Pour cela, Rézine met notamment en œuvre un accès Internet local, à prix juste, respectant la neutralité du Net, piloté par ses usagères et usagers, dans une démarche émancipatrice.

        Nous fournissons Internet via la fibre, via wifi (radio) et proposons également des VPN.

        Par ailleurs fournir une critique du numérique, et en particulier des réseaux, est une activité inhérente à notre activité de fournisseur d’accès à Internet, que nous avons affirmée dans l’objet de la structure. Nous inscrivons notre démarche dans une tradition d’éducation populaire, qui vise à contribuer à l’émancipation des personnes, dans leur rapport aux technologies et aux réseaux, quel que soit leur niveau de connaissance.

        Venez nous rencontrer pour discuter, devenir membre, poser vos questions sur la fibre, sur Internet, ou juste par curiosité!

        [FR Annecy] Rencontre publique avec Yauternet - Le lundi 2 juin 2025 de 19h00 à 20h00.

        Venez nous rencontrer le premier lundi de chaque mois jusqu’en juillet. Nous vous attendons pour vous aider à utiliser nos services libres en ligne. Pour vous expliquer comment utiliser notre nuage Nextcloud et ses applications.

        Nous vous attendons aussi si vous voulez contribuer, modestement ou plus largement à notre déploiement sur le bassin annécien.

        [FR Grenoble] L’Atelier de Bidouille (ABIL) - Le lundi 2 juin 2025 de 19h00 à 21h00.

        L’Atelier de Bidouille Informatique Libre (ABIL) est ouvert à tous·tes les personnes qui n’arrivent pas à résoudre des problèmes avec leur ordinateur:

        • trouver et installer un logiciel
        • utiliser et/ou apprendre à utiliser un logiciel
        • réinstaller ou installer un système d’exploitation
        • monter un ordinateur
        • réparer un ordinateur
        • créer et/ou mettre à jour un site oueb
        • … ou d’autres choses sur un ordinateur

        L’atelier permet de résoudre son problème en compagnie de bénévoles et des participants qui ne sont ni expert·e·s en informatique, ni réparateur·rice·s, mais qui ont l’habitude de la “bidouille” et seront là pour vous aider à trouver l’information là où elle se trouve (si elle existe).

        Pendant les ateliers, l’ABIL met à disposition du matériel: postes de travail, unités centrales à remonter ou installer, écrans, claviers, souris, pièces détachées, connexion Internet…

        Attention, l’ABIL ne met à disposition que des systèmes d’exploitation et des logiciels libres. Si vous souhaitez résoudre un problème sur un système ou logiciel non-libre, apportez votre machine pour participer à l’atelier, muni des licences du système d’exploitation et/ou des logiciels concernés.

        [internet] Émission «Libre à vous!» - Le mardi 3 juin 2025 de 15h30 à 17h00.

        L’émission Libre à vous! de l’April est diffusée chaque mardi de 15 h 30 à 17 h sur radio Cause Commune sur la bande FM en région parisienne (93.1) et sur le site web de la radio.

        Le podcast de l’émission, les podcasts par sujets traités et les références citées sont disponibles dès que possible sur le site consacré à l’émission, quelques jours après l’émission en général.

        Les ambitions de l’émission Libre à vous!

        Découvrez les enjeux et l’actualité du logiciel libre, des musiques sous licences libres, et prenez le contrôle de vos libertés informatiques.

        Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d’action, tels sont les objectifs de cette émission hebdomadaire.

        L’émission dispose:

        [FR Montpellier] Atel'libre | Modélisez et animez vos images 3D avec Blender - Le mardi 3 juin 2025 de 17h00 à 19h00.

        C’est avec un grand plaisir que nous vous annonçons cette réunion du groupe Blender à Montpellier. (Le premier mardi de chaque mois).

        Rencontrer le groupe local d’utilisateurs du logiciel de modélisation 3D Blender pour échanger et actualiser ses connaissances sur ce logiciel à la fois très puissant et riche en potentialités. Attention, il ne s’agit pas d’ateliers d’initiation à Blender.

        Les thèmes que nous vous proposons d’aborder :

        Le programme :

        • Initiation à Blender
        • les activités du Groupe Blender
        • premiers pas dans l’univers 3d
        • prise en main des outils de base
        • inscriptions aux formations Blender

        Blender est un logiciel libre de modélisation, d’animation et de rendu en 3D. Cette réunion se veut pour partager du temps autour du projet, s’entre-aider, s’émuler, s’amuser, produire, ou tout simplement discuter. Cette réunion s’adresse à toutes les personnes débutantes, confirmées et même curieuses de l’image en 3D.

        Ces rencontres du groupe Blender ont lieu le premier mardi de chaque mois de 17h00 à 19h00.
        Sur inscription | GPS 43.60859/3.89329

        [FR Chaumont] Permanence associative - Le mardi 3 juin 2025 de 18h00 à 20h00.

        Permanence associative du Schmilblik Numérique.

        L’occasion de s’entraider dans nos usages des solutions libres au sein du Schmilblik, tiers-lieu dédié à la culture et la création artistique, à Chaumont.

        Des boissons chaudes, de la bienveillance et beaucoup de convivialité.

        Tous les niveaux techniques sont les bienvenus, de parfait·e débutant·e à expert·e chevronné·e.

        [FR Grenoble] Permanence Rézine - Le mardi 3 juin 2025 de 19h00 à 20h00.

        Rézine est un fournisseur d’accès à Internet qui défend une vision politique des technologies et des réseaux. Pour cela, Rézine met notamment en œuvre un accès Internet local, à prix juste, respectant la neutralité du Net, piloté par ses usagères et usagers, dans une démarche émancipatrice.

        Nous fournissons Internet via la fibre, via wifi (radio) et proposons également des VPN.

        Par ailleurs fournir une critique du numérique, et en particulier des réseaux, est une activité inhérente à notre activité de fournisseur d’accès à Internet, que nous avons affirmée dans l’objet de la structure. Nous inscrivons notre démarche dans une tradition d’éducation populaire, qui vise à contribuer à l’émancipation des personnes, dans leur rapport aux technologies et aux réseaux, quel que soit leur niveau de connaissance.

        Venez nous rencontrer pour discuter, devenir membre, poser vos questions sur la fibre, sur Internet, ou juste par curiosité!

        [FR Croix] Atelier Local-Low-Tech - Le mardi 3 juin 2025 de 19h00 à 22h00.

        L’Association Club Linux Nord Pas-de-Calais est présent tous les premiers mardis du mois aux Petites Cantines, à Croix.

        Au cours de ces séances, nous vous proposons d’installer le système d’exploitation libre Linux et/ou les logiciels libres que vous utilisez sur votre ordinateur.

        Si votre ordinateur est récent et que vous vous voulez vous donner les moyens de maîtriser les informations qui y entrent et en sortent, ou si votre ordinateur devient poussif…

        Pensez à nous rendre visite, c’est gratuit et on vous donnera toutes les clés pour que vous puissiez faire le choix qui vous convient