L'Association UNBEE propose en partenariat avec la ville de Mérignac, une...
FORMATION :
Rencontre des contributeurs et contributrices OpenStreetMap du pays basque et sud des Landes (groupe local Mapadour).
Cette rencontre est ouverte à toutes et tous afin de discuter des actualités, astuces et divers sujets autour d'OpenStreetMap.
A partir de 16h30 (arrivez quand vous voulez/pouvez)
Café Linux est né comme une alternative pour découvrir, explorer et évoluer avec GNU/Linux.
On considère le système d'exploitation GNU / Linux comme la troisième alternative dans le marché et comme un concurrent direct aux deux systèmes d'exploitation Windows et MacOS.
Bref, venez découvrir sa convivialité, ses avantages et ses performances dans votre ordinateur personnel pour les études, la maison et le travail.
La prochaine réunion du groupe local aura lieu le lundi 16 juin à 19h à la Turbine dans un format "auberge espagnole". Venez partager vos réalisations, vos découvertes ou vos questions.
Informations pratiques
Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.
Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au-delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d’application pour d’autres distributions.
N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.
Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.
L’entretien du jour concerne Jean-Baptiste Holcroft, un des mainteneurs de la traduction française de Fedora.
Bonjour Jean-Baptiste, peux-tu présenter brièvement tes contributions au projet Fedora ?
Gêné par des traductions partielles de logiciels que je trouve super, j’ai aidé d’abords en signalant des problèmes, puis en traduisant, et ne voyant pas les traductions arriver, à fluidifier le processus de traduction.
Ayant compris le fonctionnement, grâce à la communauté, j’ai voulu aider cette communauté à être plus efficace, en migrant sur la très bonne plateforme de traduction Weblate, en permettant la traduction de la totalité de la documentation de Fedora (on parle ici de 3,5 millions de mots, de milliers de pages).
Transifex, la plateforme précédente, ne permettait pas un travail collectif efficace (entre les traducteurices et entre traducteurices-projets de développement).
Avec l’expérience, j’ai constaté que la communauté du logiciel libre propose une expérience désastreuse pour les traducteurs, le coût de traduction vs l’effort nécessaire pour traduire tout un système d’exploitation est monstrueux, j’ai maintenant voulu rendre cela perceptible et accessible à tous (ce site est moche, sa valeur est la mesure de traduction transverse).
Qu’est-ce qui fait que tu es venu sur Fedora et que tu y es resté ?
Ses valeurs en tant que communauté m’ont intéressées.
Fedora accueille les contributeurs, leur permet de gagner en responsabilité, de financer des initiatives et de grandir en tant que personne. Si mon implication varie dans le temps, ce n’est qu’une question de temps disponible.
Pourquoi contribuer à Fedora en particulier ?
La ligne est claire, au plus proche des créateurs de logiciels libre, en collaboration, que du logiciel libre et très fiable.
C’est une mentalité que je trouve excellente et dans laquelle je me sens à l’aise.
Contribues-tu à d’autres Logiciels Libres ? Si oui, lesquels et comment ?
J’ai contribué pendant quelque temps au projet YunoHost sur les thèmes de la traduction, de l’internationalisation et de l’empaquetage de logiciels.
Ce projet est mature et autonome sur ces deux sujets, ayant moins de temps, j’ai arrêté d’y contribuer.
Je continue à l’utiliser au quotidien, car je le considère aussi stable que Fedora pour gérer mon serveur personnel avec mes courriels, mes fichiers, mes contacts, etc.
Aujourd’hui, je m’intéresse plutôt à notre efficacité collective plutôt qu’un projet en particulier.
Est-ce que tes contributions à Fedora sont un atout direct ou indirect dans ta vie professionnelle ? Si oui, de quelle façon ?
Toute la culture technique gagnée en lisant l’actualité des projets, en contribuant via des rapports de bugs, des traductions, des développements m’ont aidé pour obtenir mon emploi actuel, et pour mon travail au quotidien.
Le logiciel libre et le fait d’y contribuer, même modestement est un lien réel, concret et palpable, très loin de l’informatique fantasmée qui ne fait le bonheur que du porte-monnaie et du pouvoir des puissants.
Dans le travail, qu’il soit lucratif, amical ou militant, je veux du concret qui nous aide à avancer, et c’est une valeur très forte du logiciel libre.
Tu as maintenu la traduction française de Fedora pendant des années, peux-tu nous expliquer l’importance de la traduction et même de l’internationalisation dans ce genre de projets ?
Le logiciel libre est un outil de lutte contre l’appropriation des communs par une minorité.
Si on veut qu’il soit un outil d’émancipation des masses, on veut réduire les barrières à l’utilisation, tout en respectant les singularités de ses utilisateurs et utilisatrices.
Un utilisateur de logiciel ne devrait pas avoir à apprendre une nouvelle langue pour utiliser un outil émancipateur et respectueux, d’où l’intérêt de ces activités.
Traduire un logiciel est une activité complexe, quelles sont les difficultés rencontrées lors de cette activité ?
Traduire est la partie facile, ça consomme très peu de temps, ce qui est compliqué c’est :
Tu as participé à la migration de la plateforme de traduction Zanata vers Weblate, peux-tu revenir sur cette tâche et les motivations derrière cette décision ?
Weblate est un outil de traduction performant, qui facilite la vie des créateurices de logiciels et des traducteurices. Cet outil est proche du dépôt de code source et permet beaucoup d’autonomie aux traducteurices pour s’organiser comme iels le souhaitent, tracer les modifications, être notifiés, etc.
Zanata, ben c’était un objet OK pour traduire, mais c’est tout, tout le reste était déficient.
À titre d’illustration, pour savoir si une traduction a été modifiée, je devais aller regarder sur chaque phrase l’historique des modifications.
Sur Weblate, l’historique est transparent et efficace, et permet de filtrer par langue, projet, composants et type de changements. Voici par exemple l'historique des changements de traduction en français sur tous les projets.
Quand Weblate est arrivé, j’ai activement démontré la pertinence de ce projet et poussé le sujet pour que nous soyons plus efficaces.
Tu as également participé à obtenir des statistiques de traduction au sein du projet Fedora, quel intérêt à cela et comment cela a été mis en œuvre ?
C’est un sujet génial, mais c’est légèrement compliqué, voici une simplification :
Une distribution Linux, c’est l’assemblage de milliers de logiciels, des lignes de code contenues dans les paquets.
Chaque paquet est disponible au téléchargement sur des miroirs, on y retrouve même les paquets d’il y a plusieurs années (j’arrive à exploiter les données jusqu’à Fedora 7 sortie en mai 2007).
En suivant de près le fonctionnement de Weblate, je me suis rendu compte que le créateur de Weblate a créé des petits outils pour : avoir des listes de tous les codes de langues connus, et d’auto-détection des fichiers de traduction.
La mécanique va donc :
Avec mon ordinateur, cela m’a pris plus de dix jours de calcul en continu, et le téléchargement de 2 To de données pour réussir à avoir une vue sur plus de 15 ans de la distribution Fedora. Je n’ai malheureusement pas encore eu le temps d’en faire une rétrospective pertinente dans le cadre d’une conférence, faute de temps pour analyser les données. Pour l’instant, la seule partie visible est le site https://languages.fedoraproject.org. J’espère avancer sur ce sujet pour la rencontre annuelle 2025 du projet Fedora et le FOSDEM 2026.
La traduction est une activité spécifique pour chaque langue mais tout le monde a des problèmes communs vis-à-vis de l’outillage ou des situations complexes, y a-t-il des collaborations entre les différentes équipes de traduction dans Fedora ?
D’une façon générale, résoudre un problème pour une langue résous systématiquement un problème pour une autre langue.
Les traducteurs et traductrices se soutiennent beaucoup notamment pour ces raisons, soutenez-les vous aussi !
L’absence de centralisation dans cette activité rend la cohérence des traductions dans l’ensemble des logiciels libres très complexe. Peux-tu nous expliquer ces difficultés ? Est-ce qu’il y a une volonté francophone notamment d’essayer de résoudre le problème en collaborant d’une certaine façon sur ces problématiques ?
Un logiciel est une création, sa communauté peut être plus ou moins inclusive et pointue sur certaines traductions.
La cohérence vient avec les usages et évolue comme la langue de façon progressive et délocalisée.
On pourrait imaginer proposer des outils, mais si c’est un sujet très important, ce n’est pour l’instant pas mon combat.
Je vois ça comme un problème de privilégié, car spécifique aux langues ayant suffisamment de traduction, alors que la quasi-totalité des langues en ont très peu et sont incapables de tenir le rythme exigé par l’évolution de nos logiciels libres.
Je voudrais d’abord démontrer et faire acter à la communauté du logiciel libre qu’il y a urgence à améliorer notre efficacité avec des changements de processus et de l’outillage. Cet outillage pourrait sûrement permettre d’améliorer la cohérence.
Fedora n’est sans doute pas le projet le plus avancé sur la question de l’internationalisation malgré ses progrès au fil des ans, qu’est-ce que le projet Fedora pourrait faire à ce sujet pour améliorer la situation ?
Si on veut faciliter la vie des traducteurices, il faudrait envisager de permettre de traduire à l’échelle de Fedora, de façon distincte des traductions de chaque projet, comme le fait Ubuntu.
Le problème, c’est qu’Ubuntu utilise des outils médiocres (Launchpad) et n’a pas de moyen automatisé pour renvoyer ce travail aux créateurs de logiciels.
Fedora pourrait innover sur ce sujet, et réussir à faire les deux avec une bonne plateforme de traduction (Weblate) et beaucoup d’outillage pour partager ce travail avec les différentes communautés, les utilisateurices y gagneraient en confort, les traducteurices en efficacité et les projets en contributions.
Quelque chose à ajouter ?
Un grand merci à la communauté francophone de Fedora, à la communauté Fedora et à l’ensemble des communautés qui collaborent tous les jours pour nous permettre d’avoir des outils émancipateurs et qui nous respectent. Le travail réalisé au quotidien est exceptionnellement utile et précieux, merci, merci et merci.
Gardons à l’esprit que le logiciel n’est qu’un outil au service d’autres luttes dans lesquelles nous devons prendre notre part.
Merci Jean-Baptiste pour ta contribution !
ConclusionNous espérons que cet entretien vous a permis d’en découvrir un peu plus sur la traduction de Fedora.
Si vous avez des questions ou que vous souhaitez participer au Projet Fedora ou Fedora-fr, ou simplement l’utiliser et l’installer sur votre machine, n’hésitez pas à en discuter avec nous en commentaire ou sur le forum Fedora-fr.
À dans 10 jours pour un entretien avec Nicolas Berrehouc, contributeur de Fedora-fr et mainteneur de sa documentation.
Télécharger ce contenu au format EPUBCommentaires : voir le flux Atom ouvrir dans le navigateur
249e émission « Libre à vous ! » de l’April. Podcast et programme :
Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 MHz en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune. Vous pouvez nous laisser un message sur le répondeur de la radio : pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur : +33 9 72 51 55 46.
Télécharger ce contenu au format EPUBCommentaires : voir le flux Atom ouvrir dans le navigateur
Le barbecue de fin d’année (scolaire) d’Infini aura lieu le vendredi 27 juin 2025 à partir de 18h30 au Local d’Infini, 186 rue Anatole France à BREST - derrière la médiathèque des Quat’ Moul’ (Arrêt de bus Cosmao Prétot - Ligne 2b).
Adhérent⋅e⋅s ou non adhérent⋅e⋅s, associations, particuliers, tout le monde est le/la bienvenu·e.
Apportez ce que vous voulez à boire et/ou à manger, à partager ou non.
À l’occasion de ce barbecue venez rencontrer les membres de l’association, l’équipe technique, sans qui les serveurs et services ne pourraient pas fonctionner et le conseil d’administration.
Au cours de la soirée nous échangerons autours des projets passés et à venir, de l’amélioration des services libres, de la programmation des "rendez-vous Infini" de la rentrée, etc.
Bref ! Venez rencontrer l’Infini !
Ce barbecue est participatif, chacun et chacune amène ce qu’il/elle souhaite partager avec les autres (légumes, boissons, victuailles diverses, etc.) on s’organise en auberge espagnole.
--
*Pour rappel, l'entrée des locaux d'Infini est située à l'arrière de la médiathèque des quatre moulins, au 186 rue Anatole France.
- Le local est accessible aux personnes à mobilité réduite
- Il y a des arceaux à vélo à proximité
- L'arrêt de bus 2b le plus proche est Cosmao Prétot
- L'arrêt de tramway le plus proche est Polygone
Venez découvrir, échanger ou vous perfectionner sur Wikisource, la bibliothèque collaborative d'ouvrages dans le domaine public !
L'association Le deuxième texte vous propose de découvrir des autrices et ouvrages connus et moins connus dans le but de rééquilibrer l'écart des genres sur la plateforme.
Pour ce dernier atelier de la saison 2024-2025, pendant le Mois des fiertés, la journée sera exceptionnellement entièrement consacrée à Wikisource, avec un focus sur l’ouvrage Les Florifères.
Camille Clère, doctorante en littérature comparée et études culturelles romanes, présentera en début d’atelier « Rejet de la maternité et quête d’émancipation dans Les Florifères de Camille Pert ». Ses recherches actuelles portent sur les ambivalences de la représentation du genre chez les romancières de la Belle Époque. Elle s’intéresse tout particulièrement à la tension entre les discours féministes et antiféministes dans les romans de la fin du xixe siècle et du début du xxe siècle.
Au programme
Pensez à apporter un ordinateur portable (ou si vous n'en avez pas, à nous signaler votre situation en amont) ! La salle de l’atelier nécessite de monter un étage par un escalier.
Code de conduiteCet évènement est régi par le code de conduite universel de la Wikimedia Foundation et la charte des sans pagEs. Une personne est désignée en début de séance pour s'assurer de son respect.
Réalisé en collaboration avec Les sans pagEs et Wikimedia France.
Venez découvrir l'association, ses membres et ses activités lors d'un moment de convivialité à La French Guinguette, 58 Rue Rambuteau, 75003 Paris, Métro Chatelet ou Rambuteau.
Attention, nous avons récemment changé de bar et nous ne savons pas encore si l'endroit choisi pour cette rencontre sera aussi le même pour les rencontres suivantes.
Voix off : Libre à vous !, l'émission pour comprendre et agir avec l'April, l'association de promotion et de défense du logiciel libre.
Frédéric Couchet : Bonjour à toutes, bonjour à tous dans Libre à vous !. C'est le moment que vous avez choisi pour vous offrir une heure trente d'informations et d'échanges sur les libertés informatiques et également de la musique libre. Et justement aujourd'hui, le sujet principal de l'émission du jour sera une playlist de musiques libres, de la musique (…)
Au programme de la 250e émission diffusée mardi 10 juin 2025 à 15 h 30 :
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.
Je travaille depuis quelque temps sur Elpe, un projet qui vise à obtenir les bonnes propriétés de Nix/NixOS (les mises à jour atomiques, la reproductibilité), mais avec des paquets Ubuntu.
Le code : https://nest.pijul.com/pmeunier/elpe
L'idée est de définir des recettes de compilation en OCaml et de les envoyer à un backend Rust, qui se charge de les exécuter dans un conteneur sans réseau, en exposant uniquement le contexte nécessaire à la bonne exécution de la compilation. Les produits du build sont indexés par le contenu de la recette du build, et indexés une deuxième fois par le résultat : c'est ce deuxième hash qui est utilisé dans les dépendants du paquet, ce qui permet de construire un arbre de Merkle du système complet (et non seulement de ses sources), qui rend toute modification ultérieure facilement détectable.
De plus, le système de base provient des dépôts de paquet Debian ou Ubuntu. Cependant, tous les chemins sont hard-codés (comme dans Nix), ce qui permet de garantir la reproductibilité, au détriment toutefois du coût de mise à jour en termes d'espace et opérations disque.
Si le choix de Rust devient relativement consensuel par les temps qui courent, OCaml est plus surprenant. Après divers essais avec plusieurs langages, je l'ai choisi parce que c'est le seul langage avec à la fois :
La simplicité et l'expressivité d'OCaml sont bien adaptés à ce projet: les fonctions simples à concevoir y sont relativement claires à énoncer.
Pourquoi pas NixOS, me direz-vous ? En tant qu'utilisateur et contributeur depuis environ 10 ans, un certain nombre de problèmes plus ou moins récents m'ont motivé à explorer une alternative:
En termes de gouvernance, la communauté a traversé dans la dernière année plusieurs crises de différentes tailles (Anduril, Devenv…). On pourrait y voir un signe de maturation ou au moins de croissance du projet, mais plusieurs éléments me permettent d'en douter, dont les réactions répétées de la fondation Nix, qui semble avoir beaucoup de mal à comprendre les messages pourtant clairs des contributeurs.
Je vois aussi les choix de design imposés par les fondateurs du projet depuis quelques années comme un bien mauvais signe: les flakes (en 2020) étaient une première incarnation de cette tendance, et plus récemment la "distribution propriétaire" de Nix est clairement une mauvaise idée, alors que la qualité de code de Nix n'est pas au niveau où on l'attendrait et que le gros du projet repose depuis plusieurs années sur le travail pharaonique des contributeurs de Nixpkgs.
On pourrait parler longtemps de la sécurité de Nix, qui me fait de plus en plus peur y compris pour mon usage personnel. Les process de gestion des rapports ne me conviennent pas, de même que l'opacité de certains choix techniques (les flags de compilation désactivés sur certaines plateformes, entre autres), souvent bien cachés dans les entrailles de Nixpkgs.
Enfin, le langage trop complexe à utiliser (principalement par manque de typage statique et de messages d'erreurs pertinents) rend Nix difficile à utiliser au sein d'une organisation d'une taille importante, et encourage les comportements peu inclusifs (éviter d'écrire de la doc, inventer des casse-têtes pour faire des choses simples…). Je suis bien sûr conscient que des entreprises (comme Anduril) et des ONGs (comme Médecins Sans Frontières) l'utilisent, mais je ne pense pas que ce soit généralisable aux situations où j'aimerais voir ce genre de projet utilisé.
Commentaires : voir le flux Atom ouvrir dans le navigateur
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
Tous les 15 du mois, Parinux organise un Apéro Parisien du Libre (APL).
Cet événement informel et convivial réunit les personnes intéressées par le monde du Libre.
Le 15 juin, cela se passera au bar Bon Esprit à partir de 19h30 : n'hésitez pas à venir discuter et boire un coup avec nous :-)
Adresse : 310 rue Saint-Martin 75003 Paris
Métros proches : Arts et Métiers, Strasbourg-Saint-Denis, Temple, République, Etienne Marcel, Rambuteau
RER proches : Châtelet les Halles
Le 28 juin 2025 de 18h30 à 20h00, l'association Infini accueille Eric et Hocine, membres de SIgn to Sign (s2s) qui propose un numérique éthique et un espace pour toutes les personnes pratiquant la Langue des Signes Française (LSF).
Le projet s2s vise à valoriser la LSF, pilier de l'identité et de la culture Sourde et ouvrir les personnes signantes aux logiciels libres, au bien commun.
L'atelier est ouvert à tout le monde et il sera l'occasion de parler de l'instance peertube de s2s mais aussi de comprendre ce qu'est peertube.
Les thématiques abordées seront :
- Comment participer ?
- Contacter les associations sourdes
- Créer des Vidéos didactiques en LSF
- Améliorer l'accessibilité des logiciels libres
Vous pouvez dès à présent consulter les vidéos actuellement disponibles :
https://peertube.s2s.video/
Un apéritif partagé (chacun apporte quelque chose à manger et /ou à boire) suivra l'atelier.
Au plaisir de vous rencontrer ou de vous revoir à cette occasion.
--
*Pour rappel, l'entrée des locaux d'Infini est située à l'arrière de la médiathèque des quatre moulins, au 186 rue Anatole France.
- Le local est accessible aux personnes à mobilité réduite
- Il y a des arceaux à vélo à proximité
- L'arrêt de bus 2b le plus proche est Cosmao Prétot
- L'arrêt de tramway le plus proche est Polygone
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
Les modèles actuels commençant à être relativement compétents sur les tâches de programmation, la ruée vers l’or arrive : comment en faire de véritables programmeurs, autonomes ou semi-autonomes ?
La première génération consistait à poser des questions à l’IA sur l’interface de chat, et copier-coller des bouts de code, ainsi que d’assistants à l’auto-complétion.
La seconde génération, Aider (open-source), Cline (également), Cursor, Claude CLI ou Codex CLI consistait à donner un accès direct à votre projet à l’IA, lui permettant de consulter et d’éditer le code ; soit intégré à un IDE, soit en ligne de commande.
La troisième génération revient aux racines de la première, où l’interface entre l’utilisateur et l’IA est à nouveau un simple chat dans le navigateur. Mais cette fois, l’IA clone votre projet dans un environnement de développement virtualisé et travaille dans cet environnement. Vous pouvez la superviser, ou la laisser travailler quelques temps.
C’est en tout cas ce que propose OpenAI avec Codex. L’annonce officielle :
Today we’re launching a research preview of Codex: a cloud-based software engineering agent that can work on many tasks in parallel. Codex can perform tasks for you such as writing features, answering questions about your codebase, fixing bugs, and proposing pull requests for review; each task runs in its own cloud sandbox environment, preloaded with your repository.
Traduction :
Aujourd'hui, nous lançons un aperçu de recherche de Codex : un agent d'ingénierie logicielle basé sur le cloud qui peut travailler sur de nombreuses tâches en parallèle. Codex peut effectuer des tâches pour vous telles que l'écriture de fonctionnalités, répondre à des questions sur votre base de code, corriger des bogues et proposer des demandes de fusion pour révision ; chaque tâche s'exécute dans son propre environnement sandbox cloud, préchargé avec votre dépôt.
OpenAI couple cette sortie avec un modèle spécialisé pour la programmation, codex-1, avec sa System Card (pas très intéressante, mais notons qu’elle a le mérite d’exister).
La force de ce mode de fonctionnement est le parallélisme : vous pouvez demander à l’IA de travailler sur plusieurs choses à la fois, voire lancer plusieurs sessions pour la même tâche et choisir le meilleur résultat.
Les réactions sont mitigées : la fiabilité n’est pas toujours au rendez-vous, mais quand elle l’est, le gain de temps est loin d’être négligeable. Et si vous avez les poches profondes, lancer plusieurs tentatives en parallèle est une bonne manière de pallier au manque de fiabilité.
Google I/O 2025Google I/O est la conférence annuelle de Google, présentant leurs nouveaux produits. C’est à Google I/O 2008 qu’Android avait été présenté.
Pour cette édition 2025, sans surprise, c’est l’IA qui est sur le devant de la scène.
Sur la création audiovisuelle, tout d’abord :
Pour lutter contre les nouvelles possibilités de désinformation offertes par ces outils, Google lance également SynthID, un outil pour détecter les contenus multimédia générés par les modèles d’IA de Google (et seulement de Google). Sur invitation uniquement, Google craignant probablement qu’un acteur malicieux puisse juste modifier le contenu jusqu’à ce que SynthID réponde « non-IA » si l’outil est publiquement accessible.
Sur les modèles plus classiques :
Sur les IA « agentiques », capables d’utiliser des outils pour réaliser des tâches variées :
Également proposés : plus d’intégration de l’IA dans les services classiques de Google (Search, Mail, Chrome…). Un usage notable : traduction en temps réel dans Google Meet.
Présenté quelques avant Google I/O, AlphaEvolve est un système pour découvrir de nouveaux algorithmes, utilisant Gemini en tant que sous-composant. L’utilisateur fournit une description textuelle du problème avec une solution naïve et une méthode pour évaluer un solution, et le système se charge de trouver de meilleurs algorithmes pour résoudre le même problème.
Ce système a trouvé de meilleures solutions relativement à l’état de l’art sur plusieurs problèmes évalués, par exemple en découvrant un moyen de multiplier deux matrices 4x4 à l’aide de 48 multiplications scalaires au lieu de 49.
Dans la catégorie innovations, Gemini Diffusion explore un paradigme entièrement différent pour les modèles de langage. Les modèles de langage actuels sont basés sur des transformeurs, suivant la méthode maintenant célèbre de « prédire le prochain token à partir des précédents ». Dans la génération d’image, c’est un paradigme complètement différent qui est suivi, celui de diffusion (qui a donné le nom au modèle StableDiffusion), où le modèle est essentiellement un modèle de « dé-bruitage » qui transforme une image bruitée en une image plus claire, et qui commence par du simple bruit blanc. Gemini Diffusion est une tentative d’adapter ce paradigme de « diffusion » à la génération de texte : un texte complet est présenté au modèle, et sa tâche est de l’« affiner » incrémentalement (où le texte initial est complètement aléatoire). Les premiers résultats sont encourageants, ce premier prototype arrivant au même niveau de capacités que Gemini 2.0 Flash.
Anthropic publie Claude 4Today, we’re introducing the next generation of Claude models: Claude Opus 4 and Claude Sonnet 4, setting new standards for coding, advanced reasoning, and AI agents.
Claude Opus 4 is the world’s best coding model, with sustained performance on complex, long-running tasks and agent workflows. Claude Sonnet 4 is a significant upgrade to Claude Sonnet 3.7, delivering superior coding and reasoning while responding more precisely to your instructions.
Traduction :
Aujourd'hui, nous présentons la prochaine génération de modèles Claude : Claude Opus 4 et Claude Sonnet 4, établissant de nouveaux standards pour le codage, le raisonnement avancé et les agents IA.
Claude Opus 4 est le meilleur modèle de codage au monde, avec des performances soutenues sur des tâches complexes et de longue durée ainsi que des flux de travail d'agents. Claude Sonnet 4 est une amélioration significative par rapport à Claude Sonnet 3.7, offrant un codage et un raisonnement supérieurs tout en répondant de manière plus précise à vos instructions.
Tout comme Google et OpenAI, Anthropic se focalise sur la course aux agents, souligné par le choix des benchmarks présentés par Anthropic pour vendre leur modèle : « Agentic coding » (SWE-bench-verified), « Agentic terminal coding » (terminal-bench), « Agentic tool use » (TAU-bench). Claude Opus 4 donne un nouveau état de l’art sur tous ces benchmarks, tout en restant au niveau de l’état de l’art (OpenAI o3 / Gemini 2.5 Pro) sur les tâches plus classiques. Ne vous attendez pas à un gros bond en avant, il s’agit là d’une amélioration incrémentale, contrairement à ce que pourrait laisser penser la numérotation de version.
À noter un benchmark sur lequel Claude 4 montre un gros progrès : LoCoDiff, qui cherche à mesurer la capacité des modèles à maintenir de bonnes performances sur un long contexte.
Une bonne nouvelle : OpenAI o3 avait cassé la tendance « les modèles plus avancés hallucinent moins », où o3 hallucinait plus que ses prédécesseurs. Anthropic a réussi à éviter cet écueil, avec un taux d’hallucinations en baisse. En baisse également (sans pour autant disparaître), la tendance des modèles à « tricher ».
L’événement le plus intéressant de cette publication se trouve principalement dans la politique de sécurité des modèles. N’ayant pu déterminer avec confiance que Opus 4 ne possédait pas de capacités dangereuses (telles que « capacité à aider significativement à la création d’armes chimiques/biologiques ») nécessitant des précautions supplémentaires (contrairement à Opus 3 ou Sonnet 4), Anthropic a décidé de mettre en place ces précautions (AI Safety Level 3 ou ASL-3), au moins provisoirement (le temps de déterminer plus précisément les capacités du modèle sur ces points), et pour Opus 4 uniquement. Ce qui signifie principalement : surveillance (automatisée) des requêtes et restrictions supplémentaires sur les requêtes acceptées. Pour plus de détails, je vous renvoie à la System Card et à la politique de sécurité des modèle d’Anthropic.
Ce qui n’a pas empêché Opus 4 d’être jailbreak immédiatement. Pour la défense d’Anthropic, la System Card mentionne explicitement que le but de ces précautions supplémentaires n’est pas de rendre plus difficile le jailbreak sur les requêtes « classiquement » interdites.
En vracChatbot Arena est l’un des benchmarks les plus connus, utilisé notamment comme critère d’arbitrage sur les marchés de prédiction. Sa pertinence est de plus en plus remise en question, où le classement ne semble pas réellement refléter les capacités des modèles, sur d’autres benchmarks ou des évaluations privées/subjectives. Un papier publié sur arXiv, The Leaderboard Illusion, analyse l’impact de certaines pratiques pouvant expliquer ces différences. Les mainteneurs de Chatbot Arena répondent sur Twitter.
Le gouvernement américain ouvre une consultation publique sur la politique à suivre concernant l’IA.
Un chiffre intéressant: Cursor, un assistant de code, produit actuellement 1 milliard de lignes de code par jour.
DeepSeek publie DeepSeek-Prover-V2, un LLM spécialisé dans les preuves mathématiques. Surpasse tous les modèles actuels sur PutmanBench.
Dans la sécurité des modèles, "Scalable Oversight" désigne la technique suivante : utiliser un modèle considéré comme sûr pour évaluer la sécurité d’un modèle plus sophistiqué. Se posent diverses questions comme : "jusqu’à quel point un modèle moins sophistiqué peut juger un modèle plus sophistiqué" ? Ce papier tente de répondre à cette question (et d’autres adjacentes).
Google DeepMind met à jour son modèle le plus avancé, Gemini 2.5 Pro. De meilleures performances sur les tâches de programmation, mais au prix de moins bonnes sur… presque tout le reste ?
Le Copyright Office aux US publie un premier brouillon sur l’utilisation de données publiques pour l’entraînement des IA. Verdict temporaire: c’est un usage transformatif (autrement dit: pas du plagiat), mais ne rentre pas dans la doctrine du « fair use » (ce qui permettrait aux développeurs d’IA de ne pas offrir de compensation). Une victoire préliminaire pour les créateurs de contenu s’estimant lésés. Cependant, le directeur du Copyright Office aurait été limogé peu après la publication de ce rapport.
ARC-AGI-2 est publié. ARC-AGI est un benchmark spécialement conçu pour être dur pour les IA actuelles, se reposant principalement sur des tâches de type raisonnement visuel. Malgré ceci, o3 est arrivé à 75%, dépassant les performances des évaluateurs humains. Cette seconde édition tente un nouveau format mais garde le même objectif, « difficile pour l’IA, facile pour les humains ».
Quelque chose que je n’ai pas couvert jusqu’ici car un point secondaire dans beaucoup d’annonces plus importantes, mais qui mérite sa mention du fait justement d’être aussi commun : MCP (Model Context Protocol) est une tentative d’uniformiser la communication entre un modèle et d’autres systèmes (IDEs, sites internet,…). Développé par Anthropic (les développeurs de Claude), adopté par OpenAI et Google DeepMind, il devient de plus en plus un standard de fait.
Dans la série « l’IA fait de la recherche », des chercheurs font leur propre système, nommé Robin, où l’IA propose des hypothèses et des expériences pour les tester, les chercheurs réalisent les expériences, et l’IA se charge de l’analyse des résultats et des prochaines étapes (plus d’expériences, plus d’hypothèses, ou tirer une conclusion). Premier résultat : un candidat pour traiter la forme atrophique de la dégénérescence maculaire liée à l’âge.
OpenAI o3 découvre une faille de sécurité dans Linux.
Le mois dernier, nous avions brièvement mentionné que OpenAI 4o était flagorneur, au point d’opiner sur des prompts relevant manifestement de l’épisode psychotique. Un utilisateur anonyme explore la même tendance à un moindre niveau Opus 4, et travaille à mesurer ça plus précisément. Il mentionne que ses résultats préliminaires montrent que les modèles plus avancés ont plus tendance à exhiber ce comportement.
Dario Amodei, le patron d’Anthropic, prévient que l’IA pourrait supprimer la moitié des postes « débutants » dans des domaines tels que la technologie, la finance ou le droit d’ici 1 à 5 ans.
Pour aller plus loinNon couvert ici :
En audio/video :
Commentaires : voir le flux Atom ouvrir dans le navigateur