Agrégateur de nouvelles
Saint-Cyr-l'Ecole: Permanences logiciels libres - pc et smartphones, Le samedi 24 mai 2025 de 14h00 à 17h00.
Root66 vous propose une permanence Logiciels Libres.
À cette permanence, tu pourras bénéficier d'une aide et d'un accompagnement pour t'aider à installer, configurer des logiciels libres aussi bien sur PC que sur Smartphones.
Un vieux pc qui rame? Besoin de faire une sauvegarde de tes données? Envie de tester des applications opensource sur ton téléphone ou sur ton pc, mais tu as peur de tout casser et de ne pas y arriver seul.e. Pas de souci, l'équipe de root66 est là pour t'accompagner, à ton propre rythme!
Un des objectifs est de t'aider à reprendre le contrôle de tes données et d'apprendre pas à pas les bonnes pratiques à adopter pour sécuriser et améliorer ta vie privée numérique.
N'hésite pas à passer! L'équipe de root66 sera ravie de t'accueillir!
Lettre d'information XMPP de mars 2025
N. D. T. — Ceci est une traduction de la lettre d’information publiée régulièrement par l’équipe de communication de la XSF, essayant de conserver les tournures de phrase et l’esprit de l’original. Elle est réalisée et publiée conjointement sur les sites XMPP.org, LinuxFr.org et JabberFR.org selon une procédure définie.
Bienvenue dans la lettre d'information XMPP, ravie de vous retrouver !
Ce numéro couvre le mois de mars 2025.
Tout comme cette lettre d'information, de nombreux projets et leurs efforts au sein de la communauté XMPP sont le résultat du travail bénévole de certaines personnes. Si vous êtes satisfait des services et des logiciels que vous utilisez, n'hésitez pas à les remercier ou à aider ces projets ! Vous souhaitez soutenir l'équipe de la lettre d'information ? Lisez en bas de page.
- Annonces XSF
- Événements XMPP
- Conférences XMPP
- Articles XMPP
- Actualité des logiciels XMPP
- Extensions et spécifications
- Partagez les nouvelles
- Aidez-nous à construire la lettre d'information
- Licence
La XMPP Standards Foundation a publié une Lettre ouverte pour inciter Meta à adopter XMPP pour l'interopérabilité de la messagerie. Il est temps de mettre en place une véritable interopérabilité. Faisons en sorte que cela se concrétise.
Adhésion à la XSFSi vous souhaitez rejoindre la XMPP Standards Foundation en tant que membre, posez votre candidature avant le 18 mai 2025, 00:00 UTC !
Hébergement fiscal de projets par la XSFLa XSF propose un hébergement fiscal pour les projets XMPP. Veuillez postuler via Open Collective. Pour plus d'informations, voir le billet d'annonce. Projets actuels que vous pouvez soutenir :
Événements XMPPXMPP Track au FOSSY : L'appel à propositions est ouvert jusqu'au 28 avril 2025 ! Cette année encore, le projet soprani.ca a le plaisir d'annoncer son offre annuelle de financement pour les participants potentiels qui pourraient être confrontés à des limitations financières, en particulier pour ceux qui voudraient donner une conférence sur XMPP. Rejoignez-nous sur discuss@conference.soprani.ca, et n'hésitez pas à demander plus d'informations.
Berlin XMPP Meetup [DE / EN] : réunion mensuelle des passionnés de XMPP à Berlin, tous les deuxièmes mercredis du mois à 18 heures (heure locale).
XMPP Italian happy hour [IT] : réunion mensuelle sur le web XMPP en Italie, tous les troisièmes lundis du mois à 19h00 heure locale (événement en ligne, avec mode réunion web et streaming en direct).
XMPP Sprint à Berlin : Les vendredi 23, samedi 24 et dimanche 25 mai 2025.
- SASL-HT (The Hashed Token SASL Mechanism) a été présenté par Florian Schmaus lors de la 122e réunion de l'Internet Engineering Taskforce (IETF). Un enregistrement est disponible sur YouTube et les diapositives sont disponibles sur le site web de l'IETF 122. S'il est adopté, ce projet deviendra un "Request For Comments" (RFC) qui aidera à normaliser les méthodes de réauthentification rapide des clients XMPP telles que celle spécifiée par la XEP-0397. Le projet sera discuté plus avant sur la liste de diffusion du groupe de travail Kitten de l'IETF.
Installer son serveur XMPP avec Prosody par Codimp a été mis à jour pour refléter les changements introduits par la dernière version Prosody 13.0.0 [FR]
Kaidan 0.12.0 : Polissage de l'interface utilisateur et correction de la migration des comptes par melvo pour Kaidan IM.
Il est temps de mettre en place une véritable interopérabilité. Faisons-le ! par guus pour Ignite Realtime News.
Soutien à la lettre ouverte de la XMPP Standard Foundation à Meta pour une véritable interopérabilité par ProcessOne.
Monocles, le projet chapeautant les clients XMPP Monocles Web et Android, a lancé une campagne de crowdfunding. L'objectif principal est de créer une plateforme où la vie privée, la souveraineté numérique et la durabilité occupent une place centrale. Votre vie privée n'est pas négociable. La période de financement s'étend du 28 mars au 30 juin.
Gajim a publié les versions 2.0.1, 2.0.2, 2.0.3 et 2.0.4 avec des améliorations et des corrections de bugs. Rendez-vous dans la section Nouvelles pour plus de détails.
Kaidan a publié les versions 0.12.0, 0.12.1 et 0.12.2. Ces versions apportent des améliorations à l'interface utilisateur, des corrections pour la migration des comptes, pour les messages vocaux et le changement de mot de passe, pour la suppression des messages et des bulles, ainsi que d'autres corrections de bogues. Consultez le journal des modifications pour chaque version ici, ici et ici pour tous les détails.
Poezio a publié les versions 0.15.0 et 0.15.1 de son client XMPP console. Des informations détaillées sont disponibles sur l'annonce de publication.
Profanity a publié la version 0.15.0 de leur client console XMPP. Après plus d'un an et demi de préparation, cette publication embarque une large liste de nouvelles fonctionnalités, améliorations, correction de bogues, et plus encore. Vous pouvez trouver une liste détaillée des modifications dans le journal des modifications.
prose-web-app a publié les versions 0.6.2 et 0.7.0 de son implémentation web de l'application Prose.
ProcessOne a le plaisir d'annoncer la sortie de la version ejabberd 25.03 : une version importante avec de nouvelles fonctionnalités et de nombreuses améliorations, qui arrive trois mois et 180 commits après ejabberd 24.12.
Prosody IM a le plaisir d'annoncer la sortie de la version 13.0.0, la nouvelle version majeure du serveur Prosody XMPP. Cette version apporte un large éventail d'améliorations qui rendent Prosody plus sûr, plus performant et plus facile à gérer que jamais. Lisez tous les détails dans le journal des modifications. Comme toujours, des instructions détaillées de téléchargement et d'installation sont disponibles sur la page de téléchargement pour votre confort.
- Les versions 0.2.11 et 0.2.12 de go-xmpp ont été publiées.
- libstrophe la version 0.14.0 a été publiée.
- peertube-plugin-livechat la version 12.0.3 a été publiée.
- La version pelican-pubsub est disponible. Il s'agit d'un plugin pour le système de publication Pelican qui implémente le support d'Atom Over XMPP, à travers XMPP pubsub, permettant une interaction directe (comme la publication ou l'ajout de commentaires) avec les utilisateurs de Libervia et Movim via XMPP.
- Les versions 0.1.101 et 0.1.102 de prose-core-client ont été publiées.
- Les versions 6.0.1 et 6.0.2 de python-nbxmpp ont été publiées.
- Les versions 1.10.2 et 1.10.3 de QXmpp ont été publiées.
- La version 0.2.8 de Slidge a été publiée.
- Les versions 1.9.1 et 1.10.0 de Slixmpp ont été publiées. Vous pouvez lire les annonces de publication respectives ici et ici pour tous les détails.
La XMPP Standards Foundation développe des extensions pour XMPP dans sa série XEP en plus des RFC XMPP.
Des développeuses, développeurs et experts en standards du monde entier collaborent sur ces extensions, en élaborant de nouvelles spécifications pour des pratiques émergentes et en affinant des méthodes existantes. Proposées par n’importe qui, celles qui rencontrent un grand succès deviennent Finales ou Actives, selon leur type, tandis que d’autres sont soigneusement archivées comme Reportées. Ce cycle de vie est décrit dans XEP-0001, qui contient les définitions formelles et canoniques des types, états et processus. En savoir plus sur le processus des standards. La communication autour des standards et des extensions a lieu sur la liste de diffusion des standards (archive en ligne).
Extensions proposéesLe processus de développement des XEP commence par la rédaction d'une idée et sa soumission à l'éditeur XMPP. Dans les deux semaines qui suivent, le Conseil décide d'accepter ou non cette proposition en tant que XEP expérimentale.
- Aucune XEP proposée ce mois-ci.
- Version 0.1.0 de XEP-0503 ("Spaces" côté serveur).
- Promu à expérimental (Editeur XEP : dg)
Si une XEP expérimentale n’est pas mise à jour pendant plus de douze mois, elle sera retirée de la catégorie Expérimental pour être classée comme Déférée. Si une mise à jour intervient, la XEP sera replacée dans la catégorie Expérimental.
- Aucune XEP déférée ce mois-ci.
- Aucune XEP mise à jour ce mois-ci.
Les derniers appels sont lancés une fois que tout le monde semble satisfait de l'état actuel d'une XEP. Une fois que le Conseil a décidé si la XEP semble prête, l'éditeur XMPP émet un dernier appel pour recueillir des commentaires. Les commentaires recueillis lors du dernier appel peuvent aider à améliorer la XEP avant de le renvoyer au Conseil pour qu'il passe à l'étape Stable.
- Aucun dernier appel ce mois-ci.
- Aucune XEP n’est passée à Stable ce mois-ci.
- Aucune XEP n’a été dépréciée ce mois-ci.
- Aucune XEP n’a été rejetée ce mois-ci.
Veuillez partager ces nouvelles sur d'autres réseaux :
- Mastodon
- YouTube
- Instance Lemmy (non officiel)
- Reddit (non officiel)
- Page Facebook XMPP (non officielle)
Consultez également notre flux RSS !
Vous recherchez des offres d’emploi ou souhaitez engager une personne en tant que consultante professionnelle pour votre projet XMPP ? Consultez notre tableau des offres d’emploi XMPP.
Contributions et traductions de la lettre d'informationIl s’agit d’un effort communautaire, et nous souhaitons remercier les bénévoles pour leurs contributions. Le bénévolat et les traductions dans d'autres langues sont les bienvenus ! Les traductions de la lettre d'information XMPP seront publiées ici (avec un certain délai) :
- Anglais (original) : xmpp.org
- Contributions générales : Adrien Bourmault (neox), Alexander "PapaTutuWawa", Arne, cal0pteryx, emus, Federico, Gonzalo Raúl Nemmi, Jonas Stein, Kris "poVoq", Licaon_Kter, Ludovic Bocquet, Mario Sabatino, melvo, MSavoritias (fae,ve), nicola, Schimon Zachary, Simone Canaletti, singpolyma, XSF iTeam
- Français : jabberfr.org et linuxfr.org
- Traductions : Adrien Bourmault (neox), alkino, anubis, Arkem, Benoît Sibaud, mathieui, nyco, Pierre Jarillon, Ppjet6, Ysabeau
- Italien : notes.nicfab.eu
- Traductions : nicola
- Espagnol : xmpp.org
- Traductions : Gonzalo Raúl Nemmi
- Allemand : xmpp.org
- Traductions : Millesimus
Cette lettre d'information XMPP est produite de manière collaborative par la communauté XMPP. Chaque numéro mensuel de la lettre d'information est rédigé dans ce pad simple. À la fin de chaque mois, le contenu du pad est fusionné dans le dépôt GitHub de la XSF. Nous sommes toujours ravis d'accueillir des contributions. N’hésitez pas à rejoindre la discussion dans notre chat de groupe Comm-Team (MUC) et à nous aider à maintenir cet effort communautaire. Vous avez un projet et souhaitez partager vos actualités ? Pensez à partager vos nouvelles ou événements ici pour les promouvoir auprès d’un large public.
Tâches que nous réalisons régulièrement :
- recueillir des nouvelles dans l’univers XMPP
- rédiger des résumés brefs des actualités et événements
- résumer les communications mensuelles sur les extensions (XEPs)
- réviser le brouillon de la lettre d'information
- préparer des images pour les médias
- traduire
- communiquer via les comptes sur les réseaux sociaux
Cette lettre d'information est publiée sous la licence CC BY-SA.
Télécharger ce contenu au format EPUBCommentaires : voir le flux Atom ouvrir dans le navigateur
20 ans de Fedora-fr : cinquième entretien avec Thomas traducteur de Fedora
Dans le cadre des 20 ans de Fedora-fr (et du Projet Fedora en lui-même), Charles-Antoine Couret (Renault) et Nicolas Berrehouc (Nicosss) avons souhaité poser des questions à des contributeurs francophones du Projet Fedora et de Fedora-fr.
Grâce à la diversité des profils, cela permet de voir le fonctionnement du Projet Fedora sous différents angles pour voir le projet au-delà de la distribution mais aussi comment il est organisé et conçu. Notons que sur certains points, certaines remarques restent d’application pour d’autres distributions.
N’oublions pas que le Projet Fedora reste un projet mondial et un travail d’équipe ce que ces entretiens ne permettent pas forcément de refléter. Mais la communauté francophone a de la chance d’avoir suffisamment de contributeurs et des contributrices de qualité pour permettre d’avoir un aperçu de beaucoup de sous projets de la distribution.
Chaque semaine un nouvel entretien sera publié sur le forum Fedora-fr.org, LinuxFr.org et le blog de Renault.
L’entretien du jour concerne Thomas Canniot (pseudo MrTom), ancien traducteur de Fedora en français et fondateur de l’association Fedora-fr.
Bonjour Thomas, peux-tu présenter brièvement ton parcours ?
Mon parcours est assez banal j’estime. Quand j’étais petit, je bidouillais sur un Amstrad CPC 6128 en Basic. Quand nous avons reçu notre premier ordinateur Windows en 1997, j’étais vraiment curieux de comprendre comment cela fonctionnait. J’ai rapidement découvert les logiciels libres et adhéré à l’époque à ses grands principes. Du coup, j’ai cherché très vite à utiliser le plus possible de logiciels libres tout en sachant qu’un jour je finirais par passer à Linux.
J’ai pu tester pas mal de distributions. À la fac de Lille, je participais à l’association Campux où j’ai pu rencontrer d’autres étudiants qui étaient sur Linux.
Question études, j’ai fait des études d’anglais puis d’ingénierie pédagogique à Lille. J’ai un master 2. Rien à voir avec l’informatique et pourtant.
Peux-tu présenter brièvement tes contributions au Projet Fedora ?
Les contributions ont été assez larges en fait. Je participais pas mal au forum et j’échangeais pas mal avec le créateur de Fedora-fr.org à l’époque pour lui demander des demandes d’améliorations, le développement du wiki, etc. Au final, il a fini par me céder le site et c’est avec des volontaires sur canal IRC que nous avons pu constituer une équipe (LLaumgui, Trashy et d’autres) autour du site pour le renforcer techniquement et lui donner un second souffle.
Qu’est-ce qui fait que tu es venu sur Fedora ?
Je cherchais une distribution à la pointe des derniers développements qui soit stable et « sérieuse ». J’aimais le fait que Fedora soit une distribution Linux assez jeune (j’ai débuté sur Fedora Core 2). La communauté et le site étaient assez jeunes, il y avait matière à faire quelque chose sans que je n’aie moi de compétences techniques poussées et encore moins en programmation.
Pourquoi contribuer à Fedora en particulier ?
J’aimais la distribution par sa communauté et le fait que le projet s’organisait en chemin. C’était hyper stimulant de participer à quelque chose qui se construit et de voir un projet de cette nature se construire, établir des processus de contribution.
En installant Fedora Core 3 ou 4, je me suis rendu compte qu’il y avait plein de phrases en anglais partout dans le système alors que celui-ci était bien configuré en français. Je me suis du coup penché sur la traduction de la distribution et nous avons pu grâce au forum fedora-fr et au canal IRC monter une équipe de 3 ou 4 personnes qui contribuaient nuits et jours à la traduction de Fedora. J’ai fait ça pendant 6 ou 7 ans je dirais, c’était vraiment un gros boulot, parfois même stressant, car nous essayions de traduire le plus possible de lignes de texte avant la prochaine sortie de la distribution.
As-tu contribué à d’autres Logiciels Libres ? Si oui, lesquels et comment ?
J’ai participé à d’autres projets de traduction. Aujourd’hui, je m’applique à traduire le logiciel de conversion vidéo Handbrake pour Mac, Linux et Windows.
Est-ce que tes contributions à Fedora sont un atout direct ou indirect dans ta vie professionnelle ? Si oui, de quelle façon ?
Participer au projet Fedora m’a appris énormément sur l’informatique et le développement des projets logiciels. C’est une plus-value énorme sur mon profil professionnel. L’informatique est partout, et même si vous n’êtes pas concerné par le développement ou l’achat de logiciels au quotidien, savoir ce qu’est un logiciel propriétaire, un logiciel libre, les différents types de licences et les problématiques de développement et de traduction qui en découlent sont des cordes supplémentaires indéniables à mon arc. J’ai aussi appris sur le tas à ménager la chèvre et le chou entre les différents profils des contributeurs du projet, tenté tant bien que mal de motiver les troupes et établir des relations saines avec l’équipe de Red Hat en charge de la communauté mondiale de Fedora.
Tu as fait partie des pionniers de la communauté francophone de Fedora et de l’association, quelles raisons t'ont poussé à t’y lancer ?
La raison la plus simple et primaire, c’est qu’il fallait une structure financière basique pour payer le serveur du site internet fedora-fr.org et le nom de domaine. Nous avons donc monté une association loi 1901 et commencé à recevoir quelques cotisations (les nôtres) pour le financement annuel du serveur.
Peux-tu nous faire un bref historique des débuts de la communauté et de l’association ?
L’association étant lancée, nous avons cherché à ce qu’elle grossisse un peu en permettant de faire la promotion de Fedora en France, en Suisse et en Belgique. Parfois même en Afrique du Nord. Nous sommes restés une petite association, avec une trentaine de membres pas toujours à jour de leur cotisation. C’était vraiment rock’n’roll parfois :) Tous les ans, nous faisions presser des live CD d’installation de la distribution que nous revendions parfois complètement à perte. C’était un peu le Graal d’avoir un objet qui symbolisait la distribution et qui portait les couleurs de la communauté Fedora francophone. C’était si je me souviens bien notre plus gros budget annuel de dépense, mais cela nous permettait d’avoir des choses à proposer sur les salons.
Tu as été pendant quelques années président de l’association Fedora-fr à l’époque. Peux-tu revenir sur les chantiers en cours à ce moment-là et des apports que tu as pu y faire ?
Les premières années ont été des années de développement et de structuration de l’activité de l’association. Nous faisions tous cela à côté de nos études ou de nos jobs, donc nous n’avons pas créé des choses incroyables. Beaucoup de monde ignore tout le bazar que peut générer la création d’une association en France, ne serait-ce que d’avoir une banque ou une assurance qui comprennent ce que vous faites et qui vous accompagnent. C’était un gros boulot de stabilisation administrative. Avec les cotisations des membres, nous avons pu développer les activités de l’association : pour en faire la promotion sur les salons informatiques locaux ou nationaux, permettre aux membres de prendre en charge tout ou partie de leurs frais de déplacements, leur fournir des goodies et des live CD, des flyers, etc. Tout cela prend du temps à penser, créer, imprimer, organiser, etc.
Tu as été traducteur pour le Projet Fedora, et même des FWN (Fedora Week News) en podcast. Peux-tu nous dire l’importance que ça a de traduire un projet de cette taille ? Le rythme des FWN n’était-il pas trop élevé ?
La traduction c’est du bénévolat ingrat, car vous êtes en bout de chaine et c’est chez les traducteurs qu’est la pression de terminer le travail le plus vite possible avant que la distribution ne soit packagées et disponible en version finale. Le Projet Fedora nous a fréquemment réduit les deadlines de contributions, donc nous sommes allés au plus urgent très souvent.
J’avais oublié que j’avais réalisé un podcast avec Trashy. C’était vraiment fait sur un coin de table, mais c’était vraiment un plaisir d’essayer de faire ça. Oui le rythme était intense, mais j’aimais bien l’audio et le format.
Comment fonctionne le monde de la traduction logicielle ? Quels outils sont à disposition pour réaliser ce travail ?
Au tout début, c’était vraiment rock’n’roll et je ne comprenais pas réellement comment je devais le faire. Faire un commit de fichier quand vous êtes complètement novice en développement, ça relève de la sorcellerie.
On récupérait donc les fichiers à traduire, on les traduisait et on les renvoyait. Il y a(vait) une liste de diffusion pour organiser l’équipe de traduction et les processus. Pour éviter que plusieurs personnes ne travaillent sur les mêmes fichiers en même temps, ou pour chercher un relecteur, avant de publier la traduction. Nous étions plutôt bien organisés avec les petits outils à disposition. Ensuite, pour traduire, rien de tel qu’un logiciel comme Lokalize et un bon dictionnaire parfois.
Plus tard dans la vie du projet, le site Transifex a été lancé. Je l’utilise encore aujourd’hui pour traduire Handbrake avec beaucoup de nostalgie.
Le volume de traduction que cela représente est plutôt élevé, quelle était ta motivation à l’effectuer durant tout ce temps ?
En toute franchise, je l’ai fait par passion au début. Vers la fin, c’est devenu une contrainte, mais j’essayais de participer, car je ne voulais pas voir la distribution mal traduite. C’est terrible quand vous installez un logiciel et qu’il n’est pas entièrement en français. Personnellement je déteste cela.
Si ce n’est pas indiscret, tu as quitté maintenant Borsalinux-fr et le Projet Fedora, quelles en sont les raisons ?
Plusieurs raisons. Je me sentais un peu usé d’avoir participé pendant de nombreuses années et la motivation s’en est allée petit à petit.
J’ai également fait mon entrée dans le monde du travail et le temps disponible s’est considérablement réduit.
Enfin, Apple est passé par là. J’étais un peu frustré de devoir ré-installer mon ordinateur tous les 6 mois alors qu’un Mac ça ne bouge pas, vous l’allumez et ça fonctionne. Point. Mes proches avaient des Mac, des machines silencieuses qui fonctionnaient sans manipulations et sans problèmes… la tentation a été trop forte.
Que conseillerais-tu, comme lecture ou travaux, à un jeune contributeur de faire pour contribuer dans tes domaines ? Quelles compétences ou qualité sont utiles pour réaliser ce travail ?
Deux choses :
Ne pas se fixer des objectifs inatteignables. Les projets de logiciels libres sont en grande partie structurés et il faut parfois y aller doucement et faire ses preuves avant de prendre des responsabilités.
Être persévérant et ne pas se décourager. Parfois la marche peut sembler haute, mais n’hésitez pas à en parler à d’autres utilisateurs et contributeurs qui pourront vous donner un coup de main ou débloquer des situations. Ce sont des projets d’équipes, personne ne doit rester seul dans son coin.
Merci Thomas pour ta contribution !
ConclusionNous espérons que cet entretien vous a permis d’en découvrir un peu plus sur la traduction dans Fedora et les débuts de Fedora-fr.
Si vous avez des questions ou que vous souhaitez participer au Projet Fedora ou Fedora-fr, ou simplement l’utiliser et l’installer sur votre machine, n’hésitez pas à en discuter avec nous en commentaire ou sur le forum Fedora-fr.
À dans 10 jours pour un entretien avec Robert-André Mauchin, empaqueteur du Projet Fedora en particulier concernant l’écosystème Go et Rust.
Télécharger ce contenu au format EPUBCommentaires : voir le flux Atom ouvrir dans le navigateur
Licences Open Source et IA : Quelles licences sont les plus adaptées aux modèles d'IA ?
Primavera De Filippi : Bonjour à tous. Merci pour la patience. On va commencer. Ce panel c'est sur la question des licences, de l'open source par rapport à l'IA. On va essayer d'explorer cette question : dans quelle mesure les licences open source aujourd'hui sont ou peuvent être utilisées dans l'IA. Et, plus largement, le concept d'open source s'applique-t-il, les principes et les concepts de l'open source peuvent-ils être transposés dans le contexte de l'intelligence artificielle ? Des (…)
- Transcriptions / Primavera De Filippi, Benjamin Jean, Adrien Basdevant, Charlotte Heylliard, Licences, Intelligence artificielle, Open Source/Open Science/Open Data /Données libres et ouvertes, Conférence, VidéoRouen: Assistance numérique libre, Le samedi 17 mai 2025 de 14h00 à 17h30.
1er étage, entrée par l'escalier extérieur rue St Julien. (Salle à confirmer).
Vous pouvez venir pour :
-
découvrir ce que peut vous apporter le numérique libre, éthique et écoresponsable
-
obtenir de l'assistance pour l'utilisation des systèmes d'exploitation libres (GNU/Linux pour ordinateur et /e/OS pour smartphones)
-
obtenir de l'assistance pour l'utilisation des logiciels libres (ex : Firefox, Thunderbird, LibreOffice, VLC) et des services Internet éthiques (ex : mél et cloud, travail collaboratif en ligne).
-
vous faire aider à installer GNU/Linux sur votre ordinateur ou /e/OS sur votre Fairphone, si vous n'avez pas pu venir à notre Install Partie.
Nous vous recommandons d'effectuer une sauvegarde avant de venir, si vous n'êtes pas en mesure de faire veuillez apporter un support de sauvegarde (disque dur externe ou clé USB de capacité suffisante).
Nos services sont gratuits, vous pourrez néanmoins faire un don à notre association "Libérons nos ordis".
ATTENTION si vous apportez un ordinateur de bureau amenez aussi écran, clavier et souris à brancher dessus. Et câble d'alimentation avec multi-prise.
INSCRIPTION RECOMMANDÉE SUR LE TABLEAU À REMPLIR ICI : https://calc.ouvaton.coop/InscriptionPermanenceNumeriqueLibreRouen
Rouen: Install partie Linux, Le mercredi 14 mai 2025 de 13h30 à 16h45.
Venez donner une nouvelle jeunesse à votre ordinateur !
En remplaçant votre système Windows® [ou Mac®] par un système plus simple, plus sûr, plus rapide, plus sobre et libre - GNU/Linux - vous pouvez donner à votre ordinateur toute son efficacité et vous serez à l'abri des virus !
La durée de vie de votre ordinateur pourra en être multipliée au moins par deux, vous permettant ainsi de réaliser de très substantielles économies et de diminuer d'autant votre impact écologique.
Lors de cette "Install partie" nous vous proposerons tout d'abord une démonstration de GNU/Linux.
Si vous amenez votre ordinateur, nous pourrons effectuer des tests pour savoir s'il est parfaitement compatible avec Linux, et si c'est le cas nous vous proposerons de procéder à son installation.
Vous pouvez aussi venir si vous avez déjà GNU/Linux et que vous avez besoin d'un complément de configuration ou des questions.
Vous pouvez également venir pour que l'on vous aide à installer /e/OS sur votre appareil Android à condition qu'il soit compatible : à vérifier avant de venir sur https://doc.e.foundation/devices (Les Fairphones sont compatibles et plus faciles à installer que les autres ordiphones).
L'installation est gratuite, vous pourrez néanmoins faire un don à notre association "Libérons nos ordis".
IMPORTANT : veuillez lire cette page afin de venir préparé : https://blog.liberetonordi.com/index.php?post/participer-installparty
Si vous n'êtes pas en mesure d'effectuer vous même votre SAUVEGARDE, veuillez apporter un support de sauvegarde (disque dur externe ou clé USB de capacité suffisante).
Remarque : vous pouvez même apporter un ordinateur de bureau - uniquement l'unité centrale (la tour) - nous avons des écrans, claviers et souris à brancher dessus.
Accès à la Cyberbase : bus T2 (Teor n°2) arrêt Malraux, entrée depuis la rue César Franck ou depuis le parvis (face au centre culturel Malraux).
VEUILLEZ VOUS INSCRIRE ICI https://calc.ouvaton.coop/InscriptionInstallPartieLinuxRouen
Au café libre - « Libre à vous ! » du 29 avril 2025 - Podcasts et références
Deux-cent-quarante-cinquième émission « Libre à vous ! » de l’April. Podcast et programme :
- sujet principal : Au café libre, débat autour de l’actualité du logiciel libre et des libertés informatiques
- Chronique À cœur vaillant, la voie est libre de Laurent et Lorette Costy : « Range tes affaires dans la PirateBox »
- Une nouvelle Pituite de Luk : « À nous de jouer »
Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 FM en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune.
- lien nᵒ 1 : Podcast de l'émission
- lien nᵒ 2 : Les références pour l'émission et les podcasts par sujets
- lien nᵒ 3 : La transcription de l'émission
- lien nᵒ 4 : S'abonner au podcast
- lien nᵒ 5 : S'abonner à la lettre d'actus
- lien nᵒ 6 : Libre à vous !
- lien nᵒ 7 : Radio Cause Commune
Commentaires : voir le flux Atom ouvrir dans le navigateur
Nouvelles sur l’IA d’avril 2025
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs visiteurs ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
- lien nᵒ 1 : AI #110: Of Course You Know...
- lien nᵒ 2 : AI #111: Giving Us Pause
- lien nᵒ 3 : AI #112: Release the Everything
- lien nᵒ 4 : AI #113: The o3 Era Begins
- lien nᵒ 5 : AI 2027: Dwarkesh's Podcast with Daniel Kokotajlo and Scott Alexander
- lien nᵒ 6 : AI 2027: Responses
- lien nᵒ 7 : Llama Does Not Look Good 4 Anything
- lien nᵒ 8 : GPT-4.1 Is a Mini Upgrade
- lien nᵒ 9 : o3 Will Use Its Tools For You
- lien nᵒ 10 : o3 Is a Lying Liar
- Résumé des épisodes précédents
- Meta dévoile Llama 4
- OpenAI publie GPT 4.1, o3 et o4-mini
- AI 2027: une tentative de futurologie
- En vrac
- Pour aller plus loin
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».
- We’re sharing the first models in the Llama 4 herd, which will enable people to build more personalized multimodal experiences.
- Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
- Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash across a broad range of widely reported benchmarks, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. Llama 4 Maverick offers a best-in-class performance to cost ratio with an experimental chat version scoring ELO of 1417 on LMArena.
- These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Llama 4 Behemoth outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro on several STEM benchmarks. Llama 4 Behemoth is still training, and we’re excited to share more details about it even while it’s still in flight.
- Download the Llama 4 Scout and Llama 4 Maverick models today on llama.com and Hugging Face. Try Meta AI built with Llama 4 in WhatsApp, Messenger, Instagram Direct, and on the web.
Traduction:
- Nous partageons les premiers modèles de la famille Llama 4, qui permettront aux utilisateurs de créer des expériences multimodales plus personnalisées. *Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, est le meilleur modèle multimodal au monde dans sa catégorie et est plus puissant que tous les modèles Llama des générations précédentes, tout en tenant sur un seul GPU NVIDIA H100. De plus, Llama 4 Scout offre une fenêtre de contexte de 10M, leader dans l’industrie, et délivre de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur un large éventail de benchmarks largement reconnus.
- Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, est le meilleur modèle multimodal dans sa catégorie, surpassant GPT-4o et Gemini 2.0 Flash sur un large éventail de benchmarks largement reconnus, tout en obtenant des résultats comparables au nouveau DeepSeek v3 sur le raisonnement et le codage — avec moins de la moitié des paramètres actifs. Llama 4 Maverick offre un rapport performance/coût inégalé avec une version expérimentale de chat obtenant un ELO de 1417 sur LMArena.
- Ces modèles sont nos meilleurs à ce jour grâce à la distillation de Llama 4 Behemoth, un modèle de 288 milliards de paramètres actifs avec 16 experts qui est notre plus puissant à ce jour et parmi les LLM les plus intelligents au monde. Llama 4 Behemoth surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur plusieurs benchmarks STEM. Llama 4 Behemoth est toujours en phase d’entraînement, et nous sommes impatients de partager plus de détails à son sujet même pendant qu’il est encore en développement.
- Téléchargez les modèles Llama 4 Scout et Llama 4 Maverick dès aujourd’hui sur llama.com et Hugging Face. Essayez Meta AI construit avec Llama 4 dans WhatsApp, Messenger, Instagram Direct et sur le web.
Comme DeepSeek v3, et contrairement aux précédentes itérations de Llama (Llama 2, Llama 3), Llama 4 fait le pari d’une architecture différente, « Mixture of Experts » (MoE) (en français: mélange d’experts ?). Pour simplifier, au lieu de faire un seul modèle, on en fait plein, avec un autre modèle qui décide (dynamiquement) de l’importance à donner à chaque modèle. Par exemple, Llama 4 Maverick contient 400 milliards de paramètres, découpés en 128 modèles de 17 milliards de paramètres. Un bon article sur HuggingFace explique plus en détails cette architecture.
Autre différence par rapport aux tendances actuelles, ce n’est pas un modèle de raisonnement.
Au niveau de la sécurité des modèles : pour ne pas changer, Meta fait partie des mauvais élèves ; pas d’évaluation tierce publiée, pas de « System Card ». Évidemment jailbreaké dans la journée (mais ceci n’est pas spécifique à Meta).
Sur les benchmarks cités par Meta, cela semble un modèle au niveau de l’état de l’art en termes de capacité. Les benchmarks tiers, par contre, semblent donner une image complètement différente :
- Sur fiction.live qui cherche à mesurer la capacité des modèles de langage à naviguer un long contexte, Llama 4 Maverick n’arrive même pas à surpasser son prédécesseur, Llama 3.3-70B.
- Dans le peloton de fin sur ARC. À la décharge de Llama, la concurrence est rude, seuls les modèles à la frontière de l’état de l’art y sont présents.
- Sur Aider, également vers la fin.
Vous pouvez voir plus de benchmarks indépendants dans l’article de Zvi (cf les liens ci-dessous).
Tout ceci semble pointer vers: ce ne sont pas de mauvais résultats en soi, dans l’absolu ; mais comparé à l’état de l’art (Claude 3.7 avec raisonnement, ChatGPT o3-mini, ou Gemini 2.5), et mis en face de la taille immense du modèle (400 milliards de paramètres, ce qui de fait le rend inutilisable sur du matériel grand public), ce sont des résultats décevants.
À noter que Llama 4 Behemoth (2000 milliards de paramètres !) n’a pas encore été publié.
OpenAI publie GPT 4.1, o3 et o4-miniCommençons par GPT 4.1. L’annonce officielle :
Today, we’re launching three new models in the API: GPT‑4.1, GPT‑4.1 mini, and GPT‑4.1 nano. These models outperform GPT‑4o and GPT‑4o mini across the board, with major gains in coding and instruction following. They also have larger context windows—supporting up to 1 million tokens of context—and are able to better use that context with improved long-context comprehension. They feature a refreshed knowledge cutoff of June 2024.
Traduction :
Aujourd’hui, nous lançons trois nouveaux modèles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des améliorations majeures en matière de codage et de suivi d’instructions. Ils disposent également de fenêtres de contexte plus larges — prenant en charge jusqu’à 1 million de tokens de contexte — et sont capables de mieux utiliser ce contexte grâce à une compréhension améliorée des contextes longs. Ils bénéficient d’une mise à jour de leur base de connaissances jusqu’à juin 2024.
Le modèle n’est disponible que par accès API. Le but n’est pas d’avancer l’état de l’art sur les capacités, mais de fournir des points plus intéressants sur la courbe performances/prix. À ce titre, pas de System Card ou d’évaluation tierce publiée. Vous connaissez la chanson, jailbreak immédiat. Sur les benchmarks (officiels comme tiers), la modeste promesse semble tenue : 4.1 est une légère amélioration sur 4o, mais 4.1-mini est presque aussi performant à une fraction du prix (5x moins cher).
Il existe encore une version moins chère (20x !), 4.1-nano, mais la dégradation de performance est significative.
À l’inverse de 4.1, o3 et o4-mini, eux, ont l’ambition de faire avancer l’état de l’art. L’annonce officielle :
Today, we’re releasing OpenAI o3 and o4-mini, the latest in our o-series of models trained to think for longer before responding. These are the smartest models we’ve released to date, representing a step change in ChatGPT's capabilities for everyone from curious users to advanced researchers. For the first time, our reasoning models can agentically use and combine every tool within ChatGPT—this includes searching the web, analyzing uploaded files and other data with Python, reasoning deeply about visual inputs, and even generating images. Critically, these models are trained to reason about when and how to use tools to produce detailed and thoughtful answers in the right output formats, typically in under a minute, to solve more complex problems. This allows them to tackle multi-faceted questions more effectively, a step toward a more agentic ChatGPT that can independently execute tasks on your behalf. The combined power of state-of-the-art reasoning with full tool access translates into significantly stronger performance across academic benchmarks and real-world tasks, setting a new standard in both intelligence and usefulness.
Traduction :
Aujourd’hui, nous lançons OpenAI o3 et o4-mini, les derniers modèles de notre série o, entraînés à réfléchir plus longtemps avant de répondre. Ce sont les modèles les plus intelligents que nous ayons publiés à ce jour, représentant un changement majeur dans les capacités de ChatGPT pour tous, des utilisateurs curieux aux chercheurs avancés. Pour la première fois, nos modèles de raisonnement peuvent utiliser et combiner de manière agentique tous les outils au sein de ChatGPT — cela inclut la recherche sur le web, l’analyse de fichiers téléchargés et d’autres données avec Python, le raisonnement approfondi sur les entrées visuelles, et même la génération d’images. Plus important encore, ces modèles sont entraînés à réfléchir à quand et comment utiliser les outils pour produire des réponses détaillées et réfléchies dans les bons formats de sortie, généralement en moins d’une minute, afin de résoudre des problèmes plus complexes. Cela leur permet de traiter plus efficacement des questions à multiples facettes, une étape vers un ChatGPT plus agentique qui peut exécuter indépendamment des tâches en votre nom. La puissance combinée d’un raisonnement à la pointe de la technologie avec un accès complet aux outils se traduit par des performances significativement améliorées dans les évaluations académiques et les tâches du monde réel, établissant une nouvelle norme en termes d’intelligence et d’utilité.
L’annonce du jailbreak associée ici.
Sur les performances, les benchmarks (y compris privés) indiquent une avancée claire, prenant la première place presque partout. En particulier, le benchmark fiction.live peut être considéré comme résolu pour la première fois, avec un 100% à presque tous les niveaux.
Au niveau des fonctionnalités, o3 et o4-mini peuvent faire des recherches sur internet et utiliser Python pour analyser un problème (y compris dans la chaîne de raisonnement) ; les retours subjectifs affirment que o3 est exceptionnellement efficace pour utiliser les outils à sa disposition de manière pertinente.
Une tendance jusqu’ici était que les modèles plus avancés étaient de moins en moins susceptibles d’hallucinations, ce qui donnait espoir que ce problème allait, à terme et avec l’amélioration des modèles, se résoudre de lui-même. Mauvaise nouvelle ici : o3 a un taux d’hallucinations double de o1 (sur un benchmark conçu pour en éliciter). Les retours subjectifs confirment cette observation : o3 ment éhontément très régulièrement.
Sur la sécurité des modèles, OpenAI suit sa procédure habituelle de publier sa System Card, avec deux évaluations tierces, une d’Apollo Research (dans l’appendice) et une autre de METR, avec un bémol que METR n’a eu accès qu’à une pré-version, et seulement trois semaines avant la publication. La conclusion est que le modèle n’est pas encore à « risque élevé », mais s’en rapproche.
Dans les nouvelles sur l’IA de mars, on pouvait trouver une section « Les modèles continuent de tricher ». Les rapports d’Apollo Research et de METR confirment, où le modèle a été attrapé à tricher dans 1-2% des cas chez METR.
AI 2027: une tentative de futurologieLa prédiction est un exercice difficile, surtout quand il s’agit du futur. AI 2027 est une tentative de prédiction qui a fait parler d’elle. Pourquoi ?
D’abord par les personnalités impliquées, en particulier :
Daniel Kokotajlo est un ex-ingénieur d’OpenAI, qu’il a quitté en tant que « whistleblower », dénonçant une culture du secret et de peu d’importance accordée à la sécurité (à l’époque, le New York Times lui a accordé un article intitulé OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance — « Des initiés d’OpenAI mettent en garde contre une course “imprudente” à la domination »). En 2021, il publie What 2026 looks like, qui s’est révélé largement prescient (pour une évaluation rétrospective tierce, voir cet article).
Eli Lifland est un chercheur qui s’intéresse de manière globale a « comment développer de meilleures méthodes générales de prédiction », qu’il pratique activement sur des marchés de prédiction ; un résumé de ses performances peut être trouvé sur son blog.
Ensuite, par sa méthodologie. Le but de l’initiative n’est pas de donner une prédiction, brute de décoffrage et au doigt mouillé, mais de créer un modèle quantitatif, d’estimer les paramètres le plus possible à partir de la littérature existante (même si c’est loin d’être toujours possible), afin de créer une base de discussion pour identifier les plus gros points de désaccords.
Enfin, par ses résultats, qui surprennent beaucoup de monde, qui prévoient l’arrivée d’une superintelligence pour 2028-2029.
L’initiative a reçu le support, entre autres, de Yoshua Bengio, ce qui a aidé à lancer la discussion :
I recommend reading this scenario-type prediction by @DKokotajlo and others on how AI could transform the world in just a few years. Nobody has a crystal ball, but this type of content can help notice important questions and illustrate the potential impact of emerging risks.
Traduction :
Je recommande de lire cette prédiction de type scénario par @DKokotajlo et d’autres sur comment l’IA pourrait transformer le monde en seulement quelques années. Personne n’a de boule de cristal, mais ce type de contenu peut aider à repérer des questions importantes et illustrer l’impact potentiel des risques émergents
Si le sujet vous intéresse, je vous recommande :
- Le scénario en lui-même.
- Le blog des auteurs du scénario, où ils entrent plus en détails sur certains points.
- Si vous pouvez comprendre de l’anglais (soit à l’oral, soit avec des sous-titres, ou pour les plus courageux les sous-titres traduits automatiquement), Dwarkesh Patel pose aux auteurs les principales questions que vous pourriez vous poser sur son podcast.
OpenAI annonce vouloir publier des modèles en open-weight d’ici quelques mois.
OpenAI publie OpenAI Codex, un agent d’aide à la programmation (similaire à Aider ou Claude Code), en licence Apache 2.0. Sur ce sujet d’agents d’aide au code, un guide a été publié sur Github.
OpenAI rend disponible sur l’API leur nouveau modèle de génération d’image.
ChatGPT a maintenant la capacité de référencer vos conversations passées.
Google publie deux papiers dans Nature pour évaluer la performance de l’IA sur le diagnostic médical. Dans cette expérience, l’IA surpasse le médecin humain, au point que IA + humain a des performances pires que l’humain seul.
Google rend accessible son modèle de génération de vidéo, Veo 2, par l’intermédiaire d’une API.
DeepSeek présente une nouvelle méthode d’entraînement, Generalist Reward Modeling (GRM).
Des chercheurs de l’université de Zurich décident de mesurer la capacité de persuasion des IA en déployant (secrètement) un bot sur le subreddit r/changemymind (« Change mon avis »). Résultat primaire: les IA modernes sont très performantes à cette tâche, récoltant 6x plus de points « cela m’a aidé à changer mon avis » (sur ce subreddit : « deltas ») que l’humain median. Résultat secondaire: l’IA ne s’est pas faite détectée par la modération. Le papier n’est plus accessible suite à une controverse sur l’éthique de l’expérience (expérience sans consentement), mais vous pouvez toujours lire la première page.
Pour aller plus loinNon couvert ici :
- GPT-4o Responds to Negative Feedback: une mise à jour de GPT-4o l’a pour quelques jours rendu extrêmement flatteur envers l’utilisateur, l’écroulant sous les compliments quelle que soit la requête. À des niveaux malsains (par exemple, où la requête en question a tous les signes d’un épisode psychotique…). OpenAI a depuis annulé la mise à jour, mais l’article entre plus en détails sur l’incident. Si vous n’ouvrez qu’un article dans la section « pour aller plus loin », je vous recommande celui-ci.
- AI CoT Reasoning Is Often Unfaithful: une analyse du papier d’Anthropic sur la sécurité des modèles, qui montre que les chaines de pensée dans les modèles de raisonnement ne reflètent pas toujours fidèlement le raisonnement réel derrière la réponse.
- You Better Mechanize: sur le lancement de Mechanize, une entreprise qui a comme objectif d’apporter l’AI dans le « monde réel » pour automatiser l’économie.
- On Google's Safety Plan
- OpenAI #13: Altman at TED and OpenAI Cutting Corners on Safety Testing
- Worries About AI Are Usually Complements Not Substitutes
Commentaires : voir le flux Atom ouvrir dans le navigateur
Paris: Apéro et Soirée de contribution au libre, Le jeudi 15 mai 2025 de 19h00 à 23h30.
Tous les 15 du mois, Parinux organise un Apéro Parisien du Libre (APL). Et tous les deuxièmes jeudis du mois, Parinux organise une Soirée de Contribution au Libre (SCL).
Problème pour le moi de mai : le deuxième jeudi du mois est le 8, un jour férié. En décalant d'une semaine, cela nous rend au jeudi 15.
Pour le mois de mai, l'Apéro Parisien du Libre et la Soirée de Contribution au Libre sont donc fusionnées.
Vous pouvez venir pour contribuer à des projets libres (comme au SCL) ou pour discuter (comme APL).
C'est organisé sous la forme d'un buffet collaboratif. À chacune et chacun d'apporter un petit quelque chose. De nombreux magasins sont ouverts tard à proximité.
Pour obtenir le code d'entrée de la porte cochère, contactez le CA (ca (@) lists.parinux.org) ou passez par la page Contact.
Nantes: Jeudi du Libre, Le jeudi 15 mai 2025 de 18h00 à 20h00.
Chaque deuxième jeudi du mois, une soirée autour des usages numériques, de la culture du libre et des outils éthiques.
Sous forme d’ateliers de découverte, d’échanges de savoirs. En apprendre plus sur les communs numériques.
Rendez-vous ouvert à toutes et tous.
Pas besoin de s'y connaître ou bien d'avoir déjà une pratique.
Merci de prévenir de votre participation :
- par mail jeudisdulibre@cemea-pdll.org
- par tel 07.81.61.33.66
https://mobilizon.cemea.org/events/a10fe3a3-be20-44de-8c8a-f1c21b19e0a9
Nantes: De quelle humanité le chatbot est-il l’avenir ?, Le jeudi 22 mai 2025 de 18h30 à 21h00.
Conférence gesticulée de Philippe Cazeneuve suivi d'un atelier-débat.
Jeudi 22 mai 18h30/21h au CEMÉA Nantes
L’actualité de l’intelligence artificielle nous amène chaque semaine de nouveaux sujets de questionnements.
Utiliser les IA génératives, n'est-ce pas accepter la victoire du capitalisme de surveillance ?
De quelles façons cela va-t-il bouleverser les façons d'apprendre et d'enseigner, les métiers de création ?
Et si on essayait l'Intelligence collective plutôt que l'intelligence artificielle ?
L'évènement sur Mobilizon
https://mobilizon.cemea.org/events/43e3ba86-8e77-4b4e-90b8-005cf03420a0
Pour tous renseignements medias@cemea-pdll.org
Lou Welgryn - Pirates de la Tech : Cap sur le bien commun
Data for Good : Quand la tech devient un levier pour l'intérêt général et la transition écologique
Lou Welgryn, voix off : J'aime beaucoup la définition de Kate Crawford qui dit qu'en fait l'intelligence artificielle repose sur une triple extraction : une extraction de ressources, une extraction de travail et une extraction de données. C'est crucial que nous nous positionnions pour dénoncer les dérives et qu'on vulgarise le sujet, parce que je pense que sur la tech il y a aussi ce point (…)
Sortie de Tryton 7.6
Le 1er mai 2025 sortait la version 7.6 de Tryton, un progiciel de gestion intégré modulaire et multiplate-forme.
- lien nᵒ 1 : Annonce 7.6
- lien nᵒ 2 : Démo
- lien nᵒ 3 : Dépêche sur la sortie 7.2
- lien nᵒ 4 : Documentation
- lien nᵒ 5 : Annonce 7.4
Tryton est basé sur une architecture trois tiers avec PostgreSQL comme base de données principale et est écrit en Python ce qui apporte une grande flexibilité et rapidité pour la customisation.
Il vient avec un ensemble de modules essentiels pour la gestion d’une entreprise, qui sont très aboutis. Il peut être complété par des modules tierces spécifiques à certaines activités (comme la gestion d’hôpital avec GNU Health, la gestion de distillerie avec Distilibre) ou permettant l’intégration à d’autres outils.
Enfin, il est utilisable à travers un client natif, un client web réactif et un client en ligne de commande. Tous ces clients sont légers et multiplateformes (Linux, BSD, Windows et macOS).
Comme la dernière annonce ici date de la version 7.2, voici une liste non-exhaustive d’améliorations notables :
- Tryton a remplacé son plan comptable minimal par le plan comptable universel qui est une bonne base pour l'IFRS ou US GAAP.
- Un logo peut être ajouté à la société gérée par Tryton. Celui-ci sera alors rendu sur les documents commerciaux que Tryton génère (ex: bon de commande, facture, etc.)
- Les remplacements de produit sont maintenant géré automatiquement. Quand un produit, marqué comme étant remplacé par un autre, n'est plus en stock, il est remplacé sur tous les mouvements de stock. C'est utile afin de s'assurer de vider son stock existant avant de passer au nouveau produit.
- Les tâches planifiées, qui sont en train d'être exécutées, sont affichées. De plus, Tryton enregistre la durée d'exécution pendant un mois afin de pouvoir détecter des anomalies.
- Il est maintenant possible de configurer le serveur pour utiliser une autre commande que LibreOffice pour convertir les documents vers un autre format comme PDF. Par exemple, on peut utiliser un service externe comme document-converter
- L'ORM de Tryton gère les contraintes d'exclusion basées sur les Range SQL. Ceci a permis de remplacer des contraintes écrites en Python qui verrouillaient la table.
- Il est désormais possible de redimensionner les colonnes des listes aussi avec le client web. Et la taille des colonnes est sauvegardé sur le serveur par taille d'écran afin de les restaurer pour l'utilisateur à la prochaine ouverture.
- Un délai de validité des devis peut être configuré. Une fois passé le délai, il n'est plus possible de convertir le devis en vente et celui-ci sera annulé automatiquement. De même, une date d'expiration de devis d'achat peut être encodée pour faciliter le suivi.
- Il est maintenant possible de résoudre une plainte par la création d'un coupon de promotion.
- On peut à présent enregistrer une adresse en utilisant les champs structurés. Dans ce cas, le formatage de celle-ci sera faite automatiquement par Tryton suivant le format des 222 pays connus.
- Des méthodes pour faciliter la personnalisation du comportement de l'ORM ont été ajoutées afin de simplifier et d'éviter de devoir étendre les méthodes create, write et delete (qui peuvent être un peu compliquées). De plus, des champs stockés dans la base de données peuvent être définis comme étant calculés. Ils sont alors automatiquement mis à jour si leur valeur change. Ils sont principalement utilisés pour faire de la cache.
- Tryton supporte maintenant les traductions des formes de pluriels (jusqu'à 4 par langue).
Une dernière chose, l'ajout en mode bêta d'un outil de chat en direct entre utilisateurs sur certains documents. Par la suite, ce chat doit évoluer pour devenir un outil de communication plus large et inclure des externes via e-mail (mais aussi d'autres supports de communication).
Cette fonctionnalité est développée via un appel à sponsors
Commentaires : voir le flux Atom ouvrir dans le navigateur
Paris: Guix@Paris, Le jeudi 15 mai 2025 de 19h00 à 22h00.
Rencontres mensuelles autour de Guix.
Venez découvrir, discuter et contribuer à Guix dans une ambiance conviviale.
Il n'y a pas d'expérience pré-requise et vous êtes tout·es les bienvenu·es.
ProgrammeLes soirées se déroulent en 3 temps :
- 19h-20h : accueil et discussions libres ;
- 20h-21h : présention autour d’un sujet spécifique suivie d’une session de questions/réponses ;
- 21h-22h : ateliers de contribution et discussions libres.
Bien sûr, les horaires sont donnés à titre complètement indicatif ! ^_^'
LogistiqueS’inspirant des apéro’ April, chacun·e est invité·e à amener un petit quelque chose à manger et/ou à boire afin de pouvoir partager avec les autres participant·es.
AccèsNous serons accueilli·es dans les locaux de l'April, elle même hébergée par Easter-eggs :
Association April
44/46 rue de l'Ouest (cour intérieure)
Bâtiment 8
75014 Paris
Stations de Métro : Gaîté, Montparnasse, Pernety.
OpenStreetMap : <https://www.openstreetmap.org/node/3199095063>.
Au plaisir de vous y rencontrer !
QEMU 10.0
Comme tous les ans, Qemu sort une nouvelle version majeure. Le numéro n'implique donc pas de grands bouleversements. Il s'agit plutôt d'une base stable qui va être maintenue et améliorée pendant quelques années. Ainsi, les versions 7, 8 et 9 ont eu des mises à jour en mars 2025.
Comme d'habitude, les architectures ARM et Risc-V se taillent la part du lion et sont enrichies de nouvelles architectures. Les accès aux stockages sont partout plus rapides, et l'espace utilisateur accède toujours mieux au matériel.
Qemu est devenu une pièce importante dans le monde des serveurs et des développeurs. En tant qu'émulateur il permet de développer, compiler ou lancer un programme sur un processeur ou une machine différente. Couplé à KVM, XEN ou VMWare, il permet une virtualisation performante.
- lien nᵒ 1 : Notes de version pour QEMU 10
- lien nᵒ 2 : Téléchargement des version 7, 8, 9, 10
L'article de Next résume bien les changements sur ARM et Risc-V. C'est technique, n'étant pas connaisseur je vous y renvoie.
x86 bénéficie de changements globaux à toutes les architectures avec quelques ajouts spécifiques pour des processeurs Intel. Mon petit doigt impatient de tester me souffle que ça sera plus rapide avec des accès "multithread1" aux périphériques de stockage (virtio-scsi et virtio-blk). L'accès direct au matériel en espace utlisateur continue de s'améliorer (VFIO, fonctions virtuelles d'entrées-sorties).
Les autres changements concernent l'émulation des architectures HPPA et S390.
Attention aux trucs enlevésÀ chaque version ou presque, des morceaux sont enlevés. Si vous faites dans l'exotique, ne vous précipitez pas sur la dernière version sans consulter la liste des Removed features.
Documentation d'introduction pour QEMU et la virtualisationEn guise de conclusion, voici quelques pistes pour ceux et celles qui débutent avec la virtualisation sous Linux et/ou QEMU. Différentes distributions Linux ont de la documentation sous licence libre. Loin d'être exhaustif, voici quelques choix :
- Le wiki d'Arch Linux a une catégorie sur la virtualisation.
- Dans la documentation de Red Hat Enterprise Linux, il y a ce document : Configuring and managing virtualization.
- Dans la documentation de SUSE Linux Enterprise Server, il y a notamment le Virtualization Guide.
-
Qu'on me pardonne ce mot, je simplifie pour faire court! ↩
Commentaires : voir le flux Atom ouvrir dans le navigateur
Kivy : un cadriciel graphique unique en Python
Kivy est un cadriciel (framework) graphique, permettant de développer des interfaces tactiles (ou utilisable à la souris) sur toutes les plateformes, y compris mobiles. Il s'accompagne d'une suite de logiciels très pratiques que nous allons présenter ici.
- lien nᵒ 1 : site officiel
- lien nᵒ 2 : Kivy Garden (extensions)
- lien nᵒ 3 : KivyMD
- lien nᵒ 4 : Un très bon point d'entrée en français (merci chyek)
- Kivy : boîte à outils graphique multi-plateformes
- kv : interface graphique en déclaratif
- Plyer : accéder facilement aux fonctionnalités matérielles de votre appareil
- Python For Android : utiliser Python… sur Android
- Kivy for iOS : déployez sur les appareils Apple
- Pyjnius : utiliser l’API Java Android depuis Python
- KivyMD, des widgets Material Design
- Quelques limitations
- Conclusion
- Une note d’histoire
Kivy permet de créer des interfaces graphiques naturellement adaptées aux écrans tactiles (mais qui restent utilisables sur un environnement de bureau traditionnel, à la souris et sans écran tactile). Il est écrit principalement en Python mais les parties critiques sont écrites en Cython, ce qui lui permet d’avoir de bonnes performances.
Une interface Kivy peut s’écrire de deux façons (ou, plus couramment, par une combinaison de ces deux façons) : en Python directement, ou via kv, une syntaxe déclarative dont nous parlons plus bas.
Pour vous donner une idée, voici un exemple de hello world repris du site officiel de Kivy :
from kivy.app import App from kivy.uix.button import Button class TestApp(App): def build(self): return Button(text='Hello World') TestApp().run()Ce qui donnera :
Une interface est composée de « widgets » agencés via des « layouts ». Certains widgets permettent de facilement mettre en place des composants communs de nos jours, comme par exemple le widget Carousel :
D’autre part, Kivy fournit des outils qui simplifient la vie du développeur ou de la développeuse, en particulier un système de propriétés (à ne pas confondre avec les propriétés Python) qui permet de mettre automatiquement l’interface à jour quand elles sont modifiées, ou de facilement attacher une fonction de rappel (« callback »), voir plus bas pour un exemple simple. On peut aussi citer un mécanisme d’animations très pratique et efficace.
kv : interface graphique en déclaratifkv est un langage permettant de décrire des interfaces, il met à profit les propriétés mentionnées plus haut et l’interface va se mettre à jour automatiquement quand des propriétés utilisées dans kv sont modifiées.
Reprenons le hello world vu plus haut, et faisons-le avec kv:
Widget: Button: text: "Hello World"Plutôt simple non ?
Le code kv est généralement mis dans des fichiers séparés avec l’extension .kv.
Kivy a donc un concept de propriété, qui permettent la liaison de données bidirectionnelles (two-way data binding), ou en d’autres termes de facilement avoir l’état mis à jour entre le code python et l’interface décrite dans le fichier kv. C’est à l’usage très pratique et facile.
Un exemple va sans doute aider à comprendre.
Commençons par faire un environnement virtuel Python avec Kivy:
$ mkdir demo $ cd demo $ python -m venv env $ source env/bin/activate $ pip install kivyEnsuite créez le fichier demo.py suivant :
from kivy.app import App from kivy.uix.boxlayout import BoxLayout from kivy.properties import NumericProperty class CompteurWidget(BoxLayout): compteur = NumericProperty(0) def increment(self): self.compteur += 1 class DemoApp(App): def build(self): return CompteurWidget() DemoApp().run()Et maintenant, dans le même répertoire, ajoutez le fichier demo.kv suivant, ce dernier sera automatiquement découvert par Kivy parce qu’il s’appelle comme notre application (DemoApp) sans le suffixe App et en minuscule :
<CompteurWidget>: orientation: 'vertical' padding: 20 Label: text: str(root.compteur) font_size: 30 Button: text: "Incrémenter" on_press: root.increment()Il ne nous reste plus qu’à lancer le programme :
python demo.pyEt à admirer :
Le label se met automatiquement à jour quand le compteur compteur est incrémenté.
La lectrice ou le lecteur assidu de DLFP pourra faire un TapTempo en exercice.
Note: Ne vous arrêtez pas au fait que l’UI est un peu "moche" par défaut, il y a des extensions beaucoup plus attractives (cf. KivyMD plus bas), et il est très facile de personnaliser l’interface et d’en faire une très belle en modifiant un peu ses fichiers .kv.
Plyer : accéder facilement aux fonctionnalités matérielles de votre appareilPlyer est une bibliothèque permettant d’accéder à nombre de fonctions utiles de manière indépendante de la plateforme. Ainsi vous avez une API commune pour afficher une notification, demander l’état de la batterie, faire vibrer l’appareil, faire de la synthèse vocale de texte (« text-to-speech »), ouvrir un fichier avec le dialogue natif de la plateforme, etc.
Bien que développé par la même équipe que Kivy, ce paquet est utilisable indépendamment et est donc particulièrement utile pour n’importe quel projet multi-plateformes. Référez-vous à la page du projet pour avoir un tableau des fonctionnalités supportées selon les plateformes, et à la documentation pour plus de détails.
Python For Android : utiliser Python… sur AndroidSi vous souhaitez distribuer votre application sur Android, vous allez devoir avoir une version de Python compilée pour cette plateforme, ainsi que de tous les paquets nécessitant une compilation.
C’est le rôle de Python pour Android, qui est une collection d’outils qui s’appuient sur l’Android SDK pour permettre d’utiliser Kivy ou d’autre paquets Python sur Android, et ainsi faire votre propre distribution Python.
Si vous utilisez un paquet qui n’est pas en pur Python (c’est-à-dire qu’il y a des parties à compiler) et qui n’est pas encore disponible ou qui l’est mais dans une version trop ancienne, vous pouvez écrire ou mettre à jour des « recettes » (recipes en anglais) qui indiquent comment compiler. Référez-vous à la documentation pour voir comment faire.
Notez toutefois qu’il y a une pénalité à utiliser du Python par rapport à une application dans un langage compilé : il faut charger l’interprète au démarrage, et au tout premier lancement de votre application (et uniquement au premier) il y a aura une phase de décompression de vos fichiers. En dehors de ces petits inconvénients, ça fonctionne très bien.
Là encore, le projet est indépendant de Kivy et peut être utilisé avec un autre cadriciel.
Kivy for iOS : déployez sur les appareils AppleÀ l’instar d’Android, l’équipe de Kivy fournit les outils pour faire votre distribution Python pour iOS.
Il vous faudra posséder une machine Apple pour les utiliser, à cause des restrictions imposées par cette plateforme (ceci n’est pas spécifique à Kivy pour iOS, mais s’applique à tous les outils pour développer sur iOS).
Ainsi avec une seule base de code (et après avoir passé un peu de temps pour configurer correctement les outils de compilation), vous pouvez déployer votre application Kivy/Python sur toutes les plateformes majeures (hormis le web, pour lequel il existe d’autres options comme Brython, Pyodide ou PyScript, mais c’est un sujet pour une autre dépêche).
Pyjnius : utiliser l’API Java Android depuis PythonParfois l’utilisation de Plyer mentionné plus haut et de la bibliothèque standard Python ne suffisent pas, et vous avez besoin d’accéder à l’API d’Android, mais cette dernière est faite pour être utilisée avec Java ou Kotlin.
Pour pouvoir utiliser l’API d’Android depuis Python, PyJNIus est disponible. Ce paquet permet d’accéder aux classes Java comme à des classes Python en utilisant JNI (« Java Native Interface » ou « Interface Native de Java »).
Ce paquet fournit une méthode autoclass qui convertit automatiquement une classe Java en Python, c’est très facile à utiliser et souvent suffisant pour les cas simples.
KivyMD, des widgets Material DesignKivyMD n’est pas un projet officiel de l’équipe Kivy, mais un projet tiers dédié à la création d’un ensemble de Widgets thémables adoptant Material Design.
L'image ci-dessus est issue de la documentation de KivyMD, vous trouverez également des démos vidéo sur le dépôt du projet.
Quelques limitationsUne petite note sur mon expérience personnelle (Goffi). Kivy est un excellent cadriciel, et l’équipe est accueillante et réactive : c’est un projet que je recommanderais en général. Ceci dit, dans mon cas particulier (un client XMPP ayant de nombreuses fonctionnalités), j’ai quelques limitations qui me poussent actuellement à chercher des alternatives, notamment basées sur Qt (PyQt et PySide) :
- l’accessibilité est un problème majeur. L’équipe y travaille, mais aujourd’hui les applications Kivy ne sont pas accessibles. C’est notamment dû au fait que l’interface utilisateur est entièrement gérée par Kivy, au lieu d’utiliser des composants natifs, et c’est un point complètement bloquant pour moi.
- il n’y a pas de webview ou de rendu HTML natif, ce qui est bloquant parce que je fais du rendu de blogs.
- le rendu de texte est incomplet, notamment sur les plateformes mobiles. C’est compliqué de faire un rendu riche avec des émojis, par exemple, un gros problème pour une application de messagerie de nos jours.
- le support des portails Freedesktop est inexistant : il faut faire l’implémentation à la main, alors qu’il est natif sur des cadriciels majeurs comme GTK ou Qt. Je pense par exemple à l’ouverture ou l’enregistrement de fichier. Les portails sont particulièrement nécessaires si on veut voir son application sur Flatpak. Plus de détails sur ce ticket.
- le support Wayland existe, mais lors de mes tests sur des distributions GNU/Linux sur Pinephone, il n’a pas fonctionné et je n’ai pas pu afficher l’application.
- le chargement de l’interprète Python prend un certain temps, ce qui rend le lancement de l’application sur plateformes mobiles telle qu’Android et probablement iOS (que je n’ai pas testé) un peu lent. Sachant que sur ces plateformes l’application peut être tuée à n’importe quel moment auquel cas il faut tout relancer, cela peut mener à une mauvaise expérience utilisateur. Ceci dit, avec une distribution optimisée (en enlevant les paquets non utilisés), et sur les téléphones actuels qui sont très puissants, le problème est sans doute moindre.
Notez que je n’ai pas eu l’occasion de travailler avec Kivy récemment, peut-être que ces remarques ne sont plus à jour. Merci d’indiquer en commentaires s’il y a eu de l’évolution sur ces points.
Aussi, mon cas d’utilisation est très demandant (rendu HTML, affichage de texte performant, etc). Dans la plupart des cas, Kivy remplit sans problème toutes les cases (sauf l’accessibilité, qui reste son problème le plus important à mon sens).
ConclusionComme vous pouvez le voir, un travail considérable a été effectué sur Kivy et son écosystème, et il en sort un cadriciel performant, pratique, et qui peut potentiellement fonctionner sur la plupart des plateformes. Kivy est agréable à utiliser, et dispose d’une communauté très active et disponible.
Ce cadriciel mérite de s’y attarder, et est une option sérieuse si vous voulez développer un projet rapidement pour une ou plusieurs plateformes.
Une note d’histoireCette dépêche a été commencée le 04 octobre 2018 à 14:19 (au premier jour de la Pycon FR 2018, à Lille, où une partie de l’équipe de Kivy était présente). Je crois que c’est haut la main la dépêche qui est restée le plus longtemps dans l’espace de rédaction. Comme quoi, tout vient à point à qui sait attendre, comme dirait l’autre.
Merci à toutes les personnes qui ont participé à la correction de la dépêche.
Télécharger ce contenu au format EPUBCommentaires : voir le flux Atom ouvrir dans le navigateur
#246 - La monnaie libre Ğ1 et Duniter - La chanson française mais amusante de KPTN - Chronique F/H/X de Florence Chabanois
Au programme de la 246e émission diffusée mardi 6 mai 2025 à 15 h 30 :
- sujet principal : la monnaie libre Ğ1 et Duniter, avec Hugo Trentesaux, Maaltir, ainsi que Sarah du collectif MàJ-V2. Ce sujet est animé par Emmanuel Charpentier
- la chronique Pépites libres de Jean-Christophe Becquet sur « la chanson française mais amusante de KPTN »
- la chronique F/H/X de Florence Chabanois sur « Mix mix »
- quoi de Libre ? Actualités et annonces concernant l'April et le monde du Libre
Chronique de Jean-Chritophe Becquet sur « La Chanson française mais amusante de KPTN »
- KPTN : La Chanson française mais amusante
- KPTN sur Mastodon
- Interview de Clément Oudot, Identity Solutions Manager chez Worteks
- KPTN Flamme plume de Clément Oudot dans Le Lama déchaîné Numéro 2 du 30 octobre 2024
- (su)père de KPTN
- Tout le temps de KPTN Autres émissions
- Écoutez ou réécoutez l'interview de Clément Oudot alias KPTN dans l'émission Libre à vous ! #96 du 2 mars 2021
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.
La monnaie libre G1 et Duniter
- La monnaie libre G1 (June)
- Le logiciel Duniter qui fait fonctionner la monnaie libre G1
- Cesium, l'application libre permettant d'échanger en June
- Le forum de la Monnaie Libre en France
- La théorie relative de la monnaie (TRM) par Stéphane Laborde
- La TRM pour les enfants
- La monnaie libre sans jargon par Corinne
- Sites de petites annonces en G1 : Gchange, Girala, Juneted
- AirBnJune, locations de vacances en monnaie libre
Vous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez.
Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir.
Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours.
Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.