Autoblog de korben.info

Ce site n'est pas le site officiel de korben.info
C'est un blog automatisé qui réplique les articles de korben.info

TriliumNext Notes - Vos notes, votre serveur, zéro cloud

Thu, 09 Apr 2026 17:30:00 +0200 - (source)

Entre Notion qui vous enferme dans son cloud, Obsidian qui facture la synchro dans son cloud 48 dollars par an et Evernote qui est devenu l'ombre de lui-même... trouver un outil de notes qui tourne chez vous sans dépendre de personne, c'est devenu la quête du Graal. Mais heureusement, TriliumNext Notes coche à peu près toutes les cases.

C'est une appli de prise de notes hiérarchique, open source (AGPL-3.0), qui tourne en local ou sur votre serveur. Imaginez une arborescence de dossiers, sauf qu'au lieu de copier un fichier dans 3 endroits différents, vous le clonez. C'est juste un lien ce qui fait que votre doc "Setup Proxmox" existe à la fois dans "Homelab" et dans "Tutos Linux" sans bouffer un octet de plus.

L'interface de TriliumNext Notes avec son arborescence de notes

Côté fonctionnalités, accrochez-vous puisque ça embarque un éditeur WYSIWYG avec support Markdown, des notes de code avec coloration syntaxique, un canvas Excalidraw pour griffonner des schémas, des diagrammes Mermaid, mind maps, et même des cartes géo avec traces GPX ! Y'a aussi un calendrier, un Kanban, des tableaux, un Web Clipper pour capturer des pages web d'un clic, et un moteur de recherche full-text qui fouille dans toutes vos notes. Franchement, pour un truc gratuit, vous en avez pour votre argent (euuh ?).

Le premier réflexe, ce serait de se dire "encore un clone de Notion". Sauf que que nenni les rabats joie ! Car LE truc qui fait vraiment la diff par rapport à un Anytype ou un Notion, c'est la synchronisation maison. Vous posez une instance serveur sur votre NAS, votre Proxmox, ou même un Raspberry Pi (ça tourne dessus sans broncher), et hop, toutes vos machines se synchronisent via votre réseau.

Pour l'installer, vous avez l'embarras du choix. En desktop classique, un brew install --cask trilium-notes sur Mac, un winget install TriliumNext.Notes sur Windows, ou un Flatpak / .deb / .rpm sur Linux et c'est plié.

Mais le vrai kif, c'est de le poser sur un serveur pour synchroniser toutes vos machines. Avec Docker, ça donne :

docker run -d -p 8080:8080 -v ~/trilium-data:/home/node/trilium-data triliumnext/trilium

Le -v c'est important : ça persiste vos notes en dehors du conteneur. Sans ça, un docker rm et tout disparaît. Une fois lancé, vous allez sur http://votre-ip:8080, vous créez votre mot de passe, et c'est parti. Sur le desktop, vous ajoutez l'adresse du serveur dans les réglages de synchro et toutes vos notes se retrouvent partout. Et si vous voulez y accéder depuis l'extérieur, un petit Tailscale par-dessus et c'est réglé.

Sous le capot, une base SQLite, soit un seul fichier document.db dans ~/.local/share/trilium-data/, qu'on peut copier sur une clé USB en 2 secondes. Pas de PostgreSQL à configurer, pas de Redis à maintenir. La doc officielle annonce 100 000 notes sans problème de perf (ils utilisent better-sqlite3, le driver synchrone le plus rapide de Node.js).

Par contre, attention : les pièces jointes en synchro sont limitées à 1 Go par fichier. Au-delà, ça passe pas. Les notes sensibles, elles, peuvent être chiffrées individuellement en AES-128 avec une session protégée par mot de passe.

Et pour les bidouilleurs, y'a aussi une API REST sur le port 37740 et un système de scripting côté serveur. Vous pouvez créer des widgets custom, automatiser des exports, ou même vous bricoler un mini-dashboard de démarrage. Par contre, faut pas avoir peur de mettre les mains dans le JavaScript.

Et si vous comptez migrer depuis Joplin ou Evernote, y'a également un import natif ENEX + Markdown, donc pas besoin de convertisseur tiers.

Voilà et j'en profite pour vous raconter un peu l'histoire de ce logiciel... Pour votre confiture générale ^^. En fait Trilium a été créé en 2017 par un dev solo et quand il a décidé de raccrocher les gants, la communauté a repris le flambeau sous le nom TriliumNext en publiant des releases régulières mais aussi une traduction dans une dizaine de langues dont le français, et du support OpenID + TOTP pour sécuriser les accès. C'est beau le pouvoir de la communauté !!

Côté mobile par contre, pas d'app officielle. C'est dommage mais TriliumDroid fait bien le job sur Android (dispo sur IzzyOnDroid) et l'interface web passe aussi en PWA (Progressive Web App, tu connais...). Attention quand même, la synchro entre TriliumDroid et le serveur impose que les deux soient sur la même version. Si vous mettez à jour l'un sans l'autre, ça coince comme mon dos en ce moment.

Non, vraiment le seul vrai bémol, comme souvent avec les logiciels libres, c'est que l'interface a un petit côté 2015. C'est pas Notion niveau polish, je ne vais pas vous mentir. Donc si vous êtes du genre à juger un outil à sa typo et ses animations, passez votre chemin. Mais pour un truc gratuit qui gère aussi bien les notes que les mind maps, les Kanban et le scripting... ça se pardonne vite. D'ailleurs si vous aimez les applis de notes self-hosted, je vous avais aussi parlé de Blinko à l'époque qui rajoute de l'IA par-dessus vos notes. Pensez-y !

Bref, allez voir ça, c'est le genre de projet qui mérite le détour.

Et big merci à Rudy pour le lien !


Redox OS vient de publier son dernier rapport d'avancement et il y a du nouveau. En plus des progrès sur les pilotes graphiques et le bureau COSMIC, le projet open source a adopté une politique stricte : toute contribution générée par une intelligence artificielle sera refusée et son auteur banni. Carrément.

Du code IA ? Dehors.

Redox OS ne veut pas de code écrit par ChatGPT, Copilot ou tout autre modèle de langage. La règle est inscrite dans les directives de contribution du projet : toute soumission identifiée comme générée par un LLM (issues, merge requests, descriptions) sera immédiatement fermée. Et quiconque tente de contourner la règle se fait bannir du projet. Le tout est présenté comme non négociable.

Redox OS rejoint d'autres projets open source qui ont pris la même direction ces derniers mois, comme Fedora, Gentoo, le projet Rust lui-même ou LLVM, qui ont tous eu à gérer des vagues de contributions de mauvaise qualité générées par IA.

COSMIC, GPU et nouveau scheduler

En parallèle, le mois de mars a été productif côté technique. La démo libcosmic tourne désormais dans le compositeur COSMIC sur Redox, ce qui veut dire qu'on se rapproche d'un vrai bureau utilisable. Les pilotes graphiques ont aussi avancé : support du mapping mémoire GPU sur le pilote Intel, mise en place de shadow buffers pour améliorer les performances, et du travail sur l'API DRM.

Le noyau a aussi reçu un nouveau planificateur de tâches (Deficit Weighted Round Robin) et une meilleure détection des deadlocks. Côté paquets, CPython, PHP, Nano et Vim ont été mis à jour avec le support Unicode via ncursesw.

Un OS ecrit en Rust, pour quoi faire ?

Pour ceux qui ne connaissent pas, Redox OS est un système d'exploitation open source entièrement écrit en Rust, avec une architecture microkernel. Le projet existe depuis 2015 et cherche à proposer une alternative à Linux et BSD, avec la sécurité mémoire de Rust comme argument principal.

Il est porté par Jeremy Soller, qui travaille aussi chez System76 sur Pop!_OS. Redox n'est pas encore prêt pour un usage quotidien, mais chaque mois le rapproche un peu plus d'un système fonctionnel, et l'arrivée du bureau COSMIC est un gros morceau.

Interdire le code IA dans un projet open source en 2026, c'est quand même une prise de position forte. On peut comprendre la démarche : quand on construit un noyau de système d'exploitation, la qualité du code compte, et les contributions générées par IA ont tendance à créer plus de travail qu'elles n'en économisent pour les mainteneurs.

Mais bon, la politique reconnaît elle-même qu'il est impossible de détecter du code IA non étiqueté, ce qui pose la question de l'efficacité réelle de la mesure. Côté technique, voir COSMIC tourner sur Redox est une bonne nouvelle pour tous ceux qui suivent le projet de près. Après dix ans de développement, l'OS en Rust commence à ressembler à quelque chose.

Source : Phoronix


Simuler des clics, des frappes clavier, planifier l'extinction du PC ou prendre des screenshots en boucle, tout ça sans écrire une seule ligne de code... c'est ce que propose Tasket++ , un petit outil open source développé par un dev français.

En gros, c'est un planificateur d'actions utilisateur pour Windows 10 et plus. Vous définissez une liste d'actions (clic ici, tape ça, attends 5 secondes, ouvre ce fichier.exe), vous programmez le tout et hop, ça tourne en boucle sans que vous leviez le petit doigt. Le truc se lance au démarrage via une entrée dans la base de registre, ou via un raccourci .lnk sur le bureau et côté actions disponibles, c'est assez complet pour un outil qui pèse à peine 30 Mo.

Vous avez les séquences de touches avec gestion des délais entre chaque touche (pas mal pour simuler une frappe humaine plutôt qu'un copier-coller robotique), les déplacements de curseur pixel par pixel, le collage de texte, et surtout toute une batterie de commandes système : éteindre le PC via shutdown -s, redémarrer, tuer un processus avec taskkill, ouvrir un fichier ou une URL, créer ou supprimer des dossiers, et même prendre des captures d'écran automatiques en .png.

D'ailleurs, le coup des screenshots planifiés au démarrage, c'est un use case assez malin pour surveiller l'activité d'une machine ou pour fabriquer un timelapse de votre bureau !

Et sinon OUAIS, ça peut aussi simuler votre présence devant le PC. Des mouvements de souris, des clics, des frappes clavier... du coup si votre logiciel de monitoring corporate vous casse les pieds pendant la pause café, bon bah, vous savez ce qu'il vous reste à faire (j'ai rien dit ^^). Attention par contre, si votre boîte utilise un vrai EDR ou un agent qui checke les processus actifs, ça risque de pas suffire. Ce genre de monitoring va malheureusement souvent au-delà du simple mouvement de souris.

Cet outil c'est l'œuvre d'Amir Hammoutene, ingénieur dev basé en région parisienne, qui bosse dessus depuis février 2024. Pour les curieux qui connaissent Actiona , c'est dans la même veine, sauf que Actiona c'est plus complet mais faut toucher à du scripting, alors que Tasket++ c'est 100% GUI, y'a qu'à cliquer.

L'interface ne paie pas de mine (on est sur du Qt classique, pas du Material Design), mais bon, elle fait le taf ! Vous créez vos tâches dans des onglets, vous empilez vos actions dans l'ordre, et vous lancez sur votre machine.

Les fichiers de tâches sont alors sauvegardés en .scht dans un dossier saved_tasks/. Ce qui manque le plus je trouve c'est les raccourcis globaux pour déclencher une tâche depuis n'importe quelle appli, genre pendant un jeu. Mais c'est justement prévu dans les prochaines versions, avec aussi des alertes sonores et un portage Linux. Par contre, pour le moment c'est Windows only, et sauf si vous compilez le code source vous-même avec Qt Creator, pas moyen de le faire tourner sur autre chose.

C'est dispo gratuitement sur le Microsoft Store , ou en version portable (un .zip de 30 Mo à décompresser dans mon dossier, pas d'install).

Bref, si vous cherchez un truc simple pour automatiser vos actions quotidiennes sans vous farcir du scripting, allez jeter un oeil. Merci à Amir pour le lien !


Bryan Keller vient de publier le résultat d'un projet un peu fou : il a porté Mac OS X 10.0 Cheetah sur la Nintendo Wii. La console de 2006 démarre sur le bureau Aqua avec clavier et souris USB. C'est lent, c'est limité, mais ça marche.

Pourquoi c'est possible

La Wii utilise un processeur PowerPC 750CL, un descendant direct du PowerPC 750CXe qui équipait les iBook G3 et certains iMac G3 au début des années 2000. C'est la même famille de processeurs, ce qui rend le portage techniquement envisageable.

La Wii dispose de 88 Mo de RAM (24 Mo de SRAM rapide et 64 Mo de GDDR3), ce qui est juste suffisant pour Mac OS X 10.0, dont les exigences minimales étaient de 128 Mo. Il a fallu jongler un peu.

Le noyau de Mac OS X, XNU, est open source via le projet Darwin. C'est ce qui a rendu le portage possible : sans accès au code source du noyau et du modèle de drivers IOKit, le projet n'aurait pas pu aboutir.

Comment il a fait

Keller a écrit un bootloader sur mesure qui charge le noyau depuis une carte SD et crée un "device tree" qui décrit le matériel de la Wii au système. Il a aussi patché le noyau pour l'adapter au hardware spécifique de la console, avec des corrections sur la gestion de la mémoire et le framebuffer.

Côté drivers, il a développé un driver pour le SoC Hollywood de la Wii, un driver de carte SD (qui communique avec le coprocesseur ARM Starlet de la console), un driver d'affichage qui convertit le signal RGB en YUV pour la sortie vidéo, et un driver USB pour le clavier et la souris. Le projet, baptisé "wiiMac", est disponible sur GitHub.

Ce qui marche et ce qui ne marche pas

Mac OS X démarre jusqu'au bureau Aqua. On peut installer le système et l'utiliser avec un clavier et une souris USB. La carte SD est accessible. Par contre, il n'y a ni Wi-Fi, ni Bluetooth, et le GPU de la Wii n'est pas exploité.

Les performances sont très limitées. Le projet avait démarré en 2013, mais Keller l'a repris sérieusement en 2025 après avoir vu le portage de Windows NT sur Wii.

Mac OS X sur une Wii, ça n'a aucune utilité pratique. Mais c'est quand même un joli tour de force technique. 

Source : Bryan Keller


Le fabricant de tracteurs John Deere vient de signer un accord à 99 millions de dollars pour régler un recours collectif lié au droit à la réparation. L'entreprise devra aussi fournir pendant dix ans les outils logiciels permettant aux agriculteurs de réparer leurs machines eux-mêmes. Un dossier qui fait écho aux combats menés contre Apple et d'autres constructeurs tech.

Des tracteurs verrouillés par le logiciel

Le procès remonte à 2022. Des agriculteurs américains ont attaqué John Deere en l'accusant de verrouiller ses tracteurs, moissonneuses et autres engins agricoles par le logiciel, et de forcer ses clients à passer par des concessionnaires agréés pour la moindre réparation.

Le problème est le même que celui qu'on connaît dans le monde des smartphones ou des ordinateurs portables : le constructeur contrôle les outils de diagnostic et refuse de les partager avec des réparateurs indépendants ou avec les propriétaires des machines.

Certains agriculteurs en étaient arrivés à pirater le logiciel de leurs propres tracteurs pour pouvoir les réparer. John Deere avait signé un accord préliminaire en 2023 pour donner un accès limité aux outils de diagnostic, mais ça n'avait pas suffi à calmer les choses.

99 millions et 10 ans d'outils de réparation

L'accord prévoit un fonds de 99 millions de dollars pour indemniser les agriculteurs qui ont payé des réparations chez des concessionnaires agréés entre janvier 2018 et la date d'approbation de l'accord. Les plaignants devraient récupérer entre 26 et 53% des surcoûts facturés, ce qui est bien au-dessus de la moyenne habituelle dans ce type de recours (entre 5 et 15% en général).

John Deere s'engage aussi à fournir pendant dix ans les outils numériques nécessaires à la maintenance, au diagnostic et à la réparation de ses machines.

L'accord doit encore être validé par le tribunal fédéral de l'Illinois. John Deere continue de nier toute faute, mais accepte quand même de payer. Et l'entreprise fait en plus l'objet d'une plainte séparée de la FTC, la commission fédérale du commerce, qui l'accuse de verrouiller abusivement ses processus de réparation.

Un signal pour toute l'industrie tech

Ce dossier dépasse le monde agricole. Le droit à la réparation est un sujet qui concerne aussi Apple, Samsung, et à peu près tous les fabricants d'appareils électroniques. En Europe, la législation avance sur le sujet, et aux Etats-Unis, plusieurs Etats ont déjà voté des lois pour obliger les constructeurs à partager leurs outils de diagnostic et leurs pièces détachées.

L'accord Deere est un des plus gros règlements financiers dans ce domaine, et il pourrait servir de référence pour d'autres procédures similaires dans l'automobile ou l'électronique grand public.

99 millions de dollars et dix ans d'engagement, c'est quand même un gros signal. Quand un fabricant de tracteurs est contraint de lâcher ses outils de diagnostic sous pression juridique, on imagine bien que les fabricants de smartphones et de PC prennent des notes.

Le parallèle avec Apple est direct : la marque a longtemps freiné la réparation indépendante avant de faire des concessions sous la pression des législateurs. En tout cas, c'est une bonne nouvelle pour les consommateurs, et pas que les agriculteurs.

Source : Reuters


La DARPA vient de confier 5,2 millions de dollars à la startup Avalanche Energy pour développer une batterie à base de particules alpha. L'objectif : créer une source d'énergie compacte de quelques kilos, capable d'alimenter un ordinateur pendant des mois, destinée aux missions spatiales et militaires. Et la startup a une idée derrière la tête.

5,2 millions de dollars pour une pile nucléaire

Avalanche Energy, une jeune entreprise basée dans l'État de Washington, vient de décrocher un contrat de 5,2 millions de dollars auprès de la DARPA, l'agence de recherche du Pentagone. Le programme s'appelle "Rads to Watts" et il va durer 30 mois.

L'idée, c'est de fabriquer des cellules solides miniaturisées capables de convertir les particules alpha émises par des radio-isotopes en électricité. On appelle ça une batterie "alphavoltaïque", un cousin éloigné des piles bêtavoltaïques qu'on trouve dans certains pacemakers.

La différence, c'est que les particules alpha transportent beaucoup plus d'énergie. Avalanche ne travaille pas seule : l'équipe comprend l'Université de l'Utah, Caltech, le laboratoire national de Los Alamos et McQuaide Microsystems.

Plus de 10 watts par kilo

Côté performances, la DARPA vise un objectif précis : dépasser les 10 watts par kilogramme. Pour donner un ordre de grandeur, les générateurs thermoélectriques à radio-isotopes utilisés sur les rovers martiens Perseverance et Curiosity produisent environ 2,5 watts par kilo pour une masse d'à peu près 45 kilos. Les batteries bêtavoltaïques actuelles, elles, plafonnent dans la gamme des microwatts.

Avec cette nouvelle technologie, quelques kilos de batterie suffiraient à alimenter un système de la taille d'un PC portable pendant des mois. Le principal défi technique est connu : les particules alpha endommagent les semi-conducteurs très rapidement, parfois en quelques heures. Avalanche travaille donc sur des puces résistantes à la dégradation, capables d'encaisser ce bombardement sur la durée.

La fusion n'est jamais très loin

Robin Langtry, le cofondateur d'Avalanche Energy, ne cache pas que ce contrat sert aussi un objectif plus ambitieux. L'entreprise développe en parallèle l'Orbitron, un réacteur à fusion compacte de la taille d'un bureau, prévu pour produire entre 1 et 100 kilowatts électriques.

Les puces conçues pour la batterie alphavoltaïque pourront servir dans ce réacteur, puisque la fusion génère aussi des particules alpha à haute énergie. Avalanche a déjà levé 29 millions de dollars en février 2026 et obtenu un contrat de 1,25 million auprès de l'AFWERX, la branche innovation de l'armée de l'air américaine. L'entreprise a construit et testé des démonstrateurs en interne ces deux dernières années, mais personne n'a encore produit de gain net d'énergie.

Le volet batterie radioactive est le plus crédible du projet. Produire 10 watts par kilo à partir de particules alpha, c'est ambitieux mais faisable avec les bons matériaux et un peu de patience. Par contre, le réacteur à fusion de bureau, on va dire que c'est un autre sujet.

Les spécialistes estiment qu'un prototype fonctionnel ne verra pas le jour avant une trentaine d'années. Avalanche a le mérite de financer sa recherche fusion avec des applications concrètes à court terme, et la DARPA ne donne pas 5 millions à n'importe qui. Maintenant, entre une pile qui tient des mois et un réacteur à fusion portatif, il y a quand même un petit gap.

Source : The Register


Votre pipeline CI/CD GitLab a-t-il des fuites

Thu, 09 Apr 2026 11:30:00 +0200 - (source)

Si vous bossez avec le CI/CD de GitLab, y'a un angle mort que vous n'avez probablement jamais vérifié : La config de votre pipeline elle-même. Celle qui décide quelles images faire tourner et quels secrets exposer sans oublier les jobs à lancer. Et ça personne ne la scanne !

C'est d'ailleurs exactement cet angle d'attaque qu'ont choisi les pirates derrière l'attaque tj-actions en mars 2025, qui a touché plus de 23 000 organisations en modifiant simplement des tags de version. Ou encore l'attaque sur Trivy , où un scanner de sécurité s'est retrouvé lui-même vérolé. Le schéma est toujours le même : on s'infiltre comme Mario, par la tuyauterie et pas par la porte d'entrée.

Plumber que je vous présente aujourd'hui, est un outil open source en Go qui scanne votre .gitlab-ci.yml et les réglages de votre repo pour détecter les failles de configuration. Vous l'installez via Homebrew (brew tap getplumber/plumber && brew install plumber), vous lancez plumber analyze à la racine de votre projet, et il vous sort un rapport de conformité. 2 minutes chrono, même pas besoin de toucher à votre CI.

Plumber embarque 14 contrôles de sécurité qui couvrent les erreurs de configuration les plus courantes. Ça détecte les images Docker taguées latest (le classique qui traîne dans 80% des projets), les branches pas protégées, les curl | bash sans vérification, et même les jobs de sécurité qu'on a désactivés en douce avec un petit allow_failure: true. Vous savez, le réglage foireux qui fait que votre pipeline affiche tout vert... alors qu'il ne scanne plus rien du tout !

Côté output, Plumber génère une sorte de liste d'ingrédients de votre pipeline, un peu comme l'étiquette sur un paquet de bouffe mais pour votre chaîne de déploiement. Ça vous dit exactement quelles images, quels scripts et quelles dépendances tournent dans vos jobs. Le tout dans un format standard que d'autres outils de sécu peuvent digérer.

Pour l'intégrer directement dans votre pipeline GitLab, c'est 2 lignes :

include:
 - component: gitlab.com/getplumber/plumber/plumber@v0.1.30

Ça tourne à chaque push et chaque merge request. Y'a même un mode qui poste un commentaire de conformité directement dans la MR. Seul piège : il faut un token GitLab avec des droits Maintainer, sinon certains checks tournent dans le vide sans rien remonter. Une fois le token bien configuré, ça roule.

Après c'est GitLab only pour l'instant donc si vous êtes full GitHub, c'est pas pour vous (pour le moment). Et le projet est encore jeune donc faut pas s'attendre à une couverture totale non plus. Quoi qu'il en soit, ça va bien plus loin que Checkov sur la partie pipeline. Les 2 sont assez complémentaires d'ailleurs.

Pour en savoir plus c'est par ici : Plumber


- Contient des liens affiliés Amazon -

Amazon va mettre fin au support de ses liseuses Kindle et tablettes Kindle Fire sorties en 2012 ou avant. A partir du 20 mai, ces appareils ne pourront plus acheter, emprunter ou télécharger de nouveaux livres. Seuls les ouvrages déjà présents sur l'appareil resteront lisibles.

Les modèles concernés

La liste est assez longue et remonte à la toute première Kindle de 2007 avec son clavier et sa molette. Sont concernées la Kindle 1ere et 2e génération, la Kindle DX et DX Graphite, la Kindle Keyboard, la Kindle 4, la Kindle Touch, la Kindle 5 et la Kindle Paperwhite première génération.

Les tablettes Kindle Fire de première génération sont aussi touchées, même si elles garderont l'accès aux autres applications et services Amazon. Après le 20 mai, si vous réinitialisez un de ces appareils ou si vous le désassociez de votre compte Amazon, il ne pourra plus être réenregistré.

Ce qui change et ce qui reste

Les livres déjà téléchargés sur l'appareil restent accessibles, donc vous pouvez toujours lire ce que vous avez. Par contre, impossible d'acheter quoi que ce soit de nouveau depuis la boutique Kindle, et pas moyen non plus d'emprunter ou de télécharger des livres, même ceux que vous avez déjà achetés sur un autre appareil.

Pour ceux qui veulent quand même continuer à utiliser leur vieille liseuse, il reste la solution du transfert par USB. Avec un logiciel comme Calibre , on peut convertir des fichiers ePub en format compatible Kindle et les charger manuellement. D'ailleurs c'est aussi valable si vous avez une Kindle récente !

Amazon indique que cette mesure ne concerne qu'environ 3% de ses utilisateurs actuels. On va dire que c'est l'occasion de vous équiper avec une Kindle un peu plus récente ! À titre personne j'utilise désormais une Kindle Paperwhite Signature Edition , et je l'adore vraiment, je la préfère même à la Colorsoft qui est moins bien contrastée sur la lecture de romans. Et en liseuse secondaire, j'ai toujours ma Kobo que j'ai testée ici .

Quoi qu'il en soit, c'est le genre de décision qui rappelle que quand on achète du contenu numérique, on achète surtout un accès, pas une propriété. Ces liseuses ont entre 13 et 19 ans, donc on peut comprendre qu'Amazon arrête le support technique. Mais couper l'accès à la boutique alors que l'appareil fonctionne encore, c'est quand même un peu sec.

Source : Engadget


L'IA embarquée, c'est pas juste un buzzword de salon type CES. C'est vraiment ce qui fait que votre voiture freine toute seule, que votre drone évite les arbres et que votre prothèse auditive filtre le bruit en temps réel. Sauf que pour déployer un réseau de neurones sur un microcontrôleur de 256 Ko de RAM... bah on dépend quasi exclusivement de frameworks américains ou chinois.

Un peu gênant, non ?

Du coup, le CEA (oui, le Commissariat à l'énergie atomique, celui de Palaiseau) a décidé de s'y coller avec AIDGE , un framework open source dédié à l'IA embarquée qui est hébergé par la fondation Eclipse. En gros, vous prenez votre modèle de deep learning entraîné sous PyTorch ou importé en ONNX, et AIDGE se charge de l'optimiser puis de générer du code C/C++ standalone prêt à tourner sur votre cible matérielle. Pas du pseudo-code donc mais du vrai C++ compilable.

Et quand je vous dis "cible matérielle", y'a bien sûr pour les GPU et les CPU mais également pour des microcontrôleurs, des DSP, des FPGA (ces puces reprogrammables), des NPU (processeurs spécialisés IA) et même d'ASIC custom. Le framework du CEA supporte les architectures CNN, RNN, GAN et Transformers, avec tout l'arsenal d'optimisation qui va bien tels que quantification post-entraînement, pruning, compression, et même du Quantization Aware Training basé sur les méthodes SAT et LSQ. Bon ok, ça fait beaucoup d'acronymes, on ne comprend pas tout ^^, mais en résumé c'est ce qui permet de réduire la taille d'un modèle de plusieurs gigas à quelques centaines de Mo sans trop perdre en précision.

en fait, au lieu de réécrire tout pour chaque puce, AIDGE utilise un système de graphes pour manipuler et transformer vos modèles indépendamment du hardware cible. Comme ça si vous changez de puce, vous regénérez le code, et c'est reparti. Pas besoin de réécrire votre pipeline de déploiement à chaque fois (et ça, si vous avez déjà bossé dans l'embarqué, vous savez que c'est pas rien). Bon par contre, faut pas s'attendre à un pip install aidge qui marchera du premier coup... ce serait trop simple ;-). Faudra quand même compiler quelques dépendances C++ avant d'en profiter.

AIDGE est porté par deux gros programmes : DeepGreen côté français avec 18 partenaires (Airbus, Thales, Dassault Aviation, EDF, MBDA, Inria dans la boucle) et Neurokit2E financé par Horizon Europe qui réunit 25 partenaires dans 5 pays (STMicroelectronics, Infineon, Fraunhofer entre autres). Et le projet embarque même un design de chip dédié qui s'appelle NeuroCorgi (oui, comme le chien de la reine d'Angleterre ^^).

D'ailleurs, les cas d'usage vont du classique à des choses plus inattendues : détection d'objets pour l'ADAS automobile (genre, freiner avant le piéton), maintenance prédictive en usine, ou encore amélioration audio temps réel pour les prothèses auditives. Le tout sous licence Eclipse Public License 2.0, donc libre et gratuit.

Bon après, la doc a encore du mal à suivre (comme souvent avec les projets de recherche) et j'aurais aimé des benchmarks comparatifs clairs face à TensorFlow Lite ou ONNX Runtime, histoire de voir concrètement combien de millisecondes on gagne sur un STM32 par rapport aux alternatives. Mais le fait d'avoir une chaîne complète design-optimisation-déploiement qui soit européenne, open source et hardware-agnostique... ça mérite quand même qu'on s'y intéresse. Surtout quand on voit la dépendance actuelle à PyTorch qui est, faut bien le dire, piloté par Meta.

Bref, si vous bossez dans l'embarqué ou que vous kiffez bidouiller du deep learning sur des petites puces, allez jeter un oeil .

Merci à Fabrice pour le lien !


Google Chrome adopte enfin les onglets verticaux

Wed, 08 Apr 2026 17:18:52 +0200 - (source)

Google vient d'annoncer l'arrivée des onglets verticaux dans Chrome sur ordinateur. Une fonction que des navigateurs comme Edge ou Arc proposaient depuis des années, et qui arrive avec un mode lecture plein écran revu.

Comment ça marche

L'option est désactivée par défaut. Pour l'activer, il suffit de faire un clic droit sur la barre d'onglets et de choisir "Afficher les onglets verticalement". Les onglets passent alors dans une barre latérale sur le côté de la fenêtre, avec le nom complet de chaque page affiché en clair. La gestion des groupes d'onglets est aussi plus lisible dans ce mode, ce qui est quand même pratique quand on commence à dépasser la dizaine d'onglets ouverts.

Et une fois activée, l'option reste en place tant que vous ne revenez pas manuellement à l'affichage classique.

Google a aussi profité de cette mise à jour pour revoir le mode lecture. Jusqu'à présent, il s'affichait dans un panneau latéral, ce qui n'était pas toujours très confortable. La nouvelle version propose un affichage plein écran qui supprime les distractions. Un clic droit sur une page, puis "Ouvrir en mode lecture", et c'est parti.

Mieux vaut tard que jamais

Les deux fonctions sont en cours de déploiement sur la version bureau de Chrome. Google ne précise pas de numéro de version, mais indique que tous les utilisateurs devraient y avoir accès dans les prochaines semaines.

Pour le contexte, Microsoft Edge propose les onglets verticaux depuis 2021, Firefox les a ajoutés l'an dernier, et des navigateurs comme Arc ou Vivaldi en avaient fait un argument de vente depuis le début. Chrome arrive donc bon dernier sur ce coup-là.

C'est une bonne nouvelle pour les utilisateurs de Chrome qui jonglent avec des dizaines d'onglets au quotidien. Les onglets verticaux, c'est un vrai gain de lisibilité sur les écrans larges, et on se demandait depuis un moment pourquoi Google trainait autant pour le proposer. 

Source : 9to5Google


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles