La robotique souple, c'est un peu le Graal pour pas mal de chercheurs. L'idée de fabriquer des machines capables de se faufiler partout ou de manipuler des objets fragiles sans tout casser, ça fait rêver. Sauf que jusqu'à présent, c'était une tannée monumentale à fabriquer. Fallait mouler les pièces, assembler les membranes, sceller les composants... Bref, un boulot de titan pour un résultat parfois imprévisible.
Mais voilà qu'une équipe de Harvard, menée par Jennifer Lewis au sein du Lewis Lab, vient de poser une grosse brique sur l'édifice. Ils ont mis au point une technique baptisée "impression 3D multimatériau rotative" (RM 3DP) qui permet d'encoder la réponse mécanique directement dans la structure. Pour faire simple, au lieu de rajouter des fonctions après coup, vous imprimez une architecture interne qui va dicter comment le robot se déforme une fois sous pression.
Le secret réside dans une buse rotative capable de gérer un placement spatial interne ultra-précis de deux matériaux à la volée. En faisant tourner cette buse pendant l'impression, les chercheurs Jackson Wilt et Natalie Larson arrivent à disposer chaque matériau à l'intérieur du filament déposé (on parle de structures à l'échelle du micron... c'est super minuscule). Et là, c'est un peu comme si vous dessiniez une hélice à l'intérieur d'un tube... mais en 3D et avec des polymères techniques.
Pour la structure, ils utilisent du polyuréthane hyper costaud qui forme une coque durable. Et à l'intérieur, hop, ils injectent un polymère sacrificiel, le poloxamère (qu'on trouve d'ailleurs dans certains produits capillaires), pour remplir les futurs canaux. Une fois que la structure a durci, il suffit de rincer ce gel pour laisser place à des conduits pneumatiques hyper propres. Bon, attention quand même, rincer un gel visqueux dans des canaux microscopiques sans rien péter, ça demande une sacrée maîtrise du process. Mais grâce à ça, ces canaux agissent comme des muscles. Vous envoyez de l'air sous pression dedans et la structure se tord, se plie ou s'étire selon la géométrie prévue au départ.
C'est plutôt chouette car ça permet de passer de la conception à la réalisation en quelques heures au lieu de plusieurs jours. Plus besoin de s'embêter avec des montages complexes, vous ajustez les paramètres de l'imprimante et voilà. Pour la démonstration, ils ont imprimé un actuateur en spirale qui s'ouvre comme une fleur et une pince capable de saisir des objets délicats. Tout ça en un seul processus d'impression continu pour la partie structurelle, même si le post-traitement reste obligatoire pour libérer les canaux.
Perso, c'est assez prometteur par exemple pour le futur de la chirurgie ou pour créer des dispositifs d'assistance qui s'adaptent vraiment au corps humain.
Maintenant, reste à voir la durabilité du bouzin sur des milliers de cycles, mais on n'arrête pas le progrès, comme dirait l'autre.
Bonne nouvelle pour tous les dev qui n'ont pas peur de l'IA : GitHub vient de sortir gh-aw, une extension CLI qui permet d’écrire des workflows agentiques… en markdown. Au chiotte le YAML à rallonge pour vos pipelines CI/CD, vous rédigez vos instructions en langage naturel et c'est une IA (Copilot, Claude ou Codex au choix) qui se charge de les exécuter dans GitHub Actions.
En gros, vous décrivez ce que vous voulez dans un fichier .md, genre"em>fais-moi un rapport quotidien des issues ouvertes" ou "refactorise les fonctions trop longues", et l'agent s'en occupe. Il analyse le contexte de votre dépôt, prend des décisions et livre le résultat sous forme de pull request. Par contre, attention, si votre prompt dans le fichier .md est trop vague genre "améliore le code", l'agent risque de partir dans tous les sens et vous pondre une PR de 200 fichiers. Faut être précis dans vos instructions, sinon c'est la loterie.
Côté sécurité, ils ont pas rigolé parce que lâcher une IA en roue libre sur votre code, ça pourrait vite tourner au cauchemar (J'en avais d'ailleurs parlé avec les backdoors planquées dans les fichiers de config ). Ici, tout est sandboxé avec des permissions en lecture seule par défaut sur le runner. Les opérations d’écriture passent par des "safe-outputs" préapprouvés, y'a de l'isolation réseau, du pinning SHA sur chaque dépendance npm/pip… Bref, ils ont pas fait les choses à moitié, côté garde-fous.
Côté moteurs IA, vous avez le choix entre GitHub Copilot, Claude d'Anthropic (via l'API, faut un compte payant), OpenAI Codex ou même votre propre processeur custom. Claude pour du refactoring ça peut être pas mal je pense parce que la fenêtre de contexte est capable d'avaler un dépôt entier, mais pour du triage d'issues, Copilot suffira largement. Comme d'hab, ça dépend de vos besoins (et de votre portefeuille).
Les cas d'usage sont plutôt variés. Ça va comme je le disais, du triage automatique des issues au refactoring quotidien, en passant par la génération de rapports, le diagnostic des échecs CI ou la synchronisation multi-repos.
Pour installer le bazar sur votre machine, un petit gh extension install github/gh-aw dans votre terminal et c'est plié. Vous collez un fichier .md dedans .github/workflows/, vous ajoutez un workflow d'exemple et en quelques minutes c'est opérationnel. Y'a même une interface web sur GitHub pour créer vos workflows sans quitter le navigateur. Ça rappelle un peu ce que proposait
Copilot Workspace
mais avec une approche plus "fire and forget".
Attention quand même, le projet est encore un "research prototype", ce qui veut dire que ça peut changer pas mal et qu'il faut garder un œil sur ce que l'agent fabrique. Petits trucs à savoir également, ça nécessite un repo GitHub (pas de GitLab ou Bitbucket, hein), les tokens d'API IA sont à votre charge comme je vous le disais, et sauf si j'ai mal lu la doc y'a pas encore de mode dry-run pour tester un workflow. yaml sans risque.
Après, l'idée de laisser une IA pousser du code automatiquement dans vos repos, même en PR… ça peut vous rendre un poil nerveux j'imagine, mais le concept est là, et l'automatisation du dev va dans ce sens...
Survoler la Terre entière depuis son navigateur web, sans RIEN installer, c'est possible et en plus c'est gratuit !
Web Flight Simulator c'est un simulateur de vol qui tourne directement dans votre browser, et qui vous colle aux commandes d'un F-15 au-dessus de la planète entière. Un vrai terrain 3D avec des données satellites, du relief, des textures... le tout grâce à CesiumJS pour la partie géospatiale et Three.js pour le rendu 3D. Du coup vous pouvez survoler n'importe quel coin du monde, que ce soit les Alpes, Manhattan ou le désert australien.
Le cockpit du F-15 avec HUD, minimap et terrain satellite en temps réel
Et contrairement à un Microsoft Flight Simulator où faut limite un brevet de pilote pour décoller, là c'est ARCADE à fond. Flèches directionnelles pour piloter, W/S pour les gaz, Espace pour l'afterburner... hop, vous êtes en l'air en 10 secondes. Pas de checklist de 45 items avant le décollage (oui oui, les vrais pilotes comprendront).
D'ailleurs le F-15 est équipé d'un canon Vulcan et de missiles Sidewinder. Y'a même des leurres thermiques si vous vous sentez d'humeur Top Gun. Les ennemis IA sont encore en développement, mais le système de combat est déjà fonctionnel. Perso, j'aime bien mitrailler dans le vide au-dessus de la Tour Eiffel, chacun ses hobbies...
Le HUD est pas mal foutu avec l'altitude, la vitesse, un compas et même une minimap satellite. Côté son, le moteur réagit aux gaz, y'a du vent aérodynamique et surtout l'alarme GPWS qui vous gueule "PULL UP" quand vous foncez dans une montagne.
Si vous êtes curieux de savoir comment ça marche sous le capot, c'est un mix assez malin de CesiumJS qui gère le streaming du terrain à l'échelle planétaire et de Three.js qui s'occupe de l'avion, des particules et des effets visuels. Le tout tourne avec Vite en dev, du JavaScript pur, et c'est open source avec une licence non commerciale. J'ai préféré tester sur Firefox plutôt que sur Chrome, parce que le WebGL y est mieux géré, et ça tourne nickel sur mon MacBook Air M2.
Attention quand même, sauf si vous avez une machine un peu costaud, ça peut ramer dans les zones urbaines denses. Sur un vieux laptop avec une carte graphique intégrée... ça plantera pas, mais ce sera plus un diaporama.
Pour ceux qui connaissent FlightGear qui est un des simulateurs de vol libres les plus connus, là on est sur un truc complètement différent. FlightGear c'est pour les passionnés qui veulent apprendre le vrai pilotage, alors que Web Flight Simulator c'est pour se marrer 5 minutes (ou 2 heures, je juge pas ^^). Et si vous voulez un peu de nostalgie, allez voir l'histoire des premiers Microsoft Flight Simulator de 1982 à 1989... on a fait du chemin depuis.
Une version Lune et Mars ce serait le pied. D'ailleurs CesiumJS propose déjà des datasets Moon Terrain et Mars depuis 2024-2025... donc affaire à suivre côté Web Flight Simulator.
Bref, allez tester , c'est gratuit et ça marche sur n'importe quel navigateur qui gère le WebGL.
Vos photos de couple et de famille, c'est probablement ce que vous avez de plus précieux sur votre téléphone. Perso, j'ai déjà retrouvé des photos de vacances de 2018 sur un vieux Google Drive que j'avais complètement oublié... Et y'a de fortes chances que vous aussi, elles traînent en vrac quelque part entre Google Photos (qui les analyse pour alimenter ses algorithmes, faut pas oublier) et un vieux disque dur qui fait des bruits bizarres.
Du coup, à l'approche de la Saint-Valentin (le 14 février pour les étourdis, ne me dites pas merci), pCloud sort une promo qui tombe à pic avec plus de 50% de réduction sur ses plans de stockage à vie . Et cette fois, le service de stockage cloud suisse (basé à Baar en Suisse, et les données sont au Luxembourg) met le paquet sur ses nouvelles fonctionnalités Photos et Souvenirs (Memories) dans sa nouvelle version de l'appli mobile.
D'abord, ce qui m'a tapé dans l'oeil, c'est la fonctionnalité Souvenirs. Comme sur Google Photos, l'appli mobile (dispo sur iOS et Android) fait ressurgir vos meilleurs moments du passé. Vous savez, ces photos oubliées d'il y a 3 ou 5 ans qui vous arrachent un sourire quand elles réapparaissent dans votre fil. Sauf que là, vos données restent en Europe et personne ne va s'en servir pour vous vendre des couches parce que vous avez photographié le bébé de votre cousine.
La galerie pCloud Photos organise également automatiquement toutes vos images par date ce qui vous permet une navigation chronologique super fluide. Vous tapez sur une année et vous retrouvez instantanément ce selfie gênant de 2019 (ou cette photo de votre chat, au choix). Vous pouvez aussi exclure certains dossiers pour éviter que vos 400 captures d'écran de bugs se mélangent avec vos souvenirs de vacances. Petit bémol quand même, faut penser à activer ça dès le départ sinon vous allez vous retrouver avec toutes vos screenshots de debug dans la galerie.
Et y'a même un éditeur photo intégré avec 8 filtres (Retrofilm, Vintage, Duotone...), des réglages de luminosité et contraste, du recadrage... Bon c'est pas Lightroom non plus hein, mais pour de la retouche rapide sur mobile ça fait largement le taf. Le tout directement dans votre stockage cloud sans avoir à sortir la carte bleue pour un énième abonnement Adobe hors de prix. Plutôt cool non ?
Côté prix justement, pour cette promo Saint-Valentin valable du 5 au 17 février, ça donne ça :
Et quand je vous dis "à vie", c'est 99 ans ou la durée de vie du titulaire (bon, sauf si la boîte coule, mais ils sont là depuis 2013 et ils sont rentables donc ça devrait le faire). Un seul paiement et c'est réglé ! Pour comparer, 2 To chez Google One c'est +110€ par an. Du coup avant 3 ans avec pCloud, vous êtes déjà gagnant... et sur 10 ans j'en parle même pas.
D'ailleurs, si vous vous posez la question de par quoi remplacer Google Photos , c'est clairement une option à considérer. Vos fichiers sont stockés dans des datacenters européens, le tout conforme au RGPD, et si vous voulez aller plus loin dans la protection, pCloud propose aussi du chiffrement côté client (zero-knowledge) pour que même eux ne puissent pas accéder à vos données. Par contre attention, le chiffrement pCloud Crypto c'est une option payante en plus, faut le savoir.
Bref, si vous cherchez un endroit sûr pour stocker et revivre tous vos souvenirs (que ce soit les photos de votre moitié, de votre chat ou de ce plat que vous avez raté le soir de la Saint-Valentin), c'est le moment d'en profiter !
Et pas l'inverse !
En effet, Discord va bientôt demander à ses utilisateurs de prouver qu'ils ont bien 18 ans pour accéder au contenu NSFW. La plateforme prévoit de déployer la vérification d'âge à l'échelle mondiale dès le mois de mars 2026. Après des tests au Royaume-Uni depuis juillet dernier puis en Australie depuis décembre, c'est TOUT le monde qui y passe. Fini le simple clic sur "j'ai plus de 18 ans" !
Y'a donc 2 options au menu. Soit vous filmez votre tronche via le SDK de Yoti, un outil d'estimation d'âge qui tourne en local sur votre smartphone où faut ouvrir et fermer la bouche devant la caméra pour vérifier que c'est bien votre vrai visage. L'évaluation se fait en local et la vidéo ne quitte jamais votre appareil, ce qui évitera les soucis de confidentialité. Soit vous envoyez une copie de votre pièce d'identité au prestataire Persona.
Le selfie a donc l'air nettement plus safe...
Le précédent prestataire utilisé par Discord, 5CA, basé aux Pays-Bas s'est d'ailleurs fait pirater en octobre dernier par un groupe qui se fait appeler Scattered Lapsus$ Hunters. Environ 70 000 photos de pièces d'identité dans la nature. Sympa. Discord assure avoir changé de crémerie depuis, mais bon, une fois que vos données sont dehors, c'est trop tard. En tant que français, on ne le sait que trop bien puisque l’État comme les entreprises privées adorent offrir nos données personnelles aux cybercriminels de tout poils.
Attention quand même, si vous êtes sur un vieux téléphone sans bonne caméra frontale, ou si la luminosité est trop faible, l'estimation d'âge de Yoti risque de foirer et vous serez obligé de passer par la pièce d'identité. Du coup, le choix se fait un peu malgré vous.
Le déploiement au Royaume Uni avait d'ailleurs donné lieu à un contournement assez drôle. Des petits malins avaient utilisé le mode photo de Death Stranding (oui, le jeu de Kojima sur PS5/PC) pour tromper le système de reconnaissance faciale de k-ID. Le système demandait d'ouvrir et fermer la bouche... sauf que dans Death Stranding, vous pouvez contrôler les expressions faciales de Sam Porter via la barre "expression du personnage".
Heureusement, la nouvelle version corrige apparemment le tir, mais le piège c'est que d'autres jeux avec des modes photo réalistes pourraient très bien marcher aussi.
Par défaut, tous les comptes basculeront donc sur une expérience "adaptée aux ados" et les serveurs et canaux marqués NSFW deviendront inaccessibles tant que vous n'avez pas prouvé votre majorité. Du coup, même si vous avez +40 ans et que vous traînez sur Discord depuis la v1.0 de 2016, faudra repasser par la case vérification... Sauf si le modèle d'inférence vous a déjà identifié comme adulte. J'y reviens.
Car oui, Discord déploie un modèle d'inférence maison qui analyse vos métadonnées pour deviner votre tranche d'âge. Les jeux Steam auxquels vous jouez, vos horaires de connexion sur l'app mobile ou desktop, votre activité sur les serveurs publics... tout passe à la moulinette. Si le modèle vous catégorise comme mineur, vous êtes bon pour une restriction automatique, même sans vérification via Yoti ou Persona. Le hic c'est qu'on ne sait pas encore comment contester si l'algo se plante. En bon adulescent, si vous jouez à Fortnite sur votre Switch à 23h un mardi soir, bon courage pour prouver que vous n'êtes pas au collège...
L'entreprise lancera aussi bientôt un "Teen Council" composé de 10 à 12 ados entre 13 et 17 ans qui la conseilleront sur la sécurité (candidatures ouvertes jusqu'au 1er mai sur discord.com).
L'entreprise assume le fait que ces changements feront fuir certains utilisateurs, mais bon, c'est la vie... La protection des mineurs passe avant la croissance.
Coolify, c'est un PaaS open source que vous installez sur vos propres serveurs pour déployer vos apps, vos bases de données et vos services... sans vous farcir Docker à la main. En gros, un Heroku ou un Vercel, mais en version self-hosted sans enfermement propriétaire comme on pourrait dire en bon français.
La version auto-hébergée est donc TOTALEMENT gratuite. Pas de limite sur le nombre de serveurs, pas de restriction sur les features, pas de "ah pour les teams faut upgrader". Y'a R comme disait mon grand-père... Vous avez SSH sur une machine ? Ça suffit. VPS, Raspberry Pi, dédié, vieux laptop qui traîne dans un coin... Hop, une seule commande et c'est installé.
Côté déploiement, Coolify détecte automatiquement votre stack via Nixpacks (c'est-à-dire qu'il devine le langage et génère le build tout seul). Mais vous pouvez aussi balancer un Dockerfile, un Docker Compose ou un simple site statique. Du coup, que vous bossiez en Next.js, Django, Laravel, Rails, Phoenix ou SvelteKit, ça passe sans config particulière.
Pour les bases de données, c'est pas mal non plus : PostgreSQL, MySQL, MariaDB, MongoDB, Redis, ClickHouse... tout se déploie en quelques clics. Et au total, le catalogue compte plus de 280 services one-click (Plausible, Gitea, Minio, n8n, et j'en passe). Y'a de quoi monter une infra complète avant même d'ouvrir un terminal.
Le workflow Git est solide puisque c'est du push-to-deploy avec GitHub, GitLab, Bitbucket ou Gitea, avec en prime des déploiements de preview par pull request. Pratique pour tester une branche avant de tout péter en prod (ouais, je vous connais...). Vous avez aussi les webhooks, une API REST documentée, et un terminal temps réel directement dans le navigateur.
Côté ops, les certificats SSL sont automatiques via Let's Encrypt, les backups de vos bases partent vers du stockage S3 compatible , et vous avez du monitoring intégré avec alertes Discord, Telegram ou email. Ça permet de dormir tranquille le vendredi soir. Pour le multi-serveur, Coolify supporte aussi Docker Swarm, donc vous pouvez répartir la charge sur plusieurs machines sans trop de prise de tête.
Si vous voulez pas gérer l'instance Coolify vous-même, y'a Coolify Cloud à 5$/mois (2 serveurs inclus, +3$ par serveur supplémentaire). Vos apps tournent toujours sur VOS machines et c'est juste le dashboard qui est hébergé chez eux. Pour les allergiques à l'admin système, ça peut valoir le coup.
Pour installer Coolify, il vous faut un serveur Linux (Ubuntu LTS recommandé, mais Debian, CentOS, Fedora, Alpine ou même Raspberry Pi OS 64-bit passent aussi), avec au minimum 2 coeurs, 2 Go de RAM et 30 Go de stockage. Un accès SSH root est requis.
L'install tient en une ligne :
curl -fsSL https://cdn.coollabs.io/coolify/install.sh | sudo bash
Le script pose Docker, configure les clés SSH, crée les répertoires dans /data/coolify et démarre le tout. À la fin, il vous affiche l'URL de votre dashboard, généralement http://VOTRE_IP:8000. Premier réflexe : créez votre compte admin TOUT DE SUITE (car le premier qui tombe sur la page d'inscription prend le contrôle du serveur...).
Une fois connecté, la logique est simple. Vous créez un Projet (le conteneur logique de votre app), puis un Environnement dedans (dev, staging, prod...). Ensuite, vous ajoutez une Ressource, c'est-à-dire votre app, votre base de données ou un des 280 services one-click.
Pour déployer un repo Git, vous branchez votre compte GitHub, GitLab ou Gitea, vous sélectionnez le repo et la branche, et Coolify détecte le build pack adapté (Nixpacks, Dockerfile ou Compose). Vous configurez votre domaine, le reverse proxy (Traefik ou Caddy au choix) gère le SSL automatiquement, et hop... git push, c'est déployé.
Si vous voulez ajouter des serveurs distants, même principe : clé SSH, connexion root, et Coolify valide que tout est OK. Chaque serveur a son propre proxy, donc le trafic va directement dessus sans passer par le serveur principal. Pensez juste à pointer vos DNS vers le bon serveur.
Pour ceux qui explorent les alternatives, Dokploy est plus minimaliste (et plus récent), et Tipi reste centré sur les applis grand public type Nextcloud ou Plex. Coolify, c'est plutôt le couteau suisse du dev qui veut TOUT contrôler sur son infra.
Bref, si Docker Compose c'est plus votre truc, Coolify mérite clairement un petit test.
Merci lorenper !
Un navigateur internet, vous voyez ce que c'est ? En général, ça pèse un âne mort, ça bouffe toute votre RAM et les sites que vous visitez vous bombardent de trackers et de pubs avant même que vous ayez pu lire la première ligne d'un article. Mais imaginez maintenant un outil qui se fout royalement du JavaScript, qui limite drastiquement le tracking et qui vous permet de lire vos contenus préférés en restant tranquillement hors-ligne ? Ce serait bien non ?
C'est là que Offpunk entre en scène. Développé par l'ami Ploum, ce navigateur en ligne de commande vient de passer en version 3.0, et c'est du bon boulot.
Car Offpunk n'est pas juste un navigateur classique... En réalité c'est un outil de lecture "offline-first" qui contrairement à Carbonyl ou Browsh embarquent des moteurs complets pour le web moderne. Offpunk mise en fait sur l'extraction de contenu, du coup, vous synchronisez vos pages quand vous avez du réseau, et vous les lisez plus tard, sans distractions ni scripts qui ralentissent tout.
Perso, j'adore cette approche qui remet le contenu au centre. Par exemple, même sans 4G dans le train, vous pouvez continuer à lire korben.info tranquillement.
Et cette version 3.0 apporte pas mal de nouveautés qui facilitent la vie. Déjà, l'outil est devenu multilingue et surtout, il intègre maintenant « unmerdify ». Comme son nom "françisé" l'indique, c'est une bibliothèque qui permet de nettoyer le HTML souvent bien crado des sites modernes pour n'en garder que l'essentiel.
Selon les sites, on se débarrasse alors d'une bonne partie des menus flottants et des overlays inutiles pour ne garder que le texte propre. Attention quand même, si vous tombez sur une page codée avec les pieds avec des scripts de 50 Mo partout, l'extraction peut parfois ramer une ou deux secondes... mais c'est le prix à payer pour la tranquillité.
Pour ceux qui se posent la question, Offpunk gère aussi les protocoles Gemini et Gopher, qui sont un peu les paradis perdus du web sans fioritures. Et si vous avez besoin de vous connecter à certains comptes abonnés demandant des cookies, y'a maintenant une commande pour importer vos fichiers cookies.txt directement. Il suffit de rajouter le chemin dans votre fichier de config ~/.offpunkrc et le tour est joué.
Un accès illimité au savoir dispo en ligne sans quitter la console, c'est beau non ! Sauf évidemment si votre terminal ne gère pas les couleurs... là, ça risque d'être un peu tristoune visuellement.
Le petit truc en plus qui tue c'est l'intégration qu'a fait Ploum de xkcdpunk pour lire vos BD XKCD préférées directement dans le terminal. Pas mal du tout pour s'occuper pendant les longs trajets en train sans Wi-Fi.
Vous pouvez l'installer via apt install offpunk ou pacman -S offpunk sur la plupart des distros, ou simplement cloner
le dépôt Git
et lancer le script avec python offpunk.py.
Pas besoin de compiler quoi que ce soit, on est entre gens civilisés ! J'ai galéré au début avec une vieille version de BeautifulSoup, mais en fait, une fois les dépendances à jour, c'est hyper stable.Bref, si vous saturez du web moderne et que vous voulez retrouver le plaisir de la lecture pure sans vous faire traquer par la moitié de la planète, allez tester ça. C'est léger, c'est intelligent et ça redonne un peu d'espoir dans l'avenir du terminal.
Si vous bossez sur Mac, vous connaissez sûrement la galère des Spaces. C'est sympa sur le papier, mais les animations natives d'Apple sont d'une lenteur... y'a de quoi se taper la tête contre les murs quand on veut switcher rapidement entre ses outils de dev et son navigateur. (Et ne me parlez pas du temps de réaction sur un vieux processeur Intel, c'est l'enfer). Bref, moi perso j'utilise pas trop ces trucs là parce que je trouve que c'est pas agréable.
Mais c'est là que FlashSpace entre en piste. Ce petit utilitaire open source, partagé par Vince (merci pour le tuyau !), a une mission simple : proposer un système de workspaces ultra-réactifs pour remplacer l'usage des Spaces natifs. L'idée déchire car au lieu de subir les transitions mollassonnes de macOS, on passe d'un environnement à l'autre de manière quasi instantanée.
Attention par contre, le fonctionnement est un peu particulier. J'ai d'abord cru qu'il créait de nouveaux Spaces dans Mission Control, mais en fait non, c'est plutôt un jeu de "j'affiche ou j'affiche pas les applications dont t'as besoin"... Pour que ça bombarde, FlashSpace recommande de regrouper toutes vos apps sur un seul et même Space macOS (par écran). L'outil gère ensuite des "workspaces virtuels" en masquant ou affichant les apps selon vos besoins. Résultat, une réactivité impressionnante même si ce n'est pas techniquement du "zéro latence" (faut bien que les fenêtres s'affichent quand même).
Pour ceux qui connaissent AeroSpace , FlashSpace se pose comme une alternative solide. Là où AeroSpace tend vers le tiling window management pur et dur à la i3, FlashSpace reste plus proche de l'esprit initial des Spaces mais en version survitaminée. C'est moins radical, plus invisible, mais perso je trouve ça tout aussi efficace pour rester dans le flow.
L'excitation quand on passe enfin d'un bureau à l'autre sans attendre 3 secondes ( Meme )
Côté fonctionnalités, c'est plutôt complet puisqu'on y retrouve du support du multi-écran (un petit clic dans Réglages Système > Bureau et Dock pour activer "Les écrans disposent de Spaces distincts"), gestionnaire de focus au clavier, et intégration avec SketchyBar . Y'a même un mode Picture-in-Picture expérimental (plutôt pour les navigateurs en anglais pour le moment) pour garder une vidéo sous le coude.
Petit bémol à connaître, il gère les applications, pas les fenêtres individuelles. Si vous avez trois fenêtres Chrome, elles bougeront donc toutes ensemble vers le workspace assigné. C'est un choix de design, faut juste s'y habituer mais grâce à ça on gagne encore quelques secondes de vie par jour.
brew install flashspace
Bref, si vous cherchez un moyen de dompter vos fenêtres sans finir avec des cheveux blancs à cause des animations Apple, allez tester ça.
Tout le monde veut construire le PC le plus rapide, le plus cher, le plus RGB possibeuuule sauf que Prototype, un YouTuber bien allumé, a décidé quand à lui de prendre le problème à l'envers... en intégrant un PC gaming complet dans une Smith-Corona 210 des années 70. Oui, une bonne vieille machine à écrire électrique de 8 kg.
Vous prenez cette vieille Smith-Corona électrique, vous virez tout ce qui sert à rien, vous gardez le chariot, les marteaux et la clochette (oui, la clochette là), et vous fourrez une carte mère mini-ITX, une alim SFX et une carte graphique low-profile à l'intérieur. Et hop, vous avez un PC qui tape littéralement vos emails !
Sauf que c'est pas exactement comme monter un PC dans un boitier Corsair. Le mec a d'abord dû tout démonter, en fait y'a facilement 200 pièces mécaniques là-dedans, des leviers, des ressorts, des marteaux... et il fallait rien péter. Le problème c'est que l'espace disponible une fois le ménage fait... c'est RIEN DU TOUT. Juste quelques centimètres de marge entre le châssis et les mécanismes, pas plus.
Et pour le clavier, c'est là que ça devient tordu car pas question de brancher un clavier USB lambda... non non, les vraies touches de la machine à écrire doivent fonctionner comme un vrai clavier HID. Du coup, il a fallu concevoir un PCB custom en partant de zéro. Quel courage !!
En gros, chaque touche est câblée avec un switch mécanique Cherry et une diode 1N4148 dans une matrice 8×7, le tout piloté par un Arduino Pro Micro qui traduit les coordonnées ligne/colonne en caractères via QMK. Le design du circuit, il l'a envoyé se faire fabriquer chez JLCPCB à Guangdong en Chine et tout devait passer au millimètre près.
Pour le boîtier, il a d'abord tenté la photogrammétrie. En gros, vous photographiez l'objet sous tous les angles, un logiciel crache un modèle 3D en .STL, et ensuite vous retouchez ça dans SolidWorks pour imprimer une version modifiée en 3D . Sauf que le scan a complètement foiré (en fait la photogrammétrie sur du plastique brillant, ça marche moyen... sauf si vous matifiez la surface avant), du coup il a retracé le mesh à la main dans son logiciel de CAO. C'était des heures de modélisation en plus.
Côté assemblage du PCB, 52 touches à souder une par une avec leurs diodes, soit plusieurs heures de soudure au fer à 350°C, penché sur le plan de travail. Et là, surprise : celui qui a designé le circuit (c'est lui ^^) avait oublié 4 trous pour les pins de l'Arduino. Bon... La solution ? Percer à la Dremel !! La méthode la rache, ça marche toujours !
Ensuite, il a branché le firmware... et a dû recoder la matrice clavier à la main (bienvenue dans le monde réel).
Le premier test du clavier custom, 52 touches soudées à la main
Mais son vrai coup de génie, c'est le servo. En effet, il a intégré un deuxième Arduino qui lit les frappes clavier via le port série et fait bouger un servomoteur SG90 attaché aux marteaux. Du coup, quand vous tapez sur une touche, non seulement ça écrit sur l'écran, mais ça bouge AUSSI le chariot de la machine à écrire. Sans oublier la petite clochette qui sonne en fin de ligne, comme en 1975.
Et ça marche !! C'est fou ! Les machines à écrire USB , on connaissait déjà le concept. Mais là c'est un cran au-dessus puisque le PC complet tient à l'intérieur, avec un écran monté sur le chariot. Le mec le dit lui-même dans sa vidéo... c'est probablement le truc le plus débile qu'il ait jamais fait.
Bref, vivement la partie 2 pour voir le résultat final. En attendant, si l'envie vous prend de transformer du vieux matos en truc improbable , vous savez que c'est faisable...
On nous parle d'agents IA à toutes les sauces depuis deeeees mois mais au final, on se retrouve la plupart du temps avec des outils "stateless" qui perdent le fil dès qu'une session se termine. Heureusement, le projet Personal AI Infrastructure (ou PAI pour les intimes) de Daniel Miessler propose justement de régler ce problème en classant les systèmes IA en 3 niveaux.
Le niveau 1, c'est le chatbot de base type ChatGPT... vous posez une question, il répond, il oublie tout. Le niveau 2, c'est l'agent (genre Claude Code ou Cursor) qui peut exécuter des trucs mais qui ne vous connait pas vraiment. Et le niveau 3, c'est PAI, une infrastructure complète qui observe, planifie, exécute et surtout... apprend de vous.
Concrètement, PAI c'est pas juste une énième surcouche pour votre LLM préféré. C'est un framework (TypeScript, Python, Bash) qui tourne sur Bun et qui structure tout autour de VOUS. Le cœur du truc, c'est ce qu'il appelle "TELOS"... en fait c'est 10 fichiers Markdown (genre MISSION.md, GOALS.md, BELIEFS.md planqués dans votre dossier ~/.claude/) qui définissent qui vous êtes et ce que vous voulez accomplir. Du coup, l'IA ne se contente plus de répondre bêtement, elle comprend pourquoi vous posez la question par rapport à vos projets en cours.
Et y'a un deuxième concept sympa, qui est la séparation propre entre vos fichiers perso (dossier USER/) et l'infrastructure du système (dossier SYSTEM/). Ça veut dire que vous pouvez faire un git pull pour mettre à jour PAI sans écraser ce fichier USER/PREFERENCES.md que vous avez mis 2 heures à peaufiner. Ça parait con dit comme ça, mais quand vous avez passé du temps à peaufiner vos préférences... c'est PAS la même.
Côté mémoire, le système fonctionne sur 3 niveaux (chaud, tiède, froid) pour stocker intelligemment vos infos en fonction de leur fraîcheur. En gros, ce qui est frais et pertinent reste accessible immédiatement, le reste descend progressivement dans les couches inférieures. Attention par contre, faut pas confondre avec un simple fichier de notes... là je vous parle d'un truc qui se met à jour TOUT SEUL à chaque interaction. Et tout ça nourrit l'IA pour qu'elle s'affine au fil du temps sans que vous ayez à tout réexpliquer (parce que soyons honnêtes, c'est CHIANT de re-contextualiser à chaque nouvelle session).
L'architecture est modulaire avec des "Packs" et des "Bundles". Y'a 23 Packs disponibles qui couvrent la génération de code, la recherche d'infos, la gestion de la mémoire... Hop, vous installez le pack voice-system et vous avez un système qui cause façon Jarvis (via ElevenLabs). Et si vous avez besoin de notifications push sur votre téléphone (coucou Clawbot de merde ^^) quand une tâche longue se termine, y'a un pack pour ça aussi, avec ntfy ou Discord.
Le truc qui m'a bien plu dans la philosophie du projet, c'est la hiérarchie stricte : CODE d'abord, puis CLI, puis Prompt, puis Skill. En gros, si un problème peut se résoudre avec un grep ou un script bash de 10 lignes, on ne sort pas l'artillerie lourde. Et si on peut en faire un outil CLI, on ne reste pas sur un prompt de base. Perso, j'aime bien cette approche... ça évite d'utiliser un LLM comme un marteau pour enfoncer tous les clous (sauf que dans la vraie vie, on le fait tous quand même, avouez...).
D'ailleurs, PAI n'est pas réservé qu'aux devs puisque le projet vise aussi les artistes, les managers (pour du suivi d'équipe par exemple), les petits patrons (facturation, marketing...etc) et même monsieur / madame tout-le-monde pour gérer ses finances ou son planning sportif. La v2.5 est sortie il y a quelques jours avec l'exécution parallèle par défaut et des outils de "thinking" améliorés.
Pour installer le bouzin, c'est pas sorcier :
git clone https://github.com/danielmiessler/PAI.git
cd PAI/Releases/v2.5
cp -r .claude ~/
cd ~/.claude && bun run INSTALL.ts
Comptez 5 minutes montre en main (sauf si vous n'avez pas Bun, là faudra l'installer avant avec curl -fsSL https://bun.sh/install | bash). Ça a été développé avec
Claude Code
mais c'est platform-agnostic, ça marche aussi avec Cursor, Windsurf ou OpenCode et le support de modèles locaux accessible via
Ollama
ou llama.cpp est sur la roadmap (vivement que ça tourne 100% en local, perso).
Bref, si vous en avez marre des assistants qui ont la mémoire d'un poisson rouge, PAI est une piste sérieuse. C'est du terminal-first, open source (MIT) et largement plus ambitieux que les wrappers habituels. Bon, faut quand même être à l'aise avec le terminal hein... si vous êtes plutôt team GUI, passez votre chemin.
Merci à Pascal pour l'info !