Transférer des fichiers entre votre Mac et votre téléphone Android, c'est souvent la galère. L'ancien Android File Transfer de Google était une horreur absolue et depuis qu'ils ont arrêté de le maintenir, y'a pas grand-chose de potable. C'est d'ailleurs pour ça que beaucoup d'utilisateurs de Mac ont également un iPhone.
Alors quand je suis tombé sur DroidDock, forcément ça m'a intrigué. C'est une app macOS qui se branche sur votre téléphone via ADB et qui vous permet de naviguer dans les fichiers comme si c'était un Finder amélioré. Vous branchez votre câble USB, vous activez le débogage USB sur votre Android et c'est parti mon kiki !
Et là où c'est pratique c'est que vous pouvez prévisualiser vos images et vidéos directement dans l'app sans avoir à les télécharger d'abord. Vous avez trois modes de vue (grille, liste ou miniatures) et le drag & drop fonctionne dans les deux sens. Vous glissez un fichier depuis votre Mac vers DroidDock, il atterrit sur votre téléphone. Et l'inverse marche aussi.
Le dev a aussi pensé à pas mal de trucs pratiques du genre si vous avez plusieurs appareils Android branchés en même temps, hé bien vous pouvez switcher de l'un à l'autre sans les déconnecter. Y'a aussi un mode sombre pour ceux qui bossent la nuit et une barre de recherche pour farfouiller dans vos dossiers. D'ailleurs si vous utilisez scrcpy pour contrôler votre Android depuis le Mac , DroidDock fait un bon complément pour la partie fichiers.
Sous le capot, ça utilise Tauri avec du Rust et React et l'app est tellement légère qu'elle fonctionnera parfaitement sur un vieux Mac. Le projet est open source sous licence MIT et vous pouvez le télécharger ici : [DroidDock]( https://rajivm1991.github.io/D
Des chercheurs viennent de trouver un truc complètement dingue. Un modèle de langage entraîné UNIQUEMENT sur de l'anglais, du texte humain basique quoi, est capable de comprendre la biologie moléculaire sans jamais avoir vu une seule séquence de protéines durant son entraînement.
En gros, GPT-2 qui fait de la paraphrase d'ordinaire est, sans le savoir, un expert en détection d' homologie protéique . Je vous jure que c'est vrai !!
Liang Wang, chercheur à l'Université de Wuhan (les pangolins, tout ça tout ça, loool), a publié une étude sur bioRxiv qui remet en question pas mal de certitudes. L'idée, c'est que la "grammaire" du langage humain et celle du vivant partagent une structure profonde commune. Du coup, un modèle qui apprend à distinguer des phrases qui ont le même sens mais avec des mots dans un ordre différent... développe aussi la capacité de reconnaitre les protéines qui sont de la même "famille".
Perso, ça me retourne le cerveau parce qu'à la base, on parle "juste" d'un petit GPT-2 de 124 millions de paramètres, entraîné sur le dataset PAWS (des paires de phrases anglaises adverses), qui atteint 84% de précision sur la détection d'homologie protéique. Sans jamais avoir vu d'acides aminés ! C'est comme si votre chat, après avoir appris le français, se mettait soudainement à comprendre le chinois.
Et ça devient encore plus fou quand on scale. Les gros modèles comme Qwen-3 atteignent quasiment 100% de précision sur les benchmarks standards, mais le plus impressionnant, c'est leur performance dans la "zone crépusculaire" de l'évolution, là où les séquences protéiques ont moins de 25% d'identité entre elles. Dans ce régime où même les outils spécialisés comme ESM-2 peinent à maintenir leurs performances, les LLM généralistes maintiennent 75% de précision.
Ils raisonnent là où les autres mémorisent !
D'ailleurs, si vous aimez l'actu IA et biologie, vous avez peut-être déjà lu mes articles sur Evo 2 ou SimpleFold d'Apple . Ces outils-là sont entraînés sur des montagnes de données biologiques alors que dans le cas que je vous expose ici, c'est l'inverse. C'est un LLM tout ce qu'il y a de plus classique qui n'a pas BESOIN de ces données spécifiques pour comprendre la structure du vivant (enfin, ça doit encore être bien validé par d'autres équipes mais on verra bien).
Alors vous vous en doutez, curieux, les chercheurs ont analysé ce qui se passe dans la tête du modèle. Certaines " têtes d'attention " du transformer deviennent des détecteurs universels de différences. La même tête qui repère une inversion sujet-objet dans une phrase anglaise va spontanément repérer les mutations d'acides aminés dans une protéine. Et voilà comment la syntaxe du langage humain et la syntaxe de la vie se retrouvent projetées sur le même "manifold" c'est à dire dans la même "surface" géométrique dans l'espace latent du modèle.
Et quand on demande aux gros modèles d'expliquer leur raisonnement via Chain-of-Thought (enchainement de pensées comme ce que propose ChatGPT 5.2 en mode thinking par exemple), ils font du "mental folding". C'est à dire qu'ils imaginent la structure 3D des protéines à partir de la séquence 1D. Le modèle identifie explicitement des motifs structurels comme " Hélice-Coude-Hélice " versus " Tonneau TIM " pour déterminer si deux protéines sont apparentées. Et tout ça sans jamais avoir reçu de coordonnées 3D en entrée.
Pour formaliser tout ça, l'équipe a donc créé BioPAWS, un benchmark qui évalue la capacité des modèles à transférer leur compréhension syntaxique du langage vers l'ADN, l'ARN et les protéines. Le dataset est dispo sur Hugging Face pour ceux qui veulent jouer avec.
Bref, si la grammaire humaine et la grammaire biologique sont vraiment des manifestations d'une même structure universelle, ça change pas mal de choses sur comment on pourrait faire de la découverte scientifique à moindre coût. Plus besoin de datasets monstrueux pour chaque domaine, les patterns abstraits sont peut-être déjà là, encodés dans le langage qu'on utilise tous les jours.
Y'a un truc qui me rend joyeux avec le web, c'est quand des devs décident de pousser les technos dans leurs retranchements juste pour prouver que c'est possible.
Et
VoxCSS
, c'est totalement ça : une bibliothèque JavaScript qui permet de faire du rendu voxel complet en utilisant uniquement le DOM et le CSS. Alors attention, quand je dis "uniquement", je veux dire sans WebGL et sans l'élément <canvas>. Juste des éléments HTML empilés intelligemment qui tirent parti de l'accélération matérielle du navigateur pour les transformations 3D.
Pour cela, VoxCSS utilise des grilles CSS superposées sur l'axe Z pour créer un espace volumétrique. Chaque niveau de profondeur est une grille CSS classique, décalée avec des translations 3D. Les voxels eux-mêmes sont des cuboïdes HTML composés de plusieurs faces positionnées avec des rotations CSS.
Par défaut, la scène utilise une perspective de 8000px et le fameux transform-style: preserve-3d pour que la magie opère... Un pur hack de génie qui transforme votre navigateur en moteur 3D sans passer par les API habituelles !
Et le rendu n'est pas dégueu du tout puisque le moteur gère les couleurs, les textures, et même différentes formes comme des rampes, des pointes ou des coins pour sortir du simple cube de base. Pour ceux qui se demandent comment ça se passe pour les ombres, VoxCSS simule également un éclairage en jouant sur l'opacité des faces, ce qui donne ce petit relief indispensable au style voxel. Vous pouvez même choisir entre différentes projections (cubique ou dimétrique) pour donner le look que vous voulez à votre scène.
Côté performances, même si on parle de manipuler potentiellement des milliers d'éléments DOM, l'équipe de Layoutit Studio a bien bossé. Y'a un système de "culling" pour ne pas calculer les faces cachées (on n'affiche que la surface extérieure, quoi) et une option de fusion (le mergeVoxels) qui permet de regrouper les cubes adjacents pour alléger la structure HTML. C'est pas activé par défaut, mais c'est indispensable dès que votre château Minecraft commence à prendre de l'embonpoint.
L'installation se fait via
npm install @layoutit/voxcss
La lib est hyper flexible puisqu'elle propose des wrappers pour React, Vue et Svelte, tout en restant utilisable en vanilla JS.
Vous posez votre caméra (<voxcamera>) pour gérer le zoom et la rotation, vous injectez votre scène (<voxscene>), et roule ma poule. Cerise sur le gâteau pour les artistes, VoxCSS inclut un parser pour charger directement vos fichiers .vox créés dans MagicaVoxel.
Si vous voulez tâter la bête sans coder, allez faire un tour sur Layoutit Voxels, l'éditeur qui sert de démo technique. Ils ont aussi sorti Layoutit Terra qui génère des terrains entiers avec la même techno.
Franchement, pour un gros jeu en prod, OK pour du WebGL, mais pour créer des éléments interactifs stylés, des petites scènes 3D ou juste pour la beauté du geste technique, c'est un sacré bel outil.
Et puis, faire de la 3D sans toucher à un seul shader, ça a un petit côté cool je trouve.
Si vous en avez marre de confier vos notes perso à Notion ou Evernote et que vous voulez reprendre le contrôle de vos données, Alexandrie va vous plaire ! C'est une app open source française qui permet de prendre des notes en Markdown au travers d'une interface plutôt moderne, tout en gardant vos données là où vous voulez qu'elles soient : Chez vous.
Alexandrie, c'est avant tout un éditeur Markdown amélioré qui vous permet d'organiser vos notes par workspaces, catégories et tags. L'interface est clean, la recherche instantanée, et vous pouvez exporter vos notes en PDF ou Markdown !
Ce qui est cool, c'est que l'app fonctionne aussi hors ligne grâce à la technologie PWA. Vous pouvez donc bosser sur vos notes dans le train ou l'avion, et tout se synchronise dès que vous avez du réseau. Et si vous voulez partager des notes avec d'autres personnes, y'a un système de permissions pour gérer qui peut voir et modifier quoi.
Côté technique, Alexandrie tourne sur Vue/Nuxt pour le frontend et Go pour le backend, avec une base MySQL et un stockage compatible S3 et comme d'hab, tout ça se déploie avec un simple "docker compose up".
La grosse différence avec Notion ou Obsidian, c'est que vous contrôlez tout. Vos données restent sur votre serveur ou votre machine, rien ne transite par des serveurs américains. C'est donc de l'auto-hébergé, 100% hors ligne si vous voulez, et c'est compatible avec plein d'autres apps Markdown si vous souhaitez migrer plus tard.
C'est bien de voir une app française qui mise sur la souveraineté des données plutôt que sur le cloud américain ! C'est en train de devenir quelque chose de très recherché en ce moment. Bon après, faut être prêt à gérer soi-même l'hébergement, mais avec Docker c'est pas la mer à boire non plus.
Voilà, si vous cherchez une alternative open source à Notion qui respecte votre vie privée, c'est par ici .
Hier soir, je suis tombé sur ce gestionnaire de mot de passe clairement conçu pour les puristes et je me suis dit que ça pourrait vous intéresser. Parce que si ça vous casse la tête de devoir confier vos identifiants et autres mots de passes à des services dans le cloud qui ont connu quelques déboires de sécurité ces derniers temps (suivez mon regard... Oh Lastpass, comment ça va ?), j'ai exactement ce qu'il vous faut !
Ça s'appelle LocalPass , c'est open source et surtout c'est conçu pour fonctionner 100% en offline. J'ai testé ça ce matin sur mon laptop et c'est assez simple à utiliser.
Mais avant pour ceux qui se demandent quel est l'intérêt d'un gestionnaire de mots de passe local par rapport à un truc comme Bitwarden ou Dashlane , la réponse est simple : la souveraineté. Bah ouais, c'est logique. Avec LocalPass, vos données ne quittent jamais votre machine. Pas de cloud, pas de synchro mystérieuse, pas de télémétrie. C'est vous, votre fichier chiffré, et c'est tout.
Perso, j'ai longtemps utilisé des solutions cloud pour le confort, mais depuis quelques mois, je cherche à revenir sur des trucs plus locaux pour tout ce qui est critique, du coup LocalPass tombe à pic.
Côté technique, c'est du solide (sur le papier en tout cas) puisque l'outil est développé en Python et utilise Argon2id pour la dérivation de clé (ce qui rend les attaques par force brute bien pénibles pour les méchants) ainsi que AES-GCM pour le chiffrement.
L'utilisation ensuite c'est pas compliqué si vous avez déjà touché à une ligne de commande. D'ailleurs, pour l'installer, un petit coup de pip suffit (sauf si vous n'avez pas Python, là faut l'installer avant hein) :
pip install localpass
Ensuite, vous initialisez votre coffre-fort :
localpass init moncoffre.lp
Et hop, vous pouvez commencer à ajouter vos comptes (je vous laisse aller lire la doc sur le github). C'est un peu comme utiliser KeePass (que j'adore hein, pas de méprise), sauf que l'interface graphique de KeePass... comment dire... elle pique parfois un peu les yeux. Là, avec LocalPass, vous restez dans votre terminal chéri. Vous pouvez lister vos entrées, récupérer un mot de passe ou générer des identifiants sécurisés directement depuis votre shell.
Le truc cool, c'est que même si l'outil est "offline first", LocalPass intègre une fonction (totalement optionnelle et manuelle rassurez-vous) pour vérifier si vos mots de passe ont fuité via l'API de Have I Been Pwned. Mais rassurez-vous, ça utilise la méthode k-anonymity ce qui veut dire que votre mot de passe ne transite jamais en clair. Seul un bout de son hash est envoyé. C'est dnc le compromis idéal entre paranoïa et sécurité active.
Après moi le truc qui m'angoisse un peu avec ces gestionnaires de mots de passe locaux, ce sont les backups. Parce que si vous perdez votre fichier ".lp" ou votre mot de passe maître, c'est game over ca y'a pas de "Mot de passe oublié ?" ici. Donc comme toujours, FAITES DES SAUVEGARDES (sur différentes clé USB chiffrées par exemple que vous stockerez à différents endroits y compris hors de chez vous).
Si vous ne le faites pas, faudra pas venir pleurer après ^^.
Si vous avez envie de pimper votre bio Instagram, votre pseudo Discord ou vos posts TikTok avec des caractères stylisés qui sortent de l'ordinaire, Font Generator va vous plaire ! C'est un outil gratuit en ligne qui convertit votre texte en 170+ styles différents basés sur Unicode, histoire de vous démarquer un peu dans la jungle des réseaux sociaux.
Vous tapez votre texte dans la case, et hop, l'outil vous génère instantanément des dizaines de variantes : polices Script Bold Italic, Fraktur (style Old English), texte dans des bulles, lettres barrées, superscript, et j'en passe. Du coup, vous scrollez les styles disponibles, vous trouvez celui qui vous plaît, et vous le copiez-collez directement où vous voulez. Ça marche sur Instagram, Discord, Twitter/X, et même dans les jeux comme Roblox ou Fortnite.
Ce qui est cool, c'est que tout ça repose sur des caractères Unicode. Concrètement, ça veut dire que ce ne sont pas de vraies polices au sens technique, mais des caractères spéciaux qui existent déjà dans la norme Unicode. Résultat, pas besoin d'installer quoi que ce soit, ça fonctionne partout où l'Unicode est supporté (spoiler : QUASIMENT PARTOUT). Vous copiez, vous collez, et ça s'affiche correctement.
Ayez quand même conscience que pour les personnes malvoyantes, avec les lecteurs d'écran, c'est pas top. Ils ne pourront pas lire ce que vous écrivez comme ça. Donc si vous voulez rester accessibles à tous, ce genre de style d'écriture est à proscrire.
Ah et faut quand même que je précise un truc important : tous les styles ne proposent pas l'intégralité de l'alphabet. Certains ne fonctionnent qu'avec des lettres spécifiques ou ne supportent pas les chiffres. C'est une limite de l'Unicode lui-même, pas de l'outil. Du coup, si votre texte contient des caractères non supportés par un style, ils s'afficheront normalement. Rien de dramatique, mais c'est bon à savoir avant de s'énerver. Et attention, certaines applis mobiles plus anciennes peuvent afficher des carrés vides à la place des caractères exotiques.
L'outil propose aussi des collections spécialisées par plateforme : polices Instagram, polices Discord, polices Twitter, et même des trucs plus niche comme Adopt Me ou Fortnite. Y'a de quoi faire ! Et tout est gratuit, sans inscription, sans pub envahissante.
Perso, je trouve ça pratique pour se démarquer un peu, surtout que tout le monde utilise les mêmes typographies chiantes sur les réseaux. Essayez dans vos bio, ça attire plus l'œil que du texte standard. Après, faut pas en abuser non plus, sinon ça devient illisible. Mais pour une bio qui claque ou un pseudo qui attire l'œil, c'est nickel.
Bref, si ça vous tente de tester, c'est par ici .
Vous mourrez. Votre crypto meurt avec vous. Et votre famille n'a aucune idée de comment récupérer vos Bitcoins, vos Ethereum ou vos autres actifs numériques. Sympa l'héritage !
C'est exactement le problème que Deadhand vient résoudre avec une approche plutôt bien pensée : le partage de secret de Shamir (Shamir's Secret Sharing pour les intimes). En gros, au lieu de refiler votre seed phrase à quelqu'un en lui faisant confiance les yeux fermés, l'outil la découpe en 3 morceaux qu'il éparpille intelligemment.
Vous gardez le Shard A. Votre bénéficiaire reçoit le Shard B. Et le serveur Deadhand stocke le Shard C. Et là, c'est mathématiquement prouvé : n'importe quelle combinaison de 2 shards permet de reconstruire la phrase complète, mais un seul shard tout seul = zéro info utilisable.
Le truc cool avec ce système c'est surtout le système d'homme-mort automatique. Tous les 30 jours, Deadhand vous envoie un mail "T'es toujours vivant ?". Vous cliquez sur le lien, le timer se réinitialise, et hop c'est reparti pour un tour. Simple, non ? Mais si pendant 90 jours vous ne donnez pas signe de vie (RIP), le serveur envoie alors automatiquement le Shard C à votre bénéficiaire qui peut alors le combiner avec son Shard B pour récupérer la seed phrase originale.
Du coup, personne n'a le contrôle total à aucun moment. Si le serveur se fait hacker ? Les pirates récupèrent que le Shard C, TOTALEMENT INUTILE sans les autres. Si votre bénéficiaire devient malveillant ? Il a juste le Shard B, pareil, ça sert à rien tout seul. Et si vous perdez votre Shard A ? Pas de panique, votre bénéficiaire peut toujours combiner B + C pour récupérer l'accès.
Techniquement, c'est du FastAPI côté backend avec PostgreSQL pour la base de données. Le frontend reste sobre avec du HTML, TailwindCSS et HTMX. Et surtout, tout le chiffrement se passe côté client dans votre navigateur via la bibliothèque secrets.js, donc vos clés ne transitent jamais en clair sur le réseau. Architecture zéro-trust comme on dit... même les administrateurs du serveur ne peuvent pas accéder à vos données.
Bon, faut quand même préciser que c'est un MVP (minimum viable product). Les développeurs sont honnêtes là-dessus : ça demande du durcissement avant la prod. Il faut implémenter HTTPS comme il faut, auditer la lib secrets.js, sécuriser l'infrastructure de la base de données et remplacer le mock email par un vrai fournisseur genre SendGrid ou AWS SES. Donc attention, c'est pas encore prêt pour mettre vos millions de Bitcoin dedans, hein.
Niveau installation, rien de bien compliqué si vous voulez tester en local. Vous clonez le repo GitHub, vous installez les dépendances avec pip install -r requirements.txt, puis vous lancez python -m uvicorn app.main:app --reload --port 8000 et vous accédez à http://localhost:8000. Bon, évidemment faut avoir Python 3.9+ installé, mais ça vous le savez déjà. Et le projet est sous licence MIT donc complètement open source, ce qui fait que vous pouvez auditer le code vous-même si vous en avez les capacités (ce n'est pas mon cas).
Perso, je trouve le concept vraiment intelligent par contre. Pas besoin de faire confiance à une boîte centralisée ou de refiler vos clés à un proche en croisant les doigts pour qu'il ne se fasse pas pirater ou qu'il ne perde pas le bout de papier. Le partage de secret de Shamir, c'est pas nouveau mais l'appliquer à l'héritage crypto avec un dead man's switch automatisé, c'est pas mal du tout !
Bref, si la question de l'héritage de vos cryptos vous turlupine (et elle devrait), Deadhand propose une piste sérieuse à creuser. Et si vous cherchez aussi à sécuriser physiquement vos seed phrases , jetez un œil à SeedKeeper.
Bon, vous commencez à me connaître, j'ai une passion presque maladive pour les câbles, les batteries et tout ce qui permet de nourrir mes trucs de geek maladif. J’ai acheté il y a quelques semaines ce bloc chargeur de chez Anker équipé d’un grand écran, et franchement, je l’adore. Il trône sur mon bureau, sous mon écran, et je charge absolument tout avec lui. Il fournit 250W en GaN, et autant vous dire qu’avec ce truc, votre bureau ne sera plus jamais le même.
Au premier coup d'œil, la bête ressemble à un petit réveil futuriste, compact et plutôt mignon avec sa robe grise assez classique des produits Anker Prime sortis ces dernières semaines. Puis vous le branchez, et là on change un peu de dimension. On se retrouve face à un chouette écran LCD de 2,26 pouces qui affiche en temps réel ce qui se passe dans le ventre de la bête. C’est le genre de détail dont je ne pourrai plus jamais me passer : voir les watts défiler précisément port par port, c'est limite hypnotique et vraiment très satisfaisant.
La fiche technique est tout simplement monstrueuse avec quatre ports USB-C en façade et deux ports USB-A sur le côté. Le premier port USB-C est capable à lui tout seul de balancer 140W, ce qui vous permettra de redonner 50% de batterie à un MacBook Pro 16 pouces en quelque 25 minutes. Avec une puissance totale de 250W, vous pouvez même alimenter simultanément deux ordinateurs portables, une tablette et vos smartphones divers et variés sans faire chauffer le boîtier (merci la technologie GaN).
L’autre truc très marrant c’est la molette de contrôle située sur le côté de l'appareil. En tournant et en cliquant, on accède à une gestion plus fine de l'énergie délivrée. On peut par exemple activer le mode Dual-Laptop pour prioriser deux ordinateurs, ou passer en mode Low Current pour optimiser la charge des petites batteries de vos AirPods ou de votre Apple Watch durant la nuit. Tout est transparent, intuitif, et on peut même gérer l'ensemble depuis une application dédiée sur son smartphone si l'on a la flemme de tendre le bras. Pour être très honnête je n’utilise jamais la molette, je l’ai branché, et par défaut, c’est déjà parfait.
Pour ceux qui veulent vraiment un réveil sur leur bureau, en mode horloge, le chargeur affiche l'heure et la date proprement. C’est validé pour ça aussi.
Alors certes, c’est 160 euros, mais franchement c’est tellement puissant, pratique, design et satisfaisant, qu’à mon avis, ça vaut vraiment le coup, surtout si vous aussi, vous aimez voir les watts défiler en temps réel. Disponible par ici, sur Amazon !
Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !
Non mais attendez... y'a un mec qui vient de concevoir une carte mère 486 from scratch , en grand 2026 comme disent les jeunes ! Pas une repro. Pas un clone. Non non, une vraie carte mère complète avec son propre chipset custom qui fait tourner DOOM et Linux.
Un PCB 4 couches fait maison, rien que ça !!
Piotr Grzesik, alias maniek86, est un étudiant en électronique polonais qui s'est lancé dans un projet complètement dingue. Tout est parti d'une sombre arnaque sur une carte POST ISA chinoise... et suite à ça, il s'est dit "bon, je vais apprendre le VHDL et l'ISA bus moi-même". En fait, au début je pensais que c'était juste un projet de bricolage de plus, mais non. De fil en aiguille, il a fini par créer la M8SBC-486 , une carte mère qui accueille de vrais processeurs Intel 486 vintage.
La carte mère M8SBC-486 dans toute sa splendeur rétro
Et le bonhomme n'a pas juste fait un PCB, mais a carrément développé son propre chipset baptisé "Hamster" qui tourne sur un FPGA Xilinx Spartan II. Il aurait pu utiliser un FPGA récent mais il a préféré le Spartan II parce que les outils Xilinx modernes supportent plus ces vieilles puces. Donc il bosse avec des logiciels de 15 ans d'âge... logique.
Et dedans, y'a tout ce qu'il faut pour émuler un PC des années 90 : un timer 8254, un contrôleur d'interruptions 8259, un contrôleur clavier PS/2, et même une horloge temps réel.
Côté specs c'est du bon vieux socket PGA-168 compatible avec tous les processeurs 486 5V, que ce soit du Intel ou des compatibles. Le bus tourne à 24 MHz, ce qui donne du 48 MHz avec un DX2 (et théoriquement 72 MHz avec un DX4). Y'a 4 Mo de SRAM, 256 Ko de ROM pour le BIOS, et deux slots ISA 16 bits pour les nostalgiques des cartes d'extension. Attention par contre, si vous comptez utiliser un 486 3.3V genre les derniers AMD, ça passera pas... faut du 5V uniquement.
Perso, ce qui m'impressionne le plus c'est la liste des trucs qui tournent dessus. MS-DOS 6.22 évidemment, FreeDOS, mais aussi Linux 2.2.26 ! Sans oublier DOOM, Wolfenstein 3D, et la démo Second Reality qui en a fait baver plus d'un à l'époque. Même Windows 3.1 démarre. Bon, la souris fonctionne pas, mais quand même...
J'aurais bien voulu tester moi-même sur un vieux 486 DX2/66 qui traîne quelque part dans un carton au garage, mais retrouver ce truc c'est un projet en soi. Finalement, si vous êtes fan d' émulation rétro , c'est pil poil le genre de projet qui fait rêver les vieux grands enfants que nous sommes !
Le plus beau dans tout ça, c'est que Piotr a publié l'intégralité du projet en open source sur GitHub : les schémas, le PCB, le code VHDL du chipset, les sources du BIOS... Tout est dispo. Du coup si vous avez envie de vous lancer dans le rétrocomputing hardcore, vous savez où chercher.
Bon après, y'a quelques limitations. C'est là que ça peut coincer car y'a pas de DMA, donc oubliez les cartes son type Sound Blaster. Pas de second PIC non plus, et le Plug and Play ISA n'est pas encore implémenté dans le BIOS. Sauf si vous êtes prêt à contribuer au code, évidemment.
Mais franchement, pour un premier essai de cette envergure, c'est du très très solide.
Bref, si vous voulez voir la bête en action, la vidéo montre la démo Second Reality qui tourne avec quelques petits glitches visuels et pas de son, mais c'est normal vu les limitations.
Et si vous avez des vieux 486 qui traînent dans un carton, vous avez maintenant une raison de les ressortir !
Vous vous êtes déjà demandé à quoi ressemblerait un magazine fabriqué quasi entièrement par des IA ?
Hé bien ne cherchez plus et allez lire Les Heures Claires ! Il s'agit d'un mensuel d'environ 90 pages où 99% du contenu, des articles aux illustrations, est généré avec l'aide d'outils comme Midjourney, DALL-E 3 ou ChatGPT. "Avec l'aide" ça veut dire qu'il y a quand même des humains derrière, hein...
Le projet est né de l'imagination de Rémi Rostan, un photographe Google Street View certifié et le gars connaît bien l'image et la technologie, car ça se sent dans le résultat.
Concrètement, le mag est découpé en trois sections. Y'a "Les Heures Innovantes" qui cause tech et IA, "Les Heures Claires" qui explore le côté créatif et artistique, et "Les Heures Sombres" pour le ton plus décalé et humoristique. Perso, c'est ce mélange des genres qui rend le truc intéressant... On est donc loin d'un énième catalogue de prompts Midjourney ou d'un PDF SlopAI ^^.
Et d'ailleurs, en parlant de Midjourney, c'est là que GenIArt entre en jeu. Cette communauté francophone, fondée par Nicolas, un fidèle lecteur de Korben.info, en avril 2023, regroupe plus de 3000 membres sur Discord et contribue régulièrement au magazine avec des tutoriels et des techniques de prompt engineering. Ils ont même remporté un prix aux AI Film Awards de Cannes 2025 avec leur clip "Croquette Crew".
Pas mal pour des passionnés !
Côté diffusion, le mag a déjà conquis environ 10 000 lecteurs, avec 1000 à 1500 nouveaux abonnés chaque mois. Vous pouvez le lire gratuitement en PDF et depuis quelques mois, y'a même une version anglaise pour l'international.
Ce qui est vraiment dingue, c'est que Rémi et ses contributeurs utilisent plus de 20 outils IA différents pour produire chaque numéro. Magnific pour l'upscaling, Generative Fill pour les retouches, et tout un arsenal de modèles de langage pour les textes... Et depuis, le projet a évolué avec la création de StudioLHC , un studio créatif qui propose maintenant ses services aux marques et agences qui veulent intégrer l'IA générative dans leur communication.
La boucle est bouclée !
Moi je trouve ça génial. Les articles sont excellents et les illustrations et autres photos, vraiment très bien exécutées. En plus on apprend des choses.
Bref, si vous voulez voir ce que donne la création de contenu assistée par IA quand c'est bien fait, Les Heures Claires est un exemple plutôt convaincant. Ça fait réfléchir sur l'avenir de l'édition... et c'est un peu le but.