Mark Zuckerberg veut que ses salariés puissent lui parler même quand il n'est pas là. Meta travaille sur une version IA photoréaliste et animée de son patron, entraînée sur sa voix, son image, ses manies et ses déclarations publiques.
Le projet est encore au stade précoce, mais Zuck s'implique à fond : il supervise personnellement l'entraînement et les tests de son double numérique, et passerait même cinq à dix heures par semaine à coder sur les différents projets IA du groupe.
L'avatar doit pouvoir tenir une conversation en temps réel avec les employés et leur donner du feedback, comme si Zuckerberg passait lui-même dans le bureau. Il est nourri aux images, à la voix et aux réflexions stratégiques récentes du milliardaire, pour que les salariés du groupe à 1 600 milliards de dollars se sentent plus proches du fondateur via cet ersatz interactif.
C'est distinct d'un autre projet en cours, le "CEO agent", censé assister Zuckerberg lui-même dans son boulot quotidien en lui remontant de l'information à la volée.
Côté technique, c'est une autre paire de manches. Faire tourner un personnage 3D photoréaliste en temps réel sans lag demande une puissance de calcul énorme, et Meta galère à passer à l'échelle. Pour la voix, le groupe a racheté l'an dernier deux boîtes spécialisées, PlayAI et WaveForms.
Si l'expérience Zuckerberg fonctionne, l'idée est ensuite de proposer la même chose aux influenceurs et créateurs qui voudront déployer leur propre avatar auprès de leurs fans.
À côté de ça, Meta pousse ses équipes à s'automatiser avec des outils maison. Les salariés sont invités à utiliser OpenClaw, un framework d'agents open source, et à concevoir leurs propres agents pour abattre les tâches répétitives.
Les chefs de produit passent même un "exercice de niveau" qui inclut du design de système et du vibe coding. Meta jure que ce n'est pas obligatoire et que ça sert juste à cibler les besoins de formation. Certains salariés, eux, y voient la répétition générale d'une vague de licenciements.
Les avatars IA chez Meta, ce n'est pas nouveau. En septembre 2023, le groupe avait sorti des chatbots avec la tête et la voix de Snoop Dogg et d'autres célébrités, puis un AI Studio pour créer ses propres personnages.
Sauf que l'an dernier, des utilisateurs ont généré des avatars à caractère sexuel, les régulateurs se sont inquiétés pour la sécurité des mineurs, et depuis janvier Meta a restreint l'accès des ados à ces personnages.
Un clone de Zuck dispo 24h/24 pour vous donner du feedback sur votre code, je ne sais pas si c'est un rêve ou un cauchemar. Probablement les deux.
Source : FT
Plus de 230 millions de dollars. C'est ce qui a été misé sur le climat et la météo via Kalshi depuis juillet 2021, dont plus de la moitié rien que sur les neuf premiers mois de 2025.
La plateforme américaine de marchés de prédiction laisse ses utilisateurs acheter des contrats "oui" ou "non" sur la température de demain à Chicago, le passage d'un ouragan sur la Floride, ou encore la probabilité que la planète franchisse les 2°C avant 2050.
Le fonctionnement est simple. Vous pariez 15 cents sur "il fera 78°F à Los Angeles demain", s'il fait bien 78°F vous récupérez un dollar. Profit : 85 cents. C'est rapide. Derrière, Kalshi s'appuie sur les données officielles du NOAA et du National Weather Service, les mêmes qui alimentent depuis toujours les bulletins télé.
Sauf que cette fois, ces données publiques financées par les impôts américains servent à enrichir des traders privés. Du coup, pas mal de scientifiques trouvent ça un peu gênant.
Les défenseurs du système poussent une idée séduisante : agréger les paris de milliers de gens pourrait produire des prévisions météo plus précises que les modèles classiques. En théorie, c'est la "sagesse des foules" appliquée aux nuages.
En pratique, personne n'a vraiment prouvé que les marchés battent les modèles numériques du NOAA sur les températures à 7 jours. Les parieurs les plus sérieux lisent justement... les modèles du NOAA.
Côté éthique, ça coince. Kalshi refuse explicitement les paris sur les incendies de forêt, parce que l'entreprise elle-même reconnaît que ça créerait une incitation financière à mettre le feu. Logique. Mais rien n'empêche de parier sur le trajet d'un ouragan ou sur le niveau de pluie pendant une inondation, au moment même où des gens perdent leur maison.
Une étude parue dans Nature Climate Change en 2023 montre que parier sur le climat augmente un peu la prise de conscience chez les joueurs, mais l'effet reste modeste, entre quelques pourcents. Pas exactement de quoi compenser l'inconfort moral.
Le modèle avance quand même à toute vitesse. Kalshi pèse désormais près de 90% du marché américain de la prédiction et a dépassé les 12 milliards de dollars de volume mensuel en mars 2026.
En face, les régulateurs commencent à serrer : l'Arizona a déposé des poursuites pénales contre la plateforme en mars 2026 pour exploitation d'un jeu d'argent non licencié et paris électoraux. Plusieurs États pourraient suivre. Mais bon, tant que les investisseurs continuent d'affluer, l'entreprise n'a aucune raison de lever le pied.
Bref, transformer une tempête en ticket de loto sur fond de données publiques, ça pose quand même quelques questions.
Source : Bloomberg
Gros chantier IA au Japon. SoftBank a pris la tête d'un consortium qui réunit sept autres poids lourds nationaux : NEC, Honda, Sony, trois banques (MUFG, Sumitomo Mitsui, Mizuho) et deux sidérurgistes (Nippon Steel, Kobe Steel).
L'objectif : monter une nouvelle société dédiée à la construction d'une IA entièrement japonaise, sans dépendance étrangère. Le spécialiste tokyoïte Preferred Networks rejoindra l'aventure un peu plus tard, en renfort technique.
L'objectif est clair. Rattraper les Américains et les Chinois. Le modèle visé ambitionne d'atteindre environ 1 000 milliards de paramètres d'ici la fin de la décennie, soit l'ordre de grandeur des plus gros modèles d'OpenAI ou d'Alibaba. Il sera multimodal (texte, images, vidéos, son) et surtout orienté vers ce que les Japonais appellent la "physical AI", c'est-à-dire une IA capable de piloter des robots et des machines dans le monde réel.
L'intégration sur des bras robotisés, des lignes de production ou des véhicules autonomes est prévue pour l'exercice fiscal 2030. Côté industriel, c'est évidemment cohérent avec l'ADN du pays, où la robotique est reine depuis quarante ans.
Le gouvernement n'est pas en reste. Le ministère japonais de l'Économie prévoit d'injecter environ mille milliards de yens de soutien à l'IA sur cinq ans, via l'organisme NEDO. La nouvelle société est éligible à ce dispositif, ce qui lui donne un sacré matelas financier pour attirer les talents.
Au passage, une centaine d'ingénieurs en IA seront recrutés, et la direction sera assurée par un cadre de SoftBank. Le data center principal s'installera à Sakai, près d'Osaka, dans une ancienne usine LCD de Sharp reconvertie pour l'occasion. GPU dernier cri, tout le traitement reste sur le territoire japonais.
C'est justement ce point qui cristallise la logique du projet. Beaucoup d'industriels japonais refusaient d'envoyer leurs données sensibles (plans d'usine, relevés de capteurs, IP métier) vers des clouds américains ou chinois pour faire tourner de l'IA. En gardant tout le traitement local, le consortium offre une alternative souveraine aux membres du club, puis aux autres entreprises du pays.
Sauf que voilà, la bataille des modèles fondation se joue déjà depuis trois ans et les écarts de puissance sont importants. Arriver fin 2029 avec un modèle à mille milliards de paramètres, c'est atteindre le niveau actuel des meilleurs américains, pas celui des modèles qui existeront à ce moment-là.
La vraie force du projet est probablement ailleurs. Sur l'IA physique et l'industrie, le Japon a un terrain de jeu unique, avec des décennies d'avance en robotique et une base manufacturière dense. Si Honda, Nippon Steel et Kobe Steel injectent leurs données et leurs cas d'usage dans le modèle, ça peut produire quelque chose de très différent des LLM généralistes américains.
À noter que certaines sources évoquent un effort public global de l'ordre de 3 000 milliards de yens quand on cumule tous les dispositifs, ce qui donne une idée du sérieux de l'engagement étatique. Bref, le Japon arrive tard mais il amène ses industriels, son argent et son avantage robotique.
Source : Nikkei Asia
9 kilos en moins. Ses meilleurs chronos de sa vie sur 5 et 10 km. Et la meilleure forme depuis au moins une décennie. Voilà le bilan que Derek Wallbank, rédacteur en chef chez Bloomberg, affichait à la veille du marathon de Paris, qu'il a couru hier. Son coach pendant ces douze mois de préparation ? ChatGPT, et rien d'autre.
Wallbank avait déjà tenté un marathon il y a une bonne dizaine d'années, expérience qu'il qualifie de "catastrophe complète". Cette fois, plutôt que de payer un coach humain ou de télécharger un plan générique, il a passé environ une heure à nourrir ChatGPT de son historique complet de coureur : courses passées, allures de référence, blessures, objectifs, contraintes personnelles.
Et c'est là que le truc devient intéressant par rapport aux plans tout faits qu'on trouve en PDF sur n'importe quel blog running : le modèle a produit quelque chose de bien plus structuré, qui s'ajustait semaine après semaine selon ses retours d'entraînement. Sur le papier, c'est un cran au-dessus.
Sauf que voilà, la bestiole a des limites sérieuses. "Il ne va pas vous dire ce que vous devriez faire, ni comment vous devriez vous sentir, ni si vous êtes en surentraînement, ni si vous foncez vers la blessure", expliquait-il avant la course.
Un vrai coach sent quand son athlète commence à tirer la langue. Le modèle de langage, lui, continue à balancer des séances en se fiant uniquement à ce que vous lui dites. Vous tapez "ça va", il vous colle 30 km le samedi.
Autre problème plus vicieux : au bout de plusieurs mois, le plan s'est mis à halluciner. ChatGPT perdait le fil entre ce qui comptait vraiment et le bruit accumulé dans les échanges précédents. Classique des LLM sur les projets longs : plus vous empilez les conversations, plus les infos importantes se diluent dans le contexte.
Wallbank a dû recadrer régulièrement, réinjecter les bons paramètres, rappeler les priorités du moment. Bref, c'est pas magique. "Ce n'est pas un remède miracle, ça ne se gère pas tout seul", résume-t-il.
La course s'est tenue dimanche dernier, remportée chez les hommes par l'Italien Yemaneberhan Crippa en 2h05'18". Wallbank, lui, n'a pas encore rendu public son propre chrono.
Mais il s'est présenté sur la ligne de départ avec 9 kilos perdus, des records personnels battus sur les courtes distances, et pas une blessure malgré les hallucinations du plan. Pas un mauvais retour sur investissement pour un abonnement à 20 dollars par mois.
Bref, un ChatGPT qui vous fait maigrir et battre vos chronos à l'entraînement, c'est déjà pas mal. Pour le verdict sur 42 kilomètres, on attend que l'intéressé parle.
Source : Bloomberg
Le logiciel qui a piloté la descente du module lunaire Eagle le 20 juillet 1969 dort tranquillement dans un dépôt GitHub que n'importe qui peut cloner, lire, voire compiler chez soi. Deux gros paquets d'assembleur AGC : Comanche055 pour le module de commande, Luminary099 pour le module lunaire. Tout est dans le domaine public, puisque développé par la NASA.
Le dépôt chrislgarry/Apollo-11 existe depuis 2016, mais il faut imaginer ce qu'il y a dedans : des dizaines de milliers de lignes d'assembleur écrites à la main entre 1965 et 1969, assemblées sur les mainframes d'époque, puis gravées physiquement dans de la mémoire tissée, la fameuse rope memory, par des ouvrières chez Raytheon qui cousaient le code à l'aiguille. Oui, cousaient, vous voyez le genre en illustration de cet article, ou la photo ci-dessous signée Martin Hertig .
Le travail de numérisation vient de Paul Fjeld, du MIT Museum et de Ron Burkey, qui dirige le projet Virtual AGC depuis des années. Ils ont scanné et corrigé à la main les listings papier conservés au musée, avant que Chris Garry, stagiaire NASA à l'époque, ne les pousse sur GitHub. Le résultat est 100% assembleur AGC, assemblable via l'outil yaYUL qui tourne sous Linux, macOS, Windows et même FreeBSD.
Les commentaires, surtout, font tout le sel de l'archive. Les équipes de Margaret Hamilton, qui dirigeait la Software Engineering Division au MIT Instrumentation Lab, laissaient des remarques moqueuses au milieu des routines critiques. La plus connue : "BURN BABY BURN -- MASTER IGNITION ROUTINE", juste au-dessus du bloc qui déclenchait la mise à feu. Il y a aussi "TEMPORARY, I HOPE HOPE HOPE", collé sur un patch resté en place pendant toute la mission.
Le passage le plus parlant reste la séquence d'alarmes 1201 et 1202 pendant la descente finale. Un radar de rendez-vous mal positionné saturait le calculateur en pleine approche. Le logiciel écrit par l'équipe Hamilton a fait exactement ce qu'il devait faire : abandonner les tâches non critiques, garder le pilotage actif, et laisser Armstrong se poser. Environ 64 Ko de mémoire et deux kilos de ferrite, gérés en priorité tournante, ont sauvé la mission.
Côté usage concret, cloner le dépôt prend deux secondes. Compiler avec Virtual AGC demande un peu plus de patience, mais ça tourne. Vous pouvez ensuite lancer un simulateur et rejouer la descente touche par touche. Pour les curieux, c'est une archive historique géniale. Pour les étudiants en informatique, c'est un cours d'architecture système qu'aucun manuel ne remplace.
Bref, du code vieux de 57 ans, libre, commenté avec humour, et qui a posé deux humains sur la Lune. Pas mal !
Source : Techspot
Si vous êtes du genre à tracker vos serveurs, vos containers et vos tâches cron depuis un terminal, vous vous êtes peut-être déjà dit que votre baraque méritait le même traitement, non ? Hé bien c'est exactement ce que propose micasa , une appli en Go qui transforme votre console en tableau de bord domestique !
Le concept est simple : Une base SQLite de quelques Mo sur votre disque, et hop, vous suivez l'entretien de votre logement comme vous suivriez un repo sur GitHub. Changement du filtre de la clim tous les 90 jours, passage du plombier le 12 mars, garantie du lave-vaisselle qui expire en juillet... tout est là, dans une interface TUI pilotée au clavier façon Vim.
Et là, je lis dans votre cerveau et vous vous dites "Haaan, trop bien, il a toujours des trucs super géniaux ce Korben, je suis tellement heureux de le soutenir sur patreon !" ^^
Du coup, avec micasa, on se retrouve avec un truc qui gère pas mal de choses : les projets de travaux (du croquis au budget final), la comparaison de devis entre artisans, un historique complet de vos entrepreneurs, et même un dashboard qui vous affiche les maintenances en retard et les garanties sur le point d'expirer. En gros, c'est le Jira de votre appart (en moins déprimant) !
Putain, si j'avais eu ça au début des travaux chez moi, ça aurait moins dérivé en terme de planning je pense ^^.
Et le truc qui sort du lot dans cet outil, c'est l'intégration avec des LLM locaux via Ollama. Vous tapez "combien j'ai claqué en plomberie cette année ?" et hop, réponse directe depuis vos données, sans que rien ne quitte votre machine. Y'a même un pipeline OCR pour scanner vos factures et pré-remplir les champs, avec une validation manuelle avant d'enregistrer (perso, rien que pour ça, ça vaut le coup) !
Côté technique, c'est du Go pur sans CGO, construit avec Charmbracelet pour l'interface et GORM pour la couche données. Le créateur, Phillip Cloud (ça ne s'invente pas, je sais...), s'est inspiré de VisiData, cet outil TUI culte pour explorer des jeux de données. Sauf qu'ici, le jeu de données... c'est votre pavillon, avec ses fuites, ses factures et ses artisans pas toujours fiables.
Si ça vous chauffe, l'installation tient en une ligne :
go install github.com/micasa-dev/micasa/cmd/micasa@latest
Et si pas envie d'installer Go parce que ouin ouin, y'a aussi des binaires dispos. Linux, macOS, Windows. Et si vous voulez juste tester sans rien casser, la commande demo charge des données fictives pour vous faire une idée.
Si vous cherchiez d'autres outils TUI pour enrichir votre terminal, y'a de quoi faire, surtout si vous gérez encore vos travaux dans un fichier Excel qui date de 2019. Là ça vaut le coup d'essayer !
Y'a des outils tellement évidents qu'on oublie d'en parler. Obsidian , j'en ai mentionné l'écosystème plusieurs fois sur le blog, le CLI , le TUI Basalt ... mais j'ai jamais pris le temps de vous le présenter correctement. Alors aujourd'hui, je vais réparer ça.
Obsidiant, c'est donc un éditeur de notes en markdown qui tourne en local sur votre machine. Pas de compte obligatoire, pas de cloud par défaut, vos fichiers sont des .md tout bêtes stockés dans un dossier sur votre disque, genre ~/Documents/MesNotes/ (l'app appelle ça un "vault"). Du coup, vous pouvez les ouvrir avec VS Code, les versionner avec git, ou les copier sur une clé USB en 3 secondes. Vos notes vous appartiennent, quoi...
L'interface d'Obsidian avec un vault ouvert, vue classique à trois panneaux
L'app est dispo sur Windows, macOS, Linux, iOS et Android, et c'est gratuit, y compris pour un usage pro ! Pas de période d'essai, pas de features bridées et si vous voulez la synchro chiffrée de bout en bout entre vos appareils, y'a Obsidian Sync à partir de 4 dollars par mois (soit 48 dollars l'année). Et pour publier vos notes en ligne sous forme de wiki, Publish coûte 8 dollars par mois et par site.
Dans le cadre de mon taf, je suis en train de m'y mettre un peu pour gérer mes notes parce que tout le monde hurle que c'est génial. J'aime bien même si y'a une petite courbe d'apprentissage quand même, faut pas se mentir.
Un exemple de site wiki généré avec Obsidian Publish
Mais le vrai kiff, c'est l'écosystème de plugins. Y'en a des milliers, développés par la communauté, et qui transforment l'éditeur en couteau suisse. Synchro via git ? Y'a un plugin. Kanban ? Pareil. Calendrier, Dataview pour faire des requêtes dans vos notes, Templater pour automatiser la création... la liste est dingue !
D'ailleurs, le graph view intégré qui permet de visualiser les connexions entre toutes vos notes, c'est un bon truc pour capter la façon dont notre cerveau fonctionne (ou pas pour certains ^^). avec les associations thématiques Et y'a aussi Canvas, un espace infini pour poser vos idées façon tableau blanc comme dans les Experts.
Canvas, l'espace infini d'Obsidian pour organiser ses idées facon tableau blanc
Côté navigateur, le Web Clipper est franchement pratique. Vous tombez sur un article, un clic et hop, c'est en markdown dans votre coffre. Pas besoin de copier-coller comme un sauvage !
Obsidian Sync pour partager un vault chiffré de bout en bout entre plusieurs appareils
Au début, un outil proprio qui prône l'ouverture, ça m'a fait tiquer mais en fait, ce qui compte c'est que le format est ouvert, même si le code, lui est fermé. L'équipe (une petite vingtaine de personnes, lancé en 2020 par Shida Li et Erica Xu) est financée à 100% par ses utilisateurs, sans investisseurs, et vos données restent sur votre machine, dans un format ouvert, ce qui fait que vous pouvez partir quand vous voulez avec tous vos fichiers sous le bras.
Après y'a pas non plus de collaboration temps réel comme sur Notion ou Google Docs, et attention, les plugins communautaires c'est du code tiers pas sandboxé par l'app, donc faut faire un minimum gaffe à ce que vous installez. L'app mobile a aussi longtemps traîné la patte côté perfs, surtout sur Android avec des vaults de plus de 500 notes, même si ça s'est bien amélioré depuis.
Je pense que si TriliumNext vous tente mais que vous voulez pas gérer un serveur, ou si Notion vous saoule avec son cloud obligatoire, Obsidian fera bien le job. C'est gratuit pour tout le monde (même pour les entreprise), et il y a même 40% de réduc pour les étudiants et enseignants sur Sync et Publish.
Bref, allez voir ça. Et merci à Fredix qui m'a rappelé que j'avais jamais présenté le truc !
Google déteste que vous écoutiez YouTube gratuitement en arrière-plan. C'est comme ça depuis des années, et ça empire... Par exemple, vous verrouillez l'écran 2 secondes et pouf, plus de son.
YouTube Premium coûte dans les 13 balles par mois pour débloquer ça, ce qui fait quand même plus de 150 euros l'année juste pour écouter de la musique écran éteint. Heureusement, un dev français a trouvé une parade avec Allformusic , un site qui contourne le problème en utilisant l'API officielle de YouTube.
Le principe c'est que Allformusic est une sorte de jukebox géant qui tape directement dans le catalogue YouTube. Vous cherchez un artiste, un album, un genre... et ça lance la musique. Sans compte, sans pub et gratos ! Du coup, si vous voulez vous taper l'intégrale de Daft Punk un dimanche après-midi, vous tapez leur nom et c'est parti.
Et là où c'est malin, c'est que sur mobile, comme YouTube coupe le son dès que vous verrouillez l'écran (merci Google...), y'a une astuce simple à connaitre avec Alloformusic.
Vous lancez votre musique, vous verrouillez le téléphone, le son se coupe... normal. Sauf que le mini-lecteur natif du navigateur apparaît dans vos notifications. Appuyez alors sur Play depuis l'écran de verrouillage, et hop, la musique reprend en arrière-plan !
Par contre, attention si votre navigateur a un mode économie d'énergie agressif, ça peut couper au bout de 10-15 min. Dans ce cas, désactivez l'optimisation batterie pour Chrome dans les paramètres Android.
Le site fonctionne comme une PWA, une Progressive Web App, ce qui veut dire que vous pouvez l'ajouter sur votre smartphone comme une appli classique. Sur Android, direction le menu Chrome puis "Ajouter à l'écran d'accueil". Sur iPhone, c'est via Safari, le bouton partage, puis "Sur l'écran d'accueil".
Bruno, le créateur du site, confirme que ça tourne nickel sur Android. Côté iOS, c'est moins testé... perso, j'aurais tendance à dire que ça dépend de la version de Safari et de comment Apple gère la MediaSession API. À vérifier de votre côté.
D'ailleurs si vous aviez lu mon article sur le blocage de la lecture YouTube en arrière-plan , vous saviez que Google serre la vis sur les navigateurs tiers. Les méthodes à base de about:flags tombent les unes après les autres.
Allformusic a l'avantage de passer par l'API officielle, du coup en théorie c'est moins susceptible de se faire dégager du jour au lendemain... mais bon, avec Google, on n'est jamais à l'abri.
Après, la qualité audio dépend de ce que YouTube balance, et sur certains titres c'est du 128 kbps donc clairement pas du FLAC hi-fi. Si vous êtes du genre à entendre la différence entre un MP3 et un vinyl, passez donc votre chemin. Mais si vous êtes comme et que c'est juste pour se mettre un fond sonore en cuisinant ou dans les transports, ça fait largement le taf.
Y'a pas non plus de mode hors-ligne, donc sans connexion c'est mort. Et vu que ça streame du YouTube, comptez une cinquantaine de Mo par heure en audio seul... à garder en tête si vous avez un forfait serré.
Le site propose aussi des sélections thématiques... Top du moment, Top soirée, et même un "Top Johnny" pour les fans du Taulier ^^. C'est un projet perso fait par un lecteur du blog passionné de code et de musique, donc ça mérite bien un petit coup de projecteur !
Bref, merci à Bruno pour le partage et encore bravo ! Si vous cherchez un moyen d'écouter de la musique en streaming sans prise de tête, allformusic.fr ça vaut le détour.
xAI vient de déposer plainte devant un tribunal fédéral du Colorado pour faire annuler le SB 24-205, une loi qui doit entrer en vigueur le 30 juin prochain. Ce texte impose aux développeurs de systèmes d'IA "à haut risque" de mettre en place des garde-fous contre les discriminations algorithmiques.
Sont concernés les outils utilisés pour prendre des décisions dans l'emploi, le logement, l'éducation, la santé et les services financiers. En clair, si votre IA aide à trier des CV ou à accorder un prêt, elle doit prouver qu'elle ne discrimine personne.
Le problème pour xAI, c'est que Grok, son modèle phare, tomberait pile dans cette catégorie. L'entreprise d'Elon Musk estime que la loi l'obligerait à modifier le fonctionnement de son IA pour "refléter les opinions de l'État du Colorado sur la diversité et la discrimination" plutôt que de rester objective.
L'argument principal de xAI tient en un mot : liberté d'expression. Dans sa plainte, l'entreprise affirme que la loi du Colorado viole le premier amendement de la Constitution américaine.
Elle reproche au texte d'interdire aux développeurs de créer des systèmes d'IA qui produisent "un discours que l'État du Colorado n'aime pas", tout en les forçant à aligner leur travail sur les préférences de l'État.
C'est un angle juridique assez audacieux. Considérer qu'un modèle d'IA produit du "discours" protégé par la Constitution, ça revient à dire que le code et les réponses générées par une machine sont une forme d'expression. xAI demande au tribunal de déclarer la loi inconstitutionnelle et d'empêcher son application.
Derrière cette plainte, il y a un bras de fer plus large entre régulation fédérale et régulation locale. xAI cite des décrets de la Maison Blanche qui critiquent la multiplication des lois étatiques sur l'IA.
L'administration Trump pousse pour un cadre national unique, estimant qu'un patchwork de réglementations état par état freinerait la compétitivité américaine et poserait des problèmes de sécurité nationale.
Le Colorado fait figure de pionnier sur le sujet. Le SB 24-205 est l'une des lois les plus complètes du pays en matière de régulation de l'IA. Elle oblige les développeurs à fournir une documentation détaillée sur les risques de leurs systèmes, à publier un site web résumant leurs pratiques, et à signaler toute discrimination algorithmique découverte au procureur général dans les 90 jours.
xAI, qui a récemment fusionné avec SpaceX, attaque moins de trois mois avant l'entrée en vigueur du texte. Si le tribunal donne raison à Musk, ça pourrait décourager d'autres États de légiférer sur le sujet. À l'inverse, un rejet de la plainte renforcerait la légitimité de ce type de régulation locale.
En tout cas, utiliser le premier amendement pour protéger une IA de toute obligation anti-discrimination, c'est un précédent que beaucoup de juristes vont suivre de près.
Source : Bloomberg Law
Le FBI, la CISA, la NSA, l'EPA, le département de l'Énergie et le Cyber Command américain ont publié un avis conjoint qui ne laisse pas beaucoup de place au doute. Des hackers affiliés à l'Iran ciblent activement les automates programmables connectés à internet sur le sol américain.
Plus précisément, ce sont les contrôleurs Rockwell Automation / Allen-Bradley qui sont visés, et si vous ne comprenez pas de quoi on parle, ce sont en fait les petits ordinateurs industriels qui pilotent des vannes, des pompes ou des turbines dans les usines.
Le groupe en question, déjà connu sous le nom de CyberAv3ngers et lié au Corps des Gardiens de la révolution islamique, scanne le web à la recherche de PLC exposés sur plusieurs ports (44818, 2222, 102, 502).
Une fois en place, les attaquants peuvent manipuler les interfaces homme-machine et les écrans SCADA, modifier des fichiers de projet et, dans certains cas, tenter de déployer des malwares de type "wiper" pour effacer les données des systèmes compromis.
Les secteurs touchés sont ceux qu'on redoute le plus dans ce genre de scénario : stations de traitement d'eau, installations énergétiques (centrales, raffineries), et même des collectivités locales. Plusieurs victimes ont subi des arrêts de production forcés, avec un basculement en mode manuel et des pertes financières que le FBI n'a pas voulu chiffrer publiquement.
Ce n'est pas la première fois que ce groupe fait parler de lui. Fin 2023, CyberAv3ngers avait déjà piraté des automates Unitronics dans une station d'eau en Pennsylvanie, tout simplement en exploitant des mots de passe par défaut.
Dès 2024, ils sont passés à la vitesse supérieure avec du malware sur mesure contre des systèmes d'eau et de carburant. La campagne actuelle, qui est active depuis mars 2026, marque un nouveau cran dans l'escalade.
Même s'il baisse un peu en intensité depuis quelques heures, le conflit entre les États-Unis, Israël et l'Iran a débuté le 28 février 2026 avec des frappes aériennes. Depuis, les opérations cyber iraniennes se sont accélérées, aussi bien contre des cibles américaines qu'israéliennes.
"Les acteurs iraniens bougent plus vite, plus largement, et ciblent désormais à la fois les infrastructures IT et OT", a résumé Sergey Shykevich, chercheur chez Check Point.
Côté recommandations, les agences américaines demandent aux opérateurs de déconnecter immédiatement tous les équipements industriels d'internet, d'appliquer les correctifs Rockwell, d'activer l'authentification multifacteur et de surveiller le trafic entrant sur les ports concernés. Le b.a.-ba donc, mais visiblement pas encore appliqué partout.
En tous cas, six agences fédérales qui publient un avis commun, ça donne une idée de la gravité du truc. Le fait que des hackers puissent encore trouver des automates industriels directement accessibles depuis internet en 2026, c'est quand même assez idiot. Surtout quand ils contrôlent des stations d'eau ou des centrales énergétiques.
Source : CNN