Vous vous souvenez de ces robots chiens et humanoïdes Unitree qu'on voit partout sur les réseaux depuis quelques mois ? Hé bien des chercheurs en sécurité viennent de découvrir qu'on pouvait les pirater en moins d'une minute, sans même avoir besoin d'un accès internet. Et le pire, c'est que la faille est tellement débile qu'elle en devient presque comique.
Lors de la conférence GEEKCon à Shanghai, l'équipe de DARKNAVY a fait une démonstration qui fait froid dans le dos. L'expert Ku Shipei a pris le contrôle d'un robot humanoïde Unitree G1 (quand même 100 000 yuans, soit environ 14 000 balles) en utilisant uniquement des commandes vocales et une connexion Bluetooth. Après environ une minute de manipulation, l'indicateur lumineux sur la tête du robot est passé du bleu au rouge, il a alors cessé de répondre à son contrôleur officiel, puis sous les ordres de Ku, il s'est précipité vers un journaliste en balançant son poing.
Sympa l'ambiance.
En fait, le problème vient de la façon dont ces robots gèrent leur configuration Wi-Fi via Bluetooth Low Energy (BLE). Quand vous configurez le réseau sur un robot Unitree, il utilise le BLE pour recevoir le nom du réseau et le mot de passe, sauf que ce canal ne filtre absolument pas ce que vous lui envoyez. Vous pouvez donc injecter des commandes directement dans les champs SSID ou mot de passe avec le pattern « ;$(cmd);# », et hop, exécution de code en tant que root.
Et le truc encore plus dingue, c'est que tous les robots Unitree partagent la même clé AES codée en dur pour chiffrer les paquets de contrôle BLE, donc si vous avez cracké un G1, vous avez cracké tous les G1, H1, Go2 et B2 de la planète. Et là vous allez me dire : Et la sécurité du handshake ? Hé bien elle vérifie juste si la chaîne contient « unitree » comme secret. Bravo les gars ^^.
Du coup, la vulnérabilité devient wormable, c'est à dire qu'un robot infecté peut scanner les autres robots Unitree à portée Bluetooth et les compromettre automatiquement à son tour, créant ainsi un botnet de robots qui se propage sans intervention humaine. Imaginez ça dans un entrepôt avec 50 robots !! Le bordel que ça serait...
Moi ce qui m'inquiète avec ces robots, c'est l'architecture d'exfiltration de données car le G1 est équipé de caméras Intel RealSense D435i, de 4 microphones et de systèmes de positionnement qui peuvent capturer des réunions confidentielles, photographier des documents sensibles ou cartographier des locaux sécurisés. Et tout ça peut être streamé vers des serveurs externes sans que vous le sachiez surtout que la télémétrie est transmise en continu vers des serveurs en Chine... Vous voyez le tableau.
En avril 2025 déjà, des chercheurs avaient trouvé une backdoor non documentée dans le robot chien Go1 qui permettait un contrôle à distance via un tunnel réseau et l'accès aux caméras, donc c'est pas vraiment une surprise que les modèles plus récents aient des problèmes similaires, hein ?
J'imagine que certains d'entre vous bidouillent des robots avec Raspberry Pi ou Arduino, alors si vous voulez pas finir avec un robot qui part en freestyle, y'a quelques trucs à faire. Déjà, pour la config Wi-Fi via BLE, ne passez jamais le SSID et le mot de passe en clair mais utilisez un protocole de dérivation de clé comme ECDH pour établir un secret partagé. Et surtout validez et sanitisez toutes les entrées utilisateur avant de les balancer dans un shell.
Et puis changez les clés par défaut, car ça paraît con mais c'est le problème numéro un. Générez des clés uniques par appareil au premier boot ou lors de l'appairage. Vous pouvez stocker ça dans l'EEPROM de l'Arduino ou dans un fichier protégé sur le Pi.
Pensez aussi à isoler vos robots sur un réseau dédié... Si vous utilisez un Pi, créez un VLAN séparé et bloquez tout trafic sortant non autorisé avec iptables. Comme ça, même si un robot est compromis, il ne pourra pas exfiltrer de données ni attaquer d'autres machines.
Ah et désactivez aussi le Bluetooth quand vous n'en avez pas besoin ! Sur un Pi, ajoutez « dtoverlay=disable-bt » dans /boot/config.txt et sur Arduino, c'est encore plus simple, si vous utilisez pas le BLE, ne l'incluez pas dans votre projet.
Bref, ces robots sont de vrais chevaux de Troie ambulants. Ils ont des capteurs, des caméras, des micros, et maintenant ils peuvent être compromis par n'importe qui à portée de Bluetooth... Donc si vous bossez sur des projets robotiques, prenez le temps de sécuriser vos communications sans fil avant de vous retrouver avec un robot qui décide de vous tuer !! Et bookmarkez ce lien car c'est là où je mets toutes mes meilleures news robotiques !
Et si vous êtes encore en train de lire mes articles à cette heure-ci, je vous souhaite un excellent Noël !
Bibliotik ça vous parle ou pas ? C'est un tracker torrent privé ultra-discret comme il y en a tant d'autres, où les fans de lecture vont chopper leurs ePubs.
Hé bien figurez-vous que Meta, Bloomberg, et toute une brochette de géants de la tech ont fait exactement pareil pour entraîner leurs IA. Sauf qu'eux, c'était pas pour lire du Stephen King au lit, mais pour aspirer 195 000 livres d'un coup et les transformer en "données d'entraînement".
Le dataset s'appelle Books3, et c'est un peu le Napster des LLMs. Créé en 2020 par un chercheur IA nommé Shawn Presser, ce jeu de données de 37 Go compressés contient des bouquins scrapés directement depuis la bibliothèque pirate Bibliotik. L'idée de Presser était plutôt noble à la base puisqu'il voulait démocratiser l'accès aux données d'entraînement pour que les petits labos puissent rivaliser avec OpenAI et leurs mystérieux datasets "Books1" et "Books2" dont personne ne connaît le contenu.
Sauf que Books3 a fini par être intégré dans The Pile , un gros dataset de 825 Go créé par EleutherAI, et là ça a pris des proportions industrielles... Meta l'a utilisé pour entraîner LLaMA, Bloomberg pour BloombergGPT, et des dizaines d'autres projets. Le problème, c'est que ça contient des livres protégés par le copyright tels que des romans de Sarah Silverman, de George R.R. Martin, et même le bouquin de John Carreyrou sur Theranos, "Bad Blood". D'ailleurs Carreyrou vient de porter plainte avec d'autres auteurs contre six géants de l'IA dont Anthropic, Google, OpenAI, Meta, xAI et Perplexity.
Et comme vous vous en doutez, la défense de toutes ces entreprises c'est le fameux "fair use" des américains. En gros, ils disent que transformer des livres en vecteurs mathématiques pour qu'une IA apprenne à écrire, c'est pas du vol, c'est de l'apprentissage. Un peu comme quand vous lisez 500 bouquins et que ça influence votre style d'écriture. Sauf que vous, vous payez vos livres et vous avez un cerveau biologique alors que ces IA, elles, aspirent tout le web sans demander la permission à personne.
Et en juin dernier, deux juges californiens ont, sans surprise, tranché en faveur d'Anthropic et Meta sur certains points. Ils ont considéré que l'utilisation de livres protégés pour entraîner des modèles comme Claude ou Llama 2 pouvait constituer un usage "spectaculairement transformatif" donc légal. Par contre, télécharger les bouquins depuis des sites pirates, ça reste illégal... Bref, vous pouvez utiliser le butin, mais pas le voler vous-même...
De son côté, le sénateur américain Hawley n'a pas mâché ses mots en parlant du "plus grand vol de propriété intellectuelle de l'histoire américaine" et quand on voit que les auteurs ont touché environ 3000 dollars chacun dans le règlement de 1,5 milliard de dollars proposé par Anthropic alors que ces boîtes génèrent des milliards de revenus, je peux comprendre l'énervement.
Mais le pire, c'est qu'il existe des datasets alternatifs 100% légaux, ouverts, et utilisables sans risquer un procès !! J'ai par exemple découvert Common Corpus , et je kiffe le concept. C'est un projet coordonné par Pleias, une startup française, avec le soutien de HuggingFace, du Ministère de la Culture et de l'AI Alliance et ce dataset contient 500 milliards de mots, dont 180 milliards en anglais et 110 milliards en français.
Mais alors d'où viennent ces données légales ?
Hé bien du domaine public uniquement. Ce sont des millions de journaux américains qui ont été numérisés via le projet Chronicling America, des collections de patrimoine culturel, des monographies historiques...etc. Et tout a été vérifié pour s'assurer que les droits d'auteur sont bien expirés.. Donc dedans, y'a pas de livres piratés, ce qui veut dire pas de procès potentiels...etc.
Y'a aussi le dataset Dolma avec ses 3 trillions de tokens créé par l'Allen AI Institute, ou encore RedPajama qui atteint les 30 trillions de tokens, et ces projets sont open source avec tout le processus de construction documenté donc vous pouvez les auditer, les refaire, et les vérifier, contrairement aux datasets proprio où on vous dit "faites-nous confiance, on a rien fait de mal, hihihi".
Mais même si tout ces trucs open source ont l'air cool, le problème, c'est que personne (ou presque) ne les utilise parce que les vieux livres du domaine public, ça parle comme Molière ou Victor Hugo. Le vocabulaire est archaïque, les tournures de phrases sont datées... on dirait une discussion sur l'oreiller du couple Macron. Et vous l'aurez compris, un LLM entraîné là-dessus va avoir tendance à vous pondre du texte qui sent la naphtaline, alors que les livres modernes piratés, quand à eux, c'est du langage contemporain, des dialogues naturels, des références actuelles...etc.
C'est donc ça le dilemme... Choisir entre éthique ou performance. Les chercheurs de Mozilla et EleutherAI ont publié en janvier 2025 un papier sur les bonnes pratiques pour créer des datasets ouverts , et ils admettent eux-mêmes que c'est compliqué car les métadonnées sont pourries, la numérisation coûte une blinde, et il faut des compétences juridiques ET techniques pour faire les choses proprement.
Un autre paradoxe encore plus cruel c'est que les projets qui documentent proprement leurs sources deviennent des cibles faciles pour les procès. C'est comme ça que le groupe anti-piratage danois Rights Alliance a fait supprimer Books3 via des notices DMCA, forçant EleutherAI à nettoyer The Pile alors que pendant ce temps, OpenAI reste discret sur ses données d'entraînement et évite ainsi les ennuis. Faire les choses bien, ça vous expose alors que faire les choses en douce pour entrainer votre IA, ça passe tranquillou (même si ça n'immunise pas totalement contre les procès non plus, faut pas déconner).
Et de plus en plus de sites partout sur la toile, changent petit à petit leurs conditions d'utilisation pour interdire le scraping par les IA... Autant dire que le web ouvert se referme petit à petit, ce qui rend encore plus galère de construire des datasets éthiques...
Bref, on est dans une situation où les géants aspirent tout sans vergogne, et où les petits qui essaient de faire les choses proprement galèrent... Sans parler des auteurs qui se retrouvent à quémander 3000 balles pour des œuvres qui valent bien plus. Common Corpus et tous ces autres projets ouverts prouvent, certes, qu'on peut entraîner des IA sans piller le travail des autres, mais ça demande énormément plus d'efforts et ça donne des résultats incroyablement moins sexy...
Voilà, au final, la vraie question n'est donc pas technique, mais politique. Est-ce qu'on doit accepter qu'une machine qui lit pour transformer un livre en vecteur, c'est OK parce que grâce à ce petit sacrifice, on peut profiter d'IA (open source de préférence) de folie ? Ou est ce qu'on se dit que lire c'est du vol quand c'est une machine qui lit ? Et dans ce cas, on accepte d'avoir des IA qui cause comme Balzac... ?
Je trouve que ce qui manque sous Linux, c'est un petit outil sympa pour garder un œil sur l'état de sa batterie de portable. Alors oui, y'a des trucs par-ci par-là, mais rien de vraiment moderne et surtout complet. Mais c'était sans compter sur Wattage vient combler ce vide aussi immense que votre amour pour mon site ^^.
C'est donc une petite appli GTK4/libadwaita toute fraîche qui vous affiche tout un tas d'infos sur votre batterie. Et quand je dis tout un tas, c'est vraiment tout un tas du genre le nombre de cycles de charge, la capacité actuelle, le voltage, l'état de santé, les métriques d'énergie, les infos constructeur, etc.
L'appli est codée en Vala, ce qui veut dire qu'elle compile en C et que c'est plutôt rapide. Elle va récupérer toutes ses données directement dans /sys/class/power_supply, le dossier système où Linux stocke les infos de vos périphériques d'alimentation.
Le truc cool avec Wattage, c'est qu'elle supporte plusieurs batteries ou sources d'alimentation en même temps, donc si vous avez un setup un peu particulier avec plusieurs batteries, hop, tout s'affiche proprement dans l'interface.
L'interface justement, elle est assez minimaliste et bien fichue puisque vous avez toutes vos stats batterie dans une seule fenêtre, sans menus compliqués, ni options inutiles.
Voilà, alors plutôt que de vous fier uniquement à l'indicateur système classique qui vous dit juste le pourcentage, vous pourrez maintenant voir l'état réel de votre batterie. Comme ça, si elle commence à décliner, ou si le nombre de cycles grimpe trop, vous le saurez. Même chose si la capacité maximale baisse par rapport à la capacité d'origine... Plus rien ne vous échappera.
C'est développé par v81d, dispo sur GitHub , et sous licence GPL v3 et comme tout bon logiciel Linux moderne, Wattage est dispo sur Flathub , donc vous pouvez l'installer sur à peu près n'importe quelle distribution en deux clics. Ubuntu, Fedora, Arch, Mint... tant que vous avez Flatpak installé, vous êtes bons.
Si vous utilisez GitHub Copilot ou ChatGPT pour coder plus vite, voici une nouvelle qui va peut-être vous refroidir un peu. Une fintech a découvert que des attaquants avaient extrait des données clients via un endpoint API qui n'était documenté nulle part. Personne dans l'équipe ne se souvenait l'avoir créé et après 3 semaines d'enquête, le verdict est tombé : c'est Copilot qui l'avait généré pendant une session de code nocturne.
Bienvenue dans l'ère des "phantom APIs" les amis !
J'avoue que le concept m'a fait marrer car on parle quand même d'endpoints qui existent en production mais dont personne n'a connaissance. Ahahaha... y'a pas de documentation, pas de tests, pas de validation de sécurité. C'est juste un peu de code généré par une IA qui a trouvé ça "logique" de créer un /api/v2/admin/debug-metrics qui balance du
PII
à quiconque tombe dessus par hasard.
J'ai vu le dernier rapport Veracode GenAI Code Security et les chiffres font un peu flipper c'est vrai ! Ils ont testé plus de 100 LLM sur 80 tâches de codage différentes, et le résultat fait mal puisque 45% du code généré par IA contient des vulnérabilités classées OWASP Top 10. En gros, presque une fois sur deux, votre assistant IA vous pond du code troué comme une passoire. Java est le grand gagnant avec 72% de taux d'échec, suivi par Python, JavaScript et C# qui tournent autour de 38-45%.
En effet, l'IA ne pense pas comme un dev qui s'est déjà fait hacker. Par exemple, quand un dev crée un endpoint, il réfléchit authentification, rate limiting, exposition de données, documentation. Alors que l'IA, elle, génère juste ce qui lui semble statistiquement logique vu son dataset d'entraînement, sans comprendre les implications sécurité ou les politiques de l'organisation.
D'ailleurs une autre étude Apiiro montre que les assistants IA ont multiplié par 10 les vulnérabilités introduites en seulement 6 mois dans les dépôts étudiés. Les chemins d'escalade de privilèges ont explosé tout comme les défauts architecturaux. Et le pire c'est que les développeurs qui utilisent l'IA exposent leurs credentials cloud (clés Azure, Storage Access Keys) deux fois plus souvent que les autres.
Y'a aussi le problème du "slopsquatting". Oui, encore un gros mot, je sais... En fait, l'IA peut vous recommander d'installer un package qui n'existe tout simplement pas. Genre elle hallucine un nom de librairie et un attaquant un peu moins con que les autres, peut enregistrer ce nom sur npm ou PyPI et y foutre du code malveillant.
Et là que ça devient vraiment problématique, c'est que les outils de sécurité traditionnels ne voient rien. L'analyse statique compare votre code à des specs documentées, sauf que les phantom APIs n'existent dans aucune spec. Les API gateways protègent les endpoints enregistrés mais laissent passer des routes non déclarées sans authentification.
Pour s'en sortir, certaines boîtes commencent donc à analyser le trafic en temps réel pour détecter les endpoints qui traînent. Y'a aussi l'audit de code spécifique IA pour repérer les patterns de génération algorithmique, et la comparaison continue entre les specs et ce qui tourne vraiment en production.
Bref, relisez votre code généré par IA comme si c'était un stagiaire collégien de 3e qui l'avait écrit, et si vous découvrez un endpoint bizarre dans votre base de code dont personne ne se souvient, y'a des chances que ce soit un "fantôme" laissé par votre copilote préféré...
En Chine, RoboCop c'est plus vraiment de la science-fiction puisque la ville de Hangzhou vient de déployer un robot humanoïde qui fait la circulation à un carrefour. Et je trouve ça un poil flippant ^^.
Ce robot qui s'appelle Hangxing-1 a commencé son boulot le 1er décembre dernier, à l'intersection de Binsheng Road et Changhe Road dans le district de Binjiang. Le truc mesure 1m80, il est équipé de caméras haute définition et de capteurs qui lui offrent une bonne vision de ce qui se passe autour de lui et il roule sur des petites roues omnidirectionnelles, affublé d'un uniforme haute visibilité avec des bandes de police. Bref, impossible de le louper.
Et son job, c'est de faire des gestes pour diriger les voitures, les scooters et les piétons. Les ingénieurs ont modélisé ses mouvements sur ceux de vrais policiers pour que ce soit bien standardisé et il peut siffler de manière électronique en synchro avec les feux de circulation. Et le truc marrant, c'est qu'il est capable de détecter les infractions en temps réel, comme les motards sans casque, les voitures qui dépassent la ligne d'arrêt ou encore les piétons qui traversent au rouge. Et quand il chope quelqu'un en flagrant délit, il balance un message vocal bien poli.
Bien sûr, on est en Chine, donc toutes les infractions sont logguées et envoyées direct dans la base de données de la police.
Côté autonomie, le robot peut tenir plusieurs heures sur une charge, ce qui couvre largement les heures de pointe et quand la batterie est à plat, il retourne tout seul au bistrot à sa station de recharge. La machine a été développée entièrement à Hangzhou, fruit d'une collab entre la police locale et des boîtes tech du coin.
D'après les premières observations locales, le respect des règles à ce carrefour se serait nettement amélioré depuis que le robot est en poste. Bon, y'a quand même des flics humains pas loin pendant cette phase test, au cas où les avertissements vocaux du robot ne suffiraient pas.
Hangxing-1 fonctionne pour l'instant dans deux modes : gestion du trafic et sensibilisation civique. Mais la ville prévoit de l'upgrader avec des capacités de langage naturel pour qu'il puisse donner des directions et répondre aux questions des passants. Le robot est d'ailleurs connecté au "City Brain" d'Alibaba, le système de gestion urbaine intelligent déployé à Hangzhou.
Et Hangzhou n'est pas la seule ville à jouer avec ces robots puisque Chengdu a déployé 5 robots policiers sur la place Tianfu, Mianyang utilise des chiens robots pour patrouiller dans les quartiers d'affaires, et Shenzhen teste des robots humanoïdes d'Engine AI qui serrent la main aux passants. Le gouvernement chinois veut clairement multiplier ce genre de déploiements.
Perso, je trouve ça plus mignon (et apparemment plus efficace) qu'un policier municipal même s'il ne faut pas oublier que ce robot vous filme, vous identifie, enregistre la moindre de vos infractions et les balance à la vraie police...
Ce monde commence sérieusement à ressembler à un épisode de Black Mirror.
Vous connaissez ce rêve de dev qui consiste à tout plaquer pour faire LE jeu qu'on a toujours voulu faire ? Yoshinama, un YouTuber japonais avec plus d'un million d'abonnés, l'a fait et pas qu'un peu puisqu'il a sorti 25 millions de yens de sa poche, soit environ 160 000 dollars, pour créer Mamon King.
Et si je vous en parle c'est parce que son histoire est folle. En effet, le gars ne s'attendait à rien. Yoshinama a dit texto : "Les gens doivent penser que je suis bizarre, mais je me suis dit 'Je veux faire un jeu. Je n'ai pas besoin de faire de profit.' Honnêtement, je pense que faire du profit avec ce projet serait extrêmement difficile. Je n'ai aucun historique dans le développement de jeux et aucune crédibilité dans le domaine, je suis juste un streamer. Malgré tout, je voulais désespérément faire un jeu."
Et devinez quoi ?
Mamon King a dépassé les 60 000 copies vendues (toutes plateformes confondues) en seulement 9 jours après sa sortie le 10 décembre ! Le jeu a même atteint la première place du classement Steam au Japon et la deuxième place des téléchargements sur le My Nintendo Store japonais.
Yu Totsuka, le directeur du jeu chez LiTMUS (le studio qui a co-développé le projet avec Yoshinama), était lui-même scotché : "Je me disais qu'on pouvait viser de manière réaliste 30 000 copies en un an, mais 10 000 en une semaine, c'était déjà un objectif très ambitieux. J'étais abasourdi quand j'ai appris qu'on en avait vendu 60 000 en une semaine."
Quelle belle success story, n'empêche !
Alors c'est quoi exactement Mamon King ? Hé bien c'est un simulateur d'élevage de monstres inspiré de Monster Rancher. Vous invoquez des Mamons (les monstres du jeu), vous les entraînez, vous les faites combattre dans des tournois, vous partez en expéditions pour les renforcer. Y'a 38 créatures différentes avec plus de 170 compétences qui peuvent évoluer et les combats sont en 1v1 avec un système de commandes tactiques basé sur des points de compétence.
Le jeu est dispo sur Steam et Nintendo Switch à un peu plus de 8 euros en promo actuellement, et les avis sont excellents. Donc si vous êtes fans de Monster Rancher ou de jeux d'élevage de créatures, ça vaut peut-être le coup !
Et pour la suite, Yoshinama a annoncé que tous les revenus qu'il touchera sur les ventes seront réinvestis dans un prochain jeu encore meilleur. Une version physique pour Nintendo Switch est aussi annoncée mais sans date pour le moment.
Vous passez vos journées à faire des aws iam list-users | jq '.Users[]' et autres trucs interminables pour juste trouver une info ?? Laissez tomber, j'ai le truc qui va vous changer la vie !
Ça s'appelle Sisu et c'est un petit outil en Go qui monte vos ressources AWS comme un système de fichiers local. Du coup, au lieu de taper des commandes AWS complexes, vous utilisez juste grep, cat, diff, vim... c'est à dire les outils Unix que vous connaissez déjà par cœur.
Vous lancez la commande sisu et hop, vos ressources AWS se retrouvent montées dans ~/.sisu/mnt/ ! Vos buckets S3, vos paramètres SSM, vos roles IAM, vos lambdas, vos instances EC2...etc. Tout ça organisé en dossiers par profil AWS et par région.
Ainsi, pour chercher tous vos utilisateurs IAM qui ont un accès admin, c'est aussi simple que :
grep -l "AdministratorAccess" */global/iam/users/*/policies.json
Pour comparer la config d'un rôle entre prod et staging :
diff prod/global/iam/roles/api/info.json staging/global/iam/roles/api/info.json
Et pour lire un secret ? Un simple cat default/us-east-1/secrets/myapp/database/value.
C'est bête comme Jordan mais ça change tout pour la maintenance au quotidien !
Et côté services supportés, Sisu gère pas mal de trucs tels que le S3 et SSM Parameter Store en lecture/écriture/suppression, et IAM, VPC, Lambda, EC2, Secrets Manager, Route 53 et CloudWatch Logs en lecture seule. Y'a même un truc sympa pour EC2 c'est que vous pouvez vous connecter à une instance via SSM Session Manager sans avoir besoin de clés SSH. Suffit d'exécuter le fichier connect qui se trouve dans le dossier de l'instance (à condition d'avoir l'agent SSM configuré sur l'instance et le plugin Session Manager côté client, évidemment).
Pour les logs CloudWatch, c'est bien aussi puisqu'ils sont streamés à la demande par batches de 100, donc vous pouvez faire un grep dessus sans tout charger en mémoire d'un coup.
Côté installation, c'est du Go classique :
go install github.com/semonte/sisu@latest
Faudra juste penser à installer FUSE avant sur votre système (apt install fuse sous Ubuntu/Debian, yum install fuse sous RHEL/CentOS) et c'est tout, y'a rien d'autre à configurer si vous avez déjà vos credentials AWS en place.
Après, l'outil cache les résultats pendant 5 minutes pour éviter de spammer l'API AWS à chaque ls, ce qui est plutôt indispensable pour limiter les appels et le temps de réponse.
Bref, si vous en avez marre de jongler avec jq pour parser du JSON AWS, Sisu va vous aider ! C'est open source sous licence MIT, et c'est par ici !
Vous vous souvenez du jeu Snake qu'on avait sur les vieux Nokia ?? Ça nous faisait perdre des heures à bouffer des pixels en évitant de se mordre la queue et moi perso, y'a rien qui m'énervait plus.
Et bien un développeur indé du nom de Dietzribi a décidé de le réinventer totalement façon trip sous acide dans un univers non-euclidien, et le résultat est complètement barré, vous allez voir !
Deep Snake c'est donc un Snake, mais en 3D avec des visuels néon psychédéliques qui pulsent au rythme de votre progression. Vous mangez des pommes, votre serpent grandit, et vous devez éviter les obstacles. Jusque là, c'est du classique sauf que, vous pouvez aller toujours plus profond dans le vide, littéralement, puisque l'espace se tord, se replie sur lui-même, et plus vous avancez, plus ça devient trippy.
Ce jeu a été créé en 48 heures lors de la GMTK Game Jam 2024 et le dev a tout fait tout seul, ce qui visiblement lui a plutôt bien réussi puisque le jeu cartonne sur Steam avec 96% d'avis positifs et une place dans le top 3 des tendances.
Côté gameplay, on est sur du mouvement fluide (pas de grille à l'ancienne), des arènes dynamiques avec des dangers qui pulsent et des palettes de couleurs qui changent en permanence, et même un système de bonus risque/récompense qui donne des capacités temporaires. Y'a aussi des leaderboards quotidiens et all-time pour les acharnés du high score, plus des achievements Steam et de la sauvegarde dans le cloud.
Le jeu tourne sur à peu près n'importe quoi (Intel HD 4000, 4 Go de RAM, 100 Mo de stockage), y'a même une version en ligne , supporte 13 langues dont le français, et surtout... il est totalement gratuit. Ça va faire plaisir aux radins !
Voilà, si vous êtes chaud pour vous faire un petit trip visuel entre deux trucs sérieux, Deep Snake est clairement fait pour vous les amis. Les sessions sont courtes, la vitesse augmente progressivement, et quand vous vous plantez c'est immédiat donc vous pouvez ressayer directement.
Et merci à Lorenper pour avoir déniché cette pépite !
A l'heure où les voitures autonomes font encore flipper tout le monde, un avion vient de se poser tout seul samedi dernier près de Denver suite à une urgence en plein vol.
C'était le 20 décembre dernier, vers 13h43 heure locale. Un Beechcraft King Air 200 décolle d'Aspen pour rejoindre l'aéroport Rocky Mountain Metropolitan à Broomfield dans le Colorado. Une vingtaine de minutes après le décollage, alors que l'avion monte vers 23 000 pieds d'altitude, la cabine perd sa pressurisation. L'équipage enfile alors directement les masques à oxygène.
Et c'est là que le système Garmin Autoland entre en action car face à cette situation d'urgence et à l'absence de réaction du pilote, le système s'est activé. L'avion a alos entamé sa descente et a déclenché le code d'urgence 7700 sur son transpondeur. Mais comme personne n'a repris les commandes, le système a enchaîné sur la séquence d'atterrissage automatique.
La tour de contrôle de Rocky Mountain Metropolitan a alors reçu un message d'une voix féminine robotisée annonçant une incapacité du pilote et l'intention d'atterrir. Les contrôleurs ont dégagé le trafic et sécurisé l'aéroport pour accueillir l'avion qui s'est posé en toute autonomie à 14h19.
D'après Chris Townsley de Buffalo River Aviation, l'équipage a préféré laisser le système gérer tout seul par précaution. C'est beau la confiance en la technologie ! Et la bonne nouvelle c'est que personne n'a été blessé.
Si je vous en parle c'est parce que c'est la première fois que ce système Autoland développé par Garmin, est utilisé dans une vraie urgence depuis sa certification en 2020. Quand il s'active, le système choisit l'aéroport le plus adapté en fonction de plusieurs critères comme la distance, la longueur de piste, le carburant restant ou encore la météo, et gère tout de A à Z... la navigation, les communications avec la tour, la descente, l'approche, l'atterrissage et le freinage. Selon les modèles d'avion, il peut aussi couper les moteurs une fois l'appareil arrêté.
A l'époque, Garmin avait reçu le prestigieux Robert J. Collier Trophy 2020 pour cette technologie, récompensant la plus grande avancée dans l'aéronautique américaine et à ce jour, ce sont plus d'un millier d'avions en service qui sont équipés de ce système, notamment des Cirrus Vision Jet, des Piper M600 ou des King Air 200.
Reste à savoir ce qui a provoqué la dépressurisation, mais y'aura forcément une enquête.
Voilà, c'est quand même fou de se dire qu'un avion peut gérer une urgence tout seul mieux qu'une Tesla qui galère encore avec les ronds-points ^^.
Vous avez vu passer le trailer de The Odyssey ? Parce que moi oui, et depuis je suis dans un état proche d'un gamer qui viendrait d'apprendre la sortie de Half-Life 3 ^^.
Christopher Nolan, dont j'aime beaucoup les films comme tous les mecs de baaaase, s'attaque donc à l'Odyssée d'Homère. Pas Simpson, hein, mais ce bon vieux texte grec qui raconte le retour galère d'Ulysse après la guerre de Troie.
Et quand je dis galère, je pense que c'est le bon mot, parce que le bonhomme met quand même 10 ans à rentrer chez lui, entre cyclopes, sirènes et tempêtes de dingue. Certes, sur toute une vie, c'est moins que ce que vous faites quand vous habitez région parisienne et que vous allez bosser sur Paris, mais quand même... Et comme c'est Nolan aux commandes, je sais déjà que ça va être autre chose qu'un péplum avec des mecs en jupette qui font semblant de se battre.
Au casting, nous avons donc Matt Damon qui joue Ulysse (enfin Odysseus pour les puristes), et qui je trouve, a vraiment la gueule de l'emploi du guerrier fatigué qui veut juste rentrer retrouver sa femme. On a aussi Tom Holland qui incarne Télémaque, son fiston qui l'attend à Ithaque, et Anne Hathaway qui joue le rôle de Pénélope, celle qui repousse les prétendants depuis une décennie pendant que son mari fait du tourisme forcé en Méditerranée.
Mais attendez, la liste continue puisque Zendaya joue Athéna, la déesse qui guide Ulysse à travers tous ses péripins, Charlize Theron c'est Circé, la magicienne qui transforme les hommes en cochons, Robert Pattinson incarne Antinous, l'un des prétendants qui veut lui piquer Pénélope...etc. Bref, que du beau monde !
Maintenant si vous aimez les détails techniques, sachez qu'il s'agit du tout premier long-métrage entièrement tourné avec des caméras IMAX 70mm. Nolan utilisait déjà pas mal l'IMAX depuis The Dark Knight en 2008, mais là c'est 100% du film qui est tourné avec cette technologie et son budget est estimé à 250 millions de dollars ce qui en fait donc le film le plus cher de sa carrière.
Et pour réussir ce tour de force, IMAX a sorti une toute nouvelle caméra baptisée "Keighley" en hommage à David Keighley, leur ancien directeur qualité décédé en août dernier juste après avoir visionné les rushes du film. Tout l'intérêt de cette caméra, c'est qu'est plus petite et surtout beaucoup moins bruyante que les anciennes. Les vieilles caméras faisaient tellement de bruit qu'il fallait switcher de format pour les scènes de dialogue, ce qui explique pourquoi Nolan n'avait jamais pu tourner entièrement en IMAX auparavant.
Le tournage de l'Odyssée a duré 91 jours, de fin février à début août, à travers le Maroc, la Grèce, l'Italie, l'Islande et l'Ecosse et ce sont environ 610 km de pellicule 70mm qui ont été utilisés... Impressionnant non ?
D'ailleurs, si vous êtes allés voir Sinners ou One Battle After Another en IMAX récemment, vous avez peut-être eu droit au prologue de 6 minutes de The Odyssey dans lequel on voit Ulysse et ses guerriers grecs à l'intérieur du fameux cheval de bois, juste avant l'assaut sur Troie. La chance !
La sortie de ce film est prévue pour le 15 juillet 2026 en France et j'ai déjà envie de camper devant le ciné. Nolan + Homère + 610 kilomètres de pellicule, ça sent le truc dont on parlera encore dans 20 ans ! (ou pas)