Autoblog de korben.info

Ce site n'est pas le site officiel de korben.info
C'est un blog automatisé qui réplique les articles de korben.info

Recalbox 10 débarque avec le support du Raspberry Pi 5 et du Steam Deck

Wed, 18 Feb 2026 11:01:18 +0100 - (source)
– Article invité, rédigé par Vincent Lautier

Recalbox vient de publier la version 10 de sa distribution open-source française dédiée au rétrogaming. Au programme, le support du Raspberry Pi 5 et du Pi 500, l'arrivée sur Steam Deck en version LCD et OLED, de nouvelles émulations dont la Xbox originale et la GameCube, une interface entièrement revue, et du matériel dédié pour les fans de CRT et de bornes d'arcade. Que du bon.

Du Raspberry Pi 5 au Steam Deck

La version 10 de Recalbox élargit donc son catalogue de matériel compatible, et pas qu'un peu. Le Raspberry Pi 5 est désormais pris en charge, y compris dans sa version 2 Go de RAM, tout comme le Raspberry Pi 500. Mais surtout, la distribution débarque sur les consoles portables PC. Le Steam Deck, en version LCD comme OLED, profite d'une intégration qui gère la luminosité et le mode veille directement depuis l'interface. La très bonne Asus ROG Ally et le Lenovo Legion Go débarquent aussi, même si le support reste expérimental pour le moment. On passe quand même d'un projet pensé pour Raspberry Pi à une distribution qui tourne sur une tonne de machines différentes.

Une interface repensée

Côté émulation, la version 10 ajoute la Xbox originale exclusivement sur PC et Steam Deck (sous réserve de puissance suffisante). Sur Raspberry Pi 5, ce sont la GameCube, la Wii, la Nintendo DS et le Sega Model 3 qui font leur entrée. Si ces systèmes tournent de manière fluide dans la majorité des cas (environ 80 %), on atteint ici les limites matérielles du Pi 5 : certains titres très gourmands pourront donc montrer quelques signes de ralentissement.

Du matériel pour les fans de rétro

Pour ceux qui veulent aller plus loin que le logiciel, Recalbox continue de proposer du matériel dédié de qualité. Le RGB DUAL 2 et le RGB JAMMA 2 permettent de brancher des écrans CRT et des bornes d'arcade avec une gestion dynamique des résolutions. Le projet pousse le concept encore plus loin avec le Recalbox Card Reader et ses RecalCards, des cartouches physiques qui lancent un jeu quand on les insère, à l'ancienne. Et si vous cherchez du clé en main, la boutique propose des kits RecalTower préinstallés avec Raspberry Pi 5, et ça on aime.

J'ai toujours un Raspberry Pi avec Recalbox chez moi, et tout ceci me donne bien sûr très envie de tout mettre à jour !

Article invité publié par Vincent Lautier .
Vous pouvez aussi me lire sur mon blog , sur Mac4ever , ou lire tous les tests que je publie ici, comme cette Webcam 4K , ou ce dock Thunderbolt 5 .


Quand votre télécommande était une manette - L'époque oubliée des jeux sur DVD

Wed, 18 Feb 2026 10:45:48 +0100 - (source)

Si vous avez grandi dans les années 90 ou 2000 , il y a de fortes chances que vous ayez connu cette époque un peu étrange où le DVD tentait de devenir le centre de divertissement ultime. On achetait nos films en boite, on les collectionnait fièrement sur nos étagères, et on passait parfois pas mal de temps à naviguer dans des menus (souvent en 4/3) avec notre télécommande.

Mais est-ce que vous vous souvenez de ces fameux "jeux" planqués dans les bonus ?

C'était un truc de fou quand on y repense. Certains éditeurs voulaient absolument exploiter le côté "Digital Versatile Disc" et nous pondaient des mini-jeux interactifs. C'était un peu l'équivalent informatique du bouclier de Captain America, ça protégeait l'intérêt du disque en rajoutant une couche de fun (ou de frustration, c'est selon). Un peu comme ces émissions télé des années 80/90 qui nous faisaient rêver de futur interactif.

Dans cette vidéo géniale de la chaîne memoria.exe , on suit une exploration de ces pépites dénichées chez Goodwill. Le concept est de tester des jeux sur des DVD de films que l'on n'a même pas vus, juste pour l'expérience "gaming". Et le moins qu'on puisse dire, c'est que c'est souvent techniquement pété.

Vous utilisiez les flèches de votre télécommande de salon pour déplacer un curseur ou faire des choix. C'était poussif, avec une latence perceptible due aux limites de l' authoring DVD et aux accès mécaniques du lecteur (le fameux bruit de moulin à café au moindre clic), mais on s'en foutait, c'était "interactif" !

On y découvre des trucs lunaires comme le "sentient minecart" dans Voyage au Centre de la Terre (un jeu de rythme pété à la télécommande), ou encore un portrait surréaliste du jeune Josh Hutcherson (alors âgé de 12 ans) qui semble être une vidéo sponsorisée par Billabong avant l'heure. Entre les jeux de cuisine de Kronk dans Kuzco, les trivia impossibles de Ecole paternelle et les mini-jeux de Shrek ou Nos voisins, les hommes, y'avait de quoi faire.

Perso, ça me fait penser aux expériences interactives que Netflix a tenté de populariser récemment avec des titres comme Bandersnatch (même si ce dernier a fini par quitter le catalogue en 2025). Sauf qu'à l'époque, si vous vous plantiez, fallait parfois se retaper un loooong chargement bruyant. C'est raté comme votre dernière coupe de cheveux, mais ça avait un charme fou.

C'était surtout une période d'expérimentation où certains espéraient que le DVD puisse même concurrencer les consoles de jeu familiales mais bon, l'histoire a montré que jouer à la télécommande, c'était quand même une idée de merde, même si ça reste l'une de ces madeleines de notre jeunesse.

Bref, si vous voulez vous payer une bonne tranche de nostalgie et voir à quel point on était patients à l'époque, allez jeter un œil à cette exploration. Ça envoie du bois et ça rappelle des souvenirs de soirées pluvieuses à essayer de finir un mini-jeu de labyrinthe ou de "mix master" sur nos premiers disques. On insère le DVD et on croise les doigts pour que ça ne plante pas !

Aux chiottes les jeux triple A en 4K ray-tracing, et vive le gaming qui lague en 480p !


Test de la Webcam FineCam Pro 4K de chez UGREEN

Tue, 17 Feb 2026 13:59:36 +0100 - (source)

– Article invité, rédigé par Vincent Lautier , contient des liens affiliés Amazon –

UGREEN nous a envoyé en test sa WebCam haut de gamme FineCam Pro 4K , une webcam équipée d'un capteur CMOS 1/2 pouce de 8 mégapixels, bien plus grand que ce qu'on trouve habituellement à ce prix. Avec un autofocus PDAF, des contrôles gestuels et un tarif correct, c’est un produit franchement sympa pour ceux qui veulent améliorer leur image en visio sans se ruiner.

Un vrai bon capteur

C'est le gros argument de cette FineCam Pro 4K : son capteur CMOS de 1/2 pouce, capable de capturer 8 mégapixels. Pour une webcam, c'est franchement pas mal. Là où la plupart des modèles se contentent de capteurs minuscules qui galèrent dès que la lumière baisse, celui-ci capte bien plus de lumière et produit une image nettement plus propre, même dans un bureau mal éclairé. En 4K à 30 images par seconde, le niveau de détail est très bon, et le mode 1080p à 60 fps assure une fluidité confortable pour les visios où vous bougez beaucoup, même si ça reste assez gadget de passer à une telle vitesse.

Autofocus, gestes et double micro

Pour ce qui est de la mise au point, la marque a intégré un système qui ajuste la netteté automatiquement en temps réel, que vous soyez à 10 centimètres de la caméra, ou à 5 mètres. Vous bougez la tête, vous vous levez pour montrer un truc, la caméra suit la mise au point sans problème. Pour aller plus loin il y a des contrôles gestuels pour activer le zoom ou le recentrage, sans installer quoi que ce soit, tout est intégré dans la caméra. Vous avez aussi deux micros avec réduction de bruit active pour isoler votre voix du bordel ambiant autour de vous, ça fonctionne très bien. Un petit bouton permet aussi de choisir des filtres de couleur directement au niveau de la caméra, donc sans installer de logiciel là aussi, c'est rigolo.

(Beau gosse)

Bien équipée, bien placée

La webcam dispose d'un cache de confidentialité physique, et c'est un vrai bon point si vous êtes un peu parano. Elle est livrée avec un support magnétique et un adaptateur USB, et elle fonctionne sous Windows, macOS et Linux sans installer quoi que ce soit. Côté prix, elle est affichée aux alentours de 120 euros, mais une promo la fait passer sous la barre des 100 euros en ce moment. Il y a un autre accessoire qui est livré avec et qui change tout pour moi, c’est le petit trépied qui permet de poser, si on le souhaite, la Webcam sur le bureau, plutôt que sur l’écran. Parce que oui, moi je ne peux pas mettre de Webcam sur mon écran, parce que j’ai déjà une barre lumineuse de chez BenQ ( que j’ai testée ici ).

Bref, cette FineCam Pro 4K a pas mal d'atouts. Le capteur 1/2 pouce est clairement top, surtout dans cette gamme de prix, et ça se voit à l'usage. Les contrôles gestuels sont un plus sympa (même si on ne s'en sert pas tous les jours), et le bundle d'accessoires est nickel. Pour 120 euros, on est sur un bon rapport qualité-prix pour les visioconférences et le streaming. C’est un super choix pour qui veut passer un cran au-dessus de la webcam intégrée dégueulasse de son Mac ou de son PC portable. En tout cas moi je valide.

Notez qu’en ce moment elle est même à moins de 100 euros, il vous suffit de cocher un coupon sur Amazon au moment de la commander ! Dispo ici .

Article invité publié par Vincent Lautier .
Vous pouvez aussi me lire sur mon blog , sur Mac4ever , ou lire tous les tests que je publie ici, comme ce dock Thunderbolt 5 ou ce chargeur Anker Prime 250W .


Vous avez déjà remarqué comment le volume varie d'une vidéo à l'autre sur YouTube, ou pire, comment certaines pubs sont 10 fois plus fortes que le contenu ? Bah c'est parce que tout le monde n'utilise pas la même norme de volume. Et si vous produisez du contenu audio/vidéo, c'est le genre de détail qui fait la différence entre un truc amateur et un rendu pro.

La bonne nouvelle, c'est que FFmpeg intègre déjà un filtre qui s'appelle loudnorm et qui gère tout ça automatiquement. La norme utilisée, c'est le LUFS (Loudness Units Full Scale), qui est devenue le standard de l'industrie, et YouTube, Spotify, les TV... tout le monde utilise ça maintenant pour mesurer et normaliser le volume audio.

D'ailleurs, si vous débutez complètement avec cet outil, je vous conseille de jeter un œil à mon guide FFmpeg pour les nuls pour bien piger les bases de la ligne de commande.

Allez, c'est partiii ! Temps estimé : 2-5 minutes par fichier (selon la méthode choisie)

Mais, avant de se lancer dans les commandes, un petit point sur les paramètres qu'on va manipuler. Le filtre loudnorm utilise trois valeurs principales. D'abord I (Integrated loudness), c'est le volume moyen global mesuré en LUFS. La valeur standard pour le streaming, c'est -16 LUFS pour YouTube et Spotify, ou -23 LUFS pour la diffusion broadcast. Ensuite TP (True Peak), le niveau maximal que le signal ne doit jamais dépasser. On met généralement -1.5 dB pour avoir une marge de sécurité. Et enfin LRA (Loudness Range), qui définit la plage dynamique autorisée, généralement autour de 11 dB.

Méthode 1 : Normalisation simple (single-pass)

C'est la méthode la plus rapide, parfaite pour du traitement à la volée :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 sortie.wav

Pourquoi ces valeurs : -16 LUFS c'est le standard YouTube/Spotify, -1.5 dB de true peak évite le clipping, et 11 dB de range dynamique garde un son naturel.

Le truc c'est que cette méthode fait une analyse en temps réel et ajuste à la volée. C'est bien, mais pas parfait. Pour un résultat vraiment précis, y'a mieux.

Méthode 2 : Normalisation en deux passes (dual-pass)

Cette méthode analyse d'abord le fichier complet, puis applique les corrections exactes. C'est plus long mais beaucoup plus précis.

Première passe, on analyse :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:print_format=json -f null -

FFmpeg va vous sortir un bloc JSON avec les mesures du fichier (input_i, input_tp, input_lra, input_thresh). Notez-les bien, car vous allez les injecter dans la deuxième passe.

Deuxième passe, on applique avec les valeurs mesurées (remplacez les chiffres par ceux obtenus à l'étape précédente) :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:measured_I=-24.35:measured_TP=-2.15:measured_LRA=8.54:measured_thresh=-35.21:offset=0:linear=true -ar 48000 sortie.wav

Pourquoi cette méthode ? En fait, en passant les valeurs mesurées, FFmpeg sait exactement de combien ajuster. L'option linear=true force une normalisation linéaire plutôt que dynamique, ce qui préserve mieux la dynamique originale.

Pour les fichiers vidéo

Le principe est le même, on ajoute juste -c:v copy pour garder la vidéo intacte sans la ré-encoder :

ffmpeg -i video.mp4 -c:v copy -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 video_normalise.mp4

D'ailleurs, pour ceux qui veulent automatiser ça à l'extrême, j'avais parlé de FFmpegfs , un système de fichiers qui transcode automatiquement ce que vous déposez dessus. C'est pratique si vous avez une grosse bibliothèque à gérer.

Traitement par lots avec ffmpeg-normalize

Si vous avez plein de fichiers à traiter, y'a un outil Python qui automatise la méthode dual-pass :

pip install ffmpeg-normalize
ffmpeg-normalize *.wav -o output_folder/ -c:a pcm_s16le

Cet outil fait automatiquement les deux passes et supporte le traitement parallèle. Pratique pour normaliser une bibliothèque entière.

Et en cas de problème ?

Erreur "No such filter: loudnorm" : Votre version de FFmpeg est trop ancienne (il faut la 3.1 minimum). Mettez à jour votre binaire.

Le son est distordu après normalisation : Le fichier source était probablement déjà saturé. Essayez de baisser le target (-18 LUFS au lieu de -16) ou augmentez le headroom du true peak (-2 dB au lieu de -1.5).

Voilà, maintenant vous n'avez plus d'excuse pour avoir des niveaux audio qui varient dans tous les sens. Le LUFS c'est le standard, FFmpeg gère ça nativement, et ça prend 30 secondes.

Vos auditeurs vous remercieront.

Source


– Article invité, rédigé par Vincent Lautier –

Le CNRS vient de confirmer un incident de cybersécurité qui a mené au téléchargement non autorisé de fichiers contenant des données personnelles d'anciens agents. Noms, adresses, numéros de sécurité sociale, RIB : la totale donc. L'organisme a déposé plainte et prévenu la CNIL.

Des données très sensibles

C'est ce lundi 16 février que le CNRS a informé ses agents d'une fuite de données sur un de ses serveurs. Des fichiers contenant des informations de ressources humaines ont été téléchargés sans autorisation. Et on ne parle pas de données anodines : noms, prénoms, dates de naissance, adresses postales, numéros de sécurité sociale et RIB. Le tout accompagné du statut de l'agent, du type de contrat et de la structure d'affectation. Le serveur a été isolé et arrêté dès la découverte de l'incident, et l'organisme assure que la fuite ne s'est pas propagée au reste de ses infrastructures.

Qui est concerné ?

Seuls les personnels recrutés avant le 1er janvier 2007 sont touchés, qu'ils aient été titulaires ou non. Si vous avez travaillé au CNRS après cette date, vous n'êtes pas concerné. Le nombre exact de victimes n'a pas été communiqué, mais vu la taille de l'organisme, on parle potentiellement de plusieurs milliers de personnes. Le CNRS recommande de prévenir sa banque, de surveiller ses comptes, de vérifier si ses données circulent sur haveibeenpwned.com, et de rester vigilant face aux tentatives de phishing ou d'usurpation d'identité. La CNIL et l'ANSSI ont été prévenues, et une plainte a été déposée auprès de la section cybercriminalité du parquet de Paris.

Les institutions françaises en ligne de mire

On n'est pas vraiment sur une première niveau cyberattaques sur des services de l'état. Le ministère de l'Intérieur, celui des Sports, et d'autres organismes avaient été visés. L'URSSAF a aussi confirmé une fuite touchant les données de 12 millions de salariés. Le CNRS lui-même avait été la cible d'un défacement de plusieurs de ses sous-domaines fin janvier. Deux incidents distincts, mais la tendance est claire, et c'est franchement moche.

On va quand même saluer le fait que le CNRS a communiqué rapidement, avec un communiqué officiel et une FAQ pour les personnes concernées. C'est loin d'être toujours le cas. Mais on va quand même se questionner sur le fait que des RIB et des numéros de sécu trainent sur un serveur, alors qu'on parle de données parfois veilles depuis presque 20 ans... Pourquoi ces informations étaient-elles encore accessibles ? La question du stockage prolongé de données sensibles revient sur la table, et visiblement, personne n'a encore de bonne réponse. En attendant, si vous avez porté la blouse du CNRS avant 2007, un petit tour sur votre relevé bancaire ne serait pas du luxe.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !


Vous trouvez que votre Linux met 3 plombes à démarrer et vous regardez l'écran de boot défiler en vous demandant ce qui peut bien prendre autant de temps ?

Hé bien bonne nouvelle los amigos del manchos, si vous utilisez une distribution basée sur systemd (comme Debian, Ubuntu, Fedora, Arch, et compagnie), il existe un outil natif déjà installé qui permet de diagnostiquer tout ça : systemd-analyze

Ce truc c'est un peu le médecin légiste de votre démarrage système. Il dissèque chaque étape, identifie les unités qui traînent la patte, et vous permet de comprendre où part votre précieux temps. Pour ceux qui débarquent, systemd est le système d'initialisation adopté par la plupart des distributions modernes, et il permet justement de lancer plein de trucs en parallèle pour gagner du temps.

Pour commencer, la commande de base c'est tout simplement :

systemd-analyze time

Elle vous sort un récapitulatif du temps passé dans chaque phase, généralement le kernel, l'initrd (le RAM disk initial), et l'espace utilisateur. Selon votre configuration, vous pourriez aussi voir passer le firmware ou le bootloader. Ça donne un truc du genre "Startup finished in 2.5s (kernel) + 19s (initrd) + 47s (userspace)". Déjà là, vous savez si le problème vient de votre noyau ou de vos services.

Mais le truc vraiment cool pour fouiller un peu plus dans le détail, c'est :

systemd-analyze blame

Cette commande vous balance la liste des unités systemd, triées par le temps qu'elles ont mis à s'initialiser. C'est un peu comme un classement des cancres de la Ve République. Vous voyez direct qui sont les boulets qui ralentissent tout le monde. Genre ce service réseau qui attend 20 secondes une connexion qui n'arrivera jamais, ou ce truc de logs qui prend son temps pour se réveiller.

Attention quand même, y'a un petit piège car un service qui met 10 secondes à démarrer ne signifie pas forcément que votre boot est rallongé de 10 secondes. Pourquoi me diriez-vous ? Hé bien parce que systemd lance plein de trucs en parallèle. Un service peut donc prendre son temps tranquille pendant que d'autres bossent en même temps sans bloquer personne.

Pour vraiment piger ce qui coince sur le chemin critique, lancez plutôt :

systemd-analyze critical-chain

Ça, c'est le top car ça vous montre la chaîne critique, c'est-à-dire la séquence exacte d'événements qui détermine vraiment votre temps de démarrage final. Vous voyez exactement quelles unités sont sur le chemin et lesquelles attendent les autres. Le temps après le "@" indique quand l'unité est devenue active, et le temps après le "+" montre combien de temps elle a pris pour démarrer. C'est bien plus fiable que blame pour identifier les vrais goulots d'étranglement.

Et si vous êtes du genre visuel, y'a même :

systemd-analyze plot > boot.svg

Et avec ça, hop, ça génèrera un magnifique graphique SVG qui représentera la chronologie de votre séquence de boot. Vous pourrez ensuite l'ouvrir dans votre navigateur et voir en un coup d'oeil ce qui démarre quand et combien de temps ça dure. C'est super pratique pour épater la galerie ou juste visualiser l'ordre de lancement.

Maintenant, une fois que vous avez identifié les coupables, comment on fait pour accélérer tout ça ?

Déjà, vous pouvez désactiver les services dont vous n'avez pas besoin avec :

sudo systemctl disable nom-du-service

Gardez en tête que disable supprime seulement le lancement automatique au boot, mais n'empêche pas une activation indirecte via une dépendance ou un socket. Si vous voulez vraiment qu'un service ne démarre plus jamais, utilisez mask. Et surtout, ne désactivez pas n'importe quoi comme un bourrin, hein ! Je vous connais ! Non, non, avant de toucher à un service, vérifiez d'abord ce qui en dépend :

systemctl list-dependencies nom-du-service

Car si vous cassez un truc important, votre système risque de ne plus démarrer correctement. Donc si vous n'êtes pas sûr, gardez vos mimines dans vos poches. D'ailleurs, si vous bidouillez vos fichiers d'unité (comme pour automatiser Shiori par exemple), sachez que vous pouvez aussi les vérifier pour débusquer les erreurs avec :

systemd-analyze verify /chemin/vers/unite.service

C'est super pratique pour éviter les mauvaises surprises au prochain redémarrage. Voilà et si vous cherchez d'autres astuces pour optimiser votre machine Linux , n'hésitez pas à jeter un oeil à mon article sur TLP.

Ah j'oubliais, y'a aussi la commande systemd-analyze security qui permet d'analyser le niveau d'exposition sécurité de vos services. Elle attribue un score heuristique d'exposition basé sur les options de durcissement (hardening) actives. Plus le score est bas, mieux le service est protégé contre d'éventuelles failles. C'est donc un excellent point de départ pour identifier les services qui mériteraient un peu plus de love côté isolation.

Bref, cet analyseur de démarrage c'est vraiment l'outil indispensable pour qui veut comprendre et optimiser son boot Linux. C'est natif, c'est puissant, et ça vous évite de passer des heures à chercher pourquoi votre machine met autant de temps que vous à se réveiller le matin ^^.


Vous avez un serveur, un NAS, quelques services qui tournent chez vous ou au boulot, et vous vous demandez si tout ça est bien sécurisé ? Alors plutôt que d'attendre qu'un petit malin vous le fasse savoir de manière désagréable, autant prendre les devants avec un scanner de vulnérabilités.

Attention : si vous scannez le réseau de votre boulot, demandez toujours une autorisation écrite avant car scanner sans permission, c'est illégal et ça peut vous coûter cher. Et ne comptez pas sur moi pour vous apporter des oranges en prison.

OpenVAS (Open Vulnerability Assessment Scanner), c'est l'un des scanners open source les plus connus, maintenu par Greenbone. Une fois en place sur votre réseau, il scanne vos services exposés et vous balance un rapport avec ce qui craint : Ports ouverts, services mal configurés, failles connues, certificats expirés... De quoi repérer une bonne partie de ce qu'un attaquant pourrait exploiter.

L'interface principale d'OpenVAS

Ce qui est cool, c'est que vous restez en mode défensif. C'est pas un outil de pentest offensif ou de hacking pur et dur mais juste un audit de votre propre infra pour savoir où vous en êtes. Et ça tourne avec un feed de vulnérabilités (le Greenbone Community Feed) qui est régulièrement mis à jour, ce qui permet de détecter les failles récentes.

Pour l'installer, une des méthodes c'est de passer par Docker. Greenbone fournit une stack complète avec docker-compose. Après vous cherchez plutôt à analyser spécifiquement vos images de conteneurs, Grype pourrait aussi vous intéresser .

Pour OpenVAS, vous créez un répertoire, vous téléchargez leur fichier de config (jetez toujours un œil dedans avant de l'exécuter, c'est une bonne pratique), et hop :

mkdir -p ~/greenbone-community-container
cd ~/greenbone-community-container
curl -f -O -L https://greenbone.github.io/docs/latest/_static/docker-compose.yml
docker compose pull
docker compose up -d

L'assistant de configuration initiale

Après ça, vous accédez à l'interface web via http://localhost:9392.

Et pour le login, attention, car sur les versions récentes du conteneur communautaire, le mot de passe admin est généré aléatoirement au premier démarrage. Il faut donc aller voir les logs pour le récupérer (docker compose logs -f). Si ça ne marche pas, tentez le classique admin/admin, mais changez-le direct.

La première synchro des feeds peut prendre un moment, le temps que la base de vulnérabilités se télécharge. Vous avez le temps d'aller vous faire un café, c'est pas instantané.

Niveau config machine, la documentation recommande au moins 2 CPU et 4 Go de RAM pour que ça tourne, mais pour scanner un réseau un peu costaud, doublez ça (4 CPU / 8 Go) pour être à l'aise. Et une fois connecté, direction la section scans pour créer une cible avec votre IP ou plage d'adresses. Ensuite vous pouvez lancer un scan avec le profil de votre choix :

Le mode "Discovery" se contente de lister les services et ports ouverts tandis que le mode "Full and Fast" lance une batterie complète de tests de vulnérabilités. Il est conçu pour être "safe" (ne pas planter les services), mais le risque zéro n'existe pas en réseau donc évitez de scanner votre prod en pleine journée sans prévenir.

Les résultats arrivent sous forme de rapport avec un score de criticité comme ça vous avez le détail de ce qui pose problème et souvent des pistes pour corriger. Genre si vous avez un service SSH avec une config un peu lâche ou un serveur web trop bavard, le rapport vous le dira.

Par contre, c'est vrai que l'interface est assez austère comparée à des solutions commerciales comme Nessus mais c'est gratuit, c'est open source, et ça fait le taf pour un audit interne. La version Community a quand même quelques limitations (feed communautaire vs feed entreprise, support, etc.), mais pour surveiller son infra perso ou sa PME, c'est déjà très puissant.

Du coup, si vous voulez savoir ce qui traîne sur votre réseau avant que quelqu'un d'autre le découvre, OpenVAS est un excellent point de départ. Et c'est toujours mieux de découvrir ses failles soi-même que de les lire dans un mail de rançon... enfin, je pense ^^.

A découvrir ici !


J'sais pas si parmi vous, y'en a qui ont déjà pris des cours de dactylographie genre à l'école où vous deviez taper "asdf jkl;" durant des heures en regardant un écran tristounet mais j'imagine que c'était chiant à mourir ! Hé bien quelqu'un a eu l'idée de transformer ça en jeu de course arcade façon Outrun sous stéroïdes !

TypeToRace, c'est un jeu de course 3D gratuit qui tourne directement dans votre navigateur et où votre vitesse dépend de votre capacité à taper des mots rapidement. Plus vous tapez vite, plus votre voiture accélère et vous vous retrouvez donc à foncer sur une route synthwave avec des néons roses et bleus partout pendant que vous tentez de taper "algorithm" sans faire de faute (oui c'est en anglais).

Le concept mélange TypeRacer (le classique des tests de frappe) avec un gameplay à la Subway Surfers. Et y'a pas juste la vitesse qui compte, puisqu'il faut aussi esquiver des obstacles et gérer des power-ups pour attaquer vos adversaires. Du coup, ça devient un vrai jeu vidéo et pas juste un test de dactylographie déguisé.

Ambiance Tron pour apprendre à taper vite ( Source )

L'esthétique synthwave avec ses couleurs néon et son ambiance rétro-futuriste des années 80 est plutôt cool. En tout cas, moi j'adore et ça change des interfaces austères des outils de typing classiques où on a l'impression d'être revenu en 1995 devant un terminal DOS. D'ailleurs, si vous cherchez d'autres moyens ludiques de vous améliorer, Wordsmash façon Tetris est aussi une excellente option pour bosser sa mémoire musculaire.

Notre jeu du jour vous met face à des adversaires contrôlés par l'IA et vous pouvez grimper dans les classements au fur et à mesure que vous progressez. C'est gratuit, ça ne nécessite aucun téléchargement, vous ouvrez juste le site et c'est parti mon kiki.

Bon après, on va pas se mentir, ce genre de jeu c'est surtout fun les 15 premières minutes avant que ça devienne un peu répétitif. Mais pour s'entraîner à taper plus vite tout en ayant l'impression de jouer plutôt que de bosser, y'a pire. Et puis si vous avez des gamins qui galèrent sur le clavier, ça peut être un bon moyen de les motiver sans les traumatiser avec des exercices barbants.

Puis si vous êtes du genre compétiteur, vous pouvez aussi aller voir du côté de TypeRacer pour vous mesurer à de vrais humains . Mais pour le fun immédiat et l'ambiance visuelle, TypeToRace fait le job.

Voilà, si vous voulez tester votre vitesse de frappe tout en vous prenant pour un pilote de course dans un univers à la Blade Runner, c'est par ici que ça se passe... Et pitié ne pliez pas en deux votre clavier de rage si vous perdez !


Je suis complètement passé à côté de ce truc jusqu'à ce que David (merci à lui !) m'envoie un petit message pour me dire : "Hé Korben, t'as vu Anytype ? C'est comme Notion mais en mieux". Du coup, j'ai testé et j'ai vraiment halluciné.

Si vous êtes du genre à noter tout ce qui vous passe par la tête dans Notion ou Evernote, vous connaissez le problème. Vos données sont hébergées on ne sait où, et le jour où la boite décide de changer ses conditions d'utilisation ou de fermer boutique, vous êtes marron.

Hé bien Anytype, c'est la réponse à cette angoisse.

C'est une application local-first et chiffrée de bout en bout qui permet de créer votre propre "internet personnel". Petite nuance importante : Anytype n'est pas "open source" au sens strict de l'OSI. Leurs protocoles (notamment AnySync) sont bien open source sous licence MIT, mais les applications elles-mêmes sont distribuées sous une licence "source available" ( Any Source Available License 1.0 ). Concrètement, le code est consultable et modifiable, mais l'utilisation commerciale est restreinte. C'est pas du tout la même chose, et c'est important de ne pas confondre pour éviter l'openwashing. Cela dit, l'équipe est transparente là-dessus , ce qui est appréciable.

En gros, tout ce que vous créez (notes, tâches, documents, tableaux) est stocké localement sur votre machine. Pas de cloud obscur, pas de tracking, c'est votre disque dur, vos règles.

Leur point fort, c'est leur protocole AnySync car ça permet de synchroniser vos données entre vos appareils (ordi, téléphone, tablette) en peer-to-peer comme ça y'a pas besoin de serveur central. Vos appareils discutent directement entre eux, un peu comme si vous aviez votre propre réseau privé.

Au niveau de l'interface, on retrouve ce système de blocs qu'on aime bien chez la concurrence, mais avec une approche "objet". Dans AnyType comme chez Ikea, tout est un objet : une tâche, une personne, une note, un livre. Et vous pouvez lier tous ces objets entre eux pour créer un véritable graphe de connaissances tel un grand architecte de la matrice du dimanche).

Ce qui est cool aussi, c'est que l'équipe a déjà ajouté une fonction de publication web (vos pages peuvent devenir des pages publiques statiques) et propose une API côté desktop qui tourne en local. Elle travaille aussi sur l'intégration d'une IA locale . Parce que oui, avoir une IA qui vous aide à trier vos notes sans envoyer vos données à l'autre bout du monde, c'est quand même plus rassurant.

Si vous voulez aller encore plus loin, vous pouvez même héberger votre propre "noeud" de sauvegarde sur un serveur à la maison. D'ailleurs si vous aimez ce genre d'outils souverains, jetez un oeil à Local Deep Research pour vos recherches. Comme ça, vous avez une copie de secours chiffrée, accessible 24/7, sans dépendre de personne.

Bref, si vous cherchez une alternative souveraine pour gérer votre vie numé


Gobliiins, Gobliins 2, Goblins 3... si vous avez connu les point-and-click de Coktel Vision dans les années 90, vous allez kiffer !! Pourquoi ? Hé bien parce que Pierre Gilhodes, le créateur original, vient de lâcher GOBLiiNS6 sur itch.io pour une dizaine de dollars.

On y retrouve Fingus et Winkle, les deux héros de Gobliins 2, partis cette fois à la recherche du Prince Bouffon, fils du roi Angoulafre, dans un monde médiéval en guerre, avec de la magie, et des puzzles complètement tordus à résoudre.

Mais avant, un petit rappel pour les bébés qui me lisent. En fait dans la série des Goblins, le nombre de "i" dans le titre correspond au nombre de personnages jouables. Gobliiins = 3 persos. Gobliins 2 = 2 persos. Goblins 3 = 1 perso. Du coup GOBLiiNS6 avec ses 2 i, c'est donc encore un duo à coordonner intelligemment pour progresser (et oui, je sais compter ^^).

Et c'est pas un fan game ou un énième remake fait à l'arrache, puisque c'est Pierre Gilhodes lui-même qui est aux manettes. Le bonhomme avait déjà sorti GOBLiiiNS5 sur Steam en 2023 (avec 3 i, donc 3 personnages, z'avez capté ??). GOBLiiNS6 c'est donc finalement la suite directe.

Le jeu propose 16 niveaux en 2D au format 16/9, bourrés d'énigmes à résoudre. Chaque personnage gère son propre inventaire, pas de partage entre les deux (Vous allez tellement galérer à vous souvenir qui trimballe quoi ^^) et le système de jeu repose sur la coopération entre les deux compères, car chacun a des capacités différentes pour débloquer les situations.

Le piège et le côté fun de cette série de jeux, c'est donc justement de tester toutes les combinaisons possibles entre les personnages et les objets. Vous utilisez le mauvais perso au mauvais endroit ? Hop, animation comique et retour à la case départ. C'est voulu ! C'est absurde, c'est drôle, et c'est tout l'ADN de la franchise !

C'est un point-and-click qui va certainement vous rappeller l'époque où les jeux d'aventure français tenaient la dragée haute aux LucasArts et Sierra de l'époque. Coktel Vision, c'était quand même Woodruff, Lost in Time, Ween... etc. Quelle époque !!

GOBLiiNS6 est disponible en français et en anglais et vous pourrez le lancer au choix en plein écran ou fenêtré... car oui c'est du Windows pur !! Pas de Mac ni de console pour le moment. Voici une petite vidéo si vous voulez voir à quoi ça ressemble :

Le jeu est dispo ici sur itch.io pour une dizaine de dollars. Vous cliquez, vous payez, et c'est plié ! De quoi occuper vos soirées au lieu de scroller sur Mastodon ou Bsky à la recherche de votre prochain drama préféré.

Allez, bon puzzle à tous !

Source


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles