Un développeur a créé Galagino, un émulateur open source qui fait tourner Pac-Man, Galaga, Donkey Kong et trois autres classiques de l'arcade sur un simple microcontrôleur ESP32. Le projet est gratuit, le code est sur GitHub, et avec quelques composants et une imprimante 3D vous fabriquez votre propre mini borne pour presque rien.
Galagino est un projet open source développé par Till Harbaum. Le principe : émuler des jeux d'arcade des années 80 sur un ESP32, cette petite puce à double coeur cadencée à 240 MHz qui coûte une poignée d'euros. Et ça ne rigole pas côté catalogue, puisque six titres sont pris en charge : Galaga, Pac-Man, Donkey Kong, Frogger, Dig Dug et 1942.
L'émulation est complète, avec le son et la vidéo, le tout affiché sur un petit écran TFT de 320 x 240 pixels en 2 à 3 pouces. Pour les contrôles, cinq boutons poussoirs suffisent, ou un joystick si vous préférez. Le Galaga d'origine tournait sur trois processeurs Z80 plus deux puces dédiées aux entrées et au son. Ici, l'ESP32 gère tout seul, et les deux coeurs sont quand même bien sollicités.
Pour ceux qui ne veulent pas souder trop de composants, il existe une alternative bien pratique : le Cheap Yellow Display. C'est une carte ESP32 qui intègre l'écran tactile, un slot micro SD, la sortie audio et le module Wi-Fi dans un seul boîtier.
Il suffit d'y brancher une manette Nunchuk de Wii et un petit haut-parleur pour avoir une borne fonctionnelle. La communauté a aussi développé des boîtiers imprimés en 3D, et certains ont même recyclé des coques de mini bornes My Arcade du commerce pour y glisser la carte.
Tout le code, les fichiers 3D et les instructions de montage sont disponibles sur GitHub. Seul détail : les ROM des jeux ne sont pas incluses pour des raisons évidentes de licence, il faut les fournir vous-même.
Le dépôt GitHub compte 186 commits et une communauté active qui continue d'ajouter des jeux comme Frogger, Dig Dug et 1942, et des contributeurs travaillent sur d'autres titres. Davide Gatti, du collectif Survival Hacking, a même porté le projet sur Arduino et publié un tuto vidéo complet pour fabriquer sa borne de A à Z. Le résultat tient dans la paume de la main, avec en option un éclairage LED pour le fronton, histoire de faire comme les vraies.
C’est trop chouette, et c’est exactement le genre de projet qui donne envie de ressortir le fer à souder. Pour quelques euros de composants et un week-end de bricolage, vous repartez avec une borne d'arcade de poche qui fait tourner Pac-Man et Donkey Kong.
Difficile de faire plus chouette en termes de rapport effort/résultat. Et puis le fait que la communauté continue d'ajouter des jeux montre que le projet a de beaux restes devant lui. En tout cas, si vous cherchiez une excuse pour acheter un ESP32, la voilà.
Source : Hackster
Le canton de Bâle-Ville a suspendu son projet pilote de vote électronique après qu'une clé USB défectueuse a empêché le déchiffrement de 2 048 bulletins lors des votations fédérales du 8 mars. Une enquête pénale est ouverte.
Le soir du 7 mars, veille du scrutin, la chancellerie du canton de Bâle-Ville a annoncé un problème technique sur son système de vote électronique. Le lendemain, 2 048 votes restaient bloqués dans l'urne numérique.
Le porte-parole du canton, Marco Greiner, a expliqué que trois clés USB contenant les codes de déchiffrement avaient été utilisées, toutes avec le bon code, mais qu'aucune n'avait fonctionné. Les experts de La Poste suisse et la police de Bâle n'ont pas réussi à récupérer les données.
Le problème ne vient pas du système de La Poste, mais du service informatique cantonal. Les votes concernés sont ceux d'environ 10 300 Suisses de l'étranger et de 30 personnes en situation de handicap, qui sont les seuls autorisés à voter par voie électronique dans ce canton.
Quatre objets fédéraux étaient soumis au vote ce jour-là, dont l'initiative sur le maintien du cash et celle sur le fonds climat.
Bâle-Ville a suspendu le vote électronique jusqu'à fin décembre 2026 et commandé une analyse externe. Le ministère public a ouvert une procédure pénale pour suspicion de manipulation électorale, et l'unité "criminalité numérique" a trouvé des indices allant dans ce sens. Les résultats définitifs du canton ne seront confirmés que le 21 mars.
Les 2 048 bulletins perdus n'auraient pas changé l'issue des votations fédérales. Mais le précédent est gênant. En 2015, la loi sur la radio et la télévision avait été adoptée avec seulement 3 649 voix d'écart. En 2017, le financement complémentaire de l'AVS était passé à 2 361 voix près.
Avec des marges aussi serrées, 2 048 votes qui disparaissent, ça pose quand même un vrai problème. Les trois autres cantons pilotes (Thurgovie, Grisons et Saint-Gall) n'ont pas été touchés.
La Suisse avait déjà abandonné un premier système de vote électronique en 2019 après la découverte de failles de sécurité dans le code source. Et voilà que le deuxième essai trébuche sur une clé USB. Le politologue Michael Hermann résume bien la situation : cette panne fait reculer le vote électronique de plusieurs années.
On peut comprendre l'idée de dématérialiser le vote pour les Suisses de l'étranger, c'est même assez logique. Mais quand le maillon faible du système, c'est un bout de plastique avec une puce dedans, on se demande quand même si la bonne vieille enveloppe n'avait pas quelques avantages. Et oui, je sais que ce « 2048 » vous fait clairement tiquer comme chiffre, moi aussi, pas de doute, on est des vrais nerds.
Source : Swiss Info
En 2024, je me suis acheté un WalkingPad A1 Pro (lien affilié) et j'ai complétement oublié de vous en faire un petit retour ! Ce mot ne vous dit peut-être rien, mais c'est ce petit tapis de marche pliable qui se glisse sous votre bureau debout. 143 cm de long, 55 cm de large, 6 km/h max + une télécommande et une appli pour piloter le tout. L'engin pèse dans les 28 kg et se plie en deux pour se planquer sous mon bureau. Et comme maintenant j'ai un peu de recul, je peux vous dire qu'il y a quelques trucs à savoir avant de craquer.
Déjà, si vous faites plus de 100 kg (comme moi, oui je sais, beau bébé), attendez-vous à des petits à-coups au démarrage car c'est conçu pour supporter max 105 kg (quand je l'ai acheté sur la fiche produit c'était écrit 136 kg donc j'sais pas trop...).
En fait, le moteur et la bande ont besoin de chauffer 2-3 minutes avant de tourner rond. Rien de dramatique, mais les premiers pas c'est saccadé. Ensuite, une fois le rythme chopé, ça roule !
Après le piège classique, c'est de vouloir aller trop vite. Dès que vous dépassez 3 km/h, votre clavier mécanique commence à danser sur le plateau du bureau et là... bonne chance pour viser un pixel avec votre souris. Plus vous allez lentement, plus vous êtes précis avec la souris. Perso, je reste à 2-3 km/h max quand je bosse, parce que au-delà c'est ingérable. On n'est pas là pour un marathon !
Au début, c'est perturbant, j'avoue. Genre votre cerveau sait plus s'il doit lire l'écran ou gérer vos jambes. Ça dure quelques jours, pas plus et ensuite, vous n'y pensez même plus, ça devient naturel et du coup vous marchez sans y penser.
Et le truc cool, c'est que la procrastination baisse car quand vous êtes debout en mouvement, vous avez carrément moins envie de scroller Reddit pendant 45 minutes
Après côté entretien, y'a un truc que personne vous dit : la bande, ça se lubrifie !! Et ça part VITE donc achetez un spray au silicone lubrifiant (genre WD-40 Specialist Silicone, 5-6 EUR en magasin de bricolage) et remettez-en régulièrement, sinon ça couine comme un politique qu'on prend la main dans la caisse d'argent public. Et pensez à en remettre toutes les 2-3 semaines si vous marchez tous les jours.
Après, OUI J'AVOUE, je ne l'utilise pas tout le temps. Y'a des jours où j'ai besoin d'être posé OKLM dans mon siège ergonomique pour réfléchir, et d'autres où hop hop hop, je marche pendant 2-3h en enchaînant les emails et ma veille techno sur mon flux RSS.
En tout cas, si vous avez déjà un setup télétravail ergonomique , c'est un super complément. Même si c'est pas recommandé dans la documentation, pieds nus ça passe nickel, sauf si le sol vibre chez vous parce que vous avez acheté le parquet le moins cher de Leroy Merlin, mais bon, ça c'est un autre problème.
L'important en fait c'est de commencer votre séance à basse vitesse, genre 1,5-2 km/h. Et sachez que même à ce rythme là, vous brûlez entre 100 et 200 calories par heure et votre dos vous remercie. Combinez ça avec une bonne souris ergonomique et vous avez un poste de travail qui vous veut du bien.
Bref, ce WalkingPad fait très le taf (lien affilié). C'est pas parfait certes, mais ça fait bouger sans y penser !
Crawler un site entier, ça devrait pas être aussi compliqué. Et pourtant, entre les scripts maison qui cassent tous les 2 jours et les headless browsers qui bouffent de la RAM comme pas permis, c'est assez la galère ! Du coup, Cloudflare, dans sa grande bonté (lol) vient de sortir un endpoint /crawl (en open beta) dans la section Browser Rendering qui simplifie tout ça... vous balancez une URL dessus et hop, ça ASPIRE tout le site (oui oui).
En gros, vous envoyez une requête POST avec l'URL de départ, et le service se charge de découvrir les pages (via le sitemap, les liens internes, ou les deux), de les générer dans un navigateur headless, et de vous renvoyer le contenu en HTML, Markdown ou même en JSON structuré grâce à Workers AI. Le tout de manière asynchron ! Vous, vous récupérez juste un job ID et vous revenez plus tard chercher les résultats quand c'est prêt.
Avant toute chose, il vous faut un token API Cloudflare avec la permission "Browser Rendering - Edit". Rendez-vous dans votre dashboard Cloudflare, section API Tokens, et créez-en un nouveau. Notez aussi votre Account ID (visible dans l'URL du dashboard ou dans la section Overview de n'importe quel domaine).
Là, ensuite c'est hyper simple. Un seul appel curl suffit :
curl -X POST "https://api.cloudflare.com/client/v4/accounts/VOTRE_ACCOUNT_ID/browser-rendering/crawl" \
-H "Authorization: Bearer VOTRE_TOKEN" \
-H "Content-Type: application/json" \
-d '{"url": "https://example.com"}'
Et là, vous récupérez un job ID en retour (genre c7f8s2d9-a8e7-4b6e-...). Par défaut, le crawler va explorer 10 pages max avec une profondeur quasi illimitée. Mais bon, 10 pages c'est vite limité, du coup vous pouvez ajuster tout ça comme ceci :
curl -X POST "https://api.cloudflare.com/client/v4/accounts/VOTRE_ACCOUNT_ID/browser-rendering/crawl" \
-H "Authorization: Bearer VOTRE_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"url": "https://example.com/docs",
"limit": 50,
"depth": 3,
"formats": ["markdown"],
"render": false,
"options": {
"includePatterns": ["https://example.com/docs/**"],
"excludePatterns": ["**/changelog/**"]
}
}'
Le paramètre render: false permet de récupérer le HTML brut sans lancer de navigateur headless, c'est carrément plus rapide pour les sites statiques. Sachez quand même que pendant la beta, ce mode n'est pas facturé ! Youpi !
Une fois le crawl lancé, vous interrogez le job avec un GET :
curl "https://api.cloudflare.com/client/v4/accounts/VOTRE_ACCOUNT_ID/browser-rendering/crawl/VOTRE_JOB_ID" \
-H "Authorization: Bearer VOTRE_TOKEN"
Vous obtenez alors le statut (running, completed, errored...) et la liste des pages crawlées avec leur contenu dans le format demandé. Si le résultat dépasse 10 Mo, un curseur de pagination est inclus pour récupérer la suite.
Y'a quelques paramètres bien pensés pour les cas plus avancés :
modifiedSince et maxAge pour du crawling incrémental (ne re-crawler que les pages modifiées récemment)source: "sitemaps" pour ne suivre que le sitemap au lieu de parser tous les liensjsonOptions avec un prompt Workers AI pour extraire des données structurées automatiquement (genre récupérer le nom, le prix et le stock de 500 fiches produit d'un e-commerce en une seule passe)rejectResourceTypes pour bloquer images, fonts et CSS et accélérer le crawlauthenticate pour les sites protégés par une auth HTTP basiqueAttention quand même, y'a quelques subtilités à savoir. Un job peut tourner 7 jours max et les résultats sont conservés 14 jours seulement, du coup pensez à les récupérer vite. Le crawler respecte le robots.txt (y compris le crawl-delay), et si un site vous bloque, les URLs apparaissent comme "disallowed" dans les résultats. Sauf que ça ne vous dit pas pourquoi, faudra aller checker le robots.txt vous-même.
Voilà, cette "merveille" pour les scrappeurs fous est dispo sur les plans Free et Paid de Workers , et si vous voulez aller plus loin, Cloudflare propose aussi des endpoints pour les screenshots, les PDF et le scraping ciblé .
Voilà, un petit crawler inclus dans le plan Free de Workers, qui respecte le robots.txt et qui sort du Markdown ou du JSON structuré... je vais surveiller ça de près !
Faire de la synthèse vocale , de la transcription et du voice cloning en local sur son Mac, sans envoyer le moindre octet dans le cloud... hey bien c'est possible mes petits foufous et en plus comme je sais que vous avez des oursins dans les poches, hé bien bonne nouvelle : C'est gratuit !
MLX-Audio , c'est donc une bibliothèque Python qui exploite le framework MLX d'Apple pour faire tourner des modèles audio directement sur les puces M1, M2, M3, M4 et maintenant M5. Cette liste est trop longue, la prochaine fois, j'écrirais M* ou M1-5 ^^. Avec cette lib, du coup, tout se fait en local sur votre machine. Si je devais oser une comparaison un peu casse gueule, je dirais que c'est un peu le Ollama de l'audio.
Côté text-to-speech, y'a surtout du choix. Une dizaine de modèles sont disponibles, dont Kokoro pour du multilingue (français, anglais, japonais, chinois, espagnol...), Chatterbox qui gère 23 langues, ou encore Dia pour les dialogues. Et voici comment ensuite avec une commande dans le terminal, on peut faire parler la machine :
mlx_audio.tts.generate --model mlx-community/Kokoro-82M-bf16 --text "Salut les copains" --lang_code f --play
Le truc sympa, c'est que ça ne s'arrête pas à la synthèse vocale. Côté transcription, on retrouve Whisper (le modèle d'OpenAI qui gère 99 langues), Parakeet de NVIDIA pour les langues européennes, et même VibeVoice-ASR de Microsoft qui fait de la diarization (identifier qui parle dans une conversation).
Pour transcrire un fichier audio, c'est donc tout aussi simple :
python -m mlx_audio.stt.generate --model mlx-community/whisper-large-v3-turbo-asr-fp16 --audio meeting.wav --verbose
Y'a aussi le voice cloning avec CSM, où vous filez un fichier audio de référence et le modèle reproduit la voix. Perso, ça fait un peu flipper mais qui est carrément bluffant ! Sauf si vous avez une voix super particulière (trop de clope hein ^^), au final le résultat est assez bon.
Attention, tout ça a besoin de mémoire ! Heureusement, la bibliothèque gère la quantization (de 3 à 8 bits), du coup les modèles sont compressés pour tenir dans la mémoire unifiée des puces Apple Silicon. Le plus léger, Kokoro, fait 82M de paramètres et le plus costaud, Ming Omni, monte à 16.8 milliards de paramètres (mais en mixture-of-experts, donc seulement 3B activés à la fois). Pour ce dernier, faut donc un Mac avec pas mal de RAM.
D'ailleurs, si vous êtes développeur, la bibliothèque expose également une API REST compatible OpenAI. Ça veut dire que vos apps qui causent déjà avec l'API d'OpenAI peuvent basculer sur du local sans changer une ligne de code... enfin presque. Car faut quand même pointer vers localhost au lieu des serveurs d'OpenAI, mais c'est à peu près tout. Y'a même un package Swift pour intégrer ça dans une app iOS ou macOS native.
Voilà, pour ceux qui préfèrent une interface graphique, un mode web avec visualisation 3D de l'audio est même intégré. C'est super joli !
Ce projet est sous licence MIT, et le mainteneur, Prince Canuma, est un ancien ingénieur ML chez Arcee AI, donc pas un random qui a forké un truc un dimanche ^^.
Voilà, si vous avez un Mac et que l'audio IA en local vous branche, c'est open source, c'est gratuit et ça marche carrément bien !
YouTube déploie des publicités de 30 secondes non désactivables sur son application TV dans le monde entier. Google mise sur l'IA pour choisir le bon format au bon moment. On fait le point, et on vous file les astuces pour retrouver un peu de tranquillité.
Google vient d'officialiser le déploiement mondial de spots publicitaires de 30 secondes sur l'app YouTube pour téléviseurs connectés. Jusqu'à présent, les pubs sur TV pouvaient être zappées au bout de quelques secondes.
C'est terminé. L'IA de Google se charge de sélectionner dynamiquement le format adapté parmi trois options : des bumpers de 6 secondes, des spots classiques de 15 secondes et ces fameux 30 secondes impossibles à passer.
La télé est devenue le premier écran de consommation YouTube aux États-Unis, devant le mobile et le PC. Avec un chiffre d'affaires estimé à 62 milliards de dollars en 2025, YouTube a été désigné "nouveau roi des médias" par le cabinet MoffettNathanson, devant Disney. Google veut rentabiliser cet écran au maximum, et les annonceurs adorent le format salon, plus proche de la pub télé traditionnelle.
Sur ordinateur, la solution la plus fiable pour bloquer les pubs et les traqueurs reste Firefox avec uBlock Origin. L'extension fonctionne toujours grâce au support de Manifest V2 par Mozilla, alors que Chrome a coupé les extensions MV2 courant 2025. Brave bloque aussi les pubs YouTube nativement avec son système Shields, sans rien installer.
Sur Android, ReVanced supprime les pubs et ajoute la lecture en arrière-plan, le tout gratuitement. NewPipe et LibreTube font le même travail sans même avoir besoin d'un compte Google.
Côté TV connectées, SmartTube remplace l'app officielle sur Android TV et les anciens Fire Stick, et supprime toutes les pubs. Pour une approche plus radicale, un Pi-hole ou un DNS filtrant comme NextDNS bloque les domaines publicitaires au niveau du réseau, avant même qu'ils n'atteignent vos appareils, pratique.
Et pour ceux qui veulent rester dans les clous et qui en ont les moyens, YouTube Premium c’est 13 euros par mois, et ça vous permettra d’éviter les publicités aussi.
Google pousse ses pubs de 30 secondes sur les TV parce que c'est là que les gens regardent le plus YouTube, et que c'est là que les annonceurs payent le mieux. C’est logique. Sauf que 30 secondes de pub non zappables sur une plateforme qui a bâti son succès sur la gratuité et la souplesse, ça commence à ressembler à de la télé classique, et c’est franchement l’enfer.
Bref, des solutions pour contourner existent, et certains préfèrent carrément télécharger leurs vidéos YouTube pour les regarder sans pub. Vous pouvez y penser si vous en avez marre des spots publicitaires en boucle sur vos écrans.
Source : PC World
Microsoft vient de corriger 79 failles de sécurité dans son Patch Tuesday de mars 2026. Parmi elles, une vulnérabilité critique dans Excel qui permet d'utiliser l'agent Copilot pour exfiltrer des données sensibles, le tout sans aucune interaction de la victime. Oui oui, zéro clic.
Cette faille répondant au doux nom de CVE-2026-26144 est une vulnérabilité de type cross-site scripting dans Microsoft Excel, et elle a un petit truc en plus qui la rend franchement inquiétante : elle est capable de détourner le mode Agent de Copilot pour envoyer des données vers l'extérieur, via ce que Microsoft appelle un "unintended network egress".
Traduction : l'IA qui est censée vous aider à rédiger vos tableaux et vos formules devient, l'air de rien, un canal d'exfiltration de données.
Pas besoin que la victime clique sur quoi que ce soit. Pas besoin non plus d'élévation de privilèges. Il suffit d'un accès réseau. Les données qui peuvent fuiter sont loin d'être anodines : documents financiers, propriété intellectuelle, données opérationnelles. Dustin Childs, de la Zero Day Initiative, a qualifié cette faille de "fascinante". On veut bien le croire.
Ce Patch Tuesday de mars n'apporte pas que la CVE-2026-26144. Microsoft a aussi corrigé deux failles d'exécution de code à distance dans Office (CVE-2026-26110 et CVE-2026-26113) qui peuvent être exploitées via le simple volet de prévisualisation.
Ce qui veut dire qu'il suffit de survoler un fichier piégé dans l'explorateur pour déclencher l'attaque, sans même l'ouvrir.
Au total, ce sont 79 vulnérabilités corrigées ce mois-ci, dont trois classées critiques. Bonne nouvelle quand même : c'est le premier Patch Tuesday en six mois sans faille activement exploitée dans la nature. Après les épisodes avec APT28 et la CVE-2026-21509 exploitée par des groupes liés à la Russie en début d'année, ça fait une petite pause bienvenue.
Le truc un peu agaçant dans cette histoire, c'est que Microsoft pousse Copilot dans tous ses logiciels, et que PAF, une faille XSS permet de transformer cet assistant IA en mouchard.
C'est d'autant plus gênant que beaucoup d'entreprises ont activé Copilot sans forcément mesurer ce que ça implique en termes de surface d'attaque. Avec un agent IA qui a accès à vos fichiers et à votre réseau, le moindre trou dans la raquette prend une autre dimension.
Si vous utilisez Excel avec Copilot activé en entreprise, la mise à jour de mars est à installer sans traîner.
Source : Cyberscoop
La Pologne vient d'identifier sept adolescents soupçonnés de vendre des outils d'attaque DDoS en ligne. Le plus jeune avait 12 ans au moment des faits. Leurs cibles : des sites d'enchères, des hébergeurs et des plateformes de réservation. Tous passent devant le tribunal pour mineurs.
L'enquête a démarré en 2025 quand le Bureau central de lutte contre la cybercriminalité polonais a identifié un adolescent de 14 ans comme administrateur présumé des outils vendus par le groupe. Le fil a été tiré et six autres mineurs ont été retrouvés dans quatre régions du pays.
Lors des perquisitions à leurs domiciles, les enquêteurs ont saisi des smartphones, des ordinateurs portables, des disques de stockage, un registre comptable et de la documentation manuscrite.
Les suspects se connaissaient, restaient en contact régulier et coopéraient pour administrer et déployer les outils. Le tout dans un but purement lucratif vous l’imaginez bien.
Les outils vendus par le groupe ont servi à attaquer des sites plutôt fréquentés : portails d'enchères et de ventes en ligne, domaines liés à l'informatique, services d'hébergement web et plateformes de réservation d'hébergement. On parle de DDoS-for-hire, un modèle où n'importe qui peut acheter une attaque par déni de service contre la cible de son choix.
Côté justice, la loi polonaise prévoit qu'un enfant de moins de 13 ans ne peut pas être poursuivi pénalement. Pour les 13-17 ans, le système privilégie la rééducation plutôt que la sanction. Les dossiers des sept suspects ont été transmis aux tribunaux pour mineurs, qui décideront des suites.
Pas de prison donc, mais une prise en charge adaptée. Ce dossier n'est d'ailleurs pas le seul. En février, la Pologne avait déjà arrêté un jeune de 20 ans qui opérait un service de DDoS depuis sa chambre, dans le cadre de l'opération internationale PowerOFF coordonnée par le FBI et Europol.
Cette histoire fait sourire quand on imagine des hackers de 12 ans devant leurs ordis, mais le profil des suspects interpelle quand même. Tout ceci laisse songeur sur la facilité d'accès à ce type de ressources en ligne. La Pologne fait partie des pays européens les plus actifs sur la cybercriminalité ces derniers mois, avec plusieurs coups de filet successifs.
L'approche éducative plutôt que répressive pour les mineurs a du sens, mais elle pose une vraie question : est-ce que ça suffit à dissuader des gamins qui généraient déjà des revenus conséquents avec leurs plateformes ?
Source : Helpnetsecurity
Shelby Jueden, un passionné de tech rétro qui anime la chaîne YouTube Tech Tangents, vient de montrer qu'un simple microscope numérique permet de distinguer le contenu vidéo gravé sur un LaserDisc. L'encodage analogique du format rend les données directement visibles sous grossissement, alors que ça ne fonctionne pas du tout avec un CD.
Pour les plus jeunes d'entre vous, un petit rappel s'impose. Le LaserDisc est un format vidéo analogique commercialisé dès la fin des années 1970, bien avant le DVD ou le Blu-ray.
Contrairement au CD qui stocke ses données en binaire, le LaserDisc encode lui le signal vidéo sous forme de variations dans la longueur des creux gravés sur une couche d'aluminium. Cette particularité produit un léger effet de diffraction qui est en fait visible sous grossissement.
Jueden a utilisé un microscope numérique Andonstar AD246S-P pour examiner la surface de plusieurs disques. Sur un LaserDisc en mode CAV, chaque tour du disque correspond à une image complète.
En comparant les pistes côte à côte, on distingue les variations d'une même ligne vidéo image après image. Et les éléments qui défilent verticalement à l'écran, comme un générique de fin, deviennent reconnaissables sous le microscope.
La démonstration la plus étonnant a été faite avec le film True Grit. Les crédits de fin, qui scrollent verticalement, apparaissent sous la forme de texte, qui est carrément lisible, directement sur la surface du disque.
Alors bien sûr on ne va pas s'emballer, le microscope ne permet pas de visualiser complètement une image en couleur par exemple, mais la structure analogique est suffisante pour parvenir à distinguer quelque formes et lettres.
Pour ne pas mourir idiot, Jueden a aussi tenté la même expérience avec un CD, mais cette fois rien de lisible. Les données numériques se présentent sous forme de structures répétitives, sans aucune information visuelle exploitable.
Le LaserDisc n'a jamais vraiment percé. Il a été lancé en 1978 aux États-Unis sous le nom DiscoVision, le format avec ses disques de 30 cm de diamètre n'a pas fait le poids face au VHS, puis face au DVD. Les disques coûtaient cher, n'étaient pas enregistrables, et les lecteurs ne se sont jamais imposés dans les foyers.
Pioneer, dernier fabricant en lice, a arrêté la production en janvier 2009 avec une ultime série de 3 000 appareils. Le format avait quand même ses atouts : premier support optique grand public, son numérique ajouté dès le milieu des années 1980, et une image souvent bien meilleure que le VHS.
Bon en tous cas c'est carrément classe comme démonstration. Là où un CD ou un Blu-ray ne montrent strictement rien d'intéressant sous un microscope, le LaserDisc laisse apparaître ses images gravées dans la matière, sans aucun décodage électronique, et c'est quand même bien rigolo.
Source : The Register
Un développeur a créé un langage de programmation dont le code source est composé de M&M's colorés. Six couleurs, six familles d'instructions, et les programmes se compilent sous forme d'images PNG. Le plus rigolo ? On peut même prendre en photo de vrais bonbons posés sur une table pour générer du code exécutable. Le projet, baptisé MnM Lang, cartonne.
L'idée est partie d'un paquet de GEMS (l'équivalent indien des M&M's) ouvert un peu trop fort. Mufeed VH, développeur et auteur du projet, a vu les confiseries former une sorte de flèche sur le sol et s'est dit que ça ferait un bon point de départ pour un langage de programmation. Le résultat s'appelle MnM Lang, un langage dit "ésotérique" où le code source est écrit sous forme de rangées de bonbons.
Six couleurs sont utilisées, chacune correspondant à un type d'instruction : le bleu gère le flux de contrôle (sauts, appels, arrêt), le vert s'occupe des variables et de la pile, le jaune traite les opérations mathématiques, l'orange gère les entrées/sorties, le marron s'occupe des labels et des chaînes de caractères, et le rouge de la logique booléenne et de la manipulation de pile. Le nombre de bonbons dans une rangée détermine l'opcode : six bonbons à la suite, par exemple, ça donne la valeur 5.
Dans un premier temps, les programmes sont écrits en ASCII, puis compilés en PNG. Dans l'image, chaque lettre est remplacée par un Sprite de bonbon. Et le truc assez fou, c'est que ça marche aussi dans l'autre sens : on peut prendre une photo de vrais bonbons posés sur un fond blanc, et le décodeur d'image reconstitue le code source à partir des couleurs détectées.
Côté limitations, les images ne sont pas très douées pour stocker du texte. Les chaînes de caractères et les variables initiales passent donc par un fichier JSON séparé qui accompagne le programme.
Malgré cette contrainte, MnM Lang permet d'écrire de vrais programmes : Hello World, FizzBuzz, factorielle. Un terrain de jeu interactif est disponible sur le site du projet, avec un éditeur en ligne, un rendu visuel des bonbons et même un affichage de l'arbre syntaxique.
On a donc là un projet rigolo et coloré, et ça change un peu ! MnM Lang ne va pas remplacer Python ou Swift. Ce genre de truc nous rappelle que la programmation, ce n'est pas qu'un outil de travail et de production, mais ça peut aussi être du fun et de l'amusement, même si le niveau d'ingénierie derrière (compilateur, décodeur d'images, terrain de jeu web) montre que le projet est loin d'être une simple blague. Bref, si vous avez un paquet de M&M's qui traîne et un dimanche après-midi devant vous, vous savez quoi faire.
Source : Hackaday