Autoblog de korben.info

Ce site n'est pas le site officiel de korben.info
C'est un blog automatisé qui réplique les articles de korben.info

Comment aider les Iraniens à contourner la censure depuis chez vous

Sun, 25 Jan 2026 00:32:40 +0100 - (source)

Si vous suivez un peu l'actu, vous savez que la censure en Iran , c'est pas une blague... Quand le gouvernement décide de couper internet durant les manifs, y'a des millions de personnes qui se retrouvent dans le noir.

Et là, y'a un truc que vous pouvez faire depuis chez vous pour aider.

Psiphon Conduit , c'est un outil qui permet de partager un bout de votre bande passante avec des gens qui en ont vraiment besoin. En gros, votre PC devient un nœud du réseau Psiphon, et des Iraniens (ou d'autres personnes censurées) peuvent passer par votre connexion pour accéder à internet librement.

Et voilà comment vous venez de devenir un petit maillon de la résistance numérique !

Le truc cool, c'est que Conduit tourne en arrière-plan sans rien vous demander, chiffre toutes les connexions, et ne collecte aucune donnée perso. Ça bouffe pas de ressources, et vous pouvez configurer la quantité de bande passante que vous voulez partager.

Ce qu'il vous faut

Installer Psiphon Conduit

Rendez-vous sur la page de téléchargement officielle et récupérez la version Windows. C'est un exe classique, vous double-cliquez et c'est parti. L'application se loge dans la barre système et commence à partager automatiquement.

Réserver votre bande passante aux Iraniens

Par défaut, quand vous faites tourner Conduit, des gens de n'importe quel pays peuvent utiliser votre connexion. Si vous voulez maximiser l'impact pour l'Iran spécifiquement, y'a un script Python qui fait exactement ça.

Téléchargez le projet iran-conduit-firewall sur GitHub. Extrayez le ZIP, puis lancez RUN_AS_ADMIN.bat en mode administrateur. Le script va alors créer des règles de firewall Windows qui bloquent toutes les connexions... sauf celles venant d'Iran. Plus de 2000 plages d'IP iraniennes sont whitelistées. Si vous êtes sous mac ou Linux, faudra lancer directement iran_firewall.py avec python.

L'interface vous propose 4 options :

  1. Activer le mode Iran-only (bloquer les autres pays)
  2. Désactiver le mode Iran-only (tout le monde peut se connecter)
  3. Vérifier le statut actuel
  4. Utilitaires de gestion Conduit

Et là, c'est tout ! Vos règles firewall restent actives même après fermeture du script, jusqu'à ce que vous les désactiviez explicitement.

Dépannage

Si le script ne détecte pas Conduit, vérifiez qu'il est bien installé via le Microsoft Store ou en version standalone. Si vous avez des soucis avec les règles firewall, relancez le script en administrateur et choisissez l'option 2 pour tout réinitialiser.

Si vous avez une connexion correcte et envie de faire un geste concret pour la liberté d'accéder à internet, c'est le moment les copains !! Comme je vous avais déjà parlé de Psiphon ou Lantern , je pense que vous connaissiez déjà ces outils de contournement de la censure. Mais là, ils ont besoin de relais, et ce relais, ça peut être vous !

Merci pour eux !


DynoWiper - Quand Sandworm s'attaque au réseau électrique polonais et se plante

Sat, 24 Jan 2026 21:50:29 +0100 - (source)

Vous vous souvenez de NotPetya et des attaques contre le réseau électrique ukrainien ? Hé bien des hackers, vraisemblablement liés au GRU russe, viennent de remettre le couvert, mais cette fois c'est la Pologne qui était dans le viseur, et...

Ils se sont plantés !

Fin décembre 2025, plus précisément les 29 et 30, le réseau électrique polonais a subi ce que le ministre de l'Énergie Milosz Motyka qualifie de "plus forte attaque sur l'infrastructure énergétique depuis des années". Du lourd, quoi ! Sauf que contrairement à ce qui s'était passé en Ukraine fin 2015, cette cyber offensive n'a provoqué aucune coupure de courant. Les Polonais ont bien géré le coup ✊.

Ce qui est intéressant, c'est la cible choisie par les attaquants puisqu'ils ont visé les communications entre les installations d'énergies renouvelables (éoliennes, panneaux solaires) et les opérateurs de distribution, ainsi que deux centrales de cogénération. En gros, ils voulaient perturber le lien entre la production verte et le réseau national. Sachant que le renouvelable représente maintenant environ 29% de l'électricité polonaise, ça aurait pu faire très mal !

Les chercheurs d'ESET ont analysé le malware utilisé et l'ont baptisé DynoWiper. C'est un "wiper", c'est-à-dire un logiciel conçu pour effacer définitivement les données des machines infectées, et pas pour demander une rançon. Le but c'est de détruire, point. Et d'après leur analyse des techniques utilisées, ils attribuent l'attaque au groupe Sandworm avec une "confiance moyenne". Sandworm, pour ceux qui débarquent, c'est l'équipe de hackers du GRU (renseignement militaire russe) qui avait déjà privé d'électricité quelque 225 000 Ukrainiens en décembre 2015 avec BlackEnergy et KillDisk .

Du coup, pourquoi l'attaque a foiré ? Hé bien selon les autorités polonaises, les équipes de cyberdéfense ont réussi à détecter et contenir la menace avant qu'elle ne cause de dégâts réels. Le Premier ministre Donald Tusk a d'ailleurs déclaré que l'infrastructure critique n'avait "à aucun moment été menacée". Et une attaque de plus repoussée, une !

Cela intervient presque dix ans après les attaques ukrainiennes de décembre 2015, durat les derniers jours de l'année quand les équipes IT sont en effectif réduit, et alors que la Pologne vivait une période de froid intense... Un message géopolitique pas très subtil, en somme. D'ailleurs, selon le ministre des Affaires numériques polonais, le renseignement militaire russe aurait triplé ses ressources pour ce genre d'opérations contre la Pologne l'an dernier.

Encore une fois, les infrastructures critiques restent une cible privilégiée dans ce contexte de tensions, mais cette fois la défense a tenu. Pas de blackout pour les Polonais ! Ouf !

Source


Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Sat, 24 Jan 2026 19:52:11 +0100 - (source)

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source


Ce furieux fait booter son PC depuis un disque vinyle

Sat, 24 Jan 2026 18:57:32 +0100 - (source)

Alors là, on touche au sublime les amis ! Parce que si vous pensiez avoir tout vu en matière de boot insolite, genre clé USB, PXE, disquette 5 pouces 1/4... Pffff, vous n'êtes qu'une bande de petits joueurs.

Jozef Bogin, ce bidouilleur de génie , que dis-je, ce GOAT, a réussi à faire booter un IBM PC (le modèle 5150, une légende !!) directement depuis... un disque vinyle. Oui, un bon vieux 45 tours.

Regardez-moi ça comme c'est beau :

Pour réussir ce tour de force, il a gravé une image disque de 64 Ko (contenant un noyau FreeDOS minimal) sous forme de signal audio analogique sur le disque. Grâce à une ROM personnalisée (une puce 2364 insérée dans le socket d'extension du BIOS) qui remplace le code de boot habituel, le PC récupère le son via son interface cassette. Les routines du BIOS se chargent ensuite de la démodulation du signal pour charger le tout en RAM. C'est un peu comme émuler une disquette avec une clé USB , mais en version hardcore analogique.

Techniquement, c'est un boulot de dingue. Il a dû adapter l'égalisation audio pour compenser la courbe RIAA du vinyle, gérer les niveaux au millimètre et coder ce fameux bootloader spécifique pour que la magie opère.

Perso, je trouve ça assez poétique et le son n'est pas sans rappeler celui de nos bons vieux modem 56k. Bref, si vous avez une platine et un PC IBM 5150 qui traînent, vous savez ce qu'il vous reste à faire.

Pour les autres, la vidéo suffira largement ^^.


Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?

Ça tombe bien puisque Google a sorti Edge Gallery , une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.

Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.

Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !

Ce qu'on peut faire avec

Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :

AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.

Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.

Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.

L'interface d'AI Edge Gallery sur Android

Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.

Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.

Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.

Les modèles disponibles

L'app propose plusieurs modèles selon vos besoins. On retrouve la famille Gemma de Google (Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.

Et les gardes fous sont facilement contournables...

Il y a aussi des modèles spécialisés comme TranslateGemma pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à LiteRT , le runtime léger de Google pour l'inférence on-device.

D'ailleurs, la communauté Hugging Face propose déjà pas mal de modèles convertis au format LiteRT donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.

Installation sur Android

Pour Android, c'est simple, direction le Play Store et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les releases GitHub si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).

Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.

Et sur iOS / macOS ?

Pour iOS, l'app est disponible en bêta via TestFlight . Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !

Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.

Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de LM Studio qui sont nativement compatibles.

Pourquoi c'est intéressant ce truc ?

L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.

L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".

Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)

Voilà, pour ceux qui veulent creuser, le wiki GitHub du projet contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.

Éclatez-vous bien !


Si vous pensiez que votre Wii ne servait plus qu'à caler un meuble ou à prendre la poussière au fond du placard, détrompez-vous, car cette dernière vient de retrouver une utilité totalement inutile donc indispensable : Commander des pizzas.

Un rétro-gamer du nom de Pete de la chaine Retro Game Attic a réussi l'exploit de se faire livrer une Domino's Pizza en passant commande directement depuis sa console de 2006. Et ça c'est pas grâce à Nintendo puisque la société japonaise a d'abord coupé les serveurs WiiConnect24 en 2013, puis le service Demae-Can (la chaîne de livraison) a cessé de fonctionner en 2017.

Mais c'était sans compter sur la communauté homebrew qui visiblement avait faim !!

Des projets comme RiiConnect24 avaient déjà ramené la Météo et les Infos mais ici, c'est l'équipe de WiiLink qui s'est attaquée au morceau en ressuscitant le "Demae Channel", cette chaîne de livraison qui n'était sortie qu'au Japon.

Du coup, grâce à leur boulot acharné, la chaîne est de nouveau utilisable, bien que limitée pour l'instant à Domino's US et Canada uniquement. Pete a fait la démo en vidéo, et franchement, l'interface a super bien vieilli. On choisit sa garniture, on valide, et hop, la commande part au restaurant.

Le seul hic, c'est que le paiement en ligne n'est pas supporté. Il faudra donc régler le livreur à l'arrivée et surtout, il ne semble pas y avoir d'option pour les codes promo. Mais bon, commander sa 4 fromages supplément St Nectaire avec une Wiimote, ça n'a pas de prix.

C'est quand même beau de voir des projets comme WiiLink qui continuent de maintenir en vie cette vieille console. J'aurais bien rebranché la mienne pour tenter de la brancher avec une Pizzeria à côté de chez moi parce que j'ai la daaaallle, mais malheureusement, je l'ai revendue y'a des années.

Sniiif.

Source


L'autre jour, je m'amusais à regarder ce qu'une petite application Android que j'avais installée envoyait comme infos à ses serveurs , et j'ai encore galéré avec une tripotée d'outils différents. Entre ADB pour récupérer le fichier, Apktool pour le désassembler, Jadx pour lire le code et les scripts de signature à rallonge, y'a de quoi se taper la tête contre les murs. On est en 2026, et le reverse engineering Android ressemble encore parfois à de la spéléologie sans lumière dans une grotte remplie de goudron.

Puis c'est là que je suis tombé sur apk.sh, et ça m'a sauvé ma soirée. C'est un script Bash tout simple, mais qui joue le petit chef d'orchestre pour automatiser toutes les tâches les plus chiantes : le pull, le décodage, la reconstruction, le patching et le renommage d'APK. Ça vous mâche le travail sur toute la partie technique pour que vous n'ayez plus qu'à faire un petit adb install à la fin... et voilà ! (Sans les "Trenti anni di qualità", évidemment ^^)

Le truc cool, c'est qu'il ne se contente pas de faire du "pull" et du "decode". Il gère également nativement l'injection de gadgets Frida pour faire de l'instrumentation dynamique, et ça, c'est vraiment le pied pour ceux qui veulent voir ce qui se passe en mémoire sans s'arracher les cheveux. Il peut même patcher automatiquement la configuration de sécurité réseau pour vous permettre d'intercepter le trafic HTTPS plus facilement. Par contre attention, si l'appli utilise du certificate pinning bien costaud, ça servira à QUE DALLE.

Si vous avez déjà essayé de décompiler un APK et de le recompiler , vous savez que la moindre erreur de signature ou d'alignement et c'est le drame. Ici, l'outil s'occupe de tout avec apksigner et zipalign de manière transparente. Et pour les plus barbus d'entre vous, il permet même de modifier directement le bytecode DEX via les fichiers smali pour éviter les bugs de décompilation Java qui font parfois pleurer un admin sys.

Pas besoin d'être root pour la plupart des fonctions, et il gère même les fameux bundles (AAB) que Google Play impose désormais et qui se transforment en "split APKs" une fois sur votre téléphone. En gros, vous faites un pull pour récupérer et fusionner tout ça en un seul APK, puis un decode pour obtenir un dossier tout prêt à être exploré.

C'est typiquement le genre d'outil que j'aurais aimé avoir à l'époque où je vous parlais d'Androguard pour analyser des malwares Android . On gagne un temps de fou malade et on peut se concentrer sur ce qui nous intéresse vraiment dans la vie, c'est à dire le fromage à raclette et la sieste comprendre comment ces applis nous pompent nos données ou juste changer la couleur d'un bouton pour le plaisir (ou des trucs qui vous enverront en zonzon ^^).

Bref, si vous aimez mettre les mains dans le cambouis Android, allez jeter un œil à ce projet pour vos prochaines sessions de reverse.

A découvrir ici


Si vous bidouillez un peu avec des modèles CoreML sur votre Mac Silicon, vous savez que c'est vite la croix et la misère comme je dis souvent... Car dès qu'il s'agit de tester un truc rapide, faut ouvrir Xcode, pisser du Swift, ou se battre avec des scripts Python... Bref, l'usine à gaz juste pour vérifier une prédiction vite fait.

Hé bien bonne nouvelle les amis, un petit outil en ligne de commande vient de sortir pour nous éviter de trop galérer.

Ça s'appelle coreml-cli et comme son nom l'indique, c'est une interface pour inspecter et lancer vos modèles depuis le terminal. L'objectif c'est de pouvoir manipuler vos fichiers .mlmodel sans jamais avoir besoin de lancer l'IDE d'Apple.

Si vous êtes chaud bouillant, ça s'installe hyper facilement via Homebrew :

brew tap schappim/coreml-cli
brew install coreml-cli

Et une fois que c'est là, vous pouvez TOUT faire. Genre vous voulez voir ce qu'il y a dans un modèle ? Hop, un petit coreml inspect MobileNetV2.mlmodel et vous avez toute la structure, les entrées et les sorties qui s'affichent.

Et pour lancer des prédictions, c'est également très simple plus simple. Par exemple, avec le modèle MobileNet qui détecte les objets présents dans une image, vous lui donnez une image, et avec l'option --json, il vous sort le résultat proprement.

coreml predict MobileNetV2.mlmodel --input photo.jpg --json

Et pour ceux qui veulent automatiser des traitements, le mode "batch" permet de traiter tout un dossier d'images d'un coup. C'est quand même plus rapide que de le faire à la main un par un, comme le ferait un ingé de Perpignan nourri aux graines de chia.

Le développeur a même intégré un outil de benchmark pour mesurer la latence. Ça vous permet de lancer des tests sur le CPU, le GPU ou le fameux Neural Engine d'Apple pour comparer les perfs. C'est le top pour optimiser vos apps avant de les déployer.

Du coup, si vous bossez avec de l'IA locale sur Mac, un peu comme ce qu'on a déjà testé par le passé avec MocoLlamma ou sur de gros clusters Mac Studio comme ce furieux, ce petit binaire risque de vite devenir indispensable dans vos scripts CI/CD.

Amusez-vous bien !

Source


Tau5 - Le successeur de Sonic Pi se met à l'IA

Sat, 24 Jan 2026 11:07:41 +0100 - (source)

Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.

Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.

Sam Aaron lors de sa keynote GOTO 2025

L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.

Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"

Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.

Si le sujet vous branche, je vous remets le lien vers mon article sur la découverte de Sonic Pi , histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.

Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil à sa présentation ou au dépôt GitHub .


Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer .

Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.

Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.

L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.

Comment on installe la bestiole ?

Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :

pip3 install social-analyzer

Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :

social-analyzer --username "le_pseudo_a_chercher"

Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :

git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start

Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.

Et ça marche vraiment ?

Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.

Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.

D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur Blackbird qui fait un boulot similaire, ou apprenez à analyser un profil GitHub comme un chef.

Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !

Merci à Lorenper !


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles