Autoblog de OWNI

Ce site n'est pas le site officiel d'OWNI
C'est un blog automatisé qui réplique les articles de owni.fr

[Infographie] 10 ans de Creative Commons

Fri, 14 Dec 2012 17:30:44 +0000 - (source)

Des early adopters aux géants du web, Owni vous retrace en une infographie 10 ans d’histoire de Creative Commons : ou comment un pari que d’aucuns jugeait pascalien a été remporté haut la main : proposer une alternative légale assouplissant la propriété intellectuelle pour favoriser le partage à l’heure du numérique.

Depuis la publication du premier set de licences en décembre 2002, cette généreuse et utile idée a fait son chemin sur les cinq continents, dépassant son cœur initial de cible, la culture, pour s’appliquer à d’autres domaines comme la science ou l’éducation.

Des dix années d’archives que nous avons parcourues, nous avons bien sûr retenu les étapes incontournables qui ont eu une large répercussion médiatique. Elles témoignent de l’évolution interne de l’organisation lancée par le juriste Lawrence Lessig mais aussi de sa réception et de la façon dont le public, qu’il s’agisse du milieu artistique, politique, médiatique, scientifique, etc, s’est emparé de l’outil. Pour en arriver là : plus de 100 affiliations travaillant dans plus de 70 juridictions.et 500 millions de contenus sous CC en 2011.


Cliquez sur les items pour avoir plus d’informations.


Design de l’infographie : Cédric Audinot et Loguy
Code : Julien Kirch
OWNI fêtera les dix ans de partage avec les Creative Commons à la Gaîté Lyrique ce samedi 15 décembre à partir de 14h.


Charte de confidentialité : des icônes pour informer

Fri, 14 Dec 2012 14:15:35 +0000 - (source)

Lorsque vous téléchargez un logiciel sur votre ordinateur, une image, une typographie, de la musique, etc. vous vous retrouvez souvent nez à nez avec les fameux textes de “politique de confidentialité”. Je ne sais pas qui prend le temps de lire tout ceci mais les clauses de confidentialité sont en général bien complexes et écrites en corps 9 et en gris sur fond blanc.

Nous avons donc tendance à cliquer sur “oui j’accepte” sans avoir lu. Problème donc. Mais la longueur du texte, la présentation graphique et la complexité des conditions d’utilisations et des politiques de confidentialité n’est pas une excuse à notre laxisme et à notre laisser-aller. Ainsi, des designers, des citoyens et des experts en droit se préoccupent aujourd’hui de poser des questions autour de l’accessibilité de ces politiques de confidentialité et de trouver des réponses simples, adéquates, rapides et visuelles.

Des icônes

Parmi ces idées, voici les icônes du projet réalisé avec Mozilla, Ocupop et “Disconnect”.

Ces icônes ont été développées en partenariat avec un groupe de travail dirigé par Mozilla. L’idée ? Les icônes, c’est un travail en cours que vous pouvez améliorer, modifier et utiliser sur votre site. Cette iconographie de la vie privée en ligne est donc soutenue par une collection d’emblèmes destinés à informer les utilisateurs.

Informer / rassurer / partager

Les questions de confidentialité et de protection des données personnelles sur Internet étant très vastes, c’est un sujet qui continue de croître. Comment ces icônes peuvent rester accessibles, simples et limitées en nombre ? Evidemment, elles ne doivent pas être un jugement de valeur sur le site concerné mais une information supplémentaire. Difficile à faire passer mais si la simplicité de ces icônes est à la mesure de leur limpidité, l’internaute devrait pouvoir s’y retrouver.

Signification

Pour préserver cette simplicité, des flèches, des cercles et des pictogrammes ont été utilisés. La couleur joue elle aussi un rôle important. Pour finir, toutes les icônes prennent la forme d’un document, signifiant ainsi leur relation avec les données de l’utilisateur dans un sens plus large. Leur emplacement sera situé dans la barre d’adresse du navigateur en 16 pixels par 16 pixels.

Voici de quoi réviser vos fondamentaux :

Une image ne résoudra jamais les soucis d’exploitation des données et de confidentialité mais elle pourra être un excellent indicateur de la politique d’un site Internet et alors sensibiliser le grand public à ces questions. Ces icônes, vous les retrouverez peut-être à l’avenir sur de grands sites comme c’est déjà le cas sur cette liste dans laquelle on retrouve par exemple 01Net, Alexa, Paypal ou encore les différents services de Google.

Pour en savoir plus


Les Creative Commons hackent le droit d’auteur !

Fri, 14 Dec 2012 13:00:49 +0000 - (source)

Les licences Creative Commons vont  bientôt fêter les dix ans de leur création ! La fondation Creative Commons a en effet été lancée en 2001, à l’initiative notamment du juriste américain Lawrence Lessig, et les premiers jeux de licences ont été publiés en décembre 2002.

Avant de souffler les bougies, fermons les yeux et essayons d’imaginer un instant à quoi ressemblerait Internet si les licences Creative Commons n’existaient pas… Nul doute que quelque chose d’essentiel nous manquerait, car les CC sont devenus un des standards de l’environnement numérique et la clé de voûte de la mise en partage des contenus culturels.

Durant ces dix années, l’arsenal de protection de la propriété intellectuelle n’a cessé de se renforcer et de se rigidifier, même si les rejets d’ACTA et de SOPA ont marqué cette année un premier coup d’arrêt à ce mouvement. Dans le même temps, les Creative Commons ont pourtant apporté la preuve qu’il était possible de penser le droit d’auteur autrement, sans attendre que les lois soient modifiées.

C’est sans doute ce qu’il y a de plus spectaculaire avec les CC. S’appuyant sur des contrats, qui sont la base même du fonctionnement du droit d’auteur, les licences Creative Commons ont introduit dans la sphère de la création générale le renversement copernicien que les licences libres avaient déjà opéré dans pour le logiciel. Elles y ont ajouté l’idée géniale d’une signalétique simple et claire des droits en ligne, sous forme de logos et de résumés simplifiés, favorisant l’appropriation des licences par les non-juristes.

Créés en dehors de l’action des États, les Creative Commons ont permis de “hacker” de l’extérieur le droit d’auteur pour donner une base juridique aux pratiques de mise en partage des oeuvres, de production collaborative de contenus et de réutilisation créative (remix, mashup). Partir des libertés plutôt que des restrictions pour diffuser leurs oeuvres, voilà ce que les licences Creative Commons permettent aux auteurs, à partir d’un système d’options qui offrent à chacun la possibilité de choisir le degré d’ouverture convenant à son projet.

En cela, les Creative Commons remettent l’auteur au centre du système et si l’on en croit les chiffres avancés dans la brochure The Power of Open, ce sont plus de 400 millions d’oeuvres par le monde qui ont été ainsi mise en partage par leurs créateurs, formant une galaxie de biens communs volontaires.

Les Creative Commons sont porteurs d’une révolution pour la conception du droit d’auteur et pour son adaptation aux exigences de l’environnement numérique. Le philosophe Michel Serres avait particulièrement bien expliqué les enjeux d’une telle évolution dans cette interview :

Dans une société, il y a des zones de droit et des zones de non-droit. La forêt était jadis une zone de non-droit infestée de malandrins et de voleurs. Un jour, pourtant, un voyageur traversant la forêt de Sherwood constata que tous les voleurs portaient une sorte d’uniforme ; ils portaient tous un chapeau vert et ils étaient sous le commandement de Robin Hood. Robin, qu’est-ce que ça veut dire ? Celui qui porte la robe du juge. Robin incarne le droit qui est en train de naître dans un lieu où il n’y avait pas de droit. Toutes les lois qu’on veut faire sur les droits d’auteur et la propriété sur Internet, c’est de la rigolade. Internet est un lieu de non-droit comme la forêt dont nous parlions. Or un droit qui existe dans un lieu de droit n’est jamais valable dans un lieu de non-droit. Il faut que dans ce lieu de non-droit émerge un nouveau droit. Dans le monde de demain doit émerger un nouveau droit. Si vous voulez réguler le monde d’aujourd’hui avec le vieux droit, vous allez échouer, exactement comme on a fait sur Internet. Il faut attendre que dans la forêt d’Internet on puisse inventer un droit nouveau sur ce lieu de non-droit. Plus généralement, dans cette crise qui fait entrevoir un nouveau monde, ce n’est pas le droit ancien qui va prévaloir.

Issus directement de la “forêt d’Internet”, les Creative Commons constituent l’un des pans de ce droit nouveau dont le système a besoin pour retrouver la paix et l’équilibre. On pourra d’ailleurs se rendre compte de la richesse et de l’étendue des propositions de l’organisation en lisant le compte rendu de l’audition par la mission Lescure de Creative Commons France.

Pour essayer de faire un bilan de l’avancement du projet Creative Commons à l’occasion de ces 10 ans, voici 10 points d’analyse : 3 réussites à souligner, 3 limites à dépasser, 3 défis à relever et un horizon à atteindre.

3 réussites à souligner :

1) L’épreuve du feu de la validité en justice

Les Creative Commons ne sont pas des “alternatives” au droit d’auteur, mais une façon de le faire fonctionner autrement, en jouant avec la logique contractuelle. L’un des défis majeurs pour les licences consistait à se faire accepter par les juridictions dans les divers pays du monde, alors même qu’elles étaient nées en dehors de l’action des États.

Pour l’instant, cette épreuve du feu de la validité  a été surmontée avec succès chaque fois que les Creative Commons ont été au coeur d’un litige soumis à un juge. Les Creative Commons ont ainsi été reconnues valides en Espagne, en Allemagne, aux Pays-Bas, en Belgique, aux Etats-Unis, en Israël.

Aucune affaire cependant en France n’a encore porté sur une oeuvre placée sous licence Creative Commons, ce qui permet parfois à certains juristes de continuer à faire planer le doute sur leur compatibilité avec le droit français ou d’entretenir la confusion avec l’expression “libre de droits“. Au vu des décisions rendues par d’autres juridictions en Europe, il n’y a pourtant pas lieu de penser que les Creative Commons ne seraient pas valables au pays de Beaumarchais.

On en vient à espérer qu’un procès survienne pour acter définitivement la compatibilité avec le droit français. Mais l’absence de contentieux prouve aussi la capacité des licences à assurer paisiblement et efficacement la régulation des échanges, sans provoquer de litiges.

2) L’adoption par de grandes plateformes des médias sociaux

La semaine dernière, la plateforme de partage de photographies 500px annonçait qu’elle offrirait désormais à ses utilisateurs la possibilité d’utiliser les licences Creative Commons. C’est la dernière d’une longue série et cette adoption par les médias sociaux a joué un rôle décisif dans la diffusion des licences.

Le fait que Flickr ait très tôt offert cette possibilité à ses utilisateurs a constitué un jalon important, qui en fait aujourd’hui un des carrefours de la mise en partage des contenus avec plus de  plus de 240 millions de photographies sous CC. D’autres sites importants comme Vimeo, Soundcloud ou Bandcamp ont suivi cet exemple. Le fait que la communauté de Wikipedia ait aussi choisi en 2009 de faire passer l’encyclopédie collaborative sous CC-BY-SA a également constitué un tournant essentiel. En 2011, c’est YouTube qui avait créé l’évènement en annonçant la mise en place de la possibilité de placer des vidéos sous CC. En moins d’un an, ce sont plus de 4 millions de fichiers qui ont été mis en partage par le biais des licences sur la plateforme de Google.

Cette inclusion progressive des licences Creative Commons dans l’écosystème des médias sociaux est incontestablement une réussite, mais elle rencontre certaines limites importantes. Des réseaux sociaux comme Facebook ou Twitter n’offrent toujours pas cette possibilité à leurs usagers (même si des applications non-officielles existent pour cela). En août dernier, il a fallu qu’un service tiers “force la main” à Instagram en utilisant son API pour que les utilisateurs de ce service puissent enfin placer leurs photos sous CC, avec des résultats mitigés.

Nul doute que l’articulation entre les Creative Commons et les CGU des grands médiaux sociaux constitue un point essentiel pour leur développement, ainsi qu’un facteur qui garantit une meilleure maîtrise pour les individus des droits sur leurs contenus.

3) La mise en place de modèles économiques convaincants

L’un des arguments utilisés pour dénigrer les Creative Commons consiste à affirmer que les licences impliqueraient nécessairement une diffusion gratuite et qu’elles empêcheraient les artistes de tirer bénéfice de leurs créations. C’est grossièrement faux et les Creative Commons ont apporté la preuve qu’elles pouvaient être utilisées au contraire pour mettre en place des modèles économiques innovants.

Grâce aux clauses NC (Pas d’usage commercial), les créateurs peuvent moduler l’ouverture des licences et continuer à monétiser certains types d’usages tout en laissant circuler leurs oeuvres. Ces modèles mixtes ont produit de belles réussites dans tous les domaines, qu’il s’agisse de musique, de livres, de photographies, de films ou de jeux vidéo .

L’articulation entre Creative Commons et crowdfunding ouvre également des pistes intéressantes aux artistes pour obtenir des financements tout en élargissant les droits de leur public. Une page spéciale du site américain Kickstarter liste les projets pour lesquels les auteurs ont proposé de placer leur création sous licence Creative Commons si le public  les aidait à rassembler les financements en amont. On retrouve le même principe sur d’autres plateformes comme Indiegogo, ou côté français Ulule et KissKissBankBank, tandis que le site espagnol Goteo propose exclusivement le financement de projets sous licences libres.

Par bien des côtés, ces pratiques annoncent sans doute les modèles économiques de demain.

3 limites à dépasser :

1) Remédier à l’imprécision de la clause non-commerciale

A l’occasion du passage à la version 4.0, un débat assez vif a divisé la communauté Creative Commons à propos de l’opportunité de maintenir la clause Non-Commerciale parmi les options proposées par les licences.

Il est clair que l’imprécision relative de cette clause fragilise la mise en oeuvre des Creative Commons, d’autant plus que les licences NC sont les plus utilisées. Le juriste Benjamin Jean estime que Creative Commons International a une part de responsabilité dans ce flottement :

j’accuse pour ma part Creative Commons de maintenir ce flou en ne souhaitant pas faire le choix d’une définition précise (le problème d’une telle définition est 1) qu’il n’emporterait pas l’unanimité et 2) qu’elle ne saurait être rétroactive…).

Pour la version 4.0, il semblerait que Creative Commons ait choisi de s’en tenir au statu quo et de maintenir cette clause en l’état, vu qu’aucun consensus ne se dégageait nettement concernant sa reformulation. Il faudra sans doute pourtant réouvrir tôt ou tard cette réflexion, qui touche à quelque chose d’essentiel dans la capacité des licences Creative Commons à servir de base pour le développement de modèles économiques. Il faudra néanmoins pour cela que la communauté arrive à s’accorder sur cette question épineuse, ce qui reste loin d’être évident…

2) Une meilleure application aux bases de données et à l’Open Data

Une des évolutions que Creative Commons n’a pas très bien négocié ces dernières années est celle de l’Open Data. On aurait pu penser que ces licences auraient pu être employées pour ouvrir les bases de données et libérer les informations publiques, mais des difficultés juridiques sont survenues qui ont limité l’application des Creative Commons dans ce domaine.

Les licences Creative Commons sont prévues pour s’appliquer aux droits voisins, mais la version 3.0 appréhende relativement mal le droit sui generis des bases de données tel qu’il existe en Europe. Par ailleurs, les licences Creative Commons n’étaient pas non plus prévues pour encadrer le droit à la réutilisation des informations, ce qui a pu conduire à des flottements en France dans le cdare du développement de l’Open Data.

Certains pays ont néanmoins choisi d’opter pour les Creative Commons pour diffuser leurs données (Autriche, Australie, Nouvelle-Zélande), mais d’autres comme l’Angleterre ou la France ont préféré écrire leurs propres licences. Les difficultés susmentionnées ont aussi conduit certains gros projets collaboratifs, comme OpenStreetMap à changer de licence, préférant l’ODbL, spécialement conçue pour les bases de données aux licences Creative Commons.

Il avait été envisagé que la version 4.0 des CC soit modifiée pour mieux prendre en compte le droit des bases de données et c’est sans doute un enjeu important pour que Creative Commons continuer à jouer un rôle dans le domaine de l’Open Data.

3) Développer la compatibilité avec la gestion collective des droits :

Un des facteurs qui freinent fortement l’adoption des Creative Commons par les artistes réside dans le fait que les sociétés de gestion collective n’acceptent généralement pas que les auteurs placent tout ou partie de leur répertoire sous licence ouverte. Les artistes sont donc réduits à choisir entre utiliser les Creative Commons ou renoncer à la gestion collective.

Pour autant, reprenant une formule qui avait déjà été testée en 2007 aux Pays-bas, Creative Commons a conclu fin 2011 un partenariat avec la SACEM en France pour monter une expérience pilote, afin d’ouvrir aux auteurs et compositeurs de musique la possibilité d’utiliser certaines des licences CC.

On peut considérer qu’il s’agit d’une avancée importante pour la reconnaissance des Creative Commons en France, mais cet accord a également soulevé de nombreuses critiques, notamment de la part des communautés du Libre, ainsi qu’a propos de la façon dont la SACEM entend redéfinir la définition du Non-Commercial de manière extensive.

Il est clair pourtant qu’il est crucial que les sociétés de gestion collective s’ouvrent aux licences Creative Commons, mais le défi consiste à organiser cette connexion sans que les licences subissent des altérations qui en dénaturent la logique.

3 défis à relever :

1) Une meilleure prises en compte par les mécanismes traditionnels de financement de la création

On peut s’étonner que les licences Creative Commons ne soient pas davantage utilisées dans certains domaines, comme le cinéma. Il existe des exemples dans le domaine du court métrage d’animation et le Film espagnol El Cosmonauta du producteur espagnol Riot Cinema avait constitué un exemple intéressant de combinaison du crowdfunding et des licences libres pour un projet ambitieux.

Mais il faut plutôt aller voir du côté des modes de financement et de distribution des oeuvres cinématographiques pour comprendre pourquoi il est très difficile pour des films sous CC de voir le jour. Le cinéma bénéficie en effet d’importantes subventions, comme les avances sur recettes du CNC. Or les oeuvres sous licences libres ne peuvent pas bénéficier de ces formes de financement, ce qui les coupent de leviers importants. C’est une situation qu’a souvent dénoncé le Collectif Kassandre en France, avant de décider de mettre fin à ses activités cette année.

Il est clair qu’un des moyens de favoriser le développement d’oeuvres sous licence Creative Commons serait d’organiser des filières particulièrement de financement et de distribution, par les organismes de soutien à la création que sont par exemple le CNC pour le Cinéma ou le CNL pour les livres. Cela pourrait d’ailleurs constituer un des axes de réflexion de la Mission Lescure pour favoriser le développement de l’offre légale.

C’est un enjeu majeur pour favoriser l’adoption des Creative Commons par les créateurs professionnels, au-delà des amateurs.

2)  Favoriser l’adoption des licences Creative Commons par les administrations

L’adoption des licences Creative Commons par les administrations est un facteur qui peut grandement contribuer à leur diffusion. Pour l’instant, les exemples restent cependant relativement rares. Le site de la Maison blanche est par exemple placé sous licence CC-BY, mais il est assez difficile de citer d’autres cas aussi emblématiques (hormis au niveau international : Banque Mondiale, UNESCO, OCDE). On assiste même parfois à des retours en arrière, comme au Brésil où le Ministère de la Culture a choisi en 2011 de retirer la licence Creative Commons de son site pour revenir à un régime de droits réservés.

The battle for copyright (La bataille du copyright) par Christopher Dombres (cc)

Pourtant il existe un intérêt réel pour les administrations et les services publics à entrer dans la logique de mise en partage et de collaboration que favorisent les licences Creative Commons. En France, la municipalité de Brest par exemple montre comment ont peut développer la dynamique participative et l’expression citoyenne au niveau d’un territoire à partir de sites et de plateformes placées sous licence Creative Commons.

Au niveau central, on pourrait espérer que le premier ministre par exemple prolonge la circulaire qui a été récemment publiée pour favoriser l’usage des logiciels libres dans les administrations par un  texte incitant les services à placer les contenus qu’ils produisent sous licence Creative Commons. Une telle démarche d’Open Content viendrait compléter celle qui est initiée actuellement au niveau de l’État en matière d’Open Data.

Dans cette optique, l’un des champs privilégiés serait le développement de ressources pédagogiques sous licence Creative Commons, ainsi que la mise à dispositions des résultats de la recherche scientifiques. La Californie aux États-Unis et la Colombie britannique au Canada ont récemment voté des textes de loi pour favoriser le développement de bibliothèques numériques de manuels d’enseignement Open Source, sous licence CC-BY. Le réseau européen Communia a également publié une déclaration importante la semaine dernière pour appeler les responsables de l’Union a rendre obligatoire non seulement l’Open Access aux articles scientifiques financés par des fonds publics en Europée, mais aussi leur passage sous licence CC-BY.

3) Peut-on rendre les Creative Commons Mainstream ?

Le défi majeur à mes yeux pour les licences Creative Commons consiste à savoir comment on peut en favoriser plus largement l’adoption, en dehors même du cercle des adeptes de la Culture libre.

Dans une chronique précédente, j’avais relevé par exemple que les 240 millions de photographies sur Flickr sous licence Creative Commons ne représentent au final qu’un peu plus de 3% des contenus du site. On retrouve à peu près les mêmes proportions sur la plateforme de partage de vidéos Vimeo. Même si en valeur absolue, l’adoption des Creative Commons par 3% des créateurs suffit à produire des masses de contenus réutilisables importantes, il est clair que l’on ne modifie pas un système en profondeur avec des pourcentages de cet ordre.

Dix ans après sa création, il est désormais essentiel pour Creative Commons de réfléchir à la manière dont les licences pourraient devenir “mainstream”. Une des pistes seraient peut-être de creuser les partenariats avec les grands médias. La BBC par exemple en Angleterre a conduit des expériences de diffusion de programmes télévisés sous licence Creative Commons, ainsi que pour ses archives. La chaîne d’information Al Jazeera est quant à elle engagée dans un usage avancé de diffusion ouverte de ses contenus, au sein de son Creative Commons Repository. En Hollande, c’est l’équivalent de l’INA qui valorise une partie de ses contenus sous licence Creative Commons sur la plateforme Images For The Future. Et la télévision norvégienne a déjà libéré certains de ses contenus sous licence CC, mais seulement pour des volumes limités.

En France, on peut déjà citzer quelques exemple, avec la plateforme Arte Creative ou le site de critiques de livres Non Fiction, mais il faut bien avouer que les Creative Commons sont encore en retrait dans les médias traditionnels. La piste des licences libres constituerait pourtant pour eux un moyen d’innover et de développer un rapport plus interactif avec le public.

Un horizon à atteindre

Au bout de 10 ans, les Creative Commons ont fait leur preuve quant à leur capacité à organiser la circulation et la réutilisation des contenus en ligne, tout en apaisant les relations entre les auteurs et le public. Certaines propositions de réforme du droit d’auteur vont à présent plus loin, en suggérant de placer tous les contenus postés sur le web par défaut sous un régime autorisant la réutilisation à des fins non-commerciales des oeuvres.

Une telle proposition avait été appelée Copyright 2.0 par le juriste italien Marco Ricolfi et elle aurait abouti dans les faits à faire passer par défaut le web tout entier sous licence CC-BY-NC. Pour revendiquer un copyright classique (tous droits réservés), les titulaires de droits auraient eu à s’enregistrer dans une base centrale.

On retrouve une logique similaire dans les propositions qui visent à faire consacrer la légalisation du partage non-marchand entre individus des oeuvres, qu’il s’agisse des Éléments pour la Réforme du droit d’auteur de la Quadrature du Net ou du programme du Parti Pirate.

Si de telles réformes venaient à être mises en oeuvre, c’est l’ensemble du système du droit d’auteur qui serait modifié dans la logique des Creative Commons. Le régime juridique de base d’Internet deviendrait grosso-modo la licence CC-BY-NC et les auteurs pourraient toujours choisir d’aller plus loin en employant des licences encore plus ouvertes (CC-BY, CC-BY-SA, etc).

Rendez-vous dans dix ans, pour voir si cet horizon a été atteint !


Toutes les illustrations par Christopher Dombres (cc-by)
OWNI fêtera les dix ans de partage avec les Creative Commons à la Gaîté Lyrique samedi 15 décembre à partir de 14h.


Offrez-vous un Owni

Thu, 13 Dec 2012 14:25:39 +0000 - (source)

Depuis lundi, Owni a baissé le rideau pour offrir à ses lecteurs un espace d’échanges autour de la situation financière et de l’avenir du média. Cet échange a lieu via Twitter (#ownioupas), au travers de vos mails sur demain@owni.fr (merci à tous, nous vous répondons personnellement et individuellement), ou encore grâce à votre participation au wiki que nous avons mis en place pour vous faire participer à nos réflexions.

Nous avons communiqué nos charges : 90 000 euros par mois. Parallèlement, au coeur des soutiens les plus forts et parmi ceux qui se sont impliqués jusqu’à présent dans notre réflexion, ceux — très nombreux — qui nous proposent de s’abonner durablement à Owni. Reste donc à mesurer l’ampleur de votre engagement afin de déterminer si la souscription est un modèle viable pour votre média indépendant.

Sur le format de l’hypothèse, quittons les sentiers abattus de la normalité : tout le monde n’a pas envie s’engager avec Owni de la même façon, ni forcément tous les mois avec la même intensité. Vous pourriez avoir envie de soutenir davantage Owni le mois prochain parce qu’un article, un dossier ou une application de datajournalisme vous a particulièrement plu. Vous pourriez avoir besoin de payer moins aussi, par nécessité ou par choix. Donc innovons : soyez libre de fixer chaque mois le prix de votre abonnement ; faisons du “Pay What You Want” (prix libre).

En imaginant donc que nous retenions ensemble l’idée du pay wall, c’est-à-dire de réserver le contenu d’Owni — ou une partie de celui-ci — à des lecteurs s’engageant à verser chaque mois une contribution fluctuant au gré de leur volonté ; si cet abonnement était mis en place, quelle somme seriez-vous prêt(e) à verser pour nous lire chaque jour ?


Pour valider votre réponse, n’oubliez pas de cliquer sur le bouton “submit” en bas.

Merci à tou(te)s !
— l’équipe Owni


Google : chêne ou roseau?

Thu, 13 Dec 2012 14:15:50 +0000 - (source)

“La presse peut faire plier Google. Les journaux belges viennent d’en apporter la preuve.” Ces deux petites phrases, extraites d’un article du Monde publié hier, ont suffi à mettre en branle le panzer de Mountain View. Billet de blog publié tard dans la soirée, conference call improvisée dans la matinée, équipe de com’ sur les dents : Google a déployé un véritable plan Vigipirate pour contrer les informations du journal du soir. Objectif : décorreller à tout prix l’accord trouvé du côté du plat pays avec les négociations toujours en cours par chez nous.

Google se paie la presse

Google se paie la presse

C'est la guerre ! Face au projet de loi de certains éditeurs de presse qui souhaitent faire payer Google dès qu'il ...

Google chez les Belges

Intitulé “Droit d’auteur : Google indemnise la presse belge”, l’article à l’origine du branle-bas de combat révèle le contenu d’un “accord secret [...] conclu, vendredi 7 décembre, entre les éditeurs francophones de quotidiens (les groupes Rossel, La Libre Belgique, L’Avenir), la Société de droits d’auteurs des journalistes (SAJ) et Google.” Ces derniers sont empêtrés depuis six ans dans une procédure judiciaire : Copiepresse, un représentant des éditeurs de presse belges, a attaqué en 2006 le géant américain pour violation du droit d’auteur sur son service Google News. Condamné en appel en 2011, Google avait fini par privilégier la voie de la négociation.

Et à en croire Le Monde, c’est lui qui sort grand perdant du deal enfin trouvé :

Le géant américain va verser une indemnisation conséquente, qui représente selon une source “entre 2 % et 3 % du chiffre d’affaires” de la presse belge francophone, soit près de 5 millions d’euros. Les journalistes devraient toucher une part de ce pactole par la SAJ.

Un “précédent qui pourrait faire boule de neige dans d’autres pays européens, à l’heure où les éditeurs français, allemands et italiens souhaitent faire payer au moteur de recherche un “droit voisin” au droit d’auteur”, poursuit le journaliste, en référence aux négociations houleuses en cours dans les pays voisins. Pourtant, ce même article conclut sur le fait que cet accord ne “semble” pas régler “la question des droits pour les années qui viennent”.

Lex Google pour les nuls

Lex Google pour les nuls

Si les éditeurs de presse français n'ont pas encore déclaré officiellement la guerre à Google, le manège y ressemble. ...

Or les revendications actuelles de certains titres, comme l’association des éditeurs de presse d’information politique et générale (IPG) en France, portent précisément sur la mise en place à l’avenir d’une contribution sonnante et trébuchante de la part de Google, au motif que le géant du web gonfle ses revenus publicitaires sur le dos de la presse. Et non, comme c’est le cas en Belgique, sur un conflit ouvert sur l’atteinte aux droits d’auteur de la presse dont Google pourrait être à l’origine. Alors même que selon des juristes, les titres français pourraient tout à fait se lancer dans ce genre de combat. Mais la bataille, en France, est différente.

Il n’en fallait pas plus pour Google pour contre-attaquer. “L’accord ne prévoit pas le paiement de redevances aux éditeurs et aux auteurs belges pour l’inclusion de leurs contenus dans nos services” martèle depuis hier son service de communication, appuyé dans sa tache par des représentants des éditeurs de presse outre-Quiévrains. De quoi calmer les ardeurs éventuelles des confrères français.

“La question d’un droit voisin n’a pas été abordée”, expliquait ce matin Francois le Hodey, président des Journaux francophones belges, qui dément avec Google les informations du Monde :

Nous n’avons jamais parlé [d'une rémunération en] pourcentage par rapport à un chiffre d’affaire.

Et de préciser :

L’accord couvre principalement les frais engagés par les éditeurs [...] mais aussi des partenariats commerciaux qui profitent à tout le monde.

Concrètement, cette alliance prend plusieurs formes : Google s’engage à acheter des espaces publicitaires aux titres de presse pour promouvoir ses produits, à les aider à optimiser leurs revenus publicitaires via Adsense et Adexchange ou à être plus facilement accessibles sur mobile.

Le tour de Gaule de Google

“Ca fait longtemps que Google est dans le coaching, le mentoring et l’accompagnement des médias”, commente Google, qui s’est dit prêt à déployer un accompagnement similaire aux autres titres de presse belges qui le souhaitent. En clair, Google est d’accord pour les coups de pouce, mais refuse toujours de donner une grosse enveloppe à la presse. “On ne paye pas pour un contenu qu’on n’héberge pas, c’est ce qu’à dit Eric Schmidt”. Une information que semble avoir bien intégrée les éditeurs de presse belges après six ans de combat. Ce matin, François le Hodey concédait ainsi au détour d’une phrase :

Il est inutile d’espérer un accord avec Google sur un concept de rémunération des contenus.

Une ligne que ne partagent pas les éditeurs de presse bien de chez nous, invités à la table des négociations. Selon nos informations, l’IPG serait encore bien décidée à aller gratter directement le trésor de Google plutôt que de les écouter prodiguer des conseils. “Amputer (un peu) ses bénéfices”, comme l’écrivait Laurent Joffrin, l’un des porteurs du texte de l’IPG. De vieux réflexes bien chevillés au corps de certains éditeurs de presse, habitués à être alimentés par un système de subventions.

Foutage de Google

Foutage de Google

Pas de surprise dans la lettre de mission du médiateur dans l’affaire Lex Google, envoyée aujourd'hui : elle confirme que ...

Contactés, Nathalie Collin, président de l’association en question, comme Denis Bouchez, son directeur, ne souhaitent faire aucun commentaire au cours de la médiation voulue par le gouvernement et entamée fin novembre. Les trois parties ont commencé à discuter, la dernière réunion datant du 11 décembre dernier.

Reste à savoir qui lâchera en premier. De son côté, l’IPG peut compter sur le soutien du gouvernement, qui menaçait il y a quelques semaines : soit la médiation aboutit, soit c’est une loi contraignant le géant du web à payer. Quant à Google France, la boîte ne lâche rien et prévient : “nous avons bien plus à gagner en travaillant ensemble qu’en se disputant.” Un message explicite, adressé aux “éditeurs du monde entier”.

Suivez mon regard.



Internet, c’est un truc de hippies

Wed, 12 Dec 2012 11:22:44 +0000 - (source)

Je suis souvent présenté comme un dinosaure d’Internet, mais c’est faux : même si je suis trop vieux pour faire partie de la génération “digital-native”, j’étais trop jeune quand Internet est né, trop jeune pour pouvoir vivre une époque à laquelle toutes les utopies étaient encore imaginables. Ça n’a jamais empêché personne de me considérer comme un utopiste libertaire (par exemple, dans ce billet qui aligne un nombre d’idées fausses assez stupéfiant), vous êtes prévenus.

Et je voudrais, pour replacer mon propos dans son contexte historique, revenir quelques instants sur ce monde dans lequel Internet est né. Je crois que c’est important pour mieux comprendre ce qu’il est devenu.

Arpanet est né en 1969. J’avais 5 ans, Jon Postel et Vinton Cerf avaient 25 ans. Steve Crocker (24 ans) publiait la première RFC. Ils étaient étudiants en Californie, à l’UCLA, en pleine contestation étudiante contre la guerre du Viêt Nam, en pleine lutte pour les droits des femmes et les droits civils sur les campus américains. C’est 2 ans après le “Summer of Love”, c’est l’année de Woodstock. Toute la côte ouest est en plein Flower Power.

Internet par la racine

Internet par la racine

Racine d'Internet par-ci, racine d'Internet par-là : mais c'est quoi ce bulbe magique générateur de réseau ?! Et pourquoi ...

On peut imaginer que — les geeks restant des geeks — nos trois jeunes ingénieurs ne faisaient pas partie des plus activistes, mais on ne peut pas ignorer l’ambiance qui entourait la naissance d’Internet. Et de là à penser qu’il est une invention de hippies, il n’y a qu’un pas. D’où croyez-vous que viennent les barbus ?

On dit souvent qu’Internet a cassé la logique hiérarchique verticale préalable et créé une société plus horizontale. On rappelle en permanence qu’il a permis l’usage de la liberté d’expression pour tous. Je vous engage à lire ou relire la RFC n°3 (publiée elle aussi en avril 69) qui définit la manière dont seront développés et discutés les futurs standards d’Internet, et en particulier la phrase “we hope to promote the exchange and discussion of considerably less than authoritative ideas”.

Dès le départ, la philosophie d’Internet est basée sur la liberté d’expression, ouverte à tous, sans obligation d’appartenance à telle ou telle communauté. Le débat et la prise de parole sont encouragés, la forme est accessoire, le groupe est ouvert, seules les idées sont importantes, d’où qu’elles viennent.

Sont-ce les usages d’Internet qui ont transformé une société hautement hiérarchisée, ou a-t-il été créé pour produire précisément cet effet, à une époque où toutes les utopies étaient encore envisageables ? Sans doute un peu des deux, mais il est certain que, dès l’origine, les principes qui ont conduit à sa naissance n’étaient pas ceux de la société patriarcale qui prévalait jusque là, et il est au moins probable que l’environnement dans lequel baignaient ses pères a joué un rôle sur ce qu’il est devenu.

La tribu informatique

Comme on me l’a souvent rappelé, depuis que j’ai commencé à développer cette vision des origines, cette ouverture à tous avait — et a toujours — une limite importante : s’agissant de développer des protocoles informatiques, et quelle qu’ait été la volonté de ses fondateurs, l’initiative était cependant réservée à ce que Philippe Breton a décrit bien plus tard comme “la tribu informatique”. Et là aussi il est bon de se replonger un peu dans le passé pour mieux comprendre le présent.

Internet, les origines

Internet, les origines

Mais qui a inventé Internet ? Au cœur de l'été, un débat fait rage de l'autre côté de l'Atlantique pour attribuer la ...

A l’époque des débuts d’Internet, et jusqu’au milieu des années 70, le logiciel n’était pas considéré comme il l’est de nos jours. Ce n’était pas un objet commercialisable. Jusqu’au début des années 70, AT&T distribuait UNIX gratuitement aux universitaires, et la grande majorité des programmes étaient le fruit de travaux académiques et étaient diffusés, sources comprises, selon les principes académiques d’ouverture et de coopération.

Les informaticiens de cette époque avaient souvent besoin de porter tel ou tel outil d’un système d’exploitation à un autre, à une époque où l’hétérogénéité du parc matériel explosait. La notion de partage était fortement représentée dans la culture informatique, et elle a perduré y compris lorsque le marché du logiciel commercial a explosé, en se scindant d’un côté dans la culture du logiciel libre et de l’autre dans celle du piratage.

Avant notre génération “digital native”, les inventeurs d’Internet sont devenus adultes dans les années comprises entre la fin de la seconde guerre mondiale et la 1ère crise pétrolière, à l’époque du “I have a dream” de Martin Luther King, du flower power, de la conquète de la Lune, du boom de l’électroménager et de la liberté sexuelle. Tout semblait possible, et je crois que même des geeks retranchés dans des services informatiques, relégués en sous-sol, n’ont pas pu ignorer cet environnement social. Dans un livre publié en 1984, le journaliste Steven Levy a rapporté l’idéologie des premiers hackers et en a tiré ce qu’il a nommé “the hacker ethic” dont les points-clé semblent venir directement des idées hippies.

Je ne crois pas qu’on puisse comprendre Internet sans prendre en compte ces prémisses culturels. Même s’ils sont largement négligés de nos jours, ils ont imprégné toute la structure fondamentale du réseau et leurs conséquences sont toujours largement présentes aujourd’hui :

- la sécurité des systèmes est un problème de plus en plus important à tous les niveaux de la société, mais si ce problème existe c’est aussi parce que la sécurité des données n’était pas un enjeu important pendant les premiers temps de l’Internet. Les datagrammes ne sont pas chiffrés, les serveurs et les tuyaux sont partagés entre tous, le DNS n’est pas sécurisé, le routage est fait d’annonces que chacun peut corrompre. Jusqu’à une période très récente, les notions de partage et de confiance sont bien plus importantes, sur le réseau, que celles de sécurité et de confidentialité.

- TCP/IP est un langage de pair à pair : les notions de client et serveur sont applicatives, sur Internet, pas structurelles. Il n’y a pas de hiérarchie entre les ordinateurs qui sont reliés par le réseau : chacun peut, à tout instant, passer du récepteur au diffuseur sans avoir à obtenir d’autorisation préalable. Sur Internet, la prise de parole est possible partout, pour tous, tout le temps.

- l’impératif d’intéropérabilité à une époque où le matériel informatique évolue sans cesse dans une hétérogénéité croissante a imposé – si même la question s’était posée – l’usage de standards ouverts et des logiciels libres. Le développement d’Internet et des logiciels libres sont intriqués au point qu’on aurait du mal à imaginer ce que serait le réseau sans eux. Et malgré la toute-puissance des géants du logiciel commercial, ils se sont développés à un point tel qu’au moins la moitié d’entre vous a un téléphone qui fonctionne sous Linux. Si on m’avait dit ça au début des années 90, je me serais moqué.

- le choix de la transmission par paquet, du datagramme et d’un réseau maillé de pair à pair (en lieu et place des technologies de circuits virtuels et des réseaux en étoile) a créé un réseau qui ignore les frontières des États, qui met en relation des ordinateurs et des humains sans considération des législations locales, des tabous culturels et du contrôle policier. Couper totalement l’accès d’une population à Internet, aujourd’hui, implique non seulement la fermeture des accès locaux mais aussi celle de tout le réseau téléphonique cablé, gsm et satellite. C’est pratiquement impossible (et on a pu recevoir des images de Syrie la semaine dernière malgré toute la volonté du gouvernement local).

L’art de la guerre

Quoi qu’ils en disent aujourd’hui, les états ont mis un certain temps à prendre conscience des conséquences d’Internet. Quand nous – techniciens – pressentions vaguement au début des années 90 une révolution trop vaste pour qu’on puisse en envisager toute l’étendue, qu’on essayait de l’expliquer, d’en montrer l’importance, les puissances en place nous riaient au nez.

Et sans doute n’était-ce pas plus mal parce qu’il est difficile de savoir ce que serait le réseau si à l’époque nous avions su montrer au pouvoir ce que signifiait l’arrivée d’Internet chez tout le monde.

Aujourd’hui encore, je crois qu’il manque toujours au plus haut niveau des États une compréhension, une appropriation réelle des enjeux. Tout semble se passer comme si, malgré un affichage plus ou moins affirmé, ils ne parvenaient pas à appréhender l’existence et l’importance sociale, économique et philosophique d’un réseau global. J’ai récemment écrit qu’ils me donnaient l’impression de ne pas vivre dans le même monde que le reste de la population, tant chacune de leurs décisions concernant de près ou de loin Internet semblait contre-productive et rétrograde quand ce n’est pas inutile ou même risible.

Toujours est-il que, pendant que les grands de ce monde avaient le dos tourné, Internet s’est installé dans nos vies.

Ça a commencé lentement bien sûr. En France, Internet a longtemps été perçu par le grand-public comme un Minitel un peu plus évolué : on y trouvait pas beaucoup plus d’information, c’était plus compliqué à utiliser, ça demandait un investissement financier et personnel plus important.

Seuls quelques activistes en prenaient possession pour s’exprimer, avec bien entendu des dérives faciles à dénoncer qui ont probablement contribué à conforter les idées reçues de ceux auquel il n’apportait rien de nouveau, puisqu’eux avaient déjà accès à la parole publique, à l’information en avant-première, que les portes des musées leur étaient toujours ouvertes et qu’ils dinaient avec ceux dont le public attendait les prochaines oeuvres.

Et puis, petit à petit, le public a appris à utiliser le réseau. Les services se sont mis au niveau pour lui faciliter l’auto-édition, le partage, le débat et la diffusion. Et ce qui était auparavant réservé à quelques élites est devenu accessible à tout le monde au point d’être devenu pour tout un chacun une part importante de la vie quotidienne.

Internet ça change la vie

Internet ça change la vie

"Révolution numérique". C'est l'expression consacrée des verbiages politiciens, mais concrètement ça veut dire quoi ? ...

J’ai écrit aussi que je voyais leur action comme celle d’un antivirus : quand je vois mon ordinateur (celui qui est sous Windows) changer inexplicablement de comportement sans que mes actions n’y soient pour rien, mon premier réflexe est de penser qu’il a été infecté par un logiciel malveillant.

De la même manière, ceux qui se sentent responsables de la société ne peuvent pas accepter qu’elle change en dehors de leur action. C’est vécu comme une intrusion dans leur pré-carré, comme une activité forcément malveillante, puisque l’administrateur du système n’a pas voulu ni souhaité ce qui se produit dans son environnement. Alors il réagit, là où il aurait mieux fait d’agir.

Car il est bien trop tard pour agir : Internet est dans la place. Internet est partout, dans nos ordinateurs, nos téléphones, nos tablettes, nos télévisions et nos consoles de jeu. Bientôt il sera dans nos éclairages, nos clés, nos moyens de paiement. Aujourd’hui, même mon ampli audio se met à jour par Internet.

Quoi que devienne le réseau dans le futur une chose est sûre : nos machines sont toutes connectées entre elles, et nous le sommes tous entre nous, à travers elles. Et là où des humains sont reliés entre eux, il y a échange, partage, débat et transmission de savoir.

Il y a eu une guerre entre Internet et les pouvoirs en place. Et Internet l’a gagnée. L’envahisseur ne se cache plus : il est bien installé et il n’hésite pas à répondre quand, au coup par coup, nos dinosaures qui n’ont pas eu conscience de la chute de la comète tentent de survivre au changement en lui donnant quelques coups de patte bien peu efficaces.

Je ne vais pas refaire ici l’historique de ces pauvres tentatives d’empêcher un changement inéluctable : gouvernance, régulation, taxes diverses, refus des effets fiscaux de la globalisation quand elle concerne les géants du web alors qu’on l’encense quand elle vient de l’industrie du pétrole ou de la culture, tout ça est bien connu. C’est trop peu, trop tard, surtout trop tard.

On achève bien les dinosaures

On achève bien les dinosaures

Copinage, incompréhension, contre-sens. Nos représentants politiques sont les seuls à croire encore que le Web est ...

Les révolutions arabes ont montré que l’usage des réseaux sociaux permettait d’organiser des actions de groupe là où dans le passé il fallait s’appuyer sur des syndicats ou des partis politiques pour mobiliser. Et je crois aussi que le Web, pour des jeunes qui atteignent aujourd’hui l’âge adulte et entrent dans la vie active en ayant eu pendant toute leur enfance sous les yeux l’opulence des pays les plus riches, a eu plus que sa part dans la motivation de révoltes qui, la crise économique aidant, ne feront que s’amplifier dans le futur.

Internet a gagné la guerre, et les populations savent s’en servir bien mieux que leurs gouvernants. Que ce soit pour prendre conscience de la façon dont il est maintenu dans la misère (Wikileaks bien sûr, mais au delà il suffit de voir la façon dont les affaires sortent via Twitter avant même les journaux télévisés pour comprendre que la couleur du Web est la transparence) ou pour organiser les mouvements sociaux, le peuple a désormais un outil qui a été créé pour rester hors de portée des tentatives de contrôle. Hadopi, Loppsi, Taxe Google, Cloud souverain et tentative de surveillance globale ne sont guère que des actions de guerilla de quelques groupes de résistants dépassés.

La guerilla est une tactique du faible au fort, et contre Internet ce sont les États qui la mènent. Je vous laisse conclure.

Les voleurs 2.0

Alors, et après ?

Longtemps, quand je prédisais la victoire d’Internet, j’ai eu en face de moi des amis qui, eux, craignaient que le commerce, les gouvernements, les forces réactionnaires de toutes provenances ne viennent réduire à néant les espoirs d’une société meilleure basée sur les principes de partage et de liberté qui ont été les bonnes fées penchées sur le berceau du réseau.

J’ai toujours fait partie du camp des optimistes. En considérant la vitesse à laquelle le public arrivait sur le réseau, et en calculant au doigt mouillé qu’il fallait en moyenne 5 ans pour passer d’un usage purement clientéliste à une appropriation plus complète des moyens d’expression et de diffusion mis à sa disposition, je faisais le pari – gagné d’avance – que la masse de gens qui auraient pris goût à la liberté serait trop importante pour un retour au statu quo ante bien avant que quiconque ne puisse réagir.

Comme toujours, j’avais raison.

Et comme toujours je me suis trompé.

Le danger n’est pas venu du commerce : ceux qui prédisaient la fin d’un Internet libre comme s’étaient éteintes les radios libres avaient oublié que l’espace numérique, à la différence du nombre des fréquences hertziennes, était infini et que quelle que soit la place prise par le commerce en ligne, il en resterait toujours autant qu’on en voulait pour le simple citoyen.

Il n’est pas venu non plus des politiques, qui n’ont jamais compris ce qui leur arrivait et qui ne le comprendront jamais : par nature, Internet rend inutiles un bon nombre d’intermédiaires, que ce soit entre les auteurs et leur public, entre les fabriquants ou les grossistes et le client final, ou entre les opinions et l’information et la population. Je crois que l’intermédiaire entre le peuple et la démocratie qu’est la représentation politique est vouée elle aussi à disparaître quelles que soient ses gesticulations pour repousser l’échéance.

Non, le danger n’est pas venu du passé, il est venu d’Internet lui-même.

La plus grande force d’Internet est dans sa résilience. Les choix technologiques du passé ont donné un réseau très fortement décentralisé, auto-correctif, quasiment impossible à contrôler – et donc à vaincre – par une entité unique quelle qu’elle soit en dehors de quelques erreurs historiques (la centralisation du DNS et du système d’adressage). Mais, peut-être à cause d’une croissance trop rapide due à la faiblesse de ses ennemis naturel, le réseau a développé une maladie auto-immune.

Peur sur le Web

Peur sur le Web

Propagande, pensée unique, méfiance et peur de l'autre : on n'est jamais responsable du malheur qui nous arrive. Alors ...

Longtemps on a parlé d’Internet comme d’un réseau dont l’intelligence était aux extrémités (end-to-end principle). Et il faut se souvenir que, même s’il y a du progrès depuis l’époque des modems RTC, le principe même du “fournisseur d’accès” est une rustine pour pallier à l’absence d’un vrai réseau informatique reliant tous les foyers entre eux. Internet est un réseau de réseaux, mais le client d’un FAI n’est pas un pair d’internet à égalité avec les serveurs qui le composent. L’asynchronie entre émission et réception, qui découle de l’usage de la paire de cuivre, tend à transformer l’utilisateur final en client simple plutôt qu’en égal qui peut participer aux échanges en tant que membre à part entière du réseau.

Il est facile de dire que cet état de fait répond aux usages et qu’un simple utilisateur n’est pas forcément quelqu’un qui participe autant qu’il consomme. Mais c’est une idée fausse, je crois : s’il n’était que récepteur, les médias broadcastés lui suffiraient. En réalité ce qu’on constate souvent c’est qu’il participe plus ou moins à hauteur de ce que sa bande passante montante lui permet et que ses usages dépendent de l’infrastructure qui lui est proposée bien plus que l’inverse.

En parallèle, et parce que la technologie transforme l’utilisateur en simple client, les services se centralisent. Ils deviennent ce qu’on appelle “des géants du Web” alors même que par principe dans un réseau de pair à pair ces termes devraient être antinomiques.

Et comme un cancer, le corps du patient devient son propre ennemi. J’ai raconté en conférence comment, par exemple, Facebook avait volé 4 fois ses utilisateurs (et en tant qu’ancien voleur je m’y connais). D’abord en transformant ses utilisateurs en ouvriers non-salariés – c’est le modèle du Web 2.0 qui consiste à vendre à ses clients, les régies publicitaires, un espace de contenus produits par des gens qui ne sont pas rémunérés mais qui attirent l’audience), puis en vendant à ces régies les informations privées – qui vous appartiennent mais que vous lui aviez confiées – pour qu’elles puissent mieux vous cibler, puis en vous vendant en bourse des parts de l’entreprise qui n’aurait aucune valeur sans votre participation, et enfin en vous proposant de payer pour promouvoir vos propres contenus auprès de vos amis, en un complet renversement du modèle normal qui veut qu’un auteur soit rémunéré en fonction de l’argent qu’il rapporte à son éditeur.

Difficile de faire mieux. Ou pire, c’est selon. Et pourtant, Facebook (et Google et iTunes et Amazon et tous les autres) y arrivent quand même : en devenant les géants qu’ils sont, en centralisant tous les services et les contenus comme ils le font, ces acteurs concentrent l’intelligence au centre du réseau et transforment les équipements tiers (smartphones, tablettes – de moins en moins interfaces d’interaction et de plus en plus interfaces de simple réception) en simples terminaux, qui de plus en plus peuvent – et sont – contrôlées à distance.

[1/2]La neutralité du réseau pour les nuls

[1/2]La neutralité du réseau pour les nuls

On a tout entendu sur la notion de neutralité d'Internet. L'ingénieur Stéphane Bortzmeyer tente d'y voir plus clair. En ...

Et c’est un mouvement général : alors même que jamais le prix du stockage local n’a été aussi bas, la mode est au cloud. On ne conserve plus ses données chez soi, là où elles sont le plus en sécurité, mais chez un tiers, qui centralise toutes les données du monde. On voudrait créer un point central de totale insécurité et de contrôle total qu’on agirait pas autrement.

Et alors même que les gouvernements ne voyaient pas comment attaquer un réseau décentralisé pour reprendre le contrôle de l’évolution de nos sociétés, voilà que son plus grand ennemi lui offre sa reddition sur un plateau: s’il y a bien une chose à laquelle les États sont habitués, c’est de traiter avec les multinationales. Dans un jeu dont on vient de voir, avec Florange, comme il se joue, l’État français joue de la menace fiscale et légale contre Google, Amazon et tous les autres pour obtenir d’eux quelque prébende en échange d’une totale liberté dans l’exploitation de leur main-d’oeuvre.

Quant au contrôle des populations, c’est en cours, avec la possibilité de couper telle ou telle fonctionnalité d’un iPhone à distance chez Apple, pourquoi pas pendant une manifestation populaire dont un gouvernement ne voudrait pas qu’elle fasse trop parler d’elle, ou avec la volonté pour le CSA en France de contrôler les contenus sur le Web comme il le fait pour la télévision, ou enfin avec l’ITU qui veut redonner le pouvoir au politique plutôt qu’au citoyen en permettant des législations nationales applicables à tous les acteurs du Net.

Conclusion

Je reste l’éternel optimiste, je ne crois pas qu’Internet puisse être transformé au point de revenir à un monde dans lequel il faut avoir des amis, du pouvoir ou de l’argent pour avoir la possibilité d’exercer son droit à la liberté de parole “sans considération de frontières”.
Je veux croire que Facebook n’est qu’une mode passagère et que le public saura se détourner d’un Apple qui le prive de toute liberté d’utiliser comme il le souhaite le terminal qu’il possède.
Je veux croire qu’avec un peu de bouteille, les gens se détourneront des services gratuits d’un Google qu’il échange avec la confidentialité de ses données, de ses mails et de sa vie entière pour revenir à des services locaux, pourquoi pas à en réinstallant chez eux des serveurs de mail, pour commencer.

Pour un Internet polisson !

Pour un Internet polisson !

Contre un Internet policé, choisissons l'Internet polisson ! C'est en gros le message de Pas sage en Seine, festival de ...

Dans mon monde idéal, les gouvernements se souviennent de leur rôle de prévision. Ils font d’Internet un service universel, en donnant aux intermédiaires une mission de service public en attendant qu’un plan fibre ambitieux permette à chacun d’organiser selon sa volonté sa connectivité, en devenant son propre FAI s’il le souhaite ou en déléguant à une association ou une entreprise, s’il le préfère. Sans filtrage, sans asymétrie des débits montants et descendants, sans services associés obligatoires.

À chacun de choisir s’il préfère un package où tout est géré par un tiers ou s’il veut être opérateur de son propre réseau tout en déléguant tel ou tel service. Un modèle comme celui-ci serait sans doute bien plus productif pour le redressement d’une économie tant locale que nationale que toutes les taxes Google du monde.

Il faudra sans doute se battre pour en arriver là, alors même que la bataille semblait gagnée d’avance. C’est dommage, mais Jefferson et La Fontaine le disaient déjà en leur temps:

Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l’une ni l’autre.

En laissant faire, après que les États ont senti le vent du boulet à ce point, je ne crois pas qu’on ait avant longtemps une nouvelle chance de garantir les libertés publiques si nous ne nous battons pas pour conserver celles que nous ont offertes de vieux soixante-huitards utopistes. Sinon nous aurons un réseau reterritorialisé, sous le contrôle de pouvoirs qui préfèrent la pérennité de leur main-mise au bonheur de leur peuple. Et parce qu’Internet n’est pas contrôlable par des démocraties, nous aurons des dictatures à la place.

Internet doit rester un truc de hippies.


Illustration par Alvaro Tapia Hidalgo (ccbyncnd)
Consulter sa présentation ici.
Tous les articles de Laurent Chemla sur Owni /-)
Nos dossiers à consulter : Un internet pas si neutre et Hacker la société.


Minority Report, c’est pour demain

Tue, 11 Dec 2012 14:23:46 +0000 - (source)

Depuis quatre ans, les projets européens de recherche en matière de reconnaissance des comportements “suspects“ se multiplient. Parmi la centaine de projets du volet sécurité du FP7, le programme de recherche et développement de la Commission européenne, une demi-douzaine sortis tout droit d’un bouquin de science-fiction sont destinés à développer des technologies permettant de repérer un “comportement anormal“. Tout ceci se chiffre en dizaines de millions d’euros.

Ce concept de vidéosurveillance intelligente (VSI), qui rencontre un certain succès en France, a un seul objectif : prévenir les crimes et les attentats. Plan le plus connu, le projet INDECT. Les recherches sont financées à hauteur de 10,9 millions d’euros par la Commission européenne. Objectifs : détecter les comportements “suspects” sur Internet (forums, groupes Usenet, serveurs FTP, Peer-to-Peer) et dans la “vraie vie“, via la VSI.

INDECT

L’objectif de la VSI est de “simplifier les procédures de recherche et de contrôle“, dans le sens où les opérateurs de vidéosurveillance ne sont pas capables de surveiller plus d’une dizaine d’écrans à la fois. En facilitant leur travail, on pourrait “réduire le nombre d’erreurs“. Grâce à cette technologie en gestation, “Scotland Yard aurait pu retrouver deux fois plus rapidement” les coupables des attentats du métro de Londres en 2005, remarque Christoph Castex, de la direction générale Entreprises et Industries à la Commission européenne.

Parmi les 17 partenaires d’INDECT, l’université des Sciences et Technologies de Cracovie (AGH) et l’université polytechnique de Gdańsk conçoivent des algorithmes permettant de détecter des “situations dangereuses“. Des capteurs sonores permettent de détecter des appels à l’aide, des hurlements, des bris de vitre, des coups de feu, tandis que les caméras peuvent détecter une personne gisant sur le sol, ou un individu brandissant un couteau ou un revolver.

Cliquer ici pour voir la vidéo.

De leur côté, les polices d’Irlande du Nord (PSNI) et de Pologne (MSWIA) testent les prototypes (collection d’algorithmes et de logiciels) et participent à l’élaboration d’une “compilation” de comportements suspects et de silhouettes, sur laquelle le système s’appuie pour détecter un mouvement “anormal“, défini comme un “comportement criminel“, ou comme un “comportement lié à un acte terroriste ou une activité criminelle grave (meurtre, braquage de banque) “. INDECT s’achèvera fin 2013.

Un « répertoire » de comportements suspects

Dans le même état d’esprit, le projet ADABTS a pour objectif de développer des modèles-types de “comportements suspects”. L’enveloppe de l’Union européenne est de 3,2 millions d’euros. Une fois finalisée, la technologie d’ADABTS devrait permettre d’analyser la voix d’un individu, sa démarche et ses mouvements. Elle permettra aussi de compter le nombre d’individus présents, par exemple lors d’une manifestation.

Parmi les partenaires de ce projet censé se terminer en août 2013, on compte l’Institut de psychologie du ministère de l’intérieur bulgare (IPMI), expert en criminologie, le ministère de l’intérieur britannique et le groupe d’armement BAE Systems, fournisseur principal du ministère de la défense britannique. ADABTS compte aussi dans ses rangs l’agence de recherche de la défense suédoise (FOI), récemment au coeur d’un projet controversé de vente d’armes à l’Arabie Saoudite.

Aux commandes des recherches scientifiques, l’université d’Amsterdam. L’équipe du professeur Dariu Gavrila, qui planchait déjà entre 2005 et 2009 sur un système de détection des comportements agressifs, met au point une batterie d’algorithmes basés sur des modèles statistiques. Concrètement, les silhouettes en mouvement sont isolées du reste de l’image après une opération de “soustraction” de l’arrière-plan. Ensuite, la silhouette se voit superposée un squelette 3D. Ses mouvements sont comparés à un “répertoire de gestes“. En analysant également les sons, comme le timbre de la voix ou son intensité, un comportement peut être analysé.

Afin de définir un comportement “anormal”, Dariu Gavrila a concocté, avec l’aide “d’experts” une base de données de comportements. Elle consiste en une liste d’actions, qui combinées forment un scénario :

Un “cri puissant” combiné avec “des poings brandis” et une “personne chutant” constitue un scénario permettant de prédire une agression. Des “gesticulations excessives” et des “regards alentour permanents” peuvent indiquer un comportement nerveux, qui, conjugué avec “porter des lunettes de soleil ou une capuche par un temps inapproprié” peut signifier un vol ou un scénario terroriste.

Les scénarios d’ADABTS vont de l’”agression” à l’”acte terroriste” en passant par la “bagarre à grande échelle”, le “vol” et la “foule paniquée”. En juin 2012, des acteurs ont simulé ces scénarios au Kyocera Stadion, le stade de football de La Haye. Parmi ces mouvements ou ces sons pouvant indiquer un “comportement anormal”, des cris, des hurlements, des moulinets avec les bras, des gestes de la main.

Dans la liste figure aussi le port d’une capuche, le fait pour un groupe de marcher dans le sens opposé à la foule, le fait pour un individu de marcher à une vitesse différente des autres, ou encore le fait de rester debout quand la majorité des personnes est assise. Un spectateur ne regardant pas le match de foot ou regardant autour de lui peut aussi être considéré comme suspect.

ADABTS

Comment différencier un comportement normal d’un comportement anormal, quand les mouvements ne parlent pas ? Comment faire la différence entre un couple s’embrassant et une agression ? Interrogé par Owni, Dariu Gavrila insiste sur l’importance de la vérification humaine :

Le système peut très bien détecter une personne nouant ses laçets dans un magasin ou prenant des photos dans un hall d’aéroport, et considérer cela comme un comportement “anormal”. En réalité, le système ne sait pas s’il s’agit d’un comportement indésirable. Il détecte simplement un comportement qui s’écarte des comportements normaux que nous lui avons appris.

Terminé en 2011, le projet SAMURAI a coûté 3,8 millions d’euros, dont 2,5 millions en provenance de l’Union européenne. SAMURAI utilisait lui aussi une liste de comportements “anormaux“, par exemple un individu semblant tenter de cacher son visage, ou une personne marchant contre le “flot régulier” d’une foule. Des algorithmes permettent au futur système de retenir les comportements “habituels” des individus, par exemple le trajet emprunté par des voyageurs au moment de s’enregistrer à l’aéroport. D’autres permettent de détecter un visage et de se focaliser dessus.

Les mouvements que sont une poignée de main, un baiser, un coup de fil ou le fait de s’asseoir sont aussi analysés. Les algorithmes ont été développés par les universités de Queen Mary (Londres) et de Vérone, mais aussi par la société Selex Elsag. Une filiale du groupe italien Finmecannica, connue depuis cet été pour avoir vendu à la Syrie un système de transmission de données.

Très proche de SAMURAI et également terminé depuis 2011, le projet SUBITO devait quant à lui permettre d’identifier un bagage abandonné, de retrouver son propriétaire, et de le suivre à la trace de caméra en caméra. Pour cela, il utilise des algorithmes de détection et de traçage développés par l’université de Leeds, l’Institut de recherche du Commissariat à l’énergie atomique (CEA) de Saclay et l’Office national d’études et recherches aérospatiales (Onera) de Châtillon.

Les comportements suspects sont détectés à une moindre échelle : ici, il ne s’agit que des propriétaires de bagages. Si un voyageur distrait oublie son sac et reste loin de celui-ci trop longtemps, il pourra être considéré comme suspect. Pour l’instant, les technologies développées par SAMURAI et SUBITO n’ont pas encore été intégrées à un système opérationnel, et sont susceptibles d’être à nouveau l’objet de recherches.

Cliquer ici pour voir la vidéo.

Une technologie pas encore mature

Les chercheurs en VSI sont unanimes : pour l’instant, la détection n’est efficace que lorsqu’il s’agit de “scènes simples“. Les partenaires d’ADABTS espèrent pouvoir à terme commercialiser un produit fini utilisant un matériel “low cost”, et le proposer aux autorités européennes, aux forces de police et aux sociétés de services de sécurité. Un enthousiasme que ne partage pas Dariu Gavrila :

Pour l’instant, la détection automatique comportementale n’en est qu’à ses débuts. Nous avons fait de très grands progrès, mais nous sommes encore loin d’un système intelligent capable de détecter automatiquement des comportements anormaux. Il est facile de détecter un comportement visible comme une bagarre, mais quand il s’agit d’un “comportement camouflé”, c’est une autre paire de manche !

Même constat en ce qui concerne le “vidéo tracking”, ou “pistage” d’une personne de caméra en caméra :

Pour l’instant, nous sommes capables de détecter un individu quand il y a peu de monde et quand le fond est statique, mais quand il y a foule et que les gens interagissent entre eux, la situation est bien plus complexe.

Pour les chercheurs, malgré l’avancée des recherches, il faudra attendre encore cinq ou six ans avant de voir apparaître une caméra véritablement “intelligente”.

“L’effet Big Brother”

Quid des questions éthiques ? À l’université de Kingston, des chercheurs planchent sur le projet ADDPRIV. Quand un comportement suspect est détecté, le système imaginé collecterait les vidéos précédant et suivant la détection, afin de pouvoir suivre à la trace la personne suspectée. Financé à hauteur de 2,8 millions d’euros par la Commission européenne, ADDPRIV veut assurer un “juste milieu” entre “sécurité et protection de la vie privée“. L’idée est de ne garder que les images et les sons “pertinents“, ayant trait à un évènement suspect, grâce à des algorithmes de “tri” des données.

Pour Daniel Neyland, de l’université de Lancaster et membre du bureau éthique d’ADDPRIV, les expériences menées, “avec l’autorisation des personnes filmées et en vase clos” sont “l’occasion de tester la façon dont nous pourrions renforcer à la fois la sécurité et la vie privée”. Pour cela, les données pourraient notamment être “anonymisées” grâce au “hachage” et au chiffrage des images stockées, et à une application conçue pour flouter les visages. Cela suffit à transporter de joie les concepteurs du projet :

Grâce à sa technologie de surveillance ciblée, ADDPRIV permettra une meilleure acceptation sociale de la vidéosurveillance en réduisant l’effet Big Brother, notamment en collectant le minimum de données possible.

Cliquer ici pour voir la vidéo.

Concernant le projet ADABTS, l’un de ses coordinateurs à l’agence de recherche de la défense suédoise (FOI), Henrik Allberg, affirme à Owni :

ADABTS n’identifie personne, il détecte des corps, une représentation de ce qui se passe. La reconnaissance de comportements couvre une zone restreinte, et se centre sur une activité nocive potentielle, indépendamment de l’identité d’une personne ou de son histoire.

Pour Dariu Gavrila, la détection automatique est même plus “objective” que l’oeil humain :

L’opérateur humain est plus subjectif, il a tendance à classer les individus observés dans des catégories, selon leur âge ou leur apparence, par exemple. Un système intelligent automatisé demeurera bien plus objectif et moins discriminant.

À la Commission européenne, Christoph Castex affirme de son côté que les différents projets respectent un “code de déontologie“, ainsi que les législations nationales et internationales en vigueur, comme la Charte des droits fondamentaux de l’UE et la Convention européenne des droits de l’homme. Pour Castex, une fois la technologie arrivée à maturité, la balle sera dans le camp des États :

Le prototype est destiné aux forces de police des pays européens, et elles seront obligées de se conformer aux lois existantes. Tout système basé sur INDECT sera forcé de respecter les données privées.

Tout comme ADABTS, le projet INDECT possède un “bureau éthique” indépendant, composé d’experts de la protection des données, d’universitaires et de membres de la police nord-irlandaise. Ce bureau est chargé de surveiller les outils développés et d’évaluer leur respect de la vie privée. À noter que si ce bureau diffuse l’ensemble des documents ayant trait à INDECT sur le site du projet, cette transparence est surtout due à la pression exercée par 177 députés européens, en 2010. À l’origine, le bureau éthique avait ainsi décidé de “garder confidentielles les informations susceptibles d’avoir un effet négatif sur la réputation du projet” , selon le Parlement européen.

Aujourd’hui, Christoph Castex constate que “INDECT a retenu la leçon”, après avoir été la cible de nombreuses critiques, notamment de la part des Anonymous. “Tous nos projets se posent des questions éthiques“, affirme-t-il. Un projet de recherche a même pour but de “réfléchir aux limites de ce que la société peut accepter” : le projet DETECTER.

Selon différents membres des “groupes éthiques” rattachés aux projets de VSI, des conseils devraient être adressés aux “futurs utilisateurs” des technologies développées. Parmi ces conseils, la minimisation des données, c’est-à-dire l’utilisation du minimum de données personnelles possible et le floutage des visages, qui rendrait impossible tout “profilage“.

Reste à espérer que ces conseils seront pris en compte. Car si l’on en croit Rosamunde Van Brakel, chercheuse spécialisée dans les relations entre vidéosurveillance et société au Law Science Technology & Society (LSTS) de l’Université libre de Bruxelles, interrogée par Owni, ces technologies nous emmènent tout droit vers une société de type “Pré-crime” :

Le risque d’erreurs et de fausses accusations est élevé. Cela peut mener à une culture de la peur, à une société où le principe de présomption d’innocence serait perdu au profit de la méfiance généralisée. Certains “indicateurs de méfiance” pourraient être basés sur des hypothèses erronées et sur des préjugés. Dans ce cas, cela pourrait conduire à une catégorisation sociale et à une “discrimination algorithmique”.

Et de conclure : “Si le contrôle de ces technologies n’est pas béton, alors il faudra s’inquiéter, notamment de ce qui arriverait si elles étaient détournées de leur objectif initial.


Photo par surian Soosay (cc-by)


Fleur Pellerin : “Oui, nous voulons des #fablab partout en France”

Mon, 10 Dec 2012 13:36:46 +0000 - (source)

Hier soir, la ministre déléguée aux PME, à l’Innovation et à l’Économie numérique Fleur Pellerin a répondu à notre question posée en guise de titre au compte-rendu d’une récente table ronde sur les fab labs : “Lui, président, implantera-t-il des fab labs ?”

Cette table ronde fermée, organisée par Aymeril Hoang, conseiller innovation et économie numérique, avaient réuni jeudi dernier une quarantaine de participants issus du ministère, de l’industrie, comme PSA ou SEB, et du microcosme des startups du numérique.

Il semble que la promesse de la ministre était attendue si l’on en juge le nombre de RT, presqu’une centaine, et les réactions qui ont suivi malgré l’heure tardive. Où l’on a pu voir se positionner les différentes sphères qui gravitent autour de ces mini-usines collaboratives ouvertes conceptualisée au Center for Bits and Atoms du MIT.

Abus de langage

Il y a d’abord le monde du design. Le designer Jean-Louis Fréchin, aka @nodesign cité par la ministre ci-dessus, s’est positionné depuis longtemps sur le créneau avec l’ENSCI-les Ateliers (Ecole nationale supérieure de création industrielle). Quitte à tordre un peu la réalité quand il affirme que “le fab lab de l’ENSCI [qu'il a créé] fête ses trente ans” : les fab labs datent du début des années 2000, c’est un concept encadré par une charte. Laquelle précise bien que les fab labs sont ouverts, contrairement à l’ENSCI-les Ateliers, réservé aux élèves. Le logo du réseau des fab labs n’y figure d’ailleurs pas, non plus que la charte. Ce qui ne veut pas dire que des objets beaux et utiles n’y soient pas fait, c’est juste un abus de langage. Et il y a fort à parier que l’engouement pour le concept va encore favoriser la dilution du terme, pour ne pas dire sa récupération. Si le gouvernement met la main à la poche, il faudra donc être attentif au type de lieux subventionnés.

Nicolas Bard, co-fondateur d’ICIMontreuil, un “Creative Space de 1.850 m2 qui fait exister les idées des artistes, créateurs, entrepreneurs et startups de la Création” s’est aussi immiscé.

Sauf que là encore, le fab lab sera réservé aux adhérents du lieu. ICIMontreuil louera en effet des espaces de travail et mettra à leur disposition des labs communs, dont le futur fab lab. En septembre, la ministre avait indiqué vouloir “faire du 93 un laboratoire du numérique” et “[s]’impliquer davantage à Montreuil”. Tout en démentant lorgner sur la mairie en 2014, actuellement occupée par Dominique Voynet.

La sphère éducative a aussi donné de la voix, en l’occurrence le Fac Lab de Gennevilliers et l’une de ses co-fondatrices, qui porte aussi un projet en province, La Forge des possibles. Pour mémoire, les fab labs sont nés dans le milieu universitaire. La dimension éducative est primordiale, souligne sa charte : partage des connaissances, apprentissage par les pairs, etc.

L’économie collaborative a également donné du tweet, en l’occurrence le collectif OuiShare :

Et bien sûr, les journalistes aussi ont sauté sur l’occasion :)

Visite au programme

En attendant une hypothétique table ronde et une annonce formelle de plan de développement des fab labs, on devrait au moins voir Fleur Pellerin tripoter une imprimante 3D, photogénie oblige. Et tant pis si la découpe laser est bien plus utile :


Photo de Fleur Pellerin via le flickr du PS [CC-byncnd] remixée Owni #specialfablab


Une tempête techno-magique !

Fri, 07 Dec 2012 10:11:17 +0000 - (source)

Bonjour et bienvenue dans l’antre magique de… “Vendredi c’est Graphism” !

Comme tous les vendredis, je pars à la découverte de la créativité et du design et cette semaine c’est sur la magie que je me suis arrêté ! Plus les technologies évoluent, moins nous comprenons en détail comment elles fonctionnent. Nous nous laissons donc parfois bercer par leur animisme, leur côté vivant, leur magie.

Magicien OpenSource

C’est sur ce postulat que le magicien Marco Tempest a décidé de nous faire rêver avec ses illusions. Depuis toujours, l’art de l’illusion fascine et les grands magiciens ont bien compris les ressorts de notre cerveau pour pouvoir le manipuler. Mais la magie évolue et innove grâce à Marco Tempest, cet illusionniste suisse vivant à New York. En dehors de faire des tours qui ne cessent de nous impressionner, il considère son travail comme de la “magie open source” car, sur Youtube, sur son Twitter et sur son Facebook, il révèle ses secrets aux grands public et aux communautés en ligne avant de passer à de nouveaux tours. Une sorte de politique créative de la terre brûlée !

Commençons par sa toute dernière création qui est passionnante. Marco nous raconte une histoire visuellement saisissante à propos de Nikola Tesla, qui est, n’ayons pas peur des mots, le plus grand geek qui ait jamais vécu. De son invention triomphante qu’est le courant alternatif  à ses derniers jours tristes et sans le sous, voici sa vie présentée du point de vue d’un magicien…

Cliquer ici pour voir la vidéo.

Les coulisses

De même, il n’oublie pas de publier sur les coulisses et les trucs de cette histoire.

Cliquer ici pour voir la vidéo.

De la réalité augmentée magique

Certes, Marco Tempest adore les dernières innovations, les dernières applications, les écrans connectés mais n’oublions pas que tous les grands magiciens ont toujours été des amoureux de la technologie. Ainsi, ses expérimentations se jouent du réel et du virtuel à commencer par ce tour qu’il a réalisé pendant TED et où il manipule des cartes en réalité augmentée.

Cliquer ici pour voir la vidéo.

Magicien social

Sur Twitter et Facebook, Marco Tempest discute et réagit beaucoup, il crée aussi énormément grâce aux idées des internautes et en profite pour les créditer au passage. De même, il partage le “code” de ses illusions et ses tours, que ce soit des applications pour iPhone, iPad ou même d’autres outils techno-centrés. Déjà à l’époque, lors de la sortie de l’iPhone, il paradait avec ses applications magiques et captivantes.

À la sortie d’un Apple Store, il y a cinq ans :

Cliquer ici pour voir la vidéo.

Imaginaire, technologie & narration

Cette combinaison entre imaginaire et nouvelles technologies, Marco Tempest est le seul à la pratiquer de façon vraiment intensive. À 22 ans, le magicien suisse remportait déjà le New York World Cup of Magic, puis enchaînait quelques années plus tard sur une série télévisée intitulée “The virtual Magician”. Série qui sera diffusée dans des dizaines de pays à travers le monde. Cependant, il n’en oublie pas la poésie, la simplicité et la magie des écrans comme par exemple avec ce tour réalisé à l’aide d’ iPod Touch

Cliquer ici pour voir la vidéo.

Une tendance qui va évoluer ?

Même si à l’heure actuelle l’outil et la technologie sont énormément mis en avant, je pense qu’à l’avenir nous allons obtenir des réalisations beaucoup plus simples où la technologie perdra sa place centrale au profit de l’histoire et du tour de magie en lui-même. Un exemple avec cette vitrine d’une boutique Hermès au Japon. Un simple écran, un carré de soie vendue par la marque et… regardez comme la magie opère.

Cliquer ici pour voir la vidéo.

Histoire & techno-invisible

La technologie discrète, invisible au profit de l’histoire. Voici une démarche de magicien qui plaira sans doute aux designers… ou alors est-ce que ce sera l’inverse ? ;-)

En attendant, vous pouvez retrouver tous les tours de Marco Tempest sur son site, mais aussi découvrir ses petits camarades techno-magiciens comme Simon Pierro, Charlie Caper et Erik Rosale,  Galih Montana ou encore le projet Card2Phone !


[MAJ] Neutralité du Net : une table ronde la semaine prochaine

Thu, 06 Dec 2012 17:46:33 +0000 - (source)

Mise à jour, 10/12/12, 12h00 : La date de la table ronde a été finalement arrêtée au mardi 15 janvier 2013, de 9 heures à midi. Pour le moment : on vous tient au courant si un nouveau rebondissement vient bousculer une nouvelle fois le calendrier !

Mise à jour, 07/12/12, 17h50 : Le cabinet de Fleur Pellerin a annoncé en début d’après-midi que la table ronde était finalement décalée au mois prochain. Selon nos informations, elle devrait avoir lieu aux alentours du 15 janvier 2013.

Ce changement de dernière minute fait suite à une vague de protestations de la part de députés telles Laure de la Raudière (UMP) et Corinne Erhel (PS), spécialistes du sujet, et de l’association UFC Que Choisir, qui ont regretté le calendrier serré imposé par le gouvernement. Sans compter que le vendredi est une journée que les parlementaires consacrent le plus souvent à leur circonscription.

A la suite de cet article, Laure de la Raudière allait jusqu’à évoquer un “foutage de gueule” de la part du gouvernement :

Résultat : Bercy décale, afin de mettre tout le monde d’accord. Et indique que “tous les acteurs concernés” seront de la fête : opérateurs, fournisseurs de services, intermédiaires, politiques, associations ou encore personnalités du numérique devraient recevoir leur carton dans la journée, si ce n’est déjà fait. Manière de répondre aux inquiétudes de l’élue de l’opposition et d’un “porte-parole de Google France”, qui indiquait dans La Tribune ne pas avoir souvenir d’une invitation.

Nous avons été conviés à participer à cette table ronde. Nous espérons pouvoir en profiter pour poser un maximum de questions auprès du gouvernement. N’hésitez pas !

L’événement avait été annoncé fin septembre, par la même ministre, en préambule du colloque “Territoires du numérique” organisé par l’Arcep. Quelques jours auparavant, la neutralité du net était au cœur d’un rapport du régulateur des télécoms et d’une proposition de loi d’une député de l’opposition, Laure de la Raudière.

Le gouvernement semble décidé à reprendre la main sur le sujet, à l’heure où il est plus que jamais sur la table, en France avec les dernières actualités sur l’opacité des interconnexions entre acteurs du web et à l’international avec le sommet des Nations Unies à Dubai. Nous ne manquerons pas de vous tenir informés des détails de la table ronde.


Photo CC FlickR Faves nuridao


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles