S’accumulent parfois dans nos cerveaux des informations disparates qui finissent par s’attirer jusqu’à ce que coalescence s’ensuive et ouvre alors de nouveaux champs de réflexion. C’est le cas aujourd’hui avec ces thèmes que je vais tenter de dénouer.
L’émergence des faits alternatifs
Les faits alternatifs ont debarqués dans notre espace-temps voilà un peu plus d’un an, lorsque Kelly-Anne Conway, conseillère du président Trump évoquât ce terme pour justifer les dires du porte-parole de la Maison Blanche, Sean Spicer. Au lendemain de la cérémonie d’investiture du président, celui-ci accusait les médias d’avoir volontairement sous-estimé les chiffres de la foule qui y assistait. Or les données disponibles montraient bien qu’il n’y avait pas eu tant de participants que cela, en tout cas moins que pour celle d’Obama.
Concrètement les faits alternatifs sont donc des mensonges ayant pour objectif de plier la réalité à ses objectifs, la manipuler. Ce qui change et inquiète avec l’exemple US c’est cette capacité d’assumer le mensonge, de le considérer comme un élément factuel. Nous ne sommes pas dans 1984 où une novlangue limitant le langage et le détournant de son sens premier permet la manipulation des masses, non, ici nous sommes dans le bobard pur, simple et utilisé sciemment comme matériau de construction d’une argumentation. Une reconstruction de la réalité en somme.
On était habitués à ce que l’histoire soit réécrite par les vainqueurs dans les périodes post-conflictuelles, mais c’est dorénavant le passé immédiat, les évènements de la veille, qui sont susceptibles d’être réécrits en quasi-temps réel, alors même que tout le monde a pourtant encore les faits en mémoire.
L’arrivée de Deep fakes
Le terme de Deep fakes est plus récent encore. Il s’agit d’une expression forgée en ajoutant au terme « fake » le « deep » de deep learning qui désigne un ensemble de techniques permettant aux intelligences artificielles d’apprendre à reconnaître des formes, structures, objets, personnes,… (lire cet article). Des techniques fournies ici par TensorFlow de Google.
Les premiers Deep fakes sont apparus durant l’automne 2017 lorsqu’ont émergé sur le web (surprise!) des vidéos pornographiques d’actrices hollywoodiennes célèbres (Gal Gadot, Emma Watson, Jennifer Lawrence, Daisy Ridley,…). Des vidéos si réalistes qu’il a fallu un peu de temps pour repérer la manipulation.
Elles ont été créées avec des technologies libres mettant en oeuvre le deep learning comme FakeApp , ou s’inspirant de Face2face, un logiciel expérimental présenté par une équipe de chercheurs en 2016, et partagées sur Reddit comme l’avait découvert le magazine Vice en décembre dernier. [1. J’en profite pour évoquer l’acuité de la vision de l’auteur de science-fiction Connie Willis qui dès 1999, avait envisagé quelque chose d’approchant dans son roman Remake, en le cantonnant certes au monde du cinéma mais en anticipant également comment on pourrait utiliser ces techniques au nom du politiquement correct.]
Comme on le voit, l’altération peut être effectuée en temps réel avec un modèle de personnage connu. En effet, la contrainte réside pour l’instant dans le fait qu’il y ait besoin de nombreuses images d’une même personne pour en créer une modélisation crédible. Mais pour combien de temps ? Toutes ces photos que nous laissons sur les réseaux sociaux, couplées à une capacité de modélisation qui va s’améliorant (en utilisant par exemple des photos de personnes nous ressemblant un peu ou des représentations fabriquées de toutes pièces), pourrait rapidement faire reculer cette barrière.
Le potentiel d’une telle technologie est évidemment énorme et va beaucoup plus loin que la seule pornographie. Barack Obama nous le dit d’ailleurs très bien dans cette vidéo. A moins que…
Conséquences à court terme pour les organisations
Ce sont donc dorénavant toutes les images, fixes ou mobiles, qu’il va falloir prendre avec des pincettes. Ce n’est pas nouveau me direz-vous, Staline voilà presque un siècle fut l’un des premiers à utiliser la falsification de photos pour manipuler l’opinion.
Ce qui change ici c’est la possibilité donnée à tout un chacun de produire des photos et vidéos falsifiées de qualité. Et ce n’est qu’un début car on imagine bien qu’une telle technologie va intéresser de nombreux acteurs du numérique et que, commoditisation oblige, ils offriront de plus en plus d’apps/logiciels/services en ligne de ce type, de plus en plus faciles à utiliser et dont les traces seront de plus en plus difficiles à repérer. La falsification par tous, pour tous et bien sûr contre tous.
Les risques (tromperie, influence, manipulation, usurpation d’identité, chantage à la diffusion…) sont en effet aisés à anticiper dans tous les domaines de l’activité humaine et notamment dans celui des organisations publiques et privées et il est clair que les (proches) années à venir devront voir l’arrivée de nouvelles compétences chez les responsables de veille et analystes. La capacité à gérer la « matière » visuelle disponible en ligne était déjà indispensable pour nombre d’entre eux mais l’utilisation d’outils de détection des deep fakes le sera plus encore, tout comme l’intégration de ces mêmes outils aux plateformes de veille du marché.
La DARPA toujours en pointe, a d’ailleurs annoncé cette semaine qu’elle lançait un programme dans le but de permettre d’automatiser cette détection et, on le suppose, d’optimiser ces mêmes techniques de falsification pour un usage militaire, mesures et contre-mesures (on parle ici de la DARPA…).
La conjonction avec la question des faits alternatifs est évidente. Il s’agira de générer une « deep fake reality » alternative en même temps qu’on l’énonce. Montrer des images où la foule est nombreuse en même temps qu’on dit qu’elle l’est, à la manière des publicités virtuelles qu’on incruste et fait évoluer en temps réel sur des terrains de foot ou des cockpits de Formule 1.
Produire du discours ainsi que les représentations visuelles qui le soutiennent en quasi-temps réel et peut-être, à terme, en temps-réel. Je ne dis pas que ça arrivera demain mais certains vont forcément tenter (sont en train) d’y aller dans les années (mois?) qui viennent.
Autant de réalités alternatives que d’individus
Un dernier point et pas des moindres me tracasse et me ramène à ce texte écrit en 2006 sur mon blog ZDnet . J’y expliquais que :
En anticipant un peu (…) on pourrait imaginer construire un raisonnement en ne choisissant que les matériaux qui nous arrangent, ceux qui collent à nos présupposés, à nos biais cognitifs (…). On connaît la facilité des politiciens à faire parler les statistiques en fonction de leurs besoins partisans. Il en va de même avec le web tant il propose de données permettant de soutenir à la fois tout et son contraire. Ce phénomène pourrait conduire à une hyperindividualisation du web, un web à son image, miroir stérile d’une réflexion tournant à vide. L’évaluation par les pairs n’y serait plus possible car chacun serait le seul expert de son propre parcours cognitif. Chaque individu y deviendrait « son propre pair (père?) » à la fois modèle et disciple de lui-même, expert de sa propre expertise.
On pouvait appréhender ici avec un peu d’avance le problème des bulles de filtres devenu si aigu depuis…
Mais les développements précédents me poussent à aller plus loin que cette question des bulles dans lesquelles les GAFA nous enferment déjà à nos corps consentants et m’amènent à anticiper une situation plus complexe encore au niveau individuel.
En effet, un certain nombre d’artefacts permettent déjà de superposer un contenu externe à ce qu’on peut encore appeller la Réalité. Il s’agit par exemple d’applications pour smartphones, de casques, de cardboards, mais aussi très prochainement de lunettes, de lentilles et must du must, d’implants. De fait la réalité augmentée va petit à petit nous coller à la peau, ou plutôt à la rétine. A partir de là, parce que ça nous arrange, comme nous arrange le fait d’être déjà confortablement installé au creux de notre bulle de filtre, le pire est envisageable.
Le pire ce serait de vivre dans notre propre réalité alternative, celle qu’on génère déjà par nos interactions avec les personnes et objets connectés qui nous plaisent. Pas les autres, ceux qu’on n’aime pas ou qui nous dérangent. Réalité alternative dans laquelle il fait toujours beau. Réalité alternative dans laquelle journaux, télévisés ou non, ne feraient dire aux hommes politiques remodélisés en temps réels par nos goûts que ce que l’on a envie d’entendre.
Ce que cette situation a de plus dangereux que celle que nous connaissons c’est sa potentielle permanence.
Qui pourrait bien nous empêcher d’évoluer toute la journée dans cette réalité parallèle si plaisante dans laquelle on remplace le visage de son patron par celui de Dark Vador et celui de sa collègue par celui-ci?
Qui pourrait nous empêcher de nous regarder dans un miroir et d’y voir le visage de Newman, jouant ainsi avec l’image que nous nous renvoyons à nous-même.
Et parce qu’on utilisera des artefacts et applis appartenant aux GAFA (ou à leurs remplaçants) qu’est-ce qui les empêchera d’interférer plus brusquement encore avec notre réalité personnelle pour y injecter messages publicitaires ultra ciblés, produits divers et propositions de rencontres.
Images tirées du film Invasion Los Angeles de John Carpenter (1988)
Distinguer ce qui est lié à ce que ces algorithmes font de nos historique d’interactions et ce qui est de l’ordre de l’injonction/insinuation externe deviendra de plus en plus complexe tant nous alimenterons et baignerons en permanence dans ce flux.
Bien sûr nos besoins d’interactions incarnées, de nous cogner aux coins du réel et de sentir la terre sous nos pieds se feront régulièrement sentir et on peut déjà prédire un bel avenir aux coachs en réadaptation au réel et aux chantres des « pieds dans la glaise », mais pour la majorité d’entre nous, la situation la plus probable car la plus confortable sera celle que je viens d’évoquer, une aliénation soft car consentie et alimentée par nos soins.
Tout cela donne le tournis mais je crains que ce ne soit ce vers quoi nous nous dirigeons d’un pas décidé, avec des degrés de raffinement qui apparaîtront au long du chemin.
Le mot de la fin à nouveau à Philip K. Dick, créateur de réalités alternatives et spécialiste incontesté du questionnement de la Réalité :
Des réalités truquées ne peuvent créer que des êtres humains truqués. Ou alors, les êtres humains truqués ne peuvent engendrer que des réalités truquées pour les vendre à d’autres êtres humains et les transformer elles aussi en contrefaçon d’eux-mêmes. On obtient donc des faux êtres humains inventant de fausses réalités et les colportant à d’autres faux êtres humains. C’est simplement une version grand modèle de Disneyland.
Si ce monde vous déplaît… et autres écrits. Ed. de l’Eclat. 1988
1 commentaire