J’avais eu l’occasion en 2018 d’évoquer dans un long billet ce que m’inspirait l’arrivée des hypertrucages, ou deepfakes, dans les domaines de la vidéo et de l’image. J’ai continué à surveiller de près ce sujet car il était clair qu’il aurait des impacts forts dans les domaines de l’information et de sa vérification et donc à terme des conséquences directes sur les métiers de la veille et de l’intelligence économique.
De fait, en trois ans, le périmètre d’action des technologies s’est étendu de manière démesuré, tiré à la fois par le besoin d’expérimentation des chercheurs, par le lancement d’offres commerciales (notamment les « so called » metavers) ou par les attentes et inquiétudes des secteurs liés à la Défense et au renseignement étatiques (tromper/détecter la tentative de tromperie).
Le domaine du fake (ou a minima du faux) s’est donc étendu à tous les types d’imagerie, qu’il s’agisse de nos photos de famille, d’imagerie satellite ou de clichés médicaux. La voix n’y échappe pas non plus, pas plus que la génération de texte et c’est à un déluge de faux auquel nous serons bientôt soumis. Pas forcément dans un objectif de manipulation d’ailleurs, puisque nombre de ces synthetic media sont conçus comme des matériaux d’entraînement pour l’intelligence artificielle, notamment dans la prédiction météorologique ou l’analyse d’images médicales. Pour autant il est évident que de nombreux usages auront également pour but la manipulation, la tromperie, l’intoxication,…
Dans une étude rédigée pour l’Observatoire Stratégique de l’Information je tente un état des lieux de ces technologies du faux dont l’impact sera de plus en plus sensible dans le réel. Car le faux n’est pas l’irréel… Bonne lecture!