Deepfakes : la menace invisible qui touche déjà le Québec

En février 2026, une vidéo de François Legault circulant sur les réseaux sociaux le montrait annoncer sa démission. Le problème…
1 Min Read 0 1

En février 2026, une vidéo de François Legault circulant sur les réseaux sociaux le montrait annoncer sa démission. Le problème ? La vidéo était un deepfake — un faux hyperréaliste généré par intelligence artificielle. Elle a été vue 500 000 fois avant d’être retirée. Et elle n’est que la pointe de l’iceberg d’un phénomène qui prend de l’ampleur au Québec et qui menace notre démocratie, notre vie privée et notre confiance collective.

Les deepfakes, ce sont des contenus audiovisuels manipulés ou entièrement créés par l’IA pour faire dire ou faire faire à quelqu’un des choses qu’il n’a jamais dites ou faites. La technologie a évolué si rapidement que même les experts ont de la difficulté à distinguer le vrai du faux à l’œil nu. Et elle est maintenant accessible à n’importe qui — des applications gratuites permettent de créer des deepfakes convaincants en quelques minutes. Comme on l’analysait dans Les PME québécoises sont des cibles faciles pour les hackers (et voici pourquoi), l’IA avance plus vite que les lois.

Les cas québécois qui ont fait les manchettes

Outre la fausse vidéo de Legault, plusieurs incidents ont secoué le Québec. En 2025, une enseignante de Laval a découvert que des photos d’elle avaient été manipulées par des élèves pour créer des images à caractère sexuel. L’affaire a mené à des suspensions scolaires, mais les dommages psychologiques étaient faits. À Québec, un homme d’affaires a été victime d’une fraude de 150 000 $ après avoir reçu un appel vidéo d’un supposé partenaire — en réalité un deepfake vocal et visuel.

Le SPVM rapporte une augmentation de 300 % des plaintes liées aux deepfakes depuis 2024. Les victimes sont variées : politiciens, personnalités publiques, adolescentes, entrepreneurs. Personne n’est à l’abri. Et le cadre juridique actuel est inadéquat pour faire face à cette nouvelle réalité. Ce vide juridique est abordé dans L’indice du bonheur au Québec : sommes-nous vraiment heureux ?.

La menace pour les élections de 2026

Avec l’élection provinciale du 5 octobre 2026, les experts en cybersécurité sont sur le qui-vive. Les deepfakes politiques — fausses déclarations de candidats, vidéos manipulées de débats, faux endorsements — pourraient influencer le vote de milliers d’électeurs. Le Directeur général des élections du Québec a annoncé la création d’une cellule de veille numérique spécialement dédiée à la détection de deepfakes pendant la campagne électorale.

L’Université de Montréal et le Mila (Institut québécois d’intelligence artificielle) ont développé des outils de détection de deepfakes qui seront mis à la disposition des médias et des partis politiques. Mais la course est inégale : créer un deepfake prend quelques minutes, le détecter et le réfuter peut prendre des heures — pendant lesquelles le faux s’est déjà propagé. L’enjeu électoral est détaillé dans Les organismes communautaires du Québec sont à bout de souffle.

Le cadre juridique : en retard sur la technologie

Au Canada, il n’existe pas de loi spécifique contre les deepfakes. Les victimes doivent se rabattre sur des dispositions existantes : diffamation, harcèlement, fraude, distribution non consensuelle d’images intimes. C’est compliqué, coûteux, et souvent insuffisant. Le projet de loi fédéral C-63, qui vise à moderniser la protection des contenus numériques, inclut des dispositions sur les deepfakes, mais son adoption traîne en longueur.

Au Québec, la Loi sur la protection des renseignements personnels offre un certain recours, et la Commission d’accès à l’information peut intervenir. Mais les mécanismes sont lents face à la viralité des contenus. Plusieurs juristes québécois militent pour une législation provinciale spécifique qui criminaliserait la création et la distribution de deepfakes non consensuels, avec des peines exemplaires.

Comment te protéger

Première ligne de défense : la littératie numérique. Apprends à reconnaître les signes d’un deepfake — mouvements des yeux anormaux, synchronisation labiale imparfaite, texture de peau trop lisse, ombres incohérentes. Des outils en ligne gratuits comme Deepware Scanner et Microsoft Video Authenticator peuvent t’aider à vérifier l’authenticité d’une vidéo suspecte.

Pour protéger ta propre image, limite la quantité de photos et vidéos de toi disponibles publiquement en ligne. Chaque image que tu publies sur Instagram, TikTok ou Facebook est une donnée d’entraînement potentielle pour un algorithme de deepfake. Rends tes profils privés si possible, et sois sélectif dans ce que tu partages. Des conseils de cybersécurité additionnels sont disponibles dans Le hockey féminin explose au Québec et c’est juste le début.

Ce que fait le Québec pour combattre le phénomène

Le gouvernement du Québec a annoncé en janvier 2026 un investissement de 10 millions de dollars dans la recherche sur la détection de contenus synthétiques. Le Mila, déjà leader mondial en IA, coordonne un consortium de chercheurs québécois, canadiens et européens pour développer des outils de détection plus rapides et plus précis.

Du côté éducatif, le ministère de l’Éducation a intégré un module sur les deepfakes dans le programme de citoyenneté numérique au secondaire. Les élèves apprennent à identifier les faux contenus, à comprendre comment l’IA peut être utilisée pour manipuler l’information, et à développer un esprit critique face aux médias numériques. C’est un début, mais il faudra aller plus loin. Pour suivre l’évolution de l’IA au Québec, Violence armée à Montréal : la métropole face à ses démons couvre les développements en continu.

Les deepfakes ne vont pas disparaître — la technologie va continuer de s’améliorer. La question n’est pas si tu vas être exposé à un deepfake, mais quand. Et ta meilleure arme, c’est l’éducation et la vigilance. Dans un monde où voir ne veut plus dire croire, c’est l’esprit critique qui fait la différence.

Rédaction