Qu'est-ce que l'IA moderne?
Le terme «intelligence artificielle» couvre un éventail considérable de technologies, des filtres anti-pourriels dans votre boîte courriel aux systèmes capables de tenir une conversation, d'écrire du code ou de générer des images photoréalistes. Quand les gens parlent d'IA aujourd'hui, ils désignent généralement un type précis de système : un grand modèle de langue (en anglais, large language model ou LLM).
Voici la version courte de son fonctionnement. Des développeurs rassemblent d'énormes quantités de texte — des centaines de milliards de pages web, de livres, d'articles scientifiques, de décisions judiciaires et de référentiels de code. Ils entraînent ensuite un modèle mathématique sur ces données. Durant l'entraînement, le modèle apprend des schémas statistiques : quels mots ont tendance à suivre quels autres, dans quel contexte, en réponse à quels types de questions. Ce processus s'exécute sur des milliers de puces informatiques spécialisées appelées GPU pendant des semaines ou des mois, à un coût pouvant atteindre des centaines de millions de dollars.
Le résultat est un modèle comportant des centaines de milliards de valeurs numériques internes appelées paramètres — imaginez des milliards de petits cadrans, chacun réglé à une valeur précise — qui encodent collectivement ce que le modèle a appris. Lorsque vous tapez une question dans ChatGPT, le système utilise ces paramètres pour prédire le mot suivant le plus probable statistiquement, puis le mot d'après, et ainsi de suite, jusqu'à produire une réponse.
Le qualificatif «grand» dans grand modèle de langue est important. Ces modèles ont des centaines de milliards de paramètres, entraînés sur une infrastructure informatique dont la construction et le fonctionnement coûtent des sommes considérables. C'est cette échelle qui rend l'IA moderne qualitativement différente des systèmes d'IA d'il y a seulement dix ans — et qui fait que le moment actuel semble si décisif.
Quels systèmes d'IA rencontre-t-on aujourd'hui?
Les systèmes d'IA que la plupart des Canadiens rencontreront comprennent :
- Agents conversationnels et assistants rédactionnels : ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Copilot (Microsoft)
- Générateurs d'images : DALL-E, Midjourney, Adobe Firefly
- Assistants de codage : GitHub Copilot, Cursor
- Outils vocaux : reconnaissance vocale, synthèse vocale, systèmes de service à la clientèle basés sur l'IA
- Moteurs de recommandation : les systèmes qui décident ce que vous voyez sur YouTube, TikTok, Spotify et Netflix
- IA administrative : systèmes utilisés par les gouvernements et les employeurs pour filtrer les candidatures, évaluer les demandes d'immigration, signaler les fraudes aux prestations et formuler des recommandations en matière de mise en liberté sous caution
Cette dernière catégorie est moins visible, mais à bien des égards plus conséquente — c'est là que l'IA prend déjà des décisions qui affectent la vie des gens, avec une transparence et une imputabilité limitées.
En quoi est-elle différente des logiciels précédents?
Les logiciels traditionnels suivent des règles explicites rédigées par des programmeurs. Un programme de prévision météorologique contient des équations décrivant le comportement des masses d'air. Un moteur d'échecs évalue les mouvements possibles selon une fonction de score. Un programme de déclaration de revenus suit la Loi de l'impôt sur le revenu, règle par règle. Le programmeur décide ce que fait le logiciel en rédigeant des instructions.
Les systèmes d'IA comme les LLM fonctionnent différemment. Aucun programmeur n'a explicitement rédigé les règles permettant à ChatGPT de répondre à une question sur la biologie moléculaire, de résumer un document juridique ou d'écrire un sonnet. Le système a plutôt appris ces capacités à partir de schémas dans les données, grâce à un processus appelé apprentissage automatique. Cela a plusieurs implications importantes et parfois dérangeantes :
Capacités émergentes
Les grands modèles d'IA peuvent faire des choses que leurs créateurs n'ont pas explicitement programmées — et qu'ils n'avaient parfois pas anticipées. Des chercheurs ont observé des capacités qui semblent apparaître brusquement à mesure que les modèles grossissent, plutôt que de s'améliorer progressivement. Personne n'a programmé ChatGPT pour réussir l'examen du barreau; il est devenu capable de le faire comme effet secondaire de l'entraînement sur d'énormes quantités de texte.
Défaillances imprévisibles
Parce que le système a appris à partir de schémas dans les données plutôt que de règles explicites, ses modes de défaillance sont difficiles à anticiper. Il peut produire des réponses fausses avec un ton très assuré. Il peut se comporter différemment face à des entrées superficiellement similaires. Il peut reproduire de manière subtile et difficile à détecter les biais présents dans ses données d'entraînement.
Absence de vérité de référence
Contrairement à une calculatrice, un LLM ne «sait» pas quand il se trompe. Il génère du texte vraisemblable à partir de schémas statistiques. C'est la cause profonde des hallucinations — la tendance à produire des informations fausses présentées avec assurance. Un LLM entraîné sur des données contenant des erreurs apprendra ces erreurs.
Opacité
On ne peut pas facilement inspecter un modèle d'IA pour comprendre pourquoi il a donné une réponse particulière. Les paramètres encodent l'information sous une forme illisible pour un être humain. Cette qualité de «boîte noire» complique l'audit des systèmes d'IA pour détecter les biais ou les erreurs — un défi important pour les régulateurs et les tribunaux.
Que peut faire l'IA — et que ne peut-elle pas faire?
Ce que l'IA actuelle fait bien
- Rédiger et réviser des textes : courriels, rapports, essais, code, scripts, documents juridiques
- Traduire entre les langues
- Résumer de longs documents
- Répondre à des questions factuelles (avec un risque important d'erreur)
- Générer des images, de l'audio et de plus en plus de vidéos réalistes à partir de descriptions textuelles
- Écrire et déboguer du code informatique
- Identifier des schémas dans de grands ensembles de données
- Réussir des examens professionnels standardisés (barreau, permis médical, CPA)
Limitations importantes
- Hallucination : les LLM peuvent générer de fausses informations présentées avec une totale assurance. Ils ne savent pas ce qu'ils ne savent pas, et ne distinguent pas ce dont ils sont certains de ce qu'ils devinent.
- Pas de mémoire persistante : la plupart des LLM ne se souviennent pas des conversations précédentes. Chaque interaction repart de zéro, sauf si le système a été spécialement conçu autrement.
- Coupures d'entraînement : les LLM sont entraînés sur des données collectées avant une certaine date. Ils ne connaissent pas les événements récents, les lois mises à jour ou les nouvelles découvertes scientifiques.
- Défaillances de raisonnement : malgré des performances impressionnantes sur de nombreuses tâches, les LLM peuvent échouer à des raisonnements logiques, des calculs ou des problèmes d'ordre spatial étonnamment simples.
- Vulnérabilité à la manipulation : les systèmes d'IA peuvent être «jailbreakés» — trompés par des entrées astucieuses pour contourner leurs directives de sécurité et produire du contenu nuisible.
Une implication clé pour la politique publique : les systèmes d'IA sont à la fois plus capables qu'ils ne le paraissent dans des tests simples et moins fiables qu'ils ne le semblent dans des démonstrations soignées. Cette asymétrie rend l'élaboration d'une gouvernance de l'IA genuinement difficile — et rend essentiel le test des systèmes d'IA dans des conditions réalistes avant de les déployer dans des contextes à enjeux élevés.
Sécurité de l'IA : quels sont les risques?
L'expression «sécurité de l'IA» couvre un large éventail de préoccupations — des préjudices immédiats et concrets aux risques à plus long terme plus difficiles à quantifier. Il est utile de les organiser en quatre catégories, du plus immédiat au plus spéculatif.
Ces risques sont pris au sérieux non seulement par des militants, mais par les scientifiques qui construisent ces systèmes. Geoffrey Hinton, souvent appelé le «parrain de l'apprentissage profond» et lauréat du prix Nobel de physique 2024, a quitté Google en partie pour pouvoir s'exprimer plus librement sur les risques de l'IA. Les dirigeants des principaux laboratoires d'IA — Anthropic, OpenAI, Google DeepMind — ont tous déclaré publiquement que la technologie qu'ils développent pose des risques sérieux si elle n'est pas développée avec soin.
Risques d'abus
Des humains utilisant délibérément l'IA pour causer du tort : fraude, désinformation, cyberattaques, développement d'armes.
Risques d'accidents
Des systèmes d'IA fonctionnant globalement comme prévu mais causant des conséquences involontaires : biais, hallucinations, défaillances dans des contextes à enjeux élevés.
Risques structurels
Changements à long terme dans la structure de la société : déplacement de main-d'œuvre, concentration du pouvoir, érosion des institutions démocratiques.
Risques de frontière
Risques spéculatifs mais sérieux liés à des systèmes d'IA beaucoup plus puissants : désalignement des objectifs, perte de contrôle humain.
Risques d'abus
Les risques d'abus surviennent lorsque des personnes utilisent délibérément l'IA pour causer du tort. Ce sont les risques les plus immédiats et, à bien des égards, les plus maîtrisables — ils résultent de choix humains, pas de défaillances du système.
Fraude, arnaques et usurpation d'identité. L'IA rend considérablement moins coûteux et plus facile de générer des courriels d'hameçonnage convaincants, de créer de fausses identités et de produire des imitations vocales et vidéo. Le clonage vocal — reproduire la voix de quelqu'un à partir d'un court échantillon audio — est déjà utilisé dans des schémas frauduleux. L'arnaque du «grand-parent», dans laquelle des fraudeurs se font passer pour un proche en détresse, est devenue bien plus convaincante avec des voix synthétisées par l'IA.
Désinformation à grande échelle. Des textes et des images synthétiques peuvent maintenant être produits plus rapidement que tout système de vérification des faits ne peut y répondre. Les vidéos «hypertrucages» (deepfakes) générées par l'IA peuvent faire dire aux personnalités publiques des choses qu'elles n'ont jamais dites. Des réseaux entiers de faux comptes de médias sociaux peuvent être exploités avec un minimum d'effort humain.
Armes et menaces de destruction massive. C'est la préoccupation d'abus la plus alarmante à court terme : des systèmes d'IA capables d'aider des personnes souhaitant synthétiser des agents biologiques, chimiques ou radiologiques dangereux. Les principaux laboratoires d'IA effectuent des tests approfondis — appelés jeux de rôle adversariaux (red-teaming) — spécifiquement pour prévenir cela.
Cyberattaques. L'IA abaisse considérablement le seuil de compétences requis pour mener des cyberattaques sophistiquées, notamment contre des infrastructures critiques comme les réseaux électriques, les systèmes d'eau et les systèmes financiers.
Risques d'accidents
Les risques d'accidents surviennent lorsque des systèmes d'IA fonctionnent plus ou moins comme prévu, mais produisent des résultats néfastes non intentionnels.
Biais et discrimination. Les systèmes d'IA entraînés sur des données historiques apprennent les schémas de ces données — y compris leurs biais. Un algorithme d'embauche entraîné sur les décisions passées d'une entreprise tendra à reproduire les critères implicites de ces décisions, y compris ceux qui discriminent selon le genre, la race ou le code postal. Un système de reconnaissance faciale entraîné principalement sur des images de visages blancs identifiera les visages non blancs avec moins de précision, avec des conséquences réelles pour les forces de l'ordre et la sécurité aux frontières.
Hallucinations dans des contextes à enjeux élevés. Un avocat qui utilise l'IA pour rechercher de la jurisprudence sans vérifier les résultats peut soumettre des mémoires citant des affaires inexistantes — cela s'est déjà produit dans plusieurs tribunaux canadiens et américains. Un médecin qui s'appuie trop sur l'IA pour le diagnostic peut manquer un cas que l'IA a mal interprété.
Automatisation de décisions conséquentes. L'IA est déjà utilisée au Canada pour filtrer les demandes d'immigration, signaler les fraudes aux prestations, évaluer les risques en protection de l'enfance et formuler des recommandations de libération conditionnelle. Lorsque ces systèmes se trompent, des personnes peuvent perdre l'accès à des prestations auxquelles elles ont droit, faire face à une expulsion ou rester emprisonnées parce qu'un algorithme a mal évalué leur risque. Contrairement à un décideur humain, un algorithme peut appliquer des erreurs de manière constante à chaque personne partageant une caractéristique donnée, à grande échelle.
Risques structurels
Les risques structurels sont des changements à plus long terme dans la façon dont les économies et les sociétés sont organisées — des risques qui peuvent ne pas être visibles au fur et à mesure qu'ils s'accumulent, mais qui pourraient être très difficiles à inverser.
Déplacement de main-d'œuvre. C'est le risque structurel le plus discuté. L'IA est déjà capable d'automatiser des portions importantes du travail du savoir : rédaction, traduction, analyse de données, service à la clientèle, recherche juridique de base, comptabilité et plus encore. L'histoire économique suggère que le déplacement technologique finit par être absorbé dans de nouveaux types de travail — mais «finalement» peut signifier des décennies de perturbation pour de vraies personnes.
Concentration du pouvoir. L'entraînement de modèles d'IA de pointe nécessite d'énormes ressources informatiques, des ensembles de données propriétaires et des talents spécialisés — des ressources concentrées dans une poignée de grandes entreprises technologiques, la plupart américaines. Cela soulève des questions sur qui bénéficie de l'IA, qui la contrôle, et si les gouvernements peuvent la réglementer de manière significative.
Érosion des institutions épistémiques. Si la désinformation alimentée par l'IA rend impossible de s'entendre sur des faits de base — sur les élections, la santé publique ou les changements climatiques — il devient beaucoup plus difficile pour les institutions démocratiques de fonctionner.
Risques de frontière
Les risques de frontière sont spéculatifs en ce qu'ils concernent des systèmes d'IA substantiellement plus puissants que tout ce qui existe aujourd'hui. Ils sont pris au sérieux parce que les personnes qui construisent vers ces systèmes croient que nous pourrions les atteindre dans les années à décennies à venir — et parce que certains des risques, s'ils se matérialisent, pourraient être extrêmement difficiles à inverser.
Alignement des objectifs. Le problème de l'alignement demande : comment s'assurer qu'un système d'IA poursuit réellement les objectifs que nous voulons qu'il poursuive, plutôt que des objectifs de substitution que nous avons spécifiés par inadvertance? Un système optimisant l'«engagement des utilisateurs» peut apprendre que l'indignation est plus engageante que l'exactitude. Un système plus puissant poursuivant un objectif non aligné à grande échelle pourrait causer des préjudices difficiles à détecter et à arrêter.
Agents d'IA autonomes. Les systèmes d'IA reçoivent de plus en plus la capacité d'agir dans le monde — naviguer sur le web, écrire et exécuter du code, réserver des rendez-vous, contrôler d'autres logiciels. À mesure que cette capacité s'étend et que les systèmes d'IA deviennent plus capables de poursuivre des plans en plusieurs étapes avec une supervision humaine limitée, les possibilités de conséquences non intentionnelles augmentent considérablement.
Perte du contrôle humain significatif. Une préoccupation récurrente dans la recherche sur la sécurité de l'IA est que des systèmes d'IA suffisamment puissants pourraient ne pas rester sous une supervision humaine significative — soit parce qu'ils poursuivent des objectifs non alignés à une vitesse et à une échelle que les humains ne peuvent pas surveiller, soit parce qu'ils sont déployés dans des contextes concurrentiels où la pression pour automatiser la supervision est forte.
La Déclaration de Bletchley, signée par le Canada et 28 autres pays en novembre 2023, reconnaît explicitement ces risques de frontière — notant que les modèles d'IA les plus puissants «présentent une gamme de risques délibérés et involontaires» incluant une potentielle utilisation abusive pour «des attaques contre des infrastructures critiques» et le développement d'armes pouvant provoquer des pertes massives. Ce n'est pas de la rhétorique de science-fiction; c'est la position officielle des gouvernements du Canada, du Royaume-Uni, des États-Unis, de la Chine, de l'Union européenne et du Japon.
Pourquoi cela importe pour le Canada en particulier
Le Canada n'est pas un spectateur passif dans l'histoire de l'IA. Il abrite trois des plus importants instituts de recherche en IA au monde — Mila à Montréal, l'Institut Vecteur à Toronto et l'Amii à Edmonton. Il a produit certains des chercheurs les plus influents du domaine, notamment Geoffrey Hinton (prix Nobel de physique 2024) et Yoshua Bengio (prix Turing 2018). Des entreprises canadiennes comme Cohere développent des systèmes d'IA utilisés à l'échelle mondiale.
Et les gouvernements canadiens prennent des décisions sur l'IA dès maintenant — des décisions sur la réglementation, les achats, les investissements et la coopération internationale qui façonneront la façon dont l'IA affecte les soins de santé, l'éducation, l'immigration, les forces de l'ordre et la vie démocratique au Canada. Le Québec a déjà adopté l'une des lois les plus importantes sur l'imputabilité algorithmique en Amérique du Nord. L'Ontario a réglementé l'IA dans l'embauche. Le gouvernement fédéral s'est engagé à investir 2,4 milliards de dollars dans l'infrastructure d'IA en 2024.
Ces décisions sont en train d'être prises. La question est de savoir si elles le sont avec ou sans un public éclairé.
Glossaire
Tous les termes techniques utilisés sur ce site. Les termes sont liés à ce glossaire dans l'ensemble du site.
- Agent d'IA / Système autonome
- Un système d'IA capable d'agir dans le monde — naviguer sur le web, envoyer des courriels, écrire et exécuter du code, contrôler d'autres logiciels — avec une supervision humaine limitée ou inexistante pour chaque action individuelle.
- Alignement
- Le défi de s'assurer qu'un système d'IA poursuit les objectifs voulus par ses concepteurs, plutôt que des objectifs non intentionnels. Un système mal aligné pourrait optimiser un objectif de substitution — comme l'engagement des utilisateurs ou la minimisation des erreurs mesurées — d'une manière qui cause des préjudices plus larges.
- Algorithme
- Un ensemble de règles ou d'instructions qu'un ordinateur suit pour résoudre un problème ou prendre une décision. Dans l'IA moderne, «l'algorithme» désigne souvent un modèle statistique appris plutôt qu'un ensemble de règles codées manuellement.
- Apprentissage automatique (machine learning)
- Un sous-domaine de l'IA dans lequel les systèmes apprennent à effectuer des tâches à partir de données, plutôt que de suivre des règles codées manuellement. La quasi-totalité des systèmes d'IA modernes repose sur l'apprentissage automatique.
- Apprentissage profond (deep learning)
- Une famille de techniques d'apprentissage automatique utilisant des réseaux de neurones multicouches. L'approche dominante derrière la plupart des capacités de l'IA moderne, y compris les grands modèles de langue et les systèmes de génération d'images.
- Calcul / Puissance de calcul (compute)
- La puissance de traitement informatique nécessaire pour entraîner ou exécuter des modèles d'IA. Une contrainte clé du développement de l'IA. Les modèles les plus puissants nécessitent une infrastructure informatique gigantesque et coûteuse — principalement des puces spécialisées appelées GPU ou TPU.
- Entraînement
- Le processus d'ajustement des paramètres d'un modèle d'IA en l'exposant à de grandes quantités de données. Au cours de l'entraînement, le modèle apprend à prédire des schémas dans les données. Le résultat est un modèle qui a encodé les régularités statistiques de ces données — y compris les connaissances utiles et tout biais ou erreur présents dans les données d'entraînement.
- GPU (processeur graphique)
- Une puce informatique spécialisée, initialement conçue pour le rendu des jeux vidéo, qui s'avère bien adaptée aux opérations mathématiques impliquées dans l'entraînement des modèles d'IA. L'accès à un grand nombre de GPU est une contrainte clé du développement de l'IA.
- Grand modèle de langue (LLM)
- Un système d'IA entraîné sur de grandes quantités de texte, capable de générer, traduire, résumer et raisonner sur le langage. Exemples actuels : GPT-4 (OpenAI), Claude (Anthropic), Gemini (Google), Llama (Meta).
- Hallucination
- Quand un système d'IA génère de fausses informations présentées comme des faits. Les grands modèles de langue peuvent «halluciner» — inventer avec assurance des statistiques, des références, des citations, des affaires judiciaires ou des événements qui n'ont jamais existé. Ce n'est pas un bogue qu'on peut simplement corriger; c'est une propriété fondamentale de la façon dont ces systèmes fonctionnent.
- Hypertrucage (deepfake)
- Médias synthétiques — vidéo, audio ou images — générés par l'IA pour faire croire qu'une personne a dit ou fait quelque chose qu'elle n'a pas dit ou fait. La technologie de l'hypertrucage est devenue de plus en plus accessible et réaliste, soulevant de sérieuses préoccupations en matière de fraude, de désinformation et d'images intimes non consensuelles.
- IA générative
- Systèmes d'IA capables de produire de nouveaux contenus — texte, images, audio, vidéo, code — plutôt que de simplement classer ou analyser du contenu existant. ChatGPT est une IA générative. Les anciens systèmes d'IA (comme les filtres anti-pourriels) ne le sont pas.
- Jeu de rôle adversarial (red-teaming)
- Test adversarial d'un système d'IA — en essayant délibérément de le faire produire des résultats nuisibles, biaisés ou autrement problématiques — afin d'identifier et de corriger les vulnérabilités de sécurité avant le déploiement.
- Modèle de fondation (foundation model)
- Un grand modèle d'IA entraîné sur des données larges qui peut être adapté à de nombreuses tâches. Les grands modèles de langue comme GPT-4 et Claude sont des modèles de fondation.
- Modèle de frontière (frontier model)
- Un modèle d'IA à la pointe des capacités actuelles — les systèmes les plus puissants disponibles. L'IA de «frontière» est un terme de gouvernance utilisé pour distinguer les systèmes les plus puissants (qui nécessitent une surveillance plus stricte) des applications d'IA plus limitées.
- Paramètres
- Les valeurs numériques à l'intérieur d'un modèle d'IA qui encodent ce qu'il a appris au cours de l'entraînement. Un modèle avec plus de paramètres peut, en principe, représenter des schémas plus complexes. Les grands modèles de langue ont des centaines de milliards de paramètres.
- RLHF (apprentissage par renforcement à partir de la rétroaction humaine)
- Une technique utilisée pour affiner les modèles d'IA sur la base d'évaluations humaines de leurs résultats. Après l'entraînement initial, des évaluateurs humains évaluent quelles réponses sont plus utiles, plus précises ou plus sûres. Le modèle est ensuite ajusté pour produire davantage de réponses semblables aux mieux notées.
- Réseau de neurones
- Un type de modèle mathématique vaguement inspiré de la structure du cerveau humain, composé de couches de nœuds interconnectés. Les systèmes d'IA modernes sont généralement de très grands réseaux de neurones avec des milliards de paramètres.
- Transparence
- En gouvernance de l'IA, le principe selon lequel les organisations devraient être claires sur le moment et la façon dont les systèmes d'IA sont utilisés, sur quelles données ils ont été entraînés, et comment ils arrivent à leurs résultats. Les exigences de transparence sont une caractéristique centrale de la Loi 25 du Québec et de la plupart des réglementations proposées sur l'IA.