Une IA apprend-elle … comme nous ?

Une IA n’apprend pas comme un humain. Elle ne comprend pas une situation, ne donne pas sens à ce qu’elle voit, ne forme pas de jugement au sens où nous l’entendons. Elle ajuste des paramètres statistiques pour améliorer sa performance sur une tâche donnée. Ce point n’est pas un détail technique. Pris en compte, il change complètement la manière de penser les projets d’IA dans les organisations.

Il y a quelques semaines, un dirigeant de PME me posait une question qui revient souvent, sous des formes à peine différentes :

On a beaucoup de fichiers clients, d’historiques Excel, de données commerciales. Ça suffit pour faire une IA, non ?

Un dirigeant de PME

La question paraît simple. En réalité, elle condense plusieurs malentendus. Le premier tient à l’idée même d’ »apprentissage ». Quand on dit qu’une intelligence artificielle apprend, beaucoup imaginent spontanément quelque chose d’assez proche de l’apprentissage humain : observer des exemples, comprendre progressivement une situation, repérer l’essentiel, corriger ses erreurs, puis devenir capable d’agir avec discernement.

Cette représentation est commode. Elle est aussi trompeuse.

C’est d’ailleurs ce que rappelle très clairement Tom Mitchell dans l’un des ouvrages classiques du machine learning. Sa définition est restée célèbre parce qu’elle est à la fois simple et décisive : un programme apprend si, à partir de l’expérience, il améliore sa performance sur une classe de tâches donnée. L’intérêt de cette définition est de dissiper une confusion fréquente : dans le cadre du machine learning, apprendre ne signifie pas comprendre, mais mieux réussir une tâche mesurable. Ce déplacement est fondamental. Il nous oblige à quitter les métaphores psychologiques pour revenir à ce que fait réellement le système.

Autrement dit, ce que l’on appelle « apprentissage » en IA est d’abord un processus d’optimisation.

Une machine n’apprend pas un sens, elle réduit une erreur

Dans la plupart des approches contemporaines, notamment dans les réseaux de neurones, l’apprentissage consiste à ajuster progressivement des paramètres (les fameux poids du modèle) pour réduire l’écart entre une prédiction et un résultat attendu. Le système reçoit des exemples, produit une sortie, mesure son erreur, puis modifie ses paramètres afin de diminuer cette erreur lors des itérations suivantes.

Vu de loin, cela peut ressembler à une forme d’expérience. Mais il faut être précis : la machine n’apprend pas comme un enfant qui découvre une catégorie du monde, ni comme un professionnel qui affine son jugement à partir de cas concrets. Elle apprend surtout à mieux associer certaines configurations de données à certaines sorties.

L’apport de Pedro Domingos, dans son article bien connu A Few Useful Things to Know About Machine Learning, est particulièrement utile ici. Son intérêt n’est pas de donner une définition générale du machine learning, mais de rappeler aux praticiens quelque chose que les discours sur l’IA masquent souvent : le cœur d’un projet n’est pas seulement dans l’algorithme, mais dans la relation entre les données, la tâche et le critère de performance. Domingos insiste notamment sur le fait qu’un modèle ne « voit » pas le monde tel que nous le voyons. Il repère des régularités statistiques dans des représentations de données. Cela explique pourquoi un système peut être très performant sans pour autant « comprendre » quoi que ce soit au problème qu’il traite.

20251 {20251:SITSA3V5} 1 apa 50 default 85623 https://www.lescahiersdelinnovation.com/wp-content/plugins/zotpress/
%7B%22status%22%3A%22success%22%2C%22updateneeded%22%3Afalse%2C%22instance%22%3Afalse%2C%22meta%22%3A%7B%22request_last%22%3A0%2C%22request_next%22%3A0%2C%22used_cache%22%3Atrue%7D%2C%22data%22%3A%5B%7B%22key%22%3A%22SITSA3V5%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Domingos%22%2C%22parsedDate%22%3A%222012%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BDomingos%2C%20P.%20%282012%29.%20A%20few%20useful%20things%20to%20know%20about%20machine%20learning.%20%26lt%3Bi%26gt%3BCommunications%20of%20the%20ACM%26lt%3B%5C%2Fi%26gt%3B%2C%20%26lt%3Bi%26gt%3B55%26lt%3B%5C%2Fi%26gt%3B%2810%29%2C%2078%26%23×2013%3B87.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1145%5C%2F2347736.2347755%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1145%5C%2F2347736.2347755%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22journalArticle%22%2C%22title%22%3A%22A%20few%20useful%20things%20to%20know%20about%20machine%20learning%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Pedro%22%2C%22lastName%22%3A%22Domingos%22%7D%5D%2C%22abstractNote%22%3A%22Exploiter%20les%20connaissances%20tacites%20%28%5Cu201csavoir%20informel%5Cu201d%29%20est%20essentiel%20pour%20faire%20progresser%20les%20applications%20de%20machine%20learning.%20Ces%20savoirs%2C%20souvent%20issus%20de%20l%5Cu2019exp%5Cu00e9rience%20des%20praticiens%2C%20compl%5Cu00e8tent%20les%20approches%20purement%20techniques.%20Ils%20permettent%20de%20mieux%20concevoir%20les%20mod%5Cu00e8les%2C%20de%20choisir%20les%20bonnes%20donn%5Cu00e9es%20et%20d%5Cu2019%5Cu00e9viter%20des%20erreurs%20courantes.%20Leur%20prise%20en%20compte%20est%20donc%20un%20levier%20important%20pour%20am%5Cu00e9liorer%20les%20performances%20et%20la%20robustesse%20des%20syst%5Cu00e8mes.%22%2C%22date%22%3A%2210%5C%2F2012%22%2C%22section%22%3A%22%22%2C%22partNumber%22%3A%22%22%2C%22partTitle%22%3A%22%22%2C%22DOI%22%3A%2210.1145%5C%2F2347736.2347755%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22https%3A%5C%2F%5C%2Fdl.acm.org%5C%2Fdoi%5C%2F10.1145%5C%2F2347736.2347755%22%2C%22PMID%22%3A%22%22%2C%22PMCID%22%3A%22%22%2C%22ISSN%22%3A%220001-0782%2C%201557-7317%22%2C%22language%22%3A%22en%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A28%3A02Z%22%7D%7D%5D%7D
Domingos, P. (2012). A few useful things to know about machine learning. Communications of the ACM, 55(10), 78–87. https://doi.org/10.1145/2347736.2347755

C’est aussi la raison pour laquelle on surestime souvent ce qu’une IA peut faire à partir de données apparemment abondantes. Avoir beaucoup de fichiers n’équivaut pas à disposer d’un bon matériau d’apprentissage. Une accumulation de tableaux, de textes ou d’images ne devient pas automatiquement une base exploitable. Encore faut-il que ces données soient cohérentes, pertinentes, représentatives du problème traité, et reliées à une tâche claire.

Ce qu’une IA apprend, c’est ce qu’on lui donne à voir, et parfois de travers

C’est ici qu’intervient un second malentendu. On suppose volontiers qu’un système bien entraîné va apprendre les « bonnes » caractéristiques d’un problème. Or ce n’est pas nécessairement le cas. Une machine apprend d’abord les régularités les plus utiles pour réduire son erreur. Et ces régularités peuvent être très éloignées de ce que les humains considèrent comme pertinent.

Les travaux de Geirhos et de ses collègues sur le shortcut learning sont particulièrement éclairants sur ce point. Leur apport est important parce qu’ils montrent que les réseaux de neurones, loin d’apprendre toujours les bonnes structures, ont souvent tendance à exploiter des raccourcis statistiques. Le système utilise l’indice le plus facile, le plus rentable, le plus corrélé à la réponse attendue, même si cet indice est superficiel ou trompeur.

20251 {20251:W4IXX6CK} 1 apa 50 default 1 85623 https://www.lescahiersdelinnovation.com/wp-content/plugins/zotpress/
%7B%22status%22%3A%22success%22%2C%22updateneeded%22%3Afalse%2C%22instance%22%3Afalse%2C%22meta%22%3A%7B%22request_last%22%3A0%2C%22request_next%22%3A0%2C%22used_cache%22%3Atrue%7D%2C%22data%22%3A%5B%7B%22key%22%3A%22W4IXX6CK%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Geirhos%20et%20al.%22%2C%22parsedDate%22%3A%222020-11%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BGeirhos%2C%20R.%2C%20Jacobsen%2C%20J.-H.%2C%20Michaelis%2C%20C.%2C%20Zemel%2C%20R.%2C%20Brendel%2C%20W.%2C%20Bethge%2C%20M.%2C%20%26amp%3B%20Wichmann%2C%20F.%20A.%20%282020%29.%20Shortcut%20learning%20in%20deep%20neural%20networks.%20%26lt%3Bi%26gt%3BNature%20Machine%20Intelligence%26lt%3B%5C%2Fi%26gt%3B%2C%20%26lt%3Bi%26gt%3B2%26lt%3B%5C%2Fi%26gt%3B%2811%29%2C%20665%26%23×2013%3B673.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1038%5C%2Fs42256-020-00257-z%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1038%5C%2Fs42256-020-00257-z%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22journalArticle%22%2C%22title%22%3A%22Shortcut%20learning%20in%20deep%20neural%20networks%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Robert%22%2C%22lastName%22%3A%22Geirhos%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22J%5Cu00f6rn-Henrik%22%2C%22lastName%22%3A%22Jacobsen%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Claudio%22%2C%22lastName%22%3A%22Michaelis%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Richard%22%2C%22lastName%22%3A%22Zemel%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Wieland%22%2C%22lastName%22%3A%22Brendel%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Matthias%22%2C%22lastName%22%3A%22Bethge%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Felix%20A.%22%2C%22lastName%22%3A%22Wichmann%22%7D%5D%2C%22abstractNote%22%3A%22Le%20deep%20learning%20est%20au%20c%5Cu0153ur%20des%20progr%5Cu00e8s%20r%5Cu00e9cents%20de%20l%5Cu2019intelligence%20artificielle%2C%20avec%20de%20nombreux%20succ%5Cu00e8s%20en%20science%20et%20en%20industrie.%20Cependant%2C%20ses%20limites%20apparaissent%20progressivement.%20Les%20auteurs%20montrent%20que%20beaucoup%20de%20ses%20%5Cu00e9checs%20s%5Cu2019expliquent%20par%20un%20m%5Cu00eame%20ph%5Cu00e9nom%5Cu00e8ne%20%3A%20le%20shortcut%20learning%2C%20o%5Cu00f9%20les%20mod%5Cu00e8les%20apprennent%20des%20r%5Cu00e8gles%20efficaces%20sur%20des%20tests%20standards%20mais%20peu%20robustes%20en%20conditions%20r%5Cu00e9elles.%20Ce%20probl%5Cu00e8me%20existe%20aussi%20dans%20d%5Cu2019autres%20domaines%20comme%20la%20psychologie%20ou%20l%5Cu2019%5Cu00e9ducation.%20Ils%20proposent%20enfin%20des%20pistes%20pour%20am%5Cu00e9liorer%20l%5Cu2019interpr%5Cu00e9tation%20des%20mod%5Cu00e8les%20et%20leur%20capacit%5Cu00e9%20%5Cu00e0%20g%5Cu00e9n%5Cu00e9raliser%20dans%20le%20monde%20r%5Cu00e9el.%22%2C%22date%22%3A%222020-11%22%2C%22section%22%3A%22%22%2C%22partNumber%22%3A%22%22%2C%22partTitle%22%3A%22%22%2C%22DOI%22%3A%2210.1038%5C%2Fs42256-020-00257-z%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22https%3A%5C%2F%5C%2Fwww.nature.com%5C%2Farticles%5C%2Fs42256-020-00257-z%22%2C%22PMID%22%3A%22%22%2C%22PMCID%22%3A%22%22%2C%22ISSN%22%3A%222522-5839%22%2C%22language%22%3A%22en%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A22%3A40Z%22%7D%7D%5D%7D
Geirhos, R., Jacobsen, J.-H., Michaelis, C., Zemel, R., Brendel, W., Bethge, M., & Wichmann, F. A. (2020). Shortcut learning in deep neural networks. Nature Machine Intelligence, 2(11), 665–673. https://doi.org/10.1038/s42256-020-00257-z

L’exemple, désormais classique, du loup et du chien l’illustre bien. Un modèle entraîné à distinguer des photos de loups et de chiens avait en réalité appris à repérer la neige en arrière-plan, parce que les images de loups comportaient plus souvent des paysages enneigés. Du point de vue du système, cette stratégie fonctionnait. Du point de vue de l’utilisateur, elle était absurde. L’intérêt de cet exemple n’est pas anecdotique : il montre que le modèle n’apprend pas nécessairement “le concept de loup”, mais des corrélations présentes dans les données d’entraînement.

Autrement dit, une IA ne saisit pas spontanément l’essence d’un objet ou d’une situation. Elle exploite ce qui, dans les données, permet de mieux prédire. Cela explique pourquoi des systèmes impressionnants en démonstration peuvent devenir fragiles dès que le contexte change légèrement.

Peut-on vraiment parler d’apprentissage et de connaissance pour une machine ?

La question n’est pas seulement technique ; elle est aussi épistémologique. Que signifie exactement « apprendre » ou « connaître » ? Dans les sciences cognitives comme en philosophie de la connaissance, apprendre ne se réduit pas à améliorer une performance. Cela suppose généralement la construction de représentations du monde, la capacité à relier des situations entre elles, à produire des inférences, voire à distinguer le vrai du faux. Autrement dit, l’apprentissage humain s’inscrit dans un rapport au sens et à la vérité, pas seulement dans l’optimisation d’un résultat.

C’est précisément ce point que souligne Judea Pearl lorsqu’il distingue, dans ses travaux sur la causalité, différents niveaux d’intelligence :

  • l’association (repérer des corrélations),
  • l’intervention (comprendre ce qui se passerait si l’on agissait différemment)
  • la contrefactualité (raisonner sur ce qui aurait pu se produire).

L’intérêt de cette distinction est de montrer que la plupart des systèmes actuels d’apprentissage automatique opèrent essentiellement au premier niveau. Ils apprennent des régularités statistiques, mais n’accèdent pas, en général, à une compréhension causale du monde.

Dans cette perspective, parler d’ »apprentissage » pour une IA est à la fois pertinent et trompeur. Pertinent, parce qu’il y a bien amélioration à partir de l’expérience. Trompeur, parce que cette amélioration ne s’accompagne pas nécessairement d’une connaissance au sens fort. Une IA ne sait pas pourquoi ce qu’elle prédit est vrai, ni dans quelles conditions cela cesserait de l’être. Elle ne possède pas une connaissance, mais une capacité à produire des réponses adaptées dans un cadre donné.

Cette distinction n’est pas seulement théorique. Elle permet d’éviter une erreur fréquente en entreprise : attribuer aux systèmes d’IA des capacités de compréhension ou de jugement qu’ils ne possèdent pas, et leur confier des tâches qui exigent précisément ces capacités.

Les types d’apprentissage

Mais toutes les IA ne s’entraînent pas pareil.

  • Certaines apprennent avec des exemples (apprentissage supervisé)
  • D’autres cherchent des structures cachées (non supervisé)
  • D’autres encore apprennent en testant des actions et en récoltant des récompenses (renforcement)

Et selon le problème que vous cherchez à résoudre, l’une ou l’autre méthode sera plus pertinente.

L’apprentissage supervisé : efficace, mais dépendant de la qualité des exemples

Dans les entreprises, la plupart des cas d’usage relèvent de l’apprentissage supervisé. Le principe est simple : on fournit au système des exemples déjà associés à une bonne réponse.

  • Une image étiquetée « défaut » ou « pas défaut »
  • Un courriel classé « réclamation » ou « demande commerciale »
  • Un dossier marqué « fraude » ou « non fraude » etc.

Ce type d’apprentissage est puissant parce qu’il permet de construire rapidement des modèles capables de classer, prédire ou détecter. Mais il repose sur une condition forte : il faut disposer d’exemples bien annotés, suffisamment nombreux, et surtout représentatifs de la réalité future.

C’est précisément sur ce point que la littérature oblige à être prudent. Domingos (cf. supra) rappelle que, dans de nombreux cas, les gains marginaux liés à un nouvel algorithme sont faibles au regard de ce que l’on gagne ou perd avec de meilleures données. L’intérêt de cet apport est très concret pour les organisations : il déplace l’attention. Là où beaucoup de projets commencent par la recherche du « bon outil IA », il faudrait souvent commencer par une question plus prosaïque et plus décisive : sur quoi allons-nous réellement entraîner le système ?

En pratique, c’est souvent là que les projets déraillent. Les données sont incomplètes, hétérogènes, issues de processus métiers mal stabilisés, annotées selon des critères variables, ou tout simplement trop éloignées du problème réel. On croit disposer d’un patrimoine de données ; on découvre en réalité un empilement de traces difficilement réutilisables.

La vraie difficulté n’est donc pas seulement de « faire tourner un modèle », mais de construire un environnement de données dans lequel l’apprentissage statistique a une chance d’être pertinent.

L’apprentissage non supervisé : découvrir des structures, pas produire du sens métier

Toutes les formes d’apprentissage ne reposent pas sur des données annotées. Dans l’apprentissage non supervisé, le système cherche des regroupements, des proximités, des structures latentes dans les données. On l’utilise, par exemple, pour segmenter des clients, détecter des comportements atypiques ou explorer un corpus documentaire.

Cette famille de méthodes donne parfois l’impression d’une forme d’autonomie plus grande : la machine « découvrirait » seule des structures cachées. Mais là encore, il faut être précis. Ce qu’elle découvre, ce sont d’abord des structures statistiques. Le passage de ces structures à une interprétation utile reste un travail humain.

L’intérêt de rappeler cela est d’éviter une confusion fréquente en entreprise : croire qu’un clustering, une réduction de dimension ou une détection d’anomalies produira spontanément des catégories prêtes à l’emploi. En réalité, le modèle propose un découpage mathématique du réel. C’est ensuite au métier de juger si ce découpage correspond à quelque chose d’opérationnel.

Autrement dit, même lorsqu’une IA “découvre” quelque chose, elle ne le comprend pas pour autant.

L’apprentissage par renforcement : apprendre par essai-erreur, mais dans un cadre très défini

Une troisième grande famille d’approches est l’apprentissage par renforcement. Ici, le système interagit avec un environnement, teste des actions et reçoit une récompense ou une pénalité. À première vue, on retrouve quelque chose qui ressemble davantage à l’apprentissage humain : essai, erreur, correction, amélioration.

Mais ce rapprochement doit lui aussi être manié avec prudence. Le système n’apprend pas ce qu’est une bonne décision au sens humain du terme. Il apprend à maximiser une fonction de récompense.

Cette distinction est décisive. Elle explique pourquoi un agent peut adopter des comportements très performants du point de vue du score tout en s’éloignant de l’intention réelle de ses concepteurs. Le problème n’est donc pas seulement l’algorithme, il est aussi dans la définition de ce que l’on récompense.

Cela vaut bien au-delà des jeux ou de la robotique. Dans toute organisation, la manière dont on définit un objectif conditionne le comportement du système. Sur ce point, la proximité avec les questions classiques de management est frappante : comme les humains, les machines finissent souvent par optimiser l’indicateur plus que la finalité.

Les biais ne sont pas un accident extérieur : ils sont souvent déjà dans les données

La question des biais est souvent abordée comme si elle survenait après coup, lorsque l’on découvre qu’un modèle discrimine, exclut ou reproduit des écarts indésirables. En réalité, le problème apparaît bien plus tôt.

Les travaux de Barocas, Hardt et Narayanan sont utiles précisément parce qu’ils montrent que les biais algorithmiques ne sont pas seulement des défauts techniques du modèle. Ils sont souvent liés à la manière dont les données ont été produites, sélectionnées et interprétées. Leur apport est important car il permet d’éviter un faux diagnostic : croire qu’un modèle serait « neutre par nature » et que les dérives viendraient uniquement d’un mauvais paramétrage.

Or les données historiques d’une organisation portent déjà les traces de ses pratiques passées. Si une entreprise a évalué, recruté, financé ou servi ses clients selon certaines routines, ces routines se retrouvent dans les données. L’algorithme peut alors les reproduire avec une grande efficacité, sans jamais « savoir » qu’il reproduit un biais.

Autrement dit, la machine n’invente pas le biais : elle l’apprend.

Une performance élevée n’est pas une compréhension élevée

C’est ici qu’intervient une dernière confusion, probablement la plus tenace : parce que certains systèmes obtiennent des performances spectaculaires, on tend à leur attribuer une forme de compréhension générale. Or cette conclusion va trop vite.

Gary Marcus, dans son texte critique sur le deep learning, insiste sur ce point avec une vigueur parfois polémique, mais utile. Son apport n’est pas de nier les succès des approches statistiques. Il est de rappeler qu’exceller dans la détection de corrélations à grande échelle ne signifie pas disposer d’une compréhension abstraite, causale ou conceptuelle du monde. Cette mise en garde est importante parce qu’elle évite de confondre performance locale et intelligence générale.

20251 {20251:RKZJ4JW6} 1 apa 50 default 1 85623 https://www.lescahiersdelinnovation.com/wp-content/plugins/zotpress/
%7B%22status%22%3A%22success%22%2C%22updateneeded%22%3Afalse%2C%22instance%22%3Afalse%2C%22meta%22%3A%7B%22request_last%22%3A0%2C%22request_next%22%3A0%2C%22used_cache%22%3Atrue%7D%2C%22data%22%3A%5B%7B%22key%22%3A%22RKZJ4JW6%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Marcus%22%2C%22parsedDate%22%3A%222018-01-02%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BMarcus%2C%20G.%20%282018%29.%20%26lt%3Bi%26gt%3BDeep%20Learning%3A%20A%20Critical%20Appraisal%26lt%3B%5C%2Fi%26gt%3B%20%28arXiv%3A1801.00631%29.%20arXiv.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.48550%5C%2FarXiv.1801.00631%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.48550%5C%2FarXiv.1801.00631%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22preprint%22%2C%22title%22%3A%22Deep%20Learning%3A%20A%20Critical%20Appraisal%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Gary%22%2C%22lastName%22%3A%22Marcus%22%7D%5D%2C%22abstractNote%22%3A%22Le%20deep%20learning%2C%20bien%20que%20fond%5Cu00e9%20sur%20des%20travaux%20anciens%2C%20n%5Cu2019a%20r%5Cu00e9ellement%20%5Cu00e9merg%5Cu00e9%20qu%5Cu2019au%20d%5Cu00e9but%20des%20ann%5Cu00e9es%202010%20avec%20des%20avanc%5Cu00e9es%20majeures%20comme%20le%20mod%5Cu00e8le%20d%5Cu2019ImageNet%20%282012%29.%20Depuis%2C%20il%20a%20permis%20des%20progr%5Cu00e8s%20importants%20en%20reconnaissance%20vocale%2C%20visuelle%20et%20dans%20les%20jeux.%20Cependant%2C%20malgr%5Cu00e9%20cet%20engouement%2C%20plusieurs%20limites%20subsistent.%20L%5Cu2019auteur%20identifie%20dix%20points%20de%20vigilance%20majeurs.%20Il%20conclut%20que%20le%20deep%20learning%20devra%20%5Cu00eatre%20compl%5Cu00e9t%5Cu00e9%20par%20d%5Cu2019autres%20approches%20pour%20esp%5Cu00e9rer%20atteindre%20une%20intelligence%20artificielle%20g%5Cu00e9n%5Cu00e9rale.%22%2C%22genre%22%3A%22%22%2C%22repository%22%3A%22arXiv%22%2C%22archiveID%22%3A%22arXiv%3A1801.00631%22%2C%22date%22%3A%222018-01-02%22%2C%22DOI%22%3A%2210.48550%5C%2FarXiv.1801.00631%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22http%3A%5C%2F%5C%2Farxiv.org%5C%2Fabs%5C%2F1801.00631%22%2C%22language%22%3A%22%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A27%3A31Z%22%7D%7D%5D%7D
Marcus, G. (2018). Deep Learning: A Critical Appraisal (arXiv:1801.00631). arXiv. https://doi.org/10.48550/arXiv.1801.00631

Un système peut être très bon pour prédire le prochain mot, repérer certains motifs visuels ou classer des documents, tout en restant fragile lorsqu’il doit raisonner à partir de connaissances implicites, transférer proprement un apprentissage à un nouveau contexte, ou distinguer ce qui est structurel de ce qui est accidentel.

Pour une organisation, cette distinction change beaucoup de choses. Elle invite à ne pas poser à un modèle des problèmes qui exigent autre chose qu’une bonne exploitation statistique d’exemples passés. Toutes les tâches ne se prêtent pas de la même manière à l’apprentissage automatique, et toutes les décisions ne doivent pas être formulées comme des problèmes de prédiction.

Ce que cela change concrètement pour un projet d’entreprise

Comprendre qu’une IA n’apprend pas comme un humain ne conduit pas à dévaluer l’outil. Cela conduit à mieux le situer.

Le problème n’est pas de savoir si l’IA est « intelligente » au sens fort. Le problème est de savoir si l’on dispose, dans l’organisation, des conditions qui rendent son apprentissage utile. Cela suppose au moins quatre questions.

  • D’abord : quelle est exactement la tâche ? Beaucoup de projets échouent parce qu’ils commencent avec une ambition trop vague : “faire de l’IA sur nos données”. Or un système n’apprend qu’en référence à une tâche précise et à un critère de performance défini. C’est, au fond, la leçon de Mitchell (cf. supra) : sans tâche, sans expérience et sans mesure de performance, parler d’apprentissage n’a guère de sens.
  • Ensuite : sur quelles données va-t-on entraîner le système ? Non pas au sens quantitatif seulement, mais au sens de leur qualité, de leur cohérence et de leur représentativité. C’est ici que la leçon de Domingos reste précieuse : un modèle médiocre sur de bonnes données peut valoir mieux qu’un modèle sophistiqué sur des données pauvres.
  • Troisième question : que risque-t-il d’apprendre par erreur ? Les travaux sur le shortcut learning montrent bien qu’un modèle peut apprendre le mauvais signal tout en obtenant de bons résultats apparents. Il faut donc toujours se demander ce qui, dans les données, sert réellement de base à la prédiction.
  • Enfin : quels biais du passé risque-t-on de réinjecter dans le futur ? La littérature sur la fairness rappelle que l’algorithme ne vient pas au-dessus de l’organisation comme une couche neutre. Il absorbe souvent une partie de son histoire, de ses routines et de ses angles morts.

On peut dire les choses autrement : un projet d’IA n’est jamais seulement un projet technique. C’est un projet de formalisation, de sélection, de mesure et de traduction du réel. Et c’est précisément pour cela qu’il échoue si souvent lorsqu’il est traité comme une simple affaire d’outillage.

Ce qu’il faut retenir

Une IA n’apprend pas comme nous. Elle n’interprète pas le monde, ne comprend pas les situations et ne forme pas de jugement au sens humain. Elle améliore sa performance sur une tâche définie à partir de données et d’un critère d’évaluation.

Cette distinction est importante parce qu’elle permet de mieux comprendre où se jouent réellement les succès et les échecs des projets d’IA. La qualité de l’apprentissage dépend moins d’une magie algorithmique que de la manière dont on définit la tâche, construit les données, choisit les indicateurs et contrôle les biais.

L’enjeu, pour une entreprise, n’est donc pas simplement de posséder beaucoup de données ou d’acheter un bon outil. Il est de savoir si elle est capable de transformer un problème organisationnel en tâche bien posée, de disposer d’exemples pertinents, et d’évaluer ce que le système apprend effectivement.

La vraie question n’est pas : « l’IA peut-elle apprendre ? »
La vraie question est : « que lui donnons-nous réellement à apprendre, et dans quelles conditions cet apprentissage produira-t-il quelque chose d’utile ? »

Références

20251 JZD8A44A 1 apa 50 default 85623 https://www.lescahiersdelinnovation.com/wp-content/plugins/zotpress/
%7B%22status%22%3A%22success%22%2C%22updateneeded%22%3Afalse%2C%22instance%22%3Afalse%2C%22meta%22%3A%7B%22request_last%22%3A0%2C%22request_next%22%3A0%2C%22used_cache%22%3Atrue%7D%2C%22data%22%3A%5B%7B%22key%22%3A%22SITSA3V5%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Domingos%22%2C%22parsedDate%22%3A%222012%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BDomingos%2C%20P.%20%282012%29.%20A%20few%20useful%20things%20to%20know%20about%20machine%20learning.%20%26lt%3Bi%26gt%3BCommunications%20of%20the%20ACM%26lt%3B%5C%2Fi%26gt%3B%2C%20%26lt%3Bi%26gt%3B55%26lt%3B%5C%2Fi%26gt%3B%2810%29%2C%2078%26%23×2013%3B87.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1145%5C%2F2347736.2347755%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1145%5C%2F2347736.2347755%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22journalArticle%22%2C%22title%22%3A%22A%20few%20useful%20things%20to%20know%20about%20machine%20learning%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Pedro%22%2C%22lastName%22%3A%22Domingos%22%7D%5D%2C%22abstractNote%22%3A%22Exploiter%20les%20connaissances%20tacites%20%28%5Cu201csavoir%20informel%5Cu201d%29%20est%20essentiel%20pour%20faire%20progresser%20les%20applications%20de%20machine%20learning.%20Ces%20savoirs%2C%20souvent%20issus%20de%20l%5Cu2019exp%5Cu00e9rience%20des%20praticiens%2C%20compl%5Cu00e8tent%20les%20approches%20purement%20techniques.%20Ils%20permettent%20de%20mieux%20concevoir%20les%20mod%5Cu00e8les%2C%20de%20choisir%20les%20bonnes%20donn%5Cu00e9es%20et%20d%5Cu2019%5Cu00e9viter%20des%20erreurs%20courantes.%20Leur%20prise%20en%20compte%20est%20donc%20un%20levier%20important%20pour%20am%5Cu00e9liorer%20les%20performances%20et%20la%20robustesse%20des%20syst%5Cu00e8mes.%22%2C%22date%22%3A%2210%5C%2F2012%22%2C%22section%22%3A%22%22%2C%22partNumber%22%3A%22%22%2C%22partTitle%22%3A%22%22%2C%22DOI%22%3A%2210.1145%5C%2F2347736.2347755%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22https%3A%5C%2F%5C%2Fdl.acm.org%5C%2Fdoi%5C%2F10.1145%5C%2F2347736.2347755%22%2C%22PMID%22%3A%22%22%2C%22PMCID%22%3A%22%22%2C%22ISSN%22%3A%220001-0782%2C%201557-7317%22%2C%22language%22%3A%22en%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A28%3A02Z%22%7D%7D%2C%7B%22key%22%3A%22RKZJ4JW6%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Marcus%22%2C%22parsedDate%22%3A%222018-01-02%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BMarcus%2C%20G.%20%282018%29.%20%26lt%3Bi%26gt%3BDeep%20Learning%3A%20A%20Critical%20Appraisal%26lt%3B%5C%2Fi%26gt%3B%20%28arXiv%3A1801.00631%29.%20arXiv.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.48550%5C%2FarXiv.1801.00631%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.48550%5C%2FarXiv.1801.00631%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22preprint%22%2C%22title%22%3A%22Deep%20Learning%3A%20A%20Critical%20Appraisal%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Gary%22%2C%22lastName%22%3A%22Marcus%22%7D%5D%2C%22abstractNote%22%3A%22Le%20deep%20learning%2C%20bien%20que%20fond%5Cu00e9%20sur%20des%20travaux%20anciens%2C%20n%5Cu2019a%20r%5Cu00e9ellement%20%5Cu00e9merg%5Cu00e9%20qu%5Cu2019au%20d%5Cu00e9but%20des%20ann%5Cu00e9es%202010%20avec%20des%20avanc%5Cu00e9es%20majeures%20comme%20le%20mod%5Cu00e8le%20d%5Cu2019ImageNet%20%282012%29.%20Depuis%2C%20il%20a%20permis%20des%20progr%5Cu00e8s%20importants%20en%20reconnaissance%20vocale%2C%20visuelle%20et%20dans%20les%20jeux.%20Cependant%2C%20malgr%5Cu00e9%20cet%20engouement%2C%20plusieurs%20limites%20subsistent.%20L%5Cu2019auteur%20identifie%20dix%20points%20de%20vigilance%20majeurs.%20Il%20conclut%20que%20le%20deep%20learning%20devra%20%5Cu00eatre%20compl%5Cu00e9t%5Cu00e9%20par%20d%5Cu2019autres%20approches%20pour%20esp%5Cu00e9rer%20atteindre%20une%20intelligence%20artificielle%20g%5Cu00e9n%5Cu00e9rale.%22%2C%22genre%22%3A%22%22%2C%22repository%22%3A%22arXiv%22%2C%22archiveID%22%3A%22arXiv%3A1801.00631%22%2C%22date%22%3A%222018-01-02%22%2C%22DOI%22%3A%2210.48550%5C%2FarXiv.1801.00631%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22http%3A%5C%2F%5C%2Farxiv.org%5C%2Fabs%5C%2F1801.00631%22%2C%22language%22%3A%22%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A27%3A31Z%22%7D%7D%2C%7B%22key%22%3A%22W4IXX6CK%22%2C%22library%22%3A%7B%22id%22%3A20251%7D%2C%22meta%22%3A%7B%22creatorSummary%22%3A%22Geirhos%20et%20al.%22%2C%22parsedDate%22%3A%222020-11%22%2C%22numChildren%22%3A0%7D%2C%22bib%22%3A%22%26lt%3Bdiv%20class%3D%26quot%3Bcsl-bib-body%26quot%3B%20style%3D%26quot%3Bline-height%3A%202%3B%20padding-left%3A%201em%3B%20text-indent%3A-1em%3B%26quot%3B%26gt%3B%5Cn%20%20%26lt%3Bdiv%20class%3D%26quot%3Bcsl-entry%26quot%3B%26gt%3BGeirhos%2C%20R.%2C%20Jacobsen%2C%20J.-H.%2C%20Michaelis%2C%20C.%2C%20Zemel%2C%20R.%2C%20Brendel%2C%20W.%2C%20Bethge%2C%20M.%2C%20%26amp%3B%20Wichmann%2C%20F.%20A.%20%282020%29.%20Shortcut%20learning%20in%20deep%20neural%20networks.%20%26lt%3Bi%26gt%3BNature%20Machine%20Intelligence%26lt%3B%5C%2Fi%26gt%3B%2C%20%26lt%3Bi%26gt%3B2%26lt%3B%5C%2Fi%26gt%3B%2811%29%2C%20665%26%23×2013%3B673.%20%26lt%3Ba%20class%3D%26%23039%3Bzp-DOIURL%26%23039%3B%20href%3D%26%23039%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1038%5C%2Fs42256-020-00257-z%26%23039%3B%26gt%3Bhttps%3A%5C%2F%5C%2Fdoi.org%5C%2F10.1038%5C%2Fs42256-020-00257-z%26lt%3B%5C%2Fa%26gt%3B%26lt%3B%5C%2Fdiv%26gt%3B%5Cn%26lt%3B%5C%2Fdiv%26gt%3B%22%2C%22data%22%3A%7B%22itemType%22%3A%22journalArticle%22%2C%22title%22%3A%22Shortcut%20learning%20in%20deep%20neural%20networks%22%2C%22creators%22%3A%5B%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Robert%22%2C%22lastName%22%3A%22Geirhos%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22J%5Cu00f6rn-Henrik%22%2C%22lastName%22%3A%22Jacobsen%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Claudio%22%2C%22lastName%22%3A%22Michaelis%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Richard%22%2C%22lastName%22%3A%22Zemel%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Wieland%22%2C%22lastName%22%3A%22Brendel%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Matthias%22%2C%22lastName%22%3A%22Bethge%22%7D%2C%7B%22creatorType%22%3A%22author%22%2C%22firstName%22%3A%22Felix%20A.%22%2C%22lastName%22%3A%22Wichmann%22%7D%5D%2C%22abstractNote%22%3A%22Le%20deep%20learning%20est%20au%20c%5Cu0153ur%20des%20progr%5Cu00e8s%20r%5Cu00e9cents%20de%20l%5Cu2019intelligence%20artificielle%2C%20avec%20de%20nombreux%20succ%5Cu00e8s%20en%20science%20et%20en%20industrie.%20Cependant%2C%20ses%20limites%20apparaissent%20progressivement.%20Les%20auteurs%20montrent%20que%20beaucoup%20de%20ses%20%5Cu00e9checs%20s%5Cu2019expliquent%20par%20un%20m%5Cu00eame%20ph%5Cu00e9nom%5Cu00e8ne%20%3A%20le%20shortcut%20learning%2C%20o%5Cu00f9%20les%20mod%5Cu00e8les%20apprennent%20des%20r%5Cu00e8gles%20efficaces%20sur%20des%20tests%20standards%20mais%20peu%20robustes%20en%20conditions%20r%5Cu00e9elles.%20Ce%20probl%5Cu00e8me%20existe%20aussi%20dans%20d%5Cu2019autres%20domaines%20comme%20la%20psychologie%20ou%20l%5Cu2019%5Cu00e9ducation.%20Ils%20proposent%20enfin%20des%20pistes%20pour%20am%5Cu00e9liorer%20l%5Cu2019interpr%5Cu00e9tation%20des%20mod%5Cu00e8les%20et%20leur%20capacit%5Cu00e9%20%5Cu00e0%20g%5Cu00e9n%5Cu00e9raliser%20dans%20le%20monde%20r%5Cu00e9el.%22%2C%22date%22%3A%222020-11%22%2C%22section%22%3A%22%22%2C%22partNumber%22%3A%22%22%2C%22partTitle%22%3A%22%22%2C%22DOI%22%3A%2210.1038%5C%2Fs42256-020-00257-z%22%2C%22citationKey%22%3A%22%22%2C%22url%22%3A%22https%3A%5C%2F%5C%2Fwww.nature.com%5C%2Farticles%5C%2Fs42256-020-00257-z%22%2C%22PMID%22%3A%22%22%2C%22PMCID%22%3A%22%22%2C%22ISSN%22%3A%222522-5839%22%2C%22language%22%3A%22en%22%2C%22collections%22%3A%5B%22JZD8A44A%22%5D%2C%22dateModified%22%3A%222026-03-22T17%3A22%3A40Z%22%7D%7D%5D%7D
Domingos, P. (2012). A few useful things to know about machine learning. Communications of the ACM, 55(10), 78–87. https://doi.org/10.1145/2347736.2347755
Marcus, G. (2018). Deep Learning: A Critical Appraisal (arXiv:1801.00631). arXiv. https://doi.org/10.48550/arXiv.1801.00631
Geirhos, R., Jacobsen, J.-H., Michaelis, C., Zemel, R., Brendel, W., Bethge, M., & Wichmann, F. A. (2020). Shortcut learning in deep neural networks. Nature Machine Intelligence, 2(11), 665–673. https://doi.org/10.1038/s42256-020-00257-z

 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.