A l’échelle mondiale, un même constat s’impose : la production de connaissance n’a jamais été aussi intense, aussi distribuée, aussi rapide. Le phénomène ne concerne plus seulement les économies avancées : il traduit une diffusion beaucoup plus large des capacités scientifiques et technologiques. Entre 2014 et 2018, selon l’UNESCO, le nombre de chercheurs a progressé de 13,7 %, soit trois fois plus vite que la population mondiale. Sur la même période, les dépenses mondiales de recherche ont augmenté de 19,2 %, davantage que l’économie mondiale elle-même. La dynamique se retrouve aussi dans les publications : entre 2015 et 2019, la production scientifique mondiale a progressé de 21 %, avec une hausse encore plus forte dans les technologies stratégiques transversales, comme l’intelligence artificielle, la robotique, l’énergie ou les matériaux. Le taux de collaboration scientifique internationale a lui aussi augmenté, passant de 22 % à 24 %. On produit donc beaucoup plus de connaissance, dans un système plus dense, plus interconnecté et plus rapide.
Des expertises autrefois localisées se retrouvent désormais dispersées dans plusieurs écosystèmes. Ce phénomène se voit dans les données de publication : l’UNESCO observe par exemple une forte progression des travaux sur les technologies stratégiques transversales, notamment l’intelligence artificielle, la robotique, l’énergie et les matériaux, avec une croissance plus rapide que celle de la production scientifique globale. L’IA et la robotique passent ainsi de 102 347 publications en 2015 à 147 806 en 2019. Autrement dit, les mêmes fronts scientifiques sont investis simultanément par un nombre croissant d’équipes, de pays et d’institutions.
Dans les pratiques de transfert et de développement économique, cela se traduit très concrètement : lorsqu’une entreprise cherche une compétence sur les capteurs, les matériaux bas carbone, l’optimisation énergétique ou l’IA appliquée à un procédé industriel, il est rare que la réponse se trouve dans un seul laboratoire ou un seul territoire. Plusieurs équipes travaillent déjà sur des briques proches, parfois avec des maturités comparables, mais sans nécessairement se connaître ni se coordonner. L’enjeu n’est donc plus seulement d’identifier “le” bon expert, mais de comprendre comment des compétences dispersées peuvent être articulées dans une trajectoire d’innovation cohérente.
Je le constate très concrètement dans les échanges entre entreprises, laboratoires et structures de transfert : même si ce n’est pas toujours facile, la difficulté n’est presque jamais de trouver une compétence scientifique « quelque part ». Elle est de savoir quelle équipe est réellement mobilisable, à quel horizon, avec quel niveau de maturité, et avec quelle capacité ou volonté d’embarquer ensuite un industriel, un financeur voire un financeur. En pratique, ce n’est pas à proprement parler la rareté de l’expertise qui bloque en premier lieu. C’est la difficulté à rendre actionnable les expertises identifiées.
L’irruption de l’intelligence artificielle générative ne fait pas qu’amplifier ce mouvement : elle modifie la nature même de la production cognitive. Synthèses, hypothèses, premières analyses, prototypes conceptuels deviennent partiellement automatisables. Le coût marginal d’accès à une première couche de connaissance s’effondre.
Petite précision qui fait suite a un commentaire d’Olivier Voppin, que je remercie. Dans cet article, j’emploie le mot “connaissance” dans un sens large, celui des ressources cognitives mobilisables dans un processus d’innovation : résultats, expertises, briques interprétatives, capacités de compréhension et de combinaison. Cela ne revient pas à confondre connaissance profonde, information brute et savoir expérientiel. Au contraire : une partie de l’enjeu vient précisément du fait que l’accélération informationnelle tend à brouiller ces niveaux, alors que leur distinction devient stratégiquement décisive.
Produire plus de connaissance ne suffit plus
Dans ce contexte, un second constat apparaît, plus discret mais plus stratégique : transformer cette connaissance en innovation différenciante devient plus incertain, parfois plus lent, parfois même marginal au regard des investissements consentis. L’industrie pharmaceutique en donne une illustration connue : Scannell et al. ont montré que le nombre de nouveaux médicaments approuvés par milliard de dollars investi en R&D a été divisé par deux environ tous les neuf ans depuis 1950, malgré l’accumulation massive de connaissances biomédicales. L’Europe connaît une tension comparable, souvent résumée par l’idée de “paradoxe européen” : une base scientifique solide, mais une difficulté persistante à transformer cette production en avantage industriel, en croissance d’entreprises innovantes et en passage à l’échelle. La Banque européenne d’investissement rappelle que l’Europe dispose d’une forte base de recherche et de capacités industrielles, mais que les jeunes entreprises innovantes rencontrent souvent des difficultés de financement pour changer d’échelle.
Scannell, J. W., Blanckley, A., Boldon, H., & Warrington, B. (2012). Diagnosing the decline in pharmaceutical R&D efficiency. Nature Reviews Drug Discovery, 11(3), 191–200. https://doi.org/10.1038/nrd3681
Ce décalage est fréquemment interprété comme le signe d’une “commoditisation de la connaissance”, c’est-à-dire d’une banalisation qui réduirait mécaniquement sa valeur. Mais l’explication est trop courte : le problème n’est pas seulement que la connaissance circule davantage. C’est que les capacités de conversion, d’arbitrage, d’industrialisation et de mise sur le marché progressent moins vite que les capacités de production cognitive.
Cette interprétation repose sur une hypothèse implicite : la valeur stratégique de la connaissance dépendrait d’abord de sa rareté. Tant qu’une connaissance est difficile à produire, difficile à trouver ou difficile à comprendre, elle peut constituer un avantage. Mais lorsque cette connaissance circule plus vite, qu’elle est travaillée simultanément par plusieurs acteurs et qu’elle peut être partiellement recombinée par l’intelligence artificielle, sa rareté ne disparaît pas totalement : elle change de nature.
Le point important n’est donc pas que la connaissance devienne une simple commodité. C’est qu’elle cesse de se comporter comme un actif stable. Jusqu’à une période récente, une organisation pouvait produire une connaissance, la protéger, la stocker, puis l’exploiter dans un temps relativement long. La connaissance fonctionnait comme un stock : un capital accumulé, mobilisable, valorisable.
Dans le régime qui s’installe, la connaissance fonctionne davantage comme un flux. Elle circule, se transforme, se recompose, se diffuse avant même d’être pleinement stabilisée. Sa valeur dépend moins du fait de la posséder que de la capacité à l’interpréter, à l’actualiser et à l’insérer rapidement dans une décision, un projet ou un usage. L’intelligence artificielle n’est pas extérieure à ce basculement : elle accélère la production du flux, augmente le nombre de combinaisons possibles et réduit encore le temps pendant lequel une connaissance peut rester différenciante.
Une commoditisation de la connaissance, vraiment ?
On entend souvent parler de commoditisation de la connaissance. Ce terme de “commoditisation” reste utile parce qu’il signale une perte de pouvoir différenciant. Mais il devient trompeur s’il conduit à penser la connaissance comme un bien ordinaire. Un produit commoditisé est banal parce qu’il est substituable : un fournisseur peut en remplacer un autre, à qualité proche, dans une logique de prix. La connaissance ne fonctionne pas exactement ainsi. Elle peut circuler largement tout en restant difficile à interpréter, à combiner ou à mettre en œuvre.
Commodity ?
En anglais économique, une commodity désigne un bien standardisé, peu différencié, généralement interchangeable d’un fournisseur à l’autre : blé, pétrole, acier, électricité, composants de base, etc. La concurrence s’y joue surtout sur le prix, la disponibilité, les volumes ou les conditions d’accès, beaucoup moins sur une différence intrinsèque entre produits.
La traduction française est délicate. On parle parfois de matière première, de produit de base ou de bien standardisé, selon le contexte. Le terme commodité, employé en français, est plus ambigu : il évoque aussi le confort ou la facilité d’usage. Dans un contexte économique, “commoditisation” signifie donc plutôt banalisation, standardisation ou perte de différenciation.
Appliquée à la connaissance, l’expression est utile mais imparfaite. Elle suggère que la connaissance deviendrait interchangeable, comme une matière première. Or le problème est plus subtil : la connaissance ne devient pas toujours banale, mais son avantage stratégique devient plus difficile à maintenir lorsqu’elle circule vite, se recompose facilement et peut être exploitée simultanément par plusieurs acteurs.
C’est ici que les travaux de Paul David sur la science ouverte restent éclairants. Ils rappellent que la connaissance possède une double nature économique : sa valeur collective augmente lorsqu’elle circule, mais sa valeur privée dépend de la capacité d’un acteur à l’approprier, à la différencier ou à l’articuler avec des actifs complémentaires. Autrement dit, ce n’est pas la circulation de la connaissance qui détruit sa valeur, mais c’est l’absence de capacité à la transformer en position stratégique.
L’intelligence artificielle renforce cette tension. Elle rend plus facile l’accès à une première couche de compréhension, mais elle ne résout pas la question économique centrale : que faire de cette connaissance, dans quel délai, avec quels moyens, dans quelle architecture d’acteurs ? La rareté ne disparaît donc pas. Elle se déplace vers l’interprétation, la hiérarchisation, l’orchestration et l’exécution.
La question centrale n’est plus seulement : qui possède la connaissance ? Elle devient : qui est capable de l’interpréter, de la recombiner et de l’utiliser au bon moment, avant que d’autres ne parviennent à en faire autant ?
Une production de connaissance devenue simultanée et redondante
Les données de l’OCDE, de l’UNESCO ou de l’OMPI confirment l’intensification de la production scientifique et technologique. Le Global Innovation Index 2025 souligne notamment un système mondial d’innovation pris entre accélération des ruptures technologiques, ralentissement de certains investissements et recomposition des modèles collaboratifs.
Mais l’essentiel n’est pas seulement la quantité de connaissances produites. Ce qui caractérise désormais la production de connaissance, c’est sa simultanéité.
Dans les analyses territoriales ou sectorielles, il devient courant d’observer que des sujets identifiés comme émergents ou stratégiques sont déjà travaillés ailleurs : transition énergétique, capteurs, matériaux avancés, santé, procédés industriels, intelligence artificielle embarquée. Cette découverte intervient souvent tardivement dans les processus de décision. Elle révèle moins un défaut de veille qu’un changement de structure : les trajectoires de recherche convergent plus vite que les organisations ne parviennent à les cartographier.
Ce phénomène produit une redondance exploratoire. Les mêmes questions sont posées dans plusieurs lieux, avec des ressources différentes, mais à partir de bases informationnelles de plus en plus homogènes. Ce n’est pas nécessairement inefficace car, en recherche, la redondance peut être productive : elle permet la validation, la réplication, la variation. Mais sur le plan stratégique, elle réduit la durée pendant laquelle une avance cognitive peut être transformée en avantage.
L’intelligence artificielle accentue ce phénomène. Elle abaisse le coût d’entrée dans certains espaces de connaissances. Des acteurs moins spécialisés peuvent produire une première analyse crédible, identifier des familles de solutions, comparer des approches, formuler des hypothèses. Cela ne remplace pas l’expertise profonde, mais cela réduit fortement l’avantage lié à la simple capacité de formuler une synthèse ou de repérer un domaine.
W. Zhang, départemant d’économie – MIT
Les travaux sur les effets productifs de l’intelligence artificielle générative montrent déjà cette ambivalence : Noy et Zhang observent une réduction forte du temps nécessaire à certaines tâches d’écriture professionnelle, tandis que Brynjolfsson, Li et Raymond montrent des gains de productivité dans des fonctions de support, avec des effets particulièrement marqués pour les profils les moins expérimentés.
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192. https://doi.org/10.1126/science.adh2586
Brynjolfsson, E., Li, D., & Raymond, L. (2025). Generative AI at Work. The Quarterly Journal of Economics, 140(2), 889–942. https://doi.org/10.1093/qje/qjae044
Le différentiel de connaissance entre acteurs ne disparaît pas, mais il se réduit. Ce qui devient rare n’est plus l’accès à une première couche de savoir. C’est la capacité à maintenir une profondeur d’analyse lorsque tout le monde peut produire une synthèse acceptable.
Notre capacité d’absorption est structurellement dépassée
Face à cette dynamique, les organisations opposent des capacités d’intégration beaucoup plus lentes. La notion de capacité d’absorption, formulée par Cohen et Levinthal, reste essentielle : une organisation ne peut reconnaître, assimiler et exploiter une connaissance externe que si elle dispose déjà de connaissances internes suffisantes. Cet apport demeure décisif, car il évite une illusion fréquente : l’accès à l’information ne crée pas automatiquement une capacité à innover.
Cohen, W. M., & Levinthal, D. A. (1990). Absorptive Capacity: A New Perspective on Learning and Innovation. Administrative Science Quarterly, 35(1), 128. https://doi.org/10.2307/2393553
Mais cette notion doit aujourd’hui être prolongée. Dans beaucoup de situations concrètes, le problème n’est plus seulement d’accéder à la connaissance, ni même de la comprendre. Le problème est de décider ce qui mérite d’être intégré.
Directions innovation, agences publiques, structures de valorisation, cellules de transfert, équipes de développement économique : toutes sont confrontées à une inflation de signaux. Technologies prometteuses, résultats scientifiques, démonstrateurs, brevets, startups, appels à projets, plateformes, feuilles de route. L’enjeu n’est plus seulement de détecter une opportunité. Il est de choisir à quoi renoncer.
C’est ici que l’économie de la connaissance rejoint l’économie de l’attention. L’intelligence artificielle donne l’impression de résoudre le problème, parce qu’elle permet de traiter davantage d’information. Mais elle tend aussi à l’aggraver. En réduisant le coût de production d’hypothèses, de notes, de scénarios ou de cartographies, elle augmente le volume de ce qui doit être évalué.
Le goulot d’étranglement se déplace donc. Il ne se situe plus principalement dans la production de connaissance. Il se situe dans la capacité organisationnelle à trier, arbitrer, décider, puis engager des moyens.
Dans la pratique, je vois que le blocage apparaît rarement au moment où l’on identifie une technologie intéressante. Il arrive juste après : j’ai repéré un laboratoire ou une équipe de recherche, un premier échange avec une entreprise est positif, une preuve de concept est envisageable, un financeur peut être intéressé. Mais ensuite tout ralentit : l’entreprise n’a pas de sponsor interne clairement identifié, le budget n’est pas aligné, la question de la propriété intellectuelle arrive trop tôt, le test industriel est renvoyé à plus tard, et personne ne décide si le sujet mérite vraiment d’être poussé ou arrêté. C’est là que se joue la performance réelle d’un système d’innovation : dans sa capacité à transformer rapidement une possibilité en choix assumé, puis en séquence d’action.
L’industrie pharmaceutique illustre fortement ce paradoxe. La « Eroom’s Law » analysée par Scannell et al. (supra) montre que, malgré les progrès scientifiques et technologiques, le nombre de nouveaux médicaments approuvés par milliard de dollars de R&D a fortement diminué sur longue période. Le problème n’est pas l’absence de connaissance. Il est la difficulté croissante à convertir cette connaissance en résultats robustes, validés, soutenables.
Ce paradoxe concerne aussi les politiques publiques d’innovation. Il arrive que des feuilles de route soient construites sur plusieurs années à partir d’un état de l’art déjà mouvant. Le temps institutionnel devient alors plus lent que le temps cognitif. La connaissance n’est pas fausse, mais elle perd une partie de sa valeur stratégique avant d’avoir été transformée en décision.
Le déplacement de la valeur vers les capacités d’orchestration
Ce décalage produit un effet majeur : la connaissance cesse d’être, à elle seule, le support direct de l’avantage concurrentiel.
Les travaux de David Teece sur les capacités dynamiques permettent de comprendre ce basculement. L’avantage ne repose pas seulement sur la possession de ressources, mais sur la capacité à les intégrer, les reconfigurer et les redéployer dans des environnements changeants.
Teece, D. J., Pisano, G., & Shuen, A. (1997). Dynamic capabilities and strategic management. Strategic Management Journal, 18(7), 509–533. https://doi.org/10.1002/(SICI)1097-0266(199708)18:7%3C509::AID-SMJ882%3E3.0.CO;2-Z
Cette idée devient centrale dans un régime de connaissance-flux. Les acteurs qui captent la valeur ne sont pas nécessairement ceux qui produisent le plus de connaissance. Ce sont ceux qui savent articuler rapidement des connaissances disponibles avec des actifs complémentaires : données, accès marché, compétences industrielles, capacité réglementaire, confiance client, architecture organisationnelle, financement, capacité de déploiement.
Les innovateurs ne sont pas toujours ceux qui profitent de l’innovation
Teece avait déjà montré, dans ses travaux sur la captation de valeur, que les innovateurs ne sont pas toujours ceux qui profitent de l’innovation. Lorsque l’imitation est possible et que les actifs complémentaires sont détenus par d’autres, la valeur peut se déplacer vers les acteurs capables d’intégrer, produire, distribuer ou imposer un standard.
Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research Policy, 15(6), 285–305. https://doi.org/10.1016/0048-7333(86)90027-2
Cela éclaire très directement les situations de transfert de technologies. Une invention issue d’un laboratoire peut être scientifiquement forte et économiquement faible si elle n’est pas reliée à un contexte d’usage, à une chaîne de valeur, à un acteur capable d’industrialiser, à une réglementation, à un problème solvable. Inversement, une connaissance moins spectaculaire peut produire davantage de valeur si elle est insérée au bon endroit, au bon moment, avec les bons partenaires.
L’intelligence artificielle accentue cette dissociation. Elle rend certaines connaissances plus accessibles, plus rapidement appropriables, plus facilement recombinables. Mais cette accessibilité déplace la différenciation vers ce qui ne se réduit pas à la production cognitive : les arbitrages, la gouvernance, les choix d’intégration, la qualité des interfaces entre acteurs.
Autrement dit, plus la connaissance devient accessible, plus la valeur migre vers l’orchestration. Ce terme ne doit pas être compris comme un mot vague. Orchestrer, dans ce contexte, signifie synchroniser des temporalités différentes : celle de la recherche, celle de l’entreprise, celle du financement, celle de la décision publique, celle du marché, celle de la preuve. C’est souvent là que les projets échouent. Non parce que la connaissance manque, mais parce que les temporalités ne s’alignent pas.
Une crise silencieuse des modèles de valorisation de la recherche
Ce déplacement met fortement en tension les institutions de recherche publique.
Les analyses de la Banque européenne d’investissement montrent que l’Europe dispose d’une base de recherche puissante, mais qu’elle peine davantage à convertir cette force en brevets, applications industrielles, adoption, financement de la croissance et passage à l’échelle. L’enjeu n’est donc pas seulement de produire plus, mais de convertir plus vite et plus efficacement.
Pour aller plus loin, vous pouvez notamment vous reporter aux pages ou chapitres du rapport ci-dessous : d’abord à l’Executive summary, p. 6-7, où le rapport explique que l’Europe dispose d’une base de recherche très forte mais que cela ne se traduit pas suffisamment en brevets, applications industrielles, adoption et financement de la croissance, avec un accent très net sur le retard des scale-ups européennes et sur le manque d’opportunités de sortie ; ensuite au Chapter 3, “Enablers and constraints for firms’ investment”, p. 128 et à sa conclusion p. 159-160, où sont détaillées les contraintes de financement des scale-ups, le poids du capital-risque étranger et la faiblesse persistante de certains segments financiers clés pour les entreprises jeunes, innovantes et en croissance.
Le modèle dominant de valorisation repose encore largement sur une séquence linéaire : produire, stabiliser, protéger, transférer. Cette séquence n’est pas fausse. Elle reste nécessaire dans de nombreux domaines, notamment lorsque la propriété intellectuelle est forte, que les actifs sont brevetables, que les cycles de développement sont longs et que les barrières réglementaires protègent l’avance.
Mais elle devient insuffisante dans les domaines où la connaissance circule vite, où les démonstrateurs sont reproductibles, où l’avantage ne tient pas à l’invention seule, mais à son insertion rapide dans un système d’usage.
Sur le terrain, cela se traduit par une saturation des dispositifs intermédiaires. Les structures de transfert reçoivent davantage de résultats, de sollicitations, de projets, de preuves partielles. Mais leur capacité à qualifier, prioriser, mettre en relation, sécuriser et convertir n’augmente pas au même rythme.
Vu depuis mon oeil de « praticien » du transfert de technlogies, le problème n’est pas seulement juridique. Il est séquentiel. Les dossiers arrivent souvent fragmentés : une brique scientifique prometteuse, un besoin industriel encore flou (voire très flou), un calendrier de financement incertain, une question de propriété intellectuelle (souvent) posée trop tôt, et parfois aucun acteur capable de porter l’intégration. Tant que ces temporalités restent disjointes, la technologie peut être excellente sans jamais rencontrer sa fenêtre de passage.
Ce décalage n’est pas seulement quantitatif. Il tient à une inadéquation entre des dispositifs pensés pour des objets stabilisés et une réalité faite de connaissances en circulation. Une technologie se présente de moins en moins comme un actif isolé à transférer. Elle apparaît comme un fragment dans une combinaison possible. Cela change profondément le métier du transfert. Il ne s’agit plus seulement d’extraire une propriété intellectuelle du laboratoire pour la porter vers le marché. Il s’agit de construire les conditions dans lesquelles une connaissance peut rencontrer un usage avant que sa fenêtre de pertinence ne se referme.
Dans cette perspective, l’organisme de transfert ne doit pas être seulement un intermédiaire juridique ou transactionnel. Il doit lui-même être extrèmement égile et réactif et doit devenir un opérateur de synchronisation.
Les limites de ce diagnostic
Ce raisonnement appelle plusieurs précautions.
Toutes les connaissances ne sont pas également soumises à ce régime de flux. Les connaissances tacites, organisationnelles, expérimentales conservent une forte inertie. Michael Polanyi rappelait déjà que nous savons davantage que nous ne pouvons formaliser. Cette dimension reste décisive. Une partie de la valeur demeure logée dans les gestes, les routines, les savoir-faire, les réseaux de confiance, les capacités d’exécution.
Les travaux sur la “stickiness” de la connaissance, notamment ceux de Szulanski, montrent d’ailleurs que le transfert de bonnes pratiques reste difficile même lorsqu’elles sont connues. Le problème n’est donc pas uniquement l’accès au savoir. C’est aussi sa traduction dans un contexte organisationnel spécifique.
Szulanski, G. (1996). Exploring internal stickiness: Impediments to the transfer of best practice within the firm. Strategic Management Journal, 17(S2), 27–43. https://doi.org/10.1002/smj.4250171105
Ensuite, l’idée de banalisation peut devenir une excuse commode. Il est tentant d’expliquer l’échec d’une stratégie par l’abondance de connaissances disponibles. Mais, dans bien des cas, le problème est plus interne : manque de priorisation, incapacité à formuler un besoin, gouvernance trop lente, absence de porteur métier, confusion entre veille et décision.
L’intelligence artificielle peut renforcer cette illusion. Elle produit des réponses structurées, des plans, des synthèses, des matrices. Elle donne le sentiment que le problème est compris. Mais comprendre formellement un sujet n’est pas encore décider. Et décider n’est pas encore transformer.
Enfin, il serait dangereux de conclure à une moindre importance de la recherche. La connaissance reste une condition nécessaire. Elle devient même plus importante dans certains domaines. Mais elle n’est plus suffisante. Sa valeur dépend de plus en plus du système dans lequel elle circule.
Conclusion
Comment agir dans un monde où la connaissance devient périssable ? Le diagnostic de “commoditisation” masque le véritable enjeu. Nous ne sommes pas confrontés à une simple banalisation de la connaissance, mais à son instabilité croissante. La rareté s’est déplacée : elle ne concerne plus seulement la production, mais la capacité à exploiter dans le bon tempo.
L’intelligence artificielle ne contredit pas ce diagnostic. Elle le radicalise. En accélérant simultanément la production, la diffusion et la recombinaison des connaissances, elle réduit encore la durée pendant laquelle celles-ci peuvent être transformées en avantage.
Pour les entreprises
Pour les entreprises, la conséquence est claire : l’avantage ne peut plus reposer principalement sur la veille, ni même sur l’accès à des connaissances externes de qualité. Il repose sur la capacité à raccorder rapidement ces connaissances à des actifs complémentaires déjà maîtrisés : outil industriel, accès marché, données, réseau commercial, capacité réglementaire, capacité de test. La bonne question n’est plus « quelle technologie devons-nous surveiller ? », mais « sur quelle combinaison de connaissances et d’actifs pouvons-nous agir plus vite que les autres ? » et cette analyse stratégique est rarement faite. Cela suppose au moins trois changements :
réduire radicalement le temps entre détection et mise à l’épreuve, en privilégiant des séquences courtes d’expérimentation adossées à un usage réel.
distinguer clairement les dispositifs d’exploration des dispositifs de déploiement : beaucoup d’organisations confondent encore curiosité technologique et trajectoire d’intégration.
désigner des responsables d’orchestration capables de relier recherche externe, métier, production, juridique et direction. Dans bien des cas, le problème n’est pas de trouver une bonne idée. C’est qu’aucune fonction n’est vraiment responsable de son alignement.
Que faire dès demain ?
Nommer un responsable unique par piste technologique prioritaire. Pas un comité, pas une veille diffuse, mais une personne identifiée, capable de relier métier, production, juridique et direction, et responsable de dire sous quelques semaines si la piste avance, reste en veille ou s’arrête.
Imposer un test d’usage réel sous 30 à 60 jours pour toute piste jugée prometteuse. Même modeste. Même imparfait. L’enjeu est d’éviter que la technologie reste trop longtemps au stade de l’intérêt abstrait.
Pour les décideurs publics
Pour les acteurs publics, la conséquence la plus importante est sans doute la suivante : dans un régime de connaissance-flux, la performance d’un territoire ou d’un dispositif ne peut plus être évaluée seulement à partir de ses stocks de compétences, de publications ou de plateformes. Elle doit être jugée sur sa capacité à transformer rapidement ces ressources en séquences d’action coordonnées.
Cela appelle un déplacement des instruments. Les politiques d’innovation devraient moins récompenser la seule production de résultats que la vitesse et la qualité de leur mise en relation avec des usages, des partenaires et des marchés. Cela suppose de sortir de dispositifs trop rigides, conçus pour dérouler un programme fixé à l’avance jusqu’à son terme, même lorsque les conditions ont changé. Il faut au contraire des mécanismes capables de tester rapidement une piste, de la redimensionner, de la réorienter ou de l’arrêter sans que tout l’édifice administratif ou politique s’effondre avec elle. Il faut aussi raccourcir fortement le temps entre l’identification d’un besoin, la mise à l’épreuve d’une solution, le retour d’expérience et la décision suivante : non plus attendre des cycles longs de diagnostic, d’appel, d’instruction et de bilan, mais organiser des séquences plus brèves dans lesquelles on apprend vite ce qui mérite d’être poursuivi, corrigé ou abandonné.
Enfin, cela suppose qu’à l’échelle d’un territoire, cette coordination ne repose plus sur la seule bonne volonté des acteurs. Il faut des fonctions clairement identifiées pour relier les besoins des entreprises, les compétences des laboratoires, les capacités de financement, les contraintes réglementaires et les possibilités de test ou de déploiement. Autrement dit, un territoire innovant n’est pas seulement un territoire riche en ressources. C’est un territoire capable de les mettre en mouvement rapidement, dans le bon ordre, avec les bons arbitrages. Pas forcément un territoire qui produit beaucoup de science, mais où un besoin industriel, une équipe académique, un financeur, un testeur et un intégrateur peuvent être mis en mouvement dans des délais compatibles avec la fenêtre d’opportunité.
Que faire dès demain ?
Trois actions très simples peuvent déjà produire un effet sensible.
Réserver dans une instance existante un point mensuel d’arbitrage sur trois dossiers bloqués entre plusieurs gouvernances, avec une décision explicite à l’issue : on accélère, on réoriente, on met en veille ou on arrête.
Imposer pour ces dossiers une fiche unique d’une page, commune aux différents acteurs, précisant le besoin, les partenaires mobilisés, le blocage principal et la décision attendue.
Déléguer un petit budget d’expérimentation rapide pour financer sans lourdeur excessive un test, une expertise ou une première mise à l’épreuve. Ces gestes ne résolvent pas à eux seuls le problème, mais ils réduisent déjà sensiblement le temps perdu entre identification d’une piste et décision réelle.
Pour la recherche publique
Pour les responsables de la recherche publique, l’enjeu n’est plus seulement de soutenir l’excellence scientifique, mais d’arbitrer entre plusieurs régimes de valorisation du savoir. Toutes les connaissances n’ont pas vocation à suivre la même trajectoire : certaines relèvent d’un temps long d’accumulation, d’autres d’une mise en relation rapide avec des usages, des partenaires ou des contextes d’application.
Gouverner la recherche, dans ce contexte, consiste moins à empiler des résultats qu’à organiser un portefeuille de temporalités : ce qu’il faut approfondir, ce qu’il faut exposer tôt, ce qu’il faut tester, ce qu’il faut protéger, et ce qu’il faut accepter de laisser en veille. Cela suppose de raccourcir les interfaces entre production scientifique et qualification des usages, d’intégrer plus tôt des acteurs extérieurs sans subordonner la recherche à leurs attentes immédiates, et d’évaluer aussi la capacité d’une organisation à rendre certaines connaissances mobilisables avant que leur fenêtre de pertinence ne se referme.
Que faire dès demain ?
Classer explicitement les projets ou résultats selon trois régimes :
à approfondir dans le temps long
à exposer tôt à des partenaires
à tester rapidement en contexte d’usage.
Organiser une revue d’opportunité trimestrielle avec quelques acteurs extérieurs. Pas pour leur laisser piloter la recherche, mais pour confronter certains résultats à des usages, contraintes, fenêtres réglementaires ou conditions d’intégration encore absentes de l’évaluation interne.
Pour les organismes de transfert de technologies
Pour les organismes de transfert, le changement est plus radical encore. Leur métier ne peut plus être défini uniquement comme la gestion et le développement d’un portefeuille d’actifs. Dans un environnement où les connaissances circulent vite et deviennent rapidement imitables ou recombinables, leur rôle central devient celui d’un opérateur de synchronisation entre science, usage, financement et décision.
Cela impose plusieurs changement :
réduire fortement les délais de qualification : non pas en supprimant l’analyse, mais en acceptant des évaluations plus rapides, plus situées, plus provisoires.
travailler moins à partir de la seule logique du technology-push, et davantage à partir de contextes d’usage à construire.
intervenir plus tôt pour réunir autour d’une même trajectoire les acteurs dont dépend réellement la réussite du projet : chercheurs, industriels, intégrateurs, experts réglementaires et financeurs. Car chacun avance selon des temporalités différentes, et c’est souvent leur désalignement, plus que la faiblesse de la technologie elle-même, qui fait échouer la transformation. Tant que le transfert sera pensé comme le passage linéaire d’un actif bien défini vers un débouché déjà constitué, il passera à côté d’une part croissante de la valeur, qui se joue en réalité dans la construction progressive d’un usage, d’une coalition d’acteurs et d’un chemin crédible de déploiement.
Que faire dès demain ?
Mettre en place une qualification flash des nouveaux sujets. Une fiche courte, un premier avis en quelques jours ou deux semaines maximum : potentiel, usage possible, blocage principal, prochaine étape. Pas une expertise complète, un premier cadrage actionnable.
Réunir très tôt une coalition minimale autour des sujets prioritaires. Chercheur, industriel potentiel, intégrateur ou utilisateur, et si besoin financeur ou expert réglementaire. Une réunion précoce vaut souvent mieux que trois mois de maturation séparée.
Szulanski, G. (1996). Exploring internal stickiness: Impediments to the transfer of best practice within the firm. Strategic Management Journal, 17(S2), 27–43. https://doi.org/10.1002/smj.4250171105
Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research Policy, 15(6), 285–305. https://doi.org/10.1016/0048-7333(86)90027-2
Teece, D. J., Pisano, G., & Shuen, A. (1997). Dynamic capabilities and strategic management. Strategic Management Journal, 18(7), 509–533. https://doi.org/10.1002/(SICI)1097-0266(199708)18:7%3C509::AID-SMJ882%3E3.0.CO;2-Z
Cohen, W. M., & Levinthal, D. A. (1990). Absorptive Capacity: A New Perspective on Learning and Innovation. Administrative Science Quarterly, 35(1), 128. https://doi.org/10.2307/2393553
Brynjolfsson, E., Li, D., & Raymond, L. (2025). Generative AI at Work. The Quarterly Journal of Economics, 140(2), 889–942. https://doi.org/10.1093/qje/qjae044
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192. https://doi.org/10.1126/science.adh2586
Scannell, J. W., Blanckley, A., Boldon, H., & Warrington, B. (2012). Diagnosing the decline in pharmaceutical R&D efficiency. Nature Reviews Drug Discovery, 11(3), 191–200. https://doi.org/10.1038/nrd3681
Professionnel de l’innovation, j’ai d’abord travaillé dans l’industrie, avant de créer une société, puis d’occuper des fonctions de responsabilité dans l’accompagnement des entreprises, le transfert de technologie, l’open innovation et l’émergence de startups.
J’ai piloté des fonds d’innovation, managé des équipes, contribué à des programmes structurants à l’échelle régionale et accompagné aussi bien des PME que des acteurs de premier plan. Aujourd’hui, j’interviens à l’interface entre recherche publique et monde économique pour faire émerger des startups et des collaborations utiles et des projets à fort impact. En prolongement de cette expérience, je partage ici des outils, des cadres de réflexion et des analyses pour celles et ceux qui veulent prendre l’innovation au sérieux.
Tous les avis présentés ici n’engagent que moi bien sûr.
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.