Parcourir différentes chroniques du GREDEG autour de sujets variés de l'actualité en droit, en économie ou en gestion.

Complexité et Macroéconomie : L’histoire récente des MABMs
Par Muriel Dal Pont Legrand, Projet structurant « Histoire de la pensée et philosophie des sciences sociales » (H2P2S)

Présentation générale

Les membres de H2P2S s’intéressent à l’histoire récente de nos disciplines et, dans ce cadre, plusieurs d’entre eux se sont intéressés à la contribution spécifique des approches relevant de la complexité à la formalisation en sciences économiques. Plus récemment, différents contrats de recherche ont été obtenus qui ont permis de développer un projet de recherche qui porte sur l’émergence et le développement des modèles macroéconomiques multi-agents (Macro Agent-Based Models – MABMs).
Participants et financements :

Muriel Dal Pont Legrand (UCA GREDEG CNRS), Romain Plassard (Université Paris Dauphine), financement IDEXJEDI (2018-2019) - Projet : « Complexité et application : comment les modèles multi-agents ont intégré la boîte à outils du macroéconomiste ». Matthieu Renault (UCA GREDEG CNRS, chercheur post-doctoral IDEXJEDI, 2020-2021) - Projet «MABM, MAcroeconomics unveiled through Bibliometric Methods ». Alexandre Truc (UCA GREDEG CNRS, chercheur Post-doctoral InSHS, 2020-2022) - Projet « QI : Quantifying Interdisciplinarity ».

Objectifs

Globalement, ce projet propose de traiter des questions suivantes :

  • Il cherche à identifier les racines analytiques (historiques) qui alimentent aujourd’hui ces travaux en soulignant bien entendu le rôle pionnier des travaux menés au Santa Fé Institute, mais aussi le fait que ces travaux reflètent (et pour certains reprennent très largement) les préoccupations d’économistes comme Minsky, Schumpeter, Wicksell, Leijonhufvud ou encore Clower, Howitt… ;

  • Il vise à évaluer (et même mesurer) le caractère pluridisciplinaire de ces développements et à examiner dans quelle mesure cette pluridisciplinarité évolue dans le temps et selon quels critères ;

  • Il étudie enfin la capacité de ces travaux à participer à un processus de fertilisation croisée vis-à-vis d’autres approches, notamment vis-à-vis des modèles Dynamic Stochastic General Equilibrium (DSGE).

L’ensemble de ces éléments doit permettre de comprendre pourquoi malgré un succès académique croissant, cette approche rencontre des difficultés à intégrer pleinement la boîte à outils des macroéconomistes et plus précisément des décideurs, des experts en charge de la politique économique.

Au-delà de la connaissance approfondie d’un épisode de l’histoire récente de la macroéconomie, les différentes questions abordées ont été conçues pour se répondre et se compléter ; elles visent à identifier les critères académiques et non-académiques permettant de « valider » les savoirs économiques.

Travaux en cours

S’agissant des travaux en cours : Plassard (2020) analyse les conditions de la percée réalisée par ces modèles au sein de la Banque d’Angleterre ; Dal Pont Legrand (2020a) analyse l’appréhension de l’instabilité financière au sein des MABM et identifie différentes influences ; Dal Pont Legrand (2020b) produit un premier état des lieux relatifs à la fertilisation croisée entre les MABMs et les modèles DSGE ; Renault (2021) examine l’origine analytique des MABM au travers de la contribution d’Axel Leijonhufvud ; Truc et Dal Pont Legrand (2021) ont constitué une base de données des publications MABMs depuis 2000 et proposent d’évaluer le caractère pluridisciplinaire de ces recherches et son évolution.

Muriel Dal Pont Legrand. 2020a. « First Reflections on Financial Instability and Macro Agents-Based Models. Genealogy and objectives », Conférence invitée, 5th Thomas Guggenheim Conference, dedicated this year to « Financial Instability, Market Disruptions and Macroeconomics. Lessons from Economic History and the History of Economic Thought ». 17-18 Dec., Roma, Accademia Nazionale dei Lincei, Palazzo Corsini.

Muriel Dal Pont Legrand. 2020b. « Is Cross-Fertilization Possible in Macroeconomics? DSGE confronts MAB Models », American Economic Association/ ASSA Meeting, HES session, 3-5 January, Chicago, 2021.

Romain Plassard. 2020. « Making a Breach: The Incorporation of Agent-Based Models into the Bank of England’s Toolkit », WP Gredeg N°2020-30.

Matthieu Renault. 2021. « Axel Leijonhufvud’s way to macroeconomic agent-based modeling » (en cours).

Muriel Dal Pont Legrand et Alexandre Truc. 2021. « Quantifying pluridisciplinarity in Macroeconomics : the case of Macro Agent-Based Models », (en cours, titre provisoire).

Au-delà des financements obtenus, ce projet est aussi en partie mené avec l’Université de Sienne via une collaboration avec les chercheurs suivants (spécialisés en analyse bibliométrique) : Alberto Baccini, Martina Cioni, Eugénio Petrovich.

Contexte

Bien que leurs programmes de recherche aient été initiés bien avant, il est indéniable que la crise de 2008 a offert une nouvelle visibilité aux MABMs. Pour autant, en dépit d’un développement évident (en nombre de publications mais aussi en élargissement de sa communauté de chercheurs comme de ses supports de publications), le statut de cette approche demeure ambigu. La question qui se pose alors est celle des conditions d’une reconnaissance plus large de ces modèles. Cette reconnaissance peut s’évaluer au travers de l’influence que ces travaux peuvent exercer sur les développements académiques dans le champ de la macroéconomie théorique ou appliquée, comme via leur capacité à être mobilisés par les experts en charge de la politique économique, notamment par ceux qui exercent auprès des banques centrales.


Méthodologies

Afin d’être en mesure d’appréhender les diverses dimensions de cet épisode de l’histoire récente de la macroéconomie, ce projet mobilise différentes méthodes. L’approche en termes d’histoire de l’analyse traditionnellement présente au GREDEG est ici complétée par deux autres méthodologies. La première que l’on pourrait qualifier de qualitative consiste à mener des entretiens (individuels ou collectifs) d’économistes acteurs de ces approches. La seconde, plus quantitative, consiste à mobiliser les outils de la bibliométrie afin de mieux cerner à la fois les grandes tendances qui forgent ce champ de recherche (en termes de publications en examinant la nature supports, les co-citations, etc.) et espérer ainsi mieux cerner les différentes communautés de recherche, les spécificités de leur programme et les évolutions de ces derniers dans le temps.

It’s not the winning but the taking part that counts: how the process of applying for competitive grants is of benefit to researchers
Par Michele Pezzoni, Projet structurant « Gouvernance, Firmes, Innovation » (GFI)

Winning
Winning

"The most important thing in the Olympic Games is not winning but taking part.” So goes the famous saying by Pierre de Coubertin, the father of modern Olympic Games. But does the same apply for competitive research grants? Based on a collaboration with Charles Ayoubi and Fabiana Visentin, Michele Pezzoni reports on their latest study which finds that simply taking part in an application process has a positive effect on researchers’ publication rates and on the average impact factor of the journals in which they publish. Participating in a competitive grant also allows applicants to enhance their learning, explore new trends of research, and extend their collaboration networks.

Are researchers wasting their time writing grant proposals with a low probability of success? This question is of the utmost importance to policymakers and funding agencies looking to promote scientific research. But it is also a key question for scientists choosing to spend more and more of their time on grant proposals where the probability of being awarded funding is low (between 10% and 35% in the UK, according to the UK Research Councils). In our study, recently published in Research Policy, we evaluated the impact of the two phases of a grant competition race – applying and being awarded with funds – on the main scientific outcomes of a researcher. Relying on detailed records of a Swiss funding programme, we found that the time and effort spent preparing the proposal stimulates the researcher’s quantitative and qualitative productivity regardless of the results of the competition. For researchers, simply taking part in an application process has a positive effect on their publication rates and on the average impact factor of the journals in which they publish. Participating in a competitive grant also allows applicants to enhance their learning, explore new trends of research, and extend their collaboration networks. Interestingly, receiving the desired funds is an incentive to establish a co-authorship with co- applicants but has no additional impact on the individual productivity of researchers.

The scarcity of data on both awarded and non-awarded researchers has been a major limitation of studies evaluating what impact applying for research grants has on the scientific outcomes of researchers. We hope our study can open the way for better consideration of the incentive mechanisms triggered by funding programmes, rather than simply evaluating a return on investment based on the scientists’ financial endowments.

To precisely evaluate the effect of applying, we compared two groups of scientists with the same characteristics, differing only in their decision to participate in a grant competition. Adopting a “difference-in-differences” approach, we assessed whether or not scientists who decided to apply perform differently from others. We used a novel dataset of grant applicants to SINERGIA, a funding programme of the Swiss National Science Foundation (SNSF) sponsoring interdisciplinary team collaboration where researchers are asked to submit a common project to access funds. We then selected a control sample of scientists with observable characteristics as close as possible to the applicants in our sample, using a propensity score matching approach.

We found that applicants boosted their productivity, producing 43% more papers in the five years following the application. Applicants’ papers also appeared in higher impact factor journals (+7%) and showed an increased breadth of references (+36%), suggesting new research directions. The attempt to explore new research directions, far from the current research interests of the applicants, might explain the observed loss of citations to their work (- 33%). After having evaluated the impact of applying, we focused our attention on the subsample of applicant scientists and considered the effect of being awarded. On average, awarded applicants do not perform significantly better than non-awarded ones regarding quantity and quality of their scientific production, although they have a 17% greater chance to establish a co-authorship with their co-applicants.

Interestingly, our results suggest that scientists can sometimes find greater benefits in the time spent writing proposals than from actually receiving the funds. This being the case, scientists should be less reluctant to invest time and effort entering grant race competitions since these could represent opportunities to launch new strands of research, build working ties with fellow researchers, and acquire new knowledge. For funding agencies, our results suggest that publicising the calls more widely and encouraging scientists to apply could be as efficient as increasing the funds dedicated to finance research projects. For instance, organising dedicated days during which  funding agencies meet researchers to inform them  about the funding opportunities available could help the calls for projects to reach a larger pool of potential applicants. Alternatively, the introduction of a refunding schema compensating the application costs for those proposals passing a minimum quality threshold would also encourage more researchers to apply.

This post originally appeared on the LSE Impact Blog. It is based on the authors’ article, The important thing is not to win, it is to take part: What if scientists benefit from participating in competitive grant races? , Forthcoming on Research Policy, 2018.

La notation financière : instrument de l’action publique européenne
Par Caroline Lequesne-Roth, Projet structurant Sources et méthodologie du droit économique (SMDE)

Notation financière
Notation financière

L'activité de notation financière consiste  à évaluer la qualité de crédit (en  d'autres termes,  la solvabilité) d'un débiteur au titre d'un instrument financier. La notation se comprend ainsi comme un « label de qualité » internationalement reconnu, une  grille  de  lecture et d'orientation pour les investisseurs et les agences de notation, qui  les  délivrent,  comme autant de « dispensateurs de confiance » au sein du système financier.

La crise européenne des dettes souveraines a conféré à ces acteurs, jusqu'alors familiers des seuls initiés, une publicité encore inédite sur le territoire européen. Boucs émissaires pour certains, véritables coupables pour d'autres, les agences de notation ont cristallisé, au cœur de la tourmente financière, les appréhensions et les doutes d'une Europe en peine face à une succession d'événements dont l'ampleur fut inédite. La virulence de ce débat se comprend à l'aune de l’autorité acquise et reconnue à ces acteurs, qui  se  mesure  aux  effets  qu'elle produit : la notation financière est devenue un instrument incontournable de l'action publique européenne, autrement dit  une  partie  intégrante « des relations, des pratiques et des représentations qui concourent à la production politiquement légitimée de modes de régulation des rapports sociaux » (selon la définition de l'action publique proposée par V. Dubois). Les critiques dont les agences ont été – et sont  encore – l’objet se traduisent par de multiples « luttes », sur le terrain réglementaire et judiciaire, qui ont pu interroger la pérennité de l'instrument : les notations financières, instrument précaire de l'action publique européenne ? Nous ne le pensons pas :  comme en atteste un premier bilan de la réglementation européenne adoptée au lendemain de  la  crise, les agences demeurent, bien qu'ébranlées et perfectibles, des acteurs incontournables du modèle régulatoire européen.

L'autorité acquise par les agences de notation de crédit au sein de l’Union européenne se mesure au travers des fonctions régulatoire et normative qu’elles assument dans le domaine bancaire et financier. « Les  notations  de  crédit ne sont pas de simples avis sur la  valeur ou le  prix d’un   instrument financier ou d’une obligation financière. Les agences de notation de crédit ne sont pas de simples analystes financiers ou conseillers en investissement » souligne le Règlement Agences de 2013. En effet, plus qu'un média, la notation constitue une certification des émissions. Ce rôle, hier encore reconnu aux acteurs bancaires, est aujourd'hui principalement dévolu aux agences de notation, qui « labellisent » les émetteurs et leurs émissions en apportant leur crédit ou en déprisant leur qualité. La fonction régulatoire qui en résulte, identifiée dès les années quatre- vingt-dix par la doctrine américaine, se mesure ainsi à l'aune des effets produits  par  les  notations financières. Ces effets ont en outre été renforcés par l’institutionnalisation des agences en qualité de régulateur.

L'effet secondaire de l'institutionnalisation de la fonction régulatoire des agences réside dans la posture d'agent de normalisation qu'elle confère à ces acteurs. Noter n'est pas seulement informer et réguler : noter c'est aussi (et surtout peut-être), normer : à  partir  du  moment où la notation est devenue juridiquement contraignante et  discriminante,  les agences ont acquis une véritable fonction normative et les critères de notation se sont imposés comme autant de standards de solvabilité. Ces standards répondent  à  un  modèle conceptuel particulier qui lie les émetteurs souverains désireux de se financer sur les marchés financiers.

Le processus d'évaluation auquel les émetteurs sont soumis restreint ainsi leur marge décisionnelle et, dans le cas des émetteurs étatiques, leur souveraineté. Il impose en effet une vision idéologiquement (et, dans une certaine mesure culturellement) orientée de la gestion entrepreneuriale et des politiques publiques vertueuses, qui se révèle décisive dans l’élaboration des stratégies et des programmes de ces acteurs. L’autorité acquise par ces agences de notation de crédit, conjuguée aux critiques auxquelles elles ont été exposées à l’occasion de la crise européenne des dettes souveraines, ont conduit les institutions européennes à repenser le cadre régulatoire dans lequel elles s’inscrivaient jusqu’alors : la confiance en l’autorégulation a cédé à la volonté d’encadrer étroitement l’activité des agences, volonté qui s’est traduite par l’adoption d’une réglementation européenne idoine. Celle-ci n’est pas exempte de critiques et rencontre de nombreux obstacles dans sa mise en œuvre. Le premier bilan de l’action européenne, contrasté, témoigne ainsi de la difficulté de réappropriation, par les autorités publiques européennes, de ce domaine d’activité.

Trois règlements européens successifs ont été adoptés entre 2009 et 2013. Le Règlement de 2009 a, pour la première fois, introduit un statut européen pour les agences, par la voie d'une procédure d'enregistrement. Deux autres règlements sont venus préciser les premières initiatives. Le Règlement de 2011 complète le dispositif de contrôle et de sanctions du régulateur, tout en prenant en compte la création de la nouvelle Autorité européenne des marchés financiers (ci-après AEMF). L'innovation majeure du Règlement Agences révisé consiste en effet dans le transfert des compétences opéré au profit de celle-ci, qui centralise désormais l'enregistrement et la surveillance des agences de notation en Europe. Enfin, le Règlement de 2013 a pour ambition de réduire la dépendance réglementaire et prudentielle aux notations et d'aménager les dispositions réglementaires spécifiques à la notation souveraine. Au sein de ce dispositif législatif, deux séries de mesures visent à contrecarrer le pouvoir des agences : dans une première, l’Union s’efforce de subordonner les agences en encadrant leurs fonctions régulatoires ; dans une seconde, elle s’attaque à leur autorité normative et tente de se réapproprier la production des standards de solvabilité.

Trois ans après l’entrée en vigueur de la dernière mouture du Règlement Agences, le bilan est mitigé. En dépit de la volonté européenne exprimée, le modèle régulatoire n’apparaît pas renouvelé dans ses fondements : les grandes agences de notation financière demeurent à ce jour les acteurs incontournables indomptés de la régulation bancaire et financière. Les succès remportés sur le terrain judiciaire à l’échelon global laissent toutefois entrevoir de véritables leviers d’action au bénéfice des émetteurs et des investisseurs, qui tendent à compenser les lacunes de la régulation européenne. Bien que la réglementation ne soit pas parvenue à substituer, comme le législateur l’a un temps espéré, un modèle de régulation publique, elle dessine un modèle de corégulation dont le juge pourrait contribuer à redéfinir les équilibres dans le sens de l’intérêt général. Il serait en ce sens souhaitable que le régime européen de responsabilité des agences soit repensé sous les traits du droit commun. À cette condition, les agences feraient l’objet de contre-pouvoirs et la notation financière pourrait être élaborée et conçue comme un outil vertueux de l’action publique européenne.

 
Réflexions autour de l’économie comportementale et des nudges
Par Agnès Festré, Projet structurant «Complexité et Dynamique des Interactions, des Réseaux et des Marchés» (CoDIReM)
Focus CODIREM
Focus CODIREM


La remise du prix Nobel d’économie à l’américain Richard Thaler en octobre 2017 consacre le champ de recherche de l’économie comportementale. Ce domaine avait déjà été récompensé en 2002 lorsque l’Académie royale de la banque de Suède avait décerné le prix conjointement au psychologue Daniel Kahneman et à l’économiste expérimentaliste Vernon Smith. Ce domaine de recherche puise ses racines dans le courant behavioriste américain des années 1950 et popularisé en sciences sociales par les travaux de Herbert Simon également récipiendaire du Prix Nobel en 1978. 

Du point de vue de l’histoire de la pensée économique ou de la sociologie des sciences, la question se pose de savoir dans quelle mesure la « nouvelle économie comportementale » constitue un nouveau paradigme. En dépit de l’hétérogénéité des approches et des interprétations, il est possible de caractériser un courant qui repose sur des hypothèses bien précises : l’existence de biais comportementaux qui affectent le comportement des individus (les biais pouvant être interprétés de différentes manières soit comme des erreurs de jugement dues à l’incidence de facteurs psychologiques comme l’impatience ou le manque d’attention, soit comme constitutifs de la rationalité limitée des acteurs) ; la dépendance au contexte des choix individuels (les décisions d’un individu peuvent différer uniquement du fait de la présentation d’un problème identique du point de vue de son intérêt propre, son niveau de satisfaction ou ses objectifs) ; l’importance des normes sociales (désapprobation ou approbation par autrui, réciprocité etc.) ou des institutions (institutions de marché, plateformes communautaires…) comme déterminants du degré d’altruisme des acteurs notamment.

Ce renouvellement de l’analyse économique a suscité beaucoup d’engouement et a légitimé l’approche expérimentale en économie qu’elle soit de laboratoire ou de terrain, avec l’essor des expériences randomisées conçues pour asseoir des politiques publiques de grande envergure, de lutte contre la pauvreté notamment (cf. Poverty Action Lab / J-PAL).

L’ouvrage de vulgarisation de Thaler et Sunstein (2008) témoigne de la percée de l’économie comportementale et est devenu la référence incontournable sur les nudges que l’on traduit habituellement par l’expression « coup de pouce » pour évoquer l’idée d’une méthode douce pour orienter les comportements. Au-delà de son apport scientifique et théorique, il comporte une visée politique et se présente comme un véritable manifeste pour un nouveau type de paternalisme : « le paternalisme libertaire », notion « oxymorienne » forgée par les auteurs visant à concilier orientation délibérée des comportements par des institutions légitimées et liberté de choix des individus au moyen des nudges dans le but de prendre les « bonnes » décisions en matière de santé, de richesse, de protection de l’environnement et même de bonheur. L’approche de Thaler et Sunstein du comportement individuel se fonde sur l’interprétation dominante des biais psychologiques due à Kahneman et Tversky, qui fait de l’acteur économique un agent désincarné intrinsèquement rationnel dont l’enveloppe externe en interaction avec le monde sensible est plus ou moins perméable à l’influence du psychologique.

Si cette conception dualiste de l’agent économique peut se comprendre d’un point de vue instrumental – elle permet notamment de s’ancrer sur les théories des perspectives (Kahneman et Tversky 1978) et du processus dual de raisonnement (Kahneman 2001) – elle pose problème d’un double point de vue : du point de vue philosophique, elle interroge sur la manière de concevoir la délibération mentale humaine ; d’un point de vue méthodologique, elle révèle les incohérences de l’approche comportementaliste de l’économie du bien-être (cf. Infante, Lecouteux et Sugden 2016).

Sur le plan analytique, les nudges réactivent toute une série de questions de recherche transversales à plusieurs disciplines dont se sont emparées les chercheurs de CoDIReM. Par exemple, les nudges en tant que dispositifs alternatifs aux incitations économiques classiques renouvellent la littérature sur l’effet d’éviction des incitations sur les motivations (intrinsèques) des acteurs (Festré et Garrouste, 2014). La notion de motivation intrinsèque (issue de la psychologie sociale) et le phénomène d’auto-détermination (self-determination) du comportement qui lui est associé (cf. Ryan et Deci 2000) ne sont pas indépendants des normes sociales et des artefacts qui influencent l’interaction sociale (notion de relatedness). De ce point de vue, la comparaison entre les notions de nudges et d’affordance (notion mobilisée en psychologie cognitive, ergonomie et dans le cadre des interactions homme-machine pour apprécier la potentialité d’un dispositif à déclencher un comportement) permet d’élargir la réflexion sur les facteurs de succès et d’échec des nudges et d’alimenter l’un des axes interdisciplinaires de recherche de la Maison des Sciences de l’Homme et de la Société  Sud-Est consacré à la question de l’acceptabilité des dispositifs numériques (cf. la vidéo des « regards croisés de l’Université Côte d’Azur » consacrée à cette thématique : https://vimeo.com/190859588).

Pro ou anti Linky : La confiance reste à construire autour des nouveaux services énergétiques
Par Nathalie Lazaric, Projet structurant «Eco-Système d’Innovation et Apprentissage» (ESIA)
Pro ou anti Linky
Pro ou anti Linky

Sommes-nous capables de modifier nos habitudes et d’apprendre mieux avec les nouvelles technologies type compteurs intelligents ? La question n’est pas simple et intéresse tant le citoyen, le consommateur, le fournisseur d’énergie que les politiques publiques qui doivent anticiper les innovations du futur et veiller à leur acceptation et leur utilité tout en respectant des accords de Paris sur les changements climatiques.

Actuellement le débat fait rage et l’adhésion est loin d’être présente. On pourrait, à première vue, s’en étonner étant donnée la large diffusion de ces services dans l’ensemble des pays européens et de l’OCDE, pays dans lesquels la question ne se pose plus. Or, dans le contexte français, le débat ressemble plus à un bras de fer entre énergéticiens et consommateurs qu’à un retard au niveau de l’adoption. En effet, la question des compteurs intelligents est symptomatique d’une vision schumpétérienne dite « technology push » et s’inscrit dans une longue tradition de monopole national où le consommateur était absent du système énergétique. L’ouverture à la concurrence des marchés de l’électricité a changé la donne et offre la possibilité de choisir son fournisseur, les services énergétiques associés et l’origine de l’énergie (renouvelable ou électricité dite verte). Une nouvelle feuille de route se met en place et les citoyens, pour certains d’entre eux, sont bien déterminés à ne plus être la simple variable d’ajustement des politiques énergétiques nationales. Les événements récents autour du Linky montrent bien l’ampleur du malentendu et le fossé qui se creuse entre énergéticiens et consommateurs (Le Monde du 28 avril 2018).  

Dans ce contexte, les fournisseurs d’énergie se doivent d’apporter des réponses claires aux citoyens notamment sur :

1) les données personnelles et de leur devenir face au déploiement de ces nouveaux services 

2) la question de la neutralité de cette technologie du point de vue du risque sanitaire pour personnes atteintes d’électrosensibilité. Les réponses à ces questions restent un préalable pour un déploiement massif tel que l’envisagent les fournisseurs.

Par ailleurs, une question qui n’est jamais abordée est celle des bénéfices pour les consommateurs. En effet, les compteurs intelligents délivrant de l’information en temps réel sur notre consommation d’électricité permettent aussi de mieux connaitre nos usages et donc d’apprendre en pouvant mieux maitriser cette dernière. Les gains potentiels sont réels… mais le contexte national et les conditions d’adoption doivent être modifiées pour entendre et apprendre des consommateurs et coconstruire un débat serein entre tous les acteurs en incluant pleinement les usagers. La confiance reste un élément essentiel dans ce paysage.

Pour en savoir plus:  

Adnane Kendel, Nathalie Lazaric et Kevin Maréchal (2017), « What do people ‘learn by looking’ at direct feedback on their energy consumption? Results of a field study in Southern France », Energy Policy, 108, 593-605.

Adnane Kendel et  Nathalie Lazaric (2015), « The diffusion of smart meters in France: A discussion of empirical evidence and the implications for smart cities in France », Journal of Strategy and management, 8(3) 231-244.

 « Les compteurs Linky sont un outil majeur au service de la transition énergétique » Le Monde Economie, 02 Mars 2018

« L'intox du « premier mort lié au compteur Linky » - Le Monde 28 avril 2018

Nos recherches dans ce domaine conduites avec une approche expérimentale de terrain nuancent ce débat. Nos résultats montrent qu’une information en temps réel peut réduire la consommation d’électricité…. mais qu’il existe aussi un apprentissage possible sans technologie pour notre groupe témoin impacté par le cadre de l’expérience elle-même. Plus précisément, nous avons constitué plusieurs groupes G1 (sans technologie) et G2 (avec technologie et feedback en temps réel). Résultat qui peut à première vue paraitre paradoxal, tous les groupes de l’expérience ont appris que ceux-ci soient dotés ou non de technologie et ont donc réduit leur consommation électrique ! Cet apprentissage est bien sûr plus important quand les technologies sont présentes (plus de 22 % pour G2) mais est néanmoins très significatif pour le groupe sans technologie (13 % pour G1) qui a bénéficié d’un apprentissage indirect (lié aux discussions de voisinage et d’une vigilance particulière liée au fait de se savoir observé). L’apprentissage peut être direct avec l’aide d’une technologie ou indirect par bouche à oreille et sans technologie, soulignant la soif de connaissance de nos concitoyens face à la consommation énergétique. Nos résultats sont à relativiser au regard du débat sur les compteurs intelligents. Notre expérience repose sur des volontaires, motivés à expérimenter dans un contexte précis. Ce cadre fut celui d’une expérience, pilotée par le GREDEG sur la commune de Biot des Alpes Maritimes.

A l’heure où l’ensemble des fournisseurs expérimentent de nouveaux services énergétiques, ces résultats devraient permettre de relativiser le rôle des technologies, de comprendre dans quel contexte les citoyens sont en mesure de changer leurs comportements et d’apprendre. Ils montrent donc qu’un apprentissage indirect n’est pas à négliger et qu’un apprentissage par visualisation a eu des effets inattendus tant au niveau quantitatif que qualitatif … et surtout que la confiance moteur de tout apprentissage, ne peut pas s’imposer mais se construit sur le long terme entre tous les acteurs de la filière énergétique.

... AUTRES SUJETS