Jean-Pierre Hansen - Jacques Fraix
Le risque industriel majeur : ambiguïtés, craintes, savoir
Référence 3 Version 1 Date 17/10/2011
Texte / L’impact chronique sur l'environnement
L’impact chronique sur l'environnementFondements de la protection de l’environnement

La pollution chronique de l’environnement résulte de l’introduction dans ce dernier de substances (19) directement ou indirectement toxiques pouvant présenter à plus ou moins long terme un danger pour les écosystèmes et/ou pour l’homme.

Les activités humaines en général et la production industrielle en particulier sont fréquemment accompagnées d'une pollution concomitante de l'environnement (production de déchets, rejets d'effluents gazeux ou liquides), sans qu'un quelconque accident en soit à l'origine. Cette pollution est due à l'existence même de l’homme et à ses activités industrielles normales. Elle peut être qualifiée de chronique (20). Le cas échéant, elle sera qualifiée de grande ampleur dans la mesure où elle peut a priori affecter des régions entières, voire des pays ou même la planète dans son ensemble.

En s'inspirant de Nicolas de Sadeleer (21), on peut distinguer quatre modèles comportementaux qui, au cours du temps (22), ont caractérisé l'attitude de l'homme vis-à-vis de son environnement, c'est-à-dire de la protection des biens et des personnes. Dans un premier temps, nous nous concentrons sur les trois premiers modèles, le quatrième faisant l'objet d'un développement spécifique ultérieur.

  • Dans le premier modèle, que l'on pourrait qualifier d'insouciance, la nature est supposée dotée d'une capacité d'assimilation d'épuration des polluants quasiment infinie. Selon ce modèle, les substances polluantes sont dispersées ou diluées dans des masses d'eau ou d'air suffisamment importantes pour les faire disparaître ou les rendre négligeables. La nature est donc supposée dotée d'une capacité de régénération qui lui permet de « pardonner » à l'homme tout effet de ses activités productives et les erreurs du moment peuvent être effacées par les résultats des développements technologique et économique, lesquels sont implicitement liés à ce modèle. On a pu rapidement en mesurer les limites.
  • Le modèle curatif s'est imposé en suite de la constatation que la nature n'est pas aussi épuratrice que l'on pouvait le croire et que des déséquilibres écologiques apparaissaient sous l'effet de la croissance des activités humaines. Dans le modèle curatif, il convient de décontaminer, d'assainir, de remettre en état, voire de réintroduire des espèces disparues. La réparation des dommages causés à l'environnement s'impose ici comme paradigme, à l'origine d'un droit de l'environnement comprenant, notamment, le principe du pollueur-payeur et l'obligation de disposer d'une autorisation préalable pour exercer des activités potentiellement polluantes. Les limites du modèle curatif ne doivent toutefois pas être sous-estimées : sa logique même est interpellante (on pollue et, ensuite, on dépollue), la pollution est tolérée tant qu'elle ne cause pas un dommage anormal et il n'est pas toujours possible d'imputer les frais de la dépollution à leurs vrais responsables.
  • Ces limites sont à l'origine du modèle préventif. Il s’agit ici d’assurer une véritable maîtrise des risques, tout en tolérant un certain degré de nuisances. Mais celui-ci doit être tel que la survenance de dommages écologiques doit être réduite dans les limites de l’indemnisable. Le modèle préventif est ainsi une illustration de l’adage populaire : mieux vaut prévenir que guérir. Comme nous l’avions déjà observé pour la directive Seveso (23), son fondement est qu’il est préférable de « prévenir » l’apparition des pollutions et des nuisances que de devoir y remédier par la suite. Afin de réduire au mieux la probabilité de survenance de dommages, le modèle préventif est donc obligé de constamment s’appuyer sur la science et son expertise, qui sont les seules à permettre une certaine objectivation des risques encourus. Cette constatation est à la fois la force et la faiblesse du modèle : celui-ci est inopérant ou inefficace à l’égard du mal connu et surtout de l’inconnu. Sans doute est-ce là une des raisons de l’évolution à laquelle nous assistons vers un quatrième modèle que l’on pourrait qualifier d’anticipatif et qui se traduit par le désormais célèbre principe de précaution. Nous y reviendrons ultérieurement.

Gestion des risques chroniques

La gestion des risques chroniques s’appuie essentiellement sur la prévention et plus particulièrement sur la prévention d’apparition de dommages inacceptables. Cette prévention joue un rôle différent de celle dont il a été question dans le cas des accidents, au § « Les accidents industriels de grande ampleur ». Dans le cas des accidents, les techniques de prévention peuvent être mises en œuvre tant vis-à-vis de la survenance même de l'accident (probabilité), que de sa gravité. Ce n'est pas le cas, par définition, des pollutions chroniques, pour lesquelles la prévention ne concerne que la gravité.

Nous avons déjà eu l’occasion de souligner le caractère inconnu ou mal connu des effets sur l’homme et l’environnement de certaines substances éco-toxiques. Ce qui était vrai pour des expositions aiguës, comme dans le cas des accidents, l’est tout autant, voire davantage, pour des expositions chroniques, impliquant généralement de plus faibles doses. On est par ailleurs davantage conscient aujourd’hui que des phénomènes d’accumulation de faibles atteintes continues sur l’environnement sont, comme les agressions de grande ampleur, susceptibles de conduire au franchissement de seuils d’irréversibilité. Répondre à la question de savoir quelle quantité de substance polluante peut être rejetée en continu dans l’environnement sans engendrer d’effets inacceptables pour celui-ci est tout sauf simple, ne serait-ce que parce qu’il convient de s’entendre sur le terme « inacceptables ». L’industriel, pour sa part, ne peut exercer efficacement sa responsabilité productive que dans un contexte de sécurité juridique, ce qui implique de définir aussi précisément que possible les limites des rejets qui sont autorisés, donc supposés acceptables a priori pour l’environnement.

Les apports de la science

Il serait plus exact de parler « des sciences » tant on se trouve ici confronté à de multiples disciplines scientifiques telles que la physique, la biochimie, la biologie, la toxicologie, les statistiques, la génétique, l’épidémiologie et bien évidemment la médecine. Plus particulièrement, ces disciplines sont sollicitées pour déterminer les effets biologiques et environnementaux des faibles doses de substances toxiques diverses.

Les questions ultimes auxquelles se trouvent confrontés ceux qui évaluent les risques industriels chroniques peuvent être synthétisées comme suit : à quelle toxicité peut-on s’attendre dans les populations susceptibles d’être affectées par les activités anthropiques ? quel est le risque (la probabilité) pour qu’une telle toxicité apparaisse dans cette population ? quelles décisions faut-il prendre pour maintenir ces risques dans des limites acceptables ?

Si nous mettons de côté provisoirement la troisième question, qui relève de la compétence des agences de régulation (24) et de choix de nature politique, il convient d’observer que la réponse aux autres questions, même envisagées d’un point de vue scientifique, implique une démarche faite d’expériences, de modélisations, d’estimations, d’extrapolations et, en définitive, que les réponses apportées peuvent s’éloigner de ce que l’on serait en droit d’attendre (et de ce à quoi le public s'attend généralement) d’une certitude scientifique au sens strict, mais relèvent plutôt de démarches d'optimisation qui tiennent compte, au mieux, des connaissances disponibles.

Pour illustrer notre propos, la figure 2 indique schématiquement quelles sont les étapes qui permettent de passer des rejets de substances polluantes dans l'environnement aux effets sanitaires que celles-ci peuvent produire.

Si l’on considère, à titre d’exemple, le problème des relations doses-effets, celles-ci peuvent se déduire de l'étude de rares cas de contamination historiques chez l'homme (mais il s'agit alors souvent de niveaux de contamination accidentelle élevés), mais le plus souvent à partir d'études de laboratoire ou d'expérimentation portant sur des animaux. Les relations doses-effets sont alors établies à partir d'hypothèses et de modèles plus ou moins sophistiqués qui permettent de rendre compte de ces résultats expérimentaux ou de laboratoire. Ces modèles peuvent faire l'objet d'interrogations fondamentales qui, aujourd'hui, font toujours l'objet de discussions parmi les experts. Citons entre autres :

  • dans quelle mesure peut-on extrapoler les résultats obtenus sur les animaux à l'homme ?
  • peut-on extrapoler aux faibles doses les effets observés à fortes doses ?
  • comment peut-on tenir compte de l'existence éventuelle de seuils de toxicité ?
  • quelle est la validité statistique des résultats d'expériences pratiquées en laboratoire sur des populations animales limitées ?
  • quelle est la validité des résultats d'expériences en laboratoire qui, contrairement aux conditions réelles de contamination, se passent dans le cadre de protocoles stricts de reproductibilité et de comparabilité ?
  • comment tenir compte de la variation de sensibilité aux agents toxiques d'un individu à l'autre ?

Figure 2 – Étapes de l’évaluation des risques anthropiques chroniques

À titre d’autre exemple, pour déterminer les doses reçues à partir des substances toxiques qui ont pénétré dans l'organisme ou avec lesquelles ce dernier est en contact, une nouvelle modélisation, dite dosimétrique, est nécessaire. Celle-ci tient compte de la manière dont toute substance introduite dans l'organisme est Absorbée, Distribuée au sein de l'organisme (par la circulation sanguine, par exemple), Métabolisée par lui et, finalement Éliminée (processus dit ADME). Comme pour le modèle dose-effet, le recours à des études en laboratoires ou à des expériences sur des animaux reste privilégié, avec les mêmes interrogations quant à la validité des extrapolations à l'homme.

Les apports de l'économie – L'Analyse Coûts - Bénéfices

La sûreté a un coût au niveau des agences de régulation (établissement de règles et de normes et suivi de leur mise en œuvre) et surtout chez les opérateurs économiques eux-mêmes (installation d'équipements chargés de prévenir les accidents ou d'en atténuer les conséquences, installation de dispositifs chargés de réduire les pollutions en fonctionnement normal,…).

La discipline économique, souvent confrontée à la problématique de l'allocation des ressources de manière optimale et sous contrainte, notamment budgétaire, doit donc se poser la question de savoir jusqu'où il est raisonnable d’affecter des ressources, par nature limitées, dans la sûreté ou dans la dépollution. Ou quelle est l'efficacité marginale des investissements de sûreté et de dépollution en fonction des montants investis ?

Pour répondre à ce genre de questions, on recourt à l'analyse coûts - bénéfices (ACB). Conçue au départ pour évaluer et optimiser les politiques et investissements publics, la technique de l'ACB est une méthode quantitative d'évaluation de l'opportunité de projets ou de politiques publiques, en particulier lorsqu'il est important de prendre en compte d’éventuels effets à très long terme et des effets secondaires indésirables (25). Elle permet, comme l'indique N. Treich (26), de déterminer ce qu’est une politique socialement efficiente (c'est-à-dire qui maximise le bénéfice collectif net) et comment fournir des incitants (subventions, permis, primes, taxes, crédits d'impôts, normes,…) aux acteurs concernés (consommateurs, opérateurs économiques, experts, décideurs,…).

La politique environnementale fait aujourd'hui partie intégrante des politiques publiques aux niveaux mondial, national et même local. Dans ce cadre, une aide utile à la décision consiste à peser les coûts et les avantages de ces politiques et des projets qui en découlent en utilisant une référence monétaire commune. Cependant, les coûts et les avantages à évaluer dans ce cadre sont très divers et complexes, notamment pour ce qui concerne le chiffrage des impacts sur la santé, la dégradation des patrimoines, l'appauvrissement de l'écosystème ou encore les effets sur le bien-être. En outre, un grand nombre de ces avantages ou dommages ne se font sentir qu'à long terme, parfois sur plusieurs générations. Dans certains cas, ils sont irréversibles. L'analyse coûts - bénéfices trouve donc ici un terrain d'application tout indiqué et a connu, ces dernières années, de nombreux développements (27). Il n'est pas sans intérêt de noter qu'aux États-Unis, une telle analyse est exigée si un projet de modification réglementaire induit des coûts annuels supérieurs à 100 millions USD (28).

À titre d'illustration, il nous paraît utile de citer quelques exemples d'application de cette méthode au domaine de la protection de l'environnement et de la santé des personnes.

  • L’érosion de la biodiversité est aujourd'hui un des enjeux importants qui a été identifié dans le cadre de la protection de l'environnement. Cette érosion est liée à de nombreux facteurs – modification et fragmentation des habitats, introduction d'espèces, pollutions – à l'œuvre depuis de nombreuses années. Il importe donc de maîtriser le plus rapidement possible l'effet néfaste de ces facteurs pour permettre à la biodiversité d'affronter notamment le défi du changement climatique et, si possible, de contribuer à en modérer l'ampleur et ses conséquences. En France, un rapport récent du Centre d'analyse stratégique (29) a acté le fait que cette problématique n'était pas prise en compte actuellement dans les choix budgétaires publics et, pour pallier cette déficience, préconise de lui appliquer des analyses coûts – bénéfices.
  • Aux États-Unis, la protection des travailleurs et des populations contre les rayonnements ionisants, dans le cadre de l'exploitation civile de l'énergie nucléaire est basée sur l'existence de valeurs maxima réglementaires (30) d'exposition et sur le principe fondamental du « as low as reasonably achievable », mieux connu sous son acronyme « ALARA ». La définition formelle de ce principe est complexe et peu opératoire. Elle a fait l'objet de développements par la Nuclear Regulatory Commission américaine en vue de fournir aux exploitants des centrales nucléaires des règles pratiques, notamment quant au « caractère raisonnable » des mesures qu'ils peuvent prendre (31). Pour ce régulateur, il peut être basé sur une analyse coûts – bénéfices. Une telle analyse, appliquée au concept ALARA, requiert une valeur monétaire de la dose évitée par les mesures de protection mises en œuvre (équipements de contrôle des rejets, recyclage des fluides, modifications de procédures d'exploitation,…). La NRC a évalué les différentes approches méthodologiques pour fixer de telles valeurs monétaires et a reconnu qu'il existe des degrés de justification variés pour une fourchette étendue de ces valeurs. Elle a néanmoins considéré, sur base de ces analyses coûts – bénéfices, qu'une valeur de 1000 USD par homme-cS (32) était acceptable pour la valeur économique de la dose évitée.
  • Enfin, nous citerons l'étude publiée en 2003 aux États-Unis (33) et qui visait à montrer que, moyennant des investissements compris entre 3,5 et 7 milliards de dollars, il était possible de réduire significativement les risques et coûts sociétaux potentiels associés à des attaques terroristes sur les piscines de stockage des combustibles usés des centrales nucléaires situées sur le territoire américain. Cette étude était basée sur une analyse coûts – bénéfices du problème et recommandait de mettre en œuvre un programme accéléré de mesures complexes (et coûteuses) pour faire face au problème identifié par les auteurs. La Nuclear Regulatory Commission (34) procéda à une analyse de l'étude et de ses recommandations. Elle conclut qu'elle ne pouvait pas les entériner (35), compte tenu des aspects conservatifs excessifs de l'analyse et, notamment, de l'absence de justification des probabilités associées aux dommages maxima possibles, de la surestimation des rejets radioactifs subséquents, de la surestimation des conséquences et des coûts sociétaux et de la sous-estimation des coûts des mesures préventives préconisées.

L'évaluation des coûts et des bénéfices

La première difficulté inhérente à la méthode est évidemment qu'elle requiert d'attribuer une valeur monétaire tant aux coûts qu'aux bénéfices attendus de la politique envisagée.

Les coûts

Le calcul des coûts est la facette relativement classique de l'ACB et, à ce titre, ne devrait pas a priori présenter de difficultés particulières. Le développement de réglementations en matière de protection de l'environnement a presque toujours impliqué des coûts économiques plus ou moins aisés à évaluer. Bien évidemment, il convient de prendre en compte les coûts directs (coûts en investissements, coûts d'exploitation,…) et indirects (perte de productivité, perte de compétitivité, coûts d'opportunité des investissements retardés,…). Les coûts peuvent être estimés au niveau d'une installation industrielle particulière ou de l'ensemble d'un secteur industriel ; à des niveaux géographiques locaux ou nationaux.

Les bénéfices

Ce qui est plus spécifique à l'ACB est l'autre volet de la démarche : la valorisation monétaire des bénéfices ou avantages associés à la protection de la vie, de la santé et de la nature elle-même. Si, pour cet exercice, des prix de marché existent, ceux-ci peuvent être utilisés directement. Mais qu'en est-il pour les biens hors marché ou même immatériels ? Après diverses tentatives infructueuses d'évaluations directes des bénéfices associés à une amélioration de l'environnement, les économistes ont finalement atteint un consensus pour mesurer les bénéfices non marchands, comme l'amélioration de la santé, via le concept de consentement à payer (willingness-to-pay). Ce concept est basé sur le raisonnement suivant : le bénéfice que retire une personne d'une situation donnée (par exemple, un meilleur environnement) peut se mesurer en valeur monétaire par le montant que cette personne consent à payer pour se trouver dans cette situation. Le consentement à payer est donc une mesure monétaire de la variation de bien-être d'un individu qui serait nécessaire pour qu'il accepte le changement de situation associé à une décision publique (législation de protection de l'environnement) ou ce à quoi cette personne serait prête à renoncer en termes d'autres opportunités de consommation. La figure 3 résume les méthodes utilisées en ACB pour évaluer les bénéfices d'une action de prévention ou de réparation en matière environnementale.

À titre d’illustration, considérons le cas extraordinairement délicat au niveau de l’éthique de la valorisation d’une vie humaine épargnée par la mise en œuvre d’un programme de protection de l’environnement ou de la sécurité des personnes. Il convient tout d’abord d’observer :

  • que, dans l’ACB, on passe de la valeur accordée par les individus à la valeur accordée par la société par simple agrégation ;
  • que la valeur visée ici est la valeur statistique de vie, qui n’est pas une mesure de la valeur d’une vie humaine particulière, mais plutôt de la valeur pour un individu d’une réduction marginale de sa probabilité d’événement fatal.

De nombreuses études ont été faites sur le sujet en adoptant les techniques décrites ci-avant. L’une de ces méthodes, par exemple, consiste à évaluer le sursalaire qui est payé aux travailleurs qui acceptent des emplois à haut risque. Si ces travailleurs connaissent les risques associés à leur travail et acceptent volontairement celui-ci, ils fixent (même implicitement) un prix du risque en acceptant une augmentation du risque fatal en échange de salaires supérieurs. Les résultats de telles études sont, faut-il le dire, très différents d’une étude à l’autre et, par exemple, sur base d’une douzaine d’études réalisées entre 1975 et 2001 dans six pays différents, la valeur statistique de vie est comprise entre 0,8 et 16,8 millions USD (36)  …

Les difficultés méthodologiques

D'une manière générale, l'ACB doit faire face à certaines difficultés strictement méthodologiques.

Le temps

Les coûts et les bénéfices de la mise en œuvre d'un projet ou d'une mesure s'étalent dans le temps et parfois s'étalent jusqu'à un horizon temporel très éloigné. Il est donc important de pouvoir comparer ceux de ces éléments qui sont supportés aujourd'hui et ceux qui le seront dans un lointain avenir. Cette problématique est bien connue et intervient dans toute évaluation des projets d'investissement. Sa résolution passe par l'actualisation des flux monétaires et, partant, par la fixation d'un taux d'actualisation. Or, le choix de ce taux peut avoir des conséquences importantes pour l'équilibre entre les coûts et les bénéfices, en particulier lorsqu'on se trouve en situation d'étalement important des flux sur un temps long. Par exemple, avec un taux annuel d'actualisation de 4 %, un bénéfice ou un coût supporté dans 50 ans ne représente que 14 % de la valeur qui serait la sienne s'il intervenait aujourd'hui.

Le choix du taux d'actualisation annuel est donc crucial dans l'ACB.

Celui-ci fait l'objet de recommandations diverses (voir encadré II).

Le problème de la justice entre les générations soumet les théories éthiques à des épreuves très difficiles. Il est sous-jacent à la définition même du développement durable dont on peut rappeler la définition : « Le développement durable est un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures de répondre aux leurs. » (37) Le philosophe américain John Rawls a bien mis en évidence ces difficultés dans le contexte de la justice (38). Il constate que la question de savoir comment partager entre les générations le poids du progrès de la civilisation est une question à laquelle il n'y a pas de réponse précise. Il rappelle également qu'en régime démocratique, le peuple peut toujours prendre une mauvaise décision et qu'en provoquant des dommages irréversibles, il peut perpétuer de graves injustices à l'égard d'autres générations (39). Dans ce cas, il n'y a pas de raisons pour qu'un démocrate ne puisse s'opposer à la volonté publique d'une manière acceptable ou même, en tant que responsable gouvernemental, ne tente de la faire échouer. Chaque génération, ajoute-t-il, doit non seulement conserver les acquisitions de la civilisation et maintenir intactes les institutions justes qui ont été établies, mais elle doit aussi mettre de côté, à chaque période, une quantité suffisante de capital réel accumulé. Un environnement sain ne fait-il pas partie de ce capital ? Adoptant une règle de limitation dans le temps, Rawls estime alors que chaque génération doit évaluer combien elle devrait mettre de côté pour ses enfants et petits enfants en se référant à ce qu'elle-même croit pouvoir demander à juste titre de ses parents et grands-parents.

Figure 3 – Analyse coût-bénéfice – Évaluation des bénéfices d’une action publique de prévention ou de réparation
Encadré II
Poids et prix du temps à long terme


Dans les questions d’environnement, et plus généralement dans l’analyse économique des choix sociétaux, le mode de prise en compte du temps est essentiel. En effet, les décisions concernées impliquent le plus souvent le long terme, voire le très long terme, et l’adoption d’un coefficient traduisant l’effet du temps sur les grandeurs calculées a un poids considérable dans l’analyse.

Par exemple, si l’on considère (40) avec N. Stern qu’il n’y a pas de raison d’accorder moins de valeur au bien-être de nos (lointains) descendants qu’au nôtre, la fonction de bien-être W qu’il s’agira de maximiser s’écrit :



t représente les générations successives, Ct la consommation de la génération t  et U (Ct) l’utilité que celle-ci en retire, ρ étant le taux d’actualisation – très faible dans l’hypothèse retenue.

Cependant, même si ρ = 0, Max W n’implique pas de valoriser de la même manière les consommations Ct de chaque génération : par exemple, grâce au développement et au progrès technique, les générations t > t0 pourraient disposer de plus hauts niveaux de consommation. Dès lors, puisque Ut’’ < 0, accroître la consommation des « pauvres » générations actuelles augmentera plus le bien-être intergénérationnel que si ce même accroissement de consommation était offert aux « riches » générations futures. Et inversement dans le cadre d’autres hypothèses (41).

Il s’agit donc en quelque sorte de combiner dans la démarche maximisation intertemporelle du bien-être W et croissance optimale de l’économie, ce qui conduit à actualiser le flux U (Ct) à un taux différent de ρ. L’équation de Ramsey  (42) permet cette combinaison.

C. Gollier  (43) a analysé en détail les travaux de Ramsey et leur application en économie contemporaine.

On distinguera :

  • r ,         le taux d’actualisation (%) ;


  • ρ ,         le taux correspondant au fait que, selon les termes de Ramsey, « les agents économiques sont impatients » ; il traduit donc la préférence pure pour l’immédiat (%) ;


  • g ,         le taux de croissance annuelle de la consommation (%) ;


  • γ ,         coefficient qui traduit l’aversion des agents pour les variations du bien-être au cours du temps (l’aversion à l’aléa).


Sur ces bases, le taux d’actualisation socialement efficient sera :

r = ρ + γ g.


Les valeurs numériques de ρ, γ et g sont, à des degrés divers, très difficiles à déterminer sur le long terme et leur choix ne fait pas consensus.

C. Gollier  (44) renseigne et commente différentes études ayant conduit aux résultats suivants :



Ces choix ont donné lieu à plusieurs controverses  (45), notamment la faible valeur retenue par Stern.

L'équité et la distribution

Dans une ACB, une mesure publique est jugée économiquement efficiente si les bénéfices procurés par son adoption sont supérieurs aux coûts qu'elle induit, quelle que soit l'identité des gagnants et des perdants. Tout comme la question intergénérationnelle, cette constatation pose un problème qui relève de l'éthique et qui est toujours aujourd'hui matière à débats.

La science économique connaît bien ce problème qui consiste à savoir si, parmi les différents types d'équilibre dans lesquels peut se trouver l'économie, il en est qui sont préférables à d'autres, parce que plus avantageux pour certains agents ou peut-être même pour la totalité d'entre eux. On comprend l'intérêt de disposer de critères qui permettent de juger si un changement économique résultant d'une initiative politique est socialement bénéfique ou non.

Le critère de Pareto stipule qu’une initiative politique est socialement bénéfique si, après le changement des conditions économiques induit par cette initiative, la satisfaction d'au moins un agent économique est plus grande, tandis que celle de tous les autres agents n'est pas moins grande. Ce critère implique comme seul jugement de valeur le fait qu'un niveau de satisfaction supérieur (pour qui que ce soit dans l'économie) est préférable à une satisfaction moindre ; mais il exclut la comparaison entre les satisfactions d'individus différents (voir encadré III).

Le critère de Pareto permet de juger de l'optimalité collective d'une situation donnée et il y a optimum au sens de Pareto lorsqu'il n'est pas possible d'améliorer le bien-être d'un agent sans détériorer celui d'un autre. Ce n'est donc pas un critère d'équité, mais un critère d'efficacité. Dans certains cas, il peut s'avérer limitatif : ainsi par exemple, si un état de l'économie est envisagé qui améliore la situation de la majorité des individus mais réduit en même temps la satisfaction d'un seul individu, cet état n'est pas considéré comme préférable.

Le critère de Kaldor-Hicks (46), pour sa part, pallie aux limites du critère de Pareto et requiert, pour que le changement soit socialement bénéfique, que les gagnants qui bénéficient des effets du changement soient en théorie à même de compenser les perdants pour leurs pertes, tout en gardant une amélioration de leur propre sort.

Toutefois, en l'absence de mécanismes de compensation explicites, le projet ou la politique ont peu de chances d'être politiquement acceptable si les coûts ou les bénéfices sont répartis inéquitablement. La littérature spécialisée n'a pas de réponse unique pour faire face au problème de répartition. Une solution possible consiste à pondérer les bénéfices (consentements à payer) et les coûts retirés ou supportés par les différents groupes sociaux pour qu'un projet particulier satisfasse à une ACB du point de vue de la répartition. Si certains groupes voient leur sort se dégrader, la question se pose de savoir s'il faut leur offrir une compensation et, dans l'affirmative, par quels moyens. Si l'on décide d'assurer une compensation, l'enseignement de la théorie économique est qu'il vaut mieux le faire en utilisant d'autres instruments (par exemple, la taxation) qu'en ajustant la politique environnementale elle-même.

Encadré III
Optimum et équité


La recherche du fonctionnement optimal d’une économie réclame évidemment la définition d’un critère par rapport auquel l’efficacité de cette économie sera appréciée. Le critère le plus classique est celui de Pareto (47), qui stipule : indépendamment d’hypothèses sur les aspects institutionnels d’une économie, un état possible de cette économie sera dit optimal si, dans un tel état, on ne peut augmenter la satisfaction d’un individu sans diminuer celle d’un autre agent.

Dans le cas de deux agents (fig. 1), seuls les points figurant sur la frontières des états possibles (c’est-à-dire effectivement réalisables par l’économie en question ; arc AD) peuvent être des optima de Pareto : pour tous les autres points, il existe au moins un point de la frontière qui lui sera préférable.

Le critère de Pareto ne permet pas de choisir entre les états A, B, C ou D.

Fig. 1


Dans l’analyse de Pareto, les satisfactions individuelles Uj , , ne dépendent que des consommations (implicitement, donc, elle suppose que la production ne trouve pas sa finalité « en elle-même »).

Une critique essentielle adressée au critère de Pareto est qu’il ne tient pas compte de la répartition initiale des revenus (ou des richesses) entre les agents. Par exemple, A.K. Sen (48) souligne qu’une économie peut être efficiente au sens de Pareto « même quand certaines personnes se roulent dans le luxe et d’autres sont proches de la famine, pour autant que l’on ne puisse améliorer le sort des affamés sans restreindre le plaisir des riches ; en bref, une économie peut être Pareto-optimale et cependant parfaitement scandaleuse ».

Outre les problèmes de nature éthique ou politique qu’il peut soulever, le critère de Pareto ne permet donc pas de comparer entre elles toutes les situations possibles.

Il est dès lors souhaitable de compléter l’analyse par l’adoption d’un critère supplémentaire, celui de la maximisation d’une fonction de bien-être social, critère de nature éthique, politique ou philosophique et donc, lui aussi, sujet à débat. Pisani-Ferry et al. (49) en proposent la synthèse suivante.

Si l’on se donne la frontière des états possibles de la fig. 2 (50), le critère de Pareto ne permet pas de choisir entre les points situés sur l’arc CE.

Fig. 2


Il faut donc se donner une fonction de bien-être social W (Uj), , où j renseigne les m entités (individus, ménages, groupes sociaux, etc.). Dans la littérature économique et politique, les fonctions les plus souvent choisies – et comparées – ont été introduites par :

  • J. Bentham  (51), avec , ce qui donne une importance égale à l’utilité de chaque agent et donc revient à considérer que la répartition du revenu entre les individus n’a pas d’importance et que seule l’utilité totale compte : le point D, où la somme des Uj est maximale (pente -1), sera choisi. On note que U1 et U2 sont alors (très) différents ;


  • J. Rawls  (52), avec W = Min(Uj), , pour qui il s’agit de maximiser l’utilité des moins bien nantis (point C, qui maximise U1).


Remarquons également qu’un critère de stricte égalité, représenté par le point B, n’est pas Pareto-optimal. En effet, faut-il refuser une augmentation de U1 et  de U2 uniquement parce que cette augmentation n’est pas répartie de manière égale entre les agents ?

L'incertitude et l'irréversibilité

On ne connaît jamais avec certitude les coûts et les bénéfices futurs d'une politique à un moment donné et cette incertitude doit être prise en compte dans l'ACB. L'incertitude est à distinguer du risque pour lequel les probabilités des différents résultats sont connues (53), ce qui permet de pondérer les coûts et les bénéfices par les probabilités (voir encadré IV). Si tel n'est toutefois pas le cas, il convient de réaliser une étude de sensibilité dans laquelle on fait varier la valeur des paramètres clés. Cette analyse évite de donner une impression trompeuse d'exactitude concernant les valeurs obtenues. Les fondements théoriques de ce distingo sont cependant discutés et il importe d’en préciser les définitions.

Particulièrement problématiques sont les cas où les coûts sont non seulement incertains, mais aussi potentiellement irréversibles. De tels cas sont fréquents dans le domaine de l'environnement mais aussi dans le choix des investissements. Les situations où incertitude et irréversibilité se trouvent conjuguées peuvent être traitées à l'aide de différents outils conceptuels, dont la notion de « valeur de quasi-option », qui correspond à la valeur des informations réunies grâce au report d'une décision ayant des conséquences irréversibles (voir encadré V).

Encadré IV
Risque et incertitude


À la suite de F. Knight, les économistes ont longtemps distingué le risque, caractérisé par une loi de probabilité objective, c’est-à-dire fondée sur la réalisation d’événements aléatoires, de l’incertitude, qui ne repose sur aucune base réelle d’information.

Dès 1950, cependant, des théoriciens de la décision (dont Savage) et des économistes (Arrow) ont critiqué cette distinction : « En un mot, l’incertitude de Knight semble, étonnamment, avoir beaucoup des propriétés des probabilités ordinaires et l’intérêt de cette distinction n’est pas évident. En fait, son incertitude conduit à peu près aux mêmes réactions chez les individus que ce que d’autres auteurs appellent risque » (54).

Treich et Gollier  (55)  (56) proposent de définir l’incertitude comme une situation risquée telle que la perception du risque évolue au cours du temps. Cette caractéristique implique que l’incertitude n’est pas indépendante de l’expérience ou, plus généralement, du niveau des connaissances, et n’est donc pas un concept statique : avec l’acquisition progressive du savoir, l’incertitude diminue et permet de réviser les décisions (voir fig. 1, où p0 , p1 , p2 sont des distributions de probabilités).

Fig. 1


Ce distingo peut s’interpréter en termes de probabilités respectivement a priori et a posteriori.

Supposons qu’une décision soit conditionnée par un « état du monde », la variable aléatoire (p. ex. discrète) représentant les différents états possibles .

La distribution de probabilités rend compte des « croyances » (subjectives) en cet état du monde. Une information supplémentaire y, parmi l’ensemble ỹ des informations possibles, peut intervenir (ou pas), ce qui contribuera à modifier ces croyances après la prise en compte de cette information. On note la probabilité de recevoir un tel message. La distribution de probabilités ex-ante sera « mise à jour », deviendra probabilité ex-post à la réception d’une information y et sera notée . Elle sera plus utile que , car intégrant les nouvelles données disponibles.

L’une se déduit de l’autre par la règle de Bayes :





est la probabilité de recevoir effectivement l’information quand l’état du monde est θ.

On note que plus l’information reçue est « fiable », c’est-à-dire plus est proche de 0 ou de 1, plus l’écart entre la probabilité a posteriori et la probabilité a priori p(θi) est grand.

On distingue ainsi, dans cette interprétation, le risque, qui est lié à la réalisation de , de l’incertitude, qui est liée à la réalisation de ỹ : l’incertitude n’est donc pas indépendante de l’information (de la connaissance, du savoir).

Le décideur, en début de période, ignore θ et .

Encadré V
Prévention et précaution


Comme nous l’avons indiqué, le modèle préventif se distingue du modèle anticipatif : ce dernier essaie d’anticiper les événements éventuellement nocifs pour l’environnement, afin de prendre en temps utile les précautions qui apparaissent souhaitables, même si l’existence d’un risque n’est pas établie.

Nous sommes donc dans un contexte d’incertitude (cf. encadré IV). De plus, vu la nature des phénomènes en cause, les décisions ou non-décisions prises sont entachées d’irréversibilité : une décision prise à l’étape 1 conditionne de manière irréversible les étapes ultérieures.

Il est important d’essayer de donner au principe de précaution une expression économique rationnelle. Nous présenterons et illustrerons l’analyse proposée par Gollier et Treich (57).

Le monde du principe de précaution suppose donc :

  • une grande incertitude du futur ;


  • la possibilité de la réduire par l’acquisition de nouvelles connaissances ;


  • l’irréversibilité des décisions ;


  • et ceci dans un horizon de long terme.


Considérons un décideur unique (politique, économique,…) qui doit poser au début de la période 1 un choix α1 inclus dans un ensemble D de choix possibles (fig. 1).

L’effet d’irréversibilité des décisions implique que la décision α2 qu’il aura à poser en début de période 2 est influencée par α1 .

Chaque décision prise au début de la période j entraînera pour les entités concernées (populations, entreprises, États,…) une utilité uj .

Fig. 1


Au cours de la première période mais après la prise de décision α1 , on considère que le décideur unique peut recevoir un message (une information, une avancée scientifique,…) susceptible de réviser « la croyance dans le futur » de ce décideur. Si l’on note l’ensemble des messages possibles que le décideur peut recevoir (y compris rien), le message particulier qu’il recevra sera noté . D’un point de vue probabiliste, il recalculera une nouvelle « probabilité du futur » selon la règle de Bayes (voir encadré IV).

Par ailleurs, on notera l’ensemble des états du monde possibles a priori dont la vraie nature θ ne sera connue qu’à la fin de la deuxième période.

Le décideur unique devra donc maximiser sont utilité globale :



         


où :

  • r         est le taux d’actualisation de long terme (voir encadré II) ;


  •          l’espérance de recevoir un message y;


et

  •          l’espérance de réalisation d’un état du monde particulier θ, compte tenu de la réception du message y.


Au départ, le décideur ne connaît ni ni .

Par rapport aux définitions rappelées précédemment, on distingue le risque, caractérisé par , de l’incertitude, caractérisée par : cette dernière n’est pas indépendante de la connaissance acquise (le « message » peut être plus ou moins pertinent) et elle est donc un concept dynamique, contrairement au risque.

C’est la variable qui caractérise rationnellement le principe de précaution, alors que le modèle de prévention est, lui, lié à , concept statique.

Les modes de gestion sont donc différents (voir tableau).



Cette formulation générale du problème permet aux auteurs de l’appliquer à diverses situations particulières et de formuler quelques constats de principe. Notons, par exemple :

  • La perspective de recevoir de l’information dans le futur conduit à adopter une position plus flexible au départ.


  • Deux effets jouent en sens inverse :


    • d’une part, les perspectives de nouvelles connaissances conduisent à moins se soucier du futur et donc à augmenter sa consommation d’un produit (même s’il est « toxique » pour autant qu’il procure une utilité) ;


    • d’autre part, la perspective de recevoir ultérieurement des informations complémentaires sur le risque encouru est elle-même un « risque » (), un aléa, qui rend les utilités futures plus volatiles ; dans ce cas un consommateur raisonnablement prudent réduira sa consommation dans la période 1.


  • L’un ou l’autre de ces effets peut prévaloir. Ce n’est que lorsque le second est le plus important que le principe de précaution s’applique rationnellement.


  • On montre qu’il n’y a pas de situation absolue de prévalence de l’un ou l’autre effet : le principe de précaution ne peut se justifier qu’au regard des préférences du décideur.


  • On constate également que, dans les hypothèses d’une économie de concurrence pure et parfaite, il existe des situations où, même si le principe de précaution se justifie, elles ne constituent pas un équilibre de cette économie.


*


Par ailleurs, Treich  (58) évoque une brève analyse des implications de ces analyses sur quelques problèmes d’actualité :

  • le Protocole de Kyoto peut être (implicitement) considéré construit sur ces principes : fixer des impératifs à court terme, assortis de mécanismes de flexibilité permettant une future adaptation ;


  • les études de Manne-Richels  (59) (1992) et Nordhaus  (60) (1994), estimant qu’il existerait un avantage finalement assez modeste à contrôler dès aujourd’hui les émissions, plutôt que de différer ces actions de quelque dix ans ; bien entendu, ces résultats ont donné lieu à de fortes controverses.

La réponse des régulateurs

Rappelons que, par régulateur, on entend ici toute autorité publique qui, à un titre ou un autre, intervient dans la détermination de politiques publiques visant à prévenir ou réduire les impacts environnementaux des activités industrielles. Il peut donc s'agir de tout pouvoir public qui intervient directement ou indirectement (par exemple, en qualité de tutelle sur des agences spécialisées) et qui utilise les différents moyens à sa disposition pour atteindre les objectifs de prévention ou de réduction. Leur démarche comprend deux volets :

  • évaluer le risque supplémentaire induit par une substance toxique par rapport au risque qui existe en l'absence d'exposition à cette substance ;
  • juger, compte tenu de toutes les contraintes à prendre en compte (scientifiques, économiques, technologiques, sociales,…) si ce risque supplémentaire est acceptable.

L'action publique est donc nécessaire chaque fois que surgit une divergence entre la qualité observée de l'environnement et son niveau souhaitable ou préféré. Dans cette hypothèse, les différentes approches possibles peuvent être classées en différentes catégories :

  • les méthodes indirectes ;
  • les méthodes directes normatives et de contrôle ;
  • les méthodes directes incitatives.

Les méthodes indirectes

Elles permettent aux opérateurs impliqués dans des problèmes de pollutions environnementales de régler ceux-ci eux-mêmes, soit par négociation, soit par recours à l'arbitrage juridictionnel. On peut, dans ce contexte, faire appel, par exemple, au droit commun de la responsabilité, renforcé par des principes généraux tels que celui du pollueur-payeur (61). Dans ce cas, l'efficacité de la loi consiste à amener indirectement le pollueur à internaliser les dommages environnementaux dont il est à l'origine.

La figure 4 présente le modèle classique de la pollution environnementale par un pollueur donné, qui se caractérise par les coûts marginaux de réduction des émissions et les dommages marginaux à l'environnement correspondants, tous deux relatifs aux taux d'émission d'un polluant particulier.

Le taux d'émission est égal à E pour une production donnée. À ce niveau, les dommages totaux à l'environnement sont égaux à la somme des triangles S1 + S2 + S3. Si le droit de la responsabilité oblige le pollueur à compenser les dommages causés à l'environnement, cette règle aura pour effet d'internaliser, chez lui, les dommages environnementaux qui, auparavant, lui étaient extérieurs. Le pollueur est, en effet, amené à réduire ses payements compensatoires en réduisant ses émissions et en se déplaçant donc vers la gauche sur l'axe des émissions du graphique. Cela aura pour effet dérivé de générer des coûts de réduction.

Figure 4 – Approche indirecte pour la réduction des émissions polluantes

Tant que les coûts marginaux de réduction seront inférieurs aux dommages marginaux, le pollueur sera incité à réduire davantage ses émissions et ce, jusqu'à ce que les coûts de réduction marginaux soient égaux aux dommages marginaux, ce qui correspond au niveau d'émissions E* sur le graphique. En théorie donc, un système de responsabilisation conduit le pollueur à réduire ses émissions, sans l'intervention directe d'une autorité normative et de contrôle des niveaux d'émission extérieure. Bien entendu, l'efficacité réelle du mécanisme dépend du processus légal par lequel la responsabilité et les compensations éventuelles sont établies.

Les méthodes directes normatives et de contrôle

Les méthodes directes normatives et de contrôle consistent à fixer directement par des normes soit les niveaux d'émission maxima autorisés (voir figure 2), soit les concentrations maximales ambiantes admissibles, soit encore les technologies ou pratiques que les pollueurs potentiels doivent mettre en œuvre et à en contrôler l'application.

Le paragraphe relatif aux apports de la science pourrait amener à dire que la fixation de normes impératives est quasiment impossible, tant les incertitudes et les marges d'erreurs scientifiques sont importantes. La démarche la plus sûre serait dès lors d'interdire purement et simplement l'usage ou le rejet de certaines substances polluantes. On conçoit toutefois que cette approche soit très rarement possible et, pour ce qui concerne l'usage, dépende largement des possibilités de substitution et du coût de développement des produits de remplacement. Il est cependant difficile de passer sous silence l’exemple de bannissement des CFC, identifiés comme responsables de l'appauvrissement de la couche d'ozone, par le biais de la Convention internationale pour la protection de la couche d'ozone (62) et du Protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone (63).

Si l’interdiction n'est pas possible, les substances polluantes sont présentes dans l'environnement et il convient d’évoquer le passage de l'estimation scientifique des risques liés à la pollution à la gestion de ces risques.

Une première remarque s'impose. L'examen de la figure 2 montre que ce qu'il convient de limiter, ce sont les effets sanitaires finaux, c'est-à-dire les doses reçues au niveau de chaque être humain. Sur la figure 2, ce niveau d'intervention est qualifié de « primaire ». Si les dispositifs normatifs fixaient des valeurs limites à ce niveau, ils seraient invérifiables, puisque non mesurables sauf en de rares exceptions et après des examens complexes et irréalistes à grande échelle. Ils ne présenteraient, en outre, aucun intérêt opératoire pour les industriels eux-mêmes, confrontés à l'exploitation journalière de leurs installations.

Il convient donc de réglementer à un stade plus précoce. Celui-ci peut se situer au niveau des quantités de substances absorbées par l'homme par ingestion, inhalation ou contact direct, autrement dit, au niveau des substances polluantes présentes dans l'air, l'eau et les sols (niveau d'intervention dérivé 1 sur la figure 2) et avec lesquelles l'homme est en contact. On peut même songer à intervenir à un stade plus précoce encore (niveau d'intervention dérivé 2 sur la figure 2), c'est-à-dire au niveau du terme source, c’est-à-dire des rejets à la sortie des installations (normes d'émission). Ces deux niveaux d'intervention présentent une qualité fondamentale dans le cadre d'un processus normatif : ils peuvent être mesurés et contrôlés et c’est à eux que vont se consacrer les régulateurs, au sens où nous les avons définis plus haut. Ils peuvent s'appuyer, pour ce faire, sur un certain nombre de principes généraux (64) :

  • D'une manière générale, les données d'études sur des humains (65) sont préférables à des données animales dans le but d'évaluer les risques et les relations doses-effets.
  • En l'absence de données humaines quantitatives et précises pour écarter les risques, les données animales sont utilisées pour évaluer les risques et les relations doses-effets.
  • Pour tous les effets toxiques autres que carcinogènes, un seuil est présumé dans les courbes doses-effets. Le niveau de dose le plus bas pour lequel aucun effet toxique n'est observé dans toutes les études disponibles est présumé constituer le seuil pour le groupe de sujets (humains ou animaux) dans lequel des données de toxicité ont été collectées.
  • Le seuil pour la population humaine est estimé en divisant le niveau pour lequel aucun effet n'est observé par un facteur de sécurité, dont l'ampleur dépend de la nature et de la qualité des données toxicologiques et des caractéristiques de la population humaine.
  • Pour les substances carcinogènes, un modèle linéaire sans seuil est présumé s'appliquer aux faibles doses, aussi faibles soient-elles, comme indiqué à la figure 5.
  • D'une manière générale, les expositions humaines – et doses en découlant – sont estimées pour les membres de la population qui subissent les intensités et contacts les plus élevés (groupes dits à risque).

Ainsi, les risques sont calculés à partir des données disponibles de la science. Lorsque ces données sont incertaines et qu'un ensemble de choix existe, la politique du régulateur favorise celui qui conduit à l'estimation la plus élevée du risque, et ceci à toutes les étapes indiquées à la figure 2.

Dans ce processus, les relations doses-effets sont fondamentales lors de la fixation de normes. Plus particulièrement, le problème auquel les régulateurs doivent faire face concerne les effets des faibles doses de polluants auxquelles les populations sont confrontées lors d'expositions chroniques et pour lesquelles aucun effet ne peut être mis en évidence par des études épidémiologiques. La figure 5 résume la situation en la matière.

Cette figure montre (quadrant supérieur droit) les résultats de trois études donnant les effets observés (ici, le risque de développer un cancer au cours d'une vie) pour de fortes doses d'exposition à une substance carcinogène. Il s'agit donc du risque supplémentaire encouru par la population exposée par rapport à une population qui ne subit pas cette exposition (dans le cas représenté, entre 10 et 100 % en fonction de la dose reçue). La question est alors de savoir quel est le risque correspondant pour de faibles, voire très faibles doses d'exposition au même carcinogène.

Figure 5 – Courbes doses-effets hypothétiques pour des substances carcinogènes (RODRICKS J. V., op. cit., p. 175.)

Aucune étude en laboratoire ne peut mettre en évidence directement, pour des raisons statistiques et pratiques (taille limitée des populations étudiées, protocole opératoire peu représentatif des conditions réelles d'exposition,…), des risques très faibles, de l'ordre de 5 à 10 %. Il faut donc évaluer ceux-ci en utilisant un modèle permettant d'extrapoler aux faibles doses (quadrant inférieur gauche) les effets obtenus à fortes doses. La figure indique les trois possibilités en la matière et montre que la relation linéaire sans seuil est celle qui correspond à la maximisation du risque, raison pour laquelle on retrouve le choix de cette hypothèse dans le principe repris ci-dessus (66).

Enfin, au dernier stade de leur élaboration des normes, les régulateurs sont confrontés à la nécessité de vérifier qu'au niveau de concentration (cas du niveau d'intervention dérivé 1) ou d'émission (cas du niveau d'intervention dérivé 2) fixé par la norme, le risque pour la population est négligeable et peut donc être accepté (voir encadré VI).

Encadré VI
Le cas du chloroforme (67)


En 1992, l'Environmental Protection Agency (68) des États-Unis fut amenée à réévaluer les concentrations maximales admissibles en chloroforme  (69) (CHCl3) dans l'eau potable. La norme retenue, basée sur des données animales de carcinogenèse, fut fixée à une concentration maximale de 0,0057 mg/l ou 5,7 μ g/l (niveau d'intervention dérivé 1). Cette norme était basée sur les hypothèses suivantes :

  • Relation doses-effets linéaire sans seuil conduisant à un risque de 0,006 cancer supplémentaire/mg de CHCl3 absorbé/kg de l'organisme absorbant/jour (pente de la droite applicable aux faibles doses dans la figure 2).


  • Absorption quotidienne de 2 litres d'eau par jour pendant une période de 70 ans.


  • Poids moyen d'un individu égal à 70 kg.


Il découle de ces hypothèses que la dose de CHCl3 absorbée par un individu est de :



ce qui correspond à un risque de 0,006 x 1,63 x 10-4 = 9,77 x 10-7 cancer supplémentaire par personne sur une durée de 70 ans.

Si l'on accepte les hypothèses de ce calcul, cela signifie qu'environ 1 personne sur un million (critère dit du 10-6) confrontée à une absorption de chloroforme en buvant 2 litres d'eau par jour pendant toute sa vie, développera un cancer au cours d'une durée de 70 ans.

Ce risque a été considéré comme acceptable par le régulateur et la norme a donc été fixée à la concentration maximale admissible de 0,0057 mg/l (70).

Le critère de risque additionnel inférieur à 10-6 est fréquemment utilisé par les régulateurs pour fixer les normes d'exposition à des substances polluantes et est considéré comme une définition adéquate de la sûreté des populations.

Les méthodes directes incitatives

Les politiques incitatives directes peuvent prendre essentiellement deux formes :

  • les taxes et subventions ;
  • les permis de polluer négociables.

Dans tous les cas, il s'agit de moyens développés par les pouvoirs publics pour inciter les acteurs concernés à adopter un comportement particulier visant à protéger l'environnement.

Les taxes (et subventions)

Les taxes laissent l'industrie libre de choisir le niveau de pollution qu'elle entend réaliser, étant entendu que chaque « unité » de pollution (tonne, m3, …) est frappée d'une taxe. On comprend que ceci pousse l'industriel à minimiser ses coûts et à trouver le procédé le moins coûteux pour réduire ses émissions. La figure 6 résume cette problématique.

Figure 6 – Économie d'une taxation environnementale

La figure représente la fonction (supposée linéaire) du coût marginal de réduction (CMR) de la pollution émise par une entreprise. Le niveau d'émission actuel est E0. Si les pouvoirs publics introduisent une taxe T (par unité de polluants émis), on peut montrer qu'il existe un niveau d'émission optimum pour lequel la somme des coûts sera minimale pour l'entreprise. Ce niveau est E1, niveau d'émission pour lequel le coût marginal de réduction CMR est égal à T. Pour atteindre ce point, les coûts supportés par l'entreprise seront égaux au triangle S2 (coût total de réduction des émissions de E0 à E1) et au rectangle S1 (coût de la taxe T portant sur les émissions résiduelles E1).

La possibilité qu'aura l'entreprise de répercuter ses coûts sur le marché de ses produits dépendra de la pression concurrentielle et il est possible qu'une telle répercussion ne soit que partiellement (ou pas du tout) réalisable. D'une manière générale, plus la taxe T est élevée, plus la réduction d'émission optimale est importante. En revanche, on remarquera également que plus la pente de la courbe CMR est élevée, plus la réduction optimale d'émission pour une taxe T donnée est faible.

Si l'on compare cette problématique avec celle de la fixation d'une norme d'émission obligatoire (voir paragraphe précédent) et que cette limite d'émission est précisément E1, le coût encouru par l'entreprise pour se conformer à la norme se limite à S2, soit un montant inférieur à celui encouru dans un système de taxation. Ceci n'a rien d'étonnant puisque, avec la fixation d'une norme obligatoire, l'entreprise fait face aux mêmes coûts de réduction de ses émissions, mais continue à bénéficier gratuitement de l'environnement.

La question se pose évidemment du niveau de la taxe qui soit économiquement efficiente.

Figure 7 – Fixation d'une taxe environnementale efficiente

La figure 7 représente les fonctions habituelles de coût marginal de réduction des émissions (CMR) et de dommage marginal à l'environnement (DM) pour une entreprise donnée. Le niveau d'émission avant introduction de la taxe est E0. Si la courbe CMR est connue, le niveau optimum de la taxe se situe en T, correspondant au niveau optimum d'émission E*, pour lequel le coût marginal de réduction CMR est égal au dommage marginal DM. Les coûts totaux encourus par l'entreprise pour réduire ses émissions au niveau E* sont constitués de deux parties : les coûts totaux de réduction ( e ) et le montant total des taxes payées (a+b+c+d). Les premiers coûts sont ceux des moyens techniques que l'entreprise va mettre en œuvre pour réduire ses émissions de E0 à E*, tandis que les seconds correspondent à un paiement de l'entreprise aux autorités publiques et couvrent la taxe sur les émissions résiduelles E*. Du point de vue de l'entreprise, tous ces coûts sont bien réels et doivent être couverts, d'une manière ou d'une autre, par ses recettes. Cependant, du point de vue de la société, il existe une différence entre les deux types de montants. En fait, les taxes environnementales correspondent à des transferts des entreprises (et des consommateurs de leurs produits et/ou leurs propriétaires) vers les pouvoirs publics et, finalement, ceux qui bénéficient de leur politique de redistribution. On remarquera que le passage de E0 à E* a eu pour conséquence l'élimination des dommages environnementaux (e + f) et que les dommages résiduels (b + d) sont inférieurs aux montants payés via la taxe (a+b+c+d). Cette constatation met en évidence l'idée que la taxe environnementale est basée sur le droit à consommer les ressources environnementales et non sur une notion de compensation. Deux critiques peuvent encore être ajoutées à ce qui vient d'être dit à propos de la fixation du taux de taxation :

  • la fixation d'un taux de taxation unique conduit souvent à une situation dans laquelle les paiements de la taxe par les entreprises excèdent les dommages résiduels ;
  • la fixation du taux de taxation optimum requiert la connaissance de la courbe de coût marginal de réduction CMR.

Pour pallier la première critique, une solution consiste à introduire une taxation en deux parties : une certaine quantité d'émissions n'est pas soumise à taxation et seul l'excédent par rapport à ce niveau est taxé. Dans la figure 7, si E1 est le niveau d'émission non taxé et T le taux de taxation frappant l'excédent d'émission, l'entreprise est toujours incitée à réduire ses émissions de E0 à E*, mais ses paiements totaux correspondant à la taxation sont réduits à (c+d).

Il est plus difficile de faire face à la deuxième critique, d'autant plus que bon nombre d'entreprises ont des fonctions CMR présentant des pentes réduites. Dans les deux cas de figure (CMR inconnue ou pente faible), le régulateur peut avoir beaucoup de difficultés à fixer le taux de taxation qui conduira à la réduction souhaitée des émissions. Cette critique explique en partie pourquoi bon nombre de régulateurs préfèrent opter pour des normes d'émission (quoique, d’un strict point de vue économique, le résultat puisse être atteint par une taxe fixée à un niveau susceptible d’être augmenté si ce niveau se révèle insuffisant pour atteindre l’objectif poursuivi).

Les permis d’émission négociables

Ces instruments incitatifs sont dotés d'un ensemble de caractéristiques qui leur confère un caractère original par rapport aux instruments analysés jusqu'à présent :

  • ils contiennent un volet normatif puisque les autorités définissent un plafond d'émissions impératif pour tous les opérateurs concernés ;
  • ils associent à ce plafond un nouvel actif financier, le permis (ou droit) d'émission, qui correspond à l'unité d'émission autorisée (t/an, par exemple) ;
  • le nombre total de permis mis en circulation correspond au plafond global fixé par la norme ;
  • les entités polluantes concernées reçoivent au démarrage du système un certain nombre de permis (quota) et sont ensuite libres de se les transférer, par achats/ventes ;
  • le système peut fonctionner dans un contexte international (tout comme, d’ailleurs, un système de taxation).

Les parties concernées par le système peuvent donc convenir du transfert d'une fraction d'émissions qui leur sont attribuées et qui sera ajoutée à la quantité attribuée à la partie qui l’acquiert et déduite de celle de la partie qui la cède. En d'autres termes, une partie qui ne peut atteindre ses objectifs en matière de dépollution pourra acheter un permis excédentaire à une partie dont les objectifs en matière de dépollution sont plus qu'atteints.

Le mécanisme des quotas (permis) échangeables est une manière d'atteindre un objectif de la collectivité (réduire des émissions polluantes) qui, défini politiquement, se concrétise par l'introduction d'une contrainte environnementale et de son niveau global (par exemple, réduire les émissions de 50 %) et l'application d'un mécanisme de marché (d'échanges marchands) dont on attend qu'il permette de réaliser l'objectif poursuivi au moindre coût pour les opérateurs concernés et, partant, pour la collectivité tout entière.

Ces dernières années, plusieurs marchés du carbone, par exemple, ont vu le jour et ceux-ci sont conçus, soit sur base volontaire (Chicago Climate Exchange), soit sur base contraignante (BlueNext où s'échangent les permis de l'EU-ETS (71) ). Ils peuvent donner lieu à des échanges de permis d'émission entre deux entités dont les engagements de réduction sont couverts par le même accord (protocole de Kyoto ou système EU-ETS ou, encore, Chicago). Selon les marchés, les échanges peuvent avoir lieu entre États (protocole de Kyoto) ou entre des agents émetteurs (EU-ETS ou Chicago).