OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Mesure ta pollution http://owni.fr/2012/11/26/mesure-ta-pollution/ http://owni.fr/2012/11/26/mesure-ta-pollution/#comments Mon, 26 Nov 2012 12:06:38 +0000 Sylvain Lapoix http://owni.fr/?p=126646

Citoyens capteurs - Photo CC bync Pierre Metivier

À peine arrivé à la table matinale de ce café parisien, Gabriel Dulac sort son tournevis pour offrir au regard le contenu du capteur citoyen de qualité de l’air. À l’intérieur de cette espèce de boîtier gris EDF, gros comme une boîte à sucre, le strict minimum vital : un mini ordinateur, deux capteurs, une batterie et une clef 3G pour transmettre les données. Le tout en “full open hardware”, terme que répète avec méthode Olivier Blondeau, docteur à Sciences Po : “présenter l’objet ouvert fait partie de notre démarche”. Né de la rencontre de ce duo de Labo citoyen et de l’association Respire, le projet Citoyens capteurs vise à rendre abordable pour 200 euros un système fiable de relevé de la qualité de l’air, avec plans et données en format open source.

L’idée de mesures à l’échelle citoyenne n’est pas inédite. Avec la catastrophe de Fukushima, la nécessité d’un réseau de capteurs complémentaire de celui des pouvoirs publics (dépassés par les besoins d’information sur l’étendue des dégâts radiologiques) a amené à la constitution de toute une infrastructure associative de recueil des taux de radioactivité, le réseau Safecast. Une idée qui avait déjà été celle de la Criirad en France et pour le même indicateur.

Expertise

Lancé sur le champ de la mesure de qualité de l’air, Labo citoyen et Respire ont également pu s’inspirer d’autres initiatives ayant défriché le terrain des capteurs à bas coût et de la mise à disposition de données, comme AirQualityEgg.

Mais si la mesure de radioactivité ne nécessite que le recueil d’une variable (le nombre de désintégrations de noyaux radioactifs, exprimé en Becquerel), celle de la qualité de l’air porte sur une quantité de composantes : ozone (O3), particules fines et dioxyde d’azote, pour ne citer que les seuils clés. Or, pour rendre les données recueillies comparables à celles des organismes reconnus, le capteur citoyen de qualité de l’air se devait de répondre aux normes admises et donc d’aligner une haute qualité de mesure. Une expertise disponible uniquement chez les organismes eux-mêmes, ce qui a amené Gabriel à discuter directement avec AirParif :

En deux heures de discussion, nous avons gagné cinq mois d’expertise. Au départ, nous mesurions les microparticules en volume, sauf que le seuil est en poids et que la densité peut varier du tout au tout au moindre changement de température.

Si AirParif refuse l’idée d’un “label”, l’association agréée de mesure de qualité de l’air parisien a ouvert ses labos aux prototypes de capteurs citoyens, suivant une démarche détaillée par sa directrice de la communication Karine Léger :

Cette initiative s’inscrit pour nous dans la continuité de notre mission : en complément de notre réseau de soixante capteurs en Île-de-France, placés dans des zones représentatives, nous souhaitons obtenir des mesures dans les zones d’exposition des gens. Depuis 2006, nous avons déjà fait des tests dans les habitacles des automobiles, dans les transports en commun (ou avec des tubes tests) sur des citoyens volontaires tout au long de la journée. À chaque fois, il s’agissait de versions réduites de nos capteurs principaux. Nous opérons un échange d’expertise scientifique sur les capteurs citoyens afin qu’ils puissent produire des données qui complètent les nôtres.

En pratique, les capteurs d’AirParif sont disposés dans des endroits représentatifs, permettant d’élargir la mesure par des outils de modélisation. Carrefour d’Alésia, dans le XIVe arrondissement, un capteur mesure ainsi les émission sur un “grand rond-point congestionné de Paris” tandis que, le long du boulevard périphérique, deux points de mesure évaluent la qualité de l’air à la frontière de la capitale.

Anti-Linky

La démarche des citoyens capteurs n’est cependant pas strictement scientifique. Derrière le concept de “full open hardware”, le projet tout entier s’inscrit dans une logique d’ouverture à la réappropriation et à la contribution citoyenne : chaque pièce (du mini ordinateur Rapsberry Pi aux outils de mesure) est listé sur le wiki [en], le code de la base de données recueillant les mesures est disponible sur le réseau social Github… Et le tout en licence ouverte et réutilisable. Une démarche d’ouverture totale du dispositif que Labo citoyen et Respire souhaitent accompagner mêlant formation technique, exposé médical sur les dangers de la pollution atmosphérique et initiation à la chimie de l’air urbain.

Nous sommes dans l’anti-Linky, ironise Olivier Blondeau. EDF nous propose un boîtier fermé, dans lequel personne ne sait ce qu’il y a et qui communique des informations qui vous concernent mais uniquement à EDF. Là, tout est ouvert et disponible pour l’amélioration et la réappropriation.

L’interprétation même des données est laissée à l’imagination et aux besoins des utilisateurs. Chercheuse à l’université Paris-III en Sciences de la communication et associée au projet, Laurence Allard inscrit cette démarche dans une réappropriation politique de l’objet à rebours du transhumanisme :

Cliquer ici pour voir la vidéo.

Chacun peut mettre en scène les données à sa guise : pour une manifestation, nous avions fixé un haut-parleur qui hurlait les résultats, pour une autre, un téléscripteur qui les crachait comme un sismographe… Nous ne sommes pas dans une machinisation des humains mais dans un outillage de l’homme par la machine. Il ne s’agit pas d’un objet mais d’une expertise embarquée qui vise à donner à chaque citoyen une capacité d’empowerment) politique grâce à l’Internet des objets.

Bottom-up

Dans la perspective d’un déploiement plus large, l’ingénieur de la bande a déjà prévu de permettre aux capteurs de communiquer entre eux, “qu’ils puissent s’étalonner, prévenir d’une panne, relayer une batterie faible…” énumère Gabriel Dulac.

Pour assurer l’accessibilité des capteurs aux associations, le coût reste une contrainte-clé et justifie, à lui seul, le recours au do-it-yourself : un seul boîtier AirParif, produit de qualité industrielle, est facturé 10 000 euros. Aux yeux de Sébastien Vray, président de l’association Respire, le potentiel d’empowerment est considérable :

Aujourd’hui, les associations de surveillance de la qualité de l’air (Asca) produisent des données fiables mais sur des échantillons très étroits : une batterie de station de fond, éloignée du trafic, et des batteries de proximité, plongées dans la circulation. Avec les capteurs citoyens, la possibilité serait offerte de produire une véritable information bottom-up sur la qualité de l’air : placer des capteurs dans des poussettes, simuler des trajets ou, tout simplement, mettre des capteurs chez les “pauvres” pour pouvoir établir le lien entre précarité sociale et précarité environnementale.

L’OMS évalue à deux millions par an le nombre de décès prématurés liés à la dégradation de la qualité de l’air (30 000 en France) . Avec les capteurs bon marché, Respire espère donner aux associations de défense du cadre de vie les moyens d’argumenter sur les nuisances liées à la pollution de l’air. Pour héberger les premières données, Sébastien Vray vient d’inaugurer PollutionDeLAir.info, une des premières extensions du projet Capteurs citoyens qui lance ses sondes en direction d’autres défis offerts par les données environnementales : pollution sonore, pollution visuelle et qualité de l’eau.


“Citoyens capteurs”Photo CC [bync] Pierre Metivier. L’autre photo (sur fond vert) est issue du wiki mentionné dans l’article.
Photo de une de Pierre Métivier, éditée par Owni.

]]>
http://owni.fr/2012/11/26/mesure-ta-pollution/feed/ 17
Regarder New York buller son CO2 http://owni.fr/2012/10/26/regarder-new-york-buller-son-co2/ http://owni.fr/2012/10/26/regarder-new-york-buller-son-co2/#comments Fri, 26 Oct 2012 09:30:57 +0000 Sylvain Lapoix http://owni.fr/?p=124230

Veille data

En 2010, New York expirait chaque seconde par les mille pores de la ville deux tonnes de CO2. Pour visualiser ce phénomène, l’agence Carbon Visuals Limited a décidé de faire émerger en grandes sphères bleutées tout le produit de ces émissions à un seul et même endroit à deux pas de l’Empire State Building.

Cliquer ici pour voir la vidéo.

Pour une pression de 1,87 kg par mètre cube aux conditions de température et de pression atmosphérique normales, c’est un ballon de 10 mètres de diamètre qui surgit toutes les demi-secondes par cette trachée imaginaire, bousculant les taxis en quelques secondes, engloutissant les buildings jusqu’à Bryant Park en moins d’une heure puis submergeant Manhattan au bout d’une année d’expiration…

L'empilement de bulles de CO2 est représenté pour une heure, un jour et un an, enterrant Manhattan sous ses rejets de carbone matérialisés.

]]>
http://owni.fr/2012/10/26/regarder-new-york-buller-son-co2/feed/ 5
Les data en forme http://owni.fr/2012/09/17/les-data-en-forme-48/ http://owni.fr/2012/09/17/les-data-en-forme-48/#comments Mon, 17 Sep 2012 16:27:53 +0000 Paule d'Atha http://owni.fr/?p=120321 Owni vous emmène aux côtés des petits poissons, des gros donateurs des élections US, des contributeurs et "trices" de Wikipédia, au fond des finances des croyants et au coeur des molécules d'air. Embarquez pour ce 48ème épisode !]]> Nous sommes encore loin de Noël mais nous, chez Paulette, on aime les cadeaux. Attaquons donc ce 48ème épisode des Data en forme par un petit bijou.

Cette animation signée par le designer allemand Uli Henrik Streckenbach est une leçon de mise en scène des données. Sur 4 minutes et 20 secondes, c’est une véritable histoire de la surpêche qui se raconte où tous les chiffres sont à la fois les personnages et le décor.

Point besoin d’en dire plus, installez-vous, la projection débute…

Cliquer ici pour voir la vidéo.

Confirmation une fois de plus que l’un des secrets de tout bon travail autour des données tient dans cette question essentielle : que nous racontent les data ? Avant de plonger dans les outils de visualisation, il est toujours bon de s’attarder, parfois longtemps, sur la narration que l’on souhaite développer.

En donner #oupas

Après ce récit visuel aussi fluide qu’implacable, passons à la séquence “Élections US” qui risque d’être assez récurrente jusqu’au mois de novembre prochain. Cette semaine dans notre escarcelle : deux traitements data liés à la campagne.

The forest of advocacy” est une plateforme qui proposera un jeu de visualisations par semaine jusqu’au scrutin. Pour commencer, cette équipe aux compétences multiples – science politique, science des réseaux, psychologie, sociologie, analyse des médias, datavisualisation… – s’est arrêtée sur les grandes organisations finançant la campagne des deux partis.

L’équipe du LazerLAB a choisi huit grandes organisations qu’elle considère comme représentatives des différentes postures de ces structures : celles finançant le même parti avec constance au fil du temps, celles plus “mouvantes” ou encore celles, comme la banque Goldman Sachs, qui financent à part quasi-égale les deux camps assurant ainsi leurs intérêts quelque soit le résultat sorti des urnes.

Cliquer ici pour voir la vidéo.

Pour chaque organisation, les donateurs sont représentés par des carrés évoluant sur deux axes. Celui des abscisses qui partage horizontalement la visualisation en deux est un repère temporel, celui des ordonnées est le montant des donations : soit à destination des Républicains pour la partie haute ou des Démocrates pour la partie basse.

Ces visualisations sont proposées dans des modules vidéos commentés, ce qui a un vrai effet pédagogique, mais qui ne nous permet pas de jouer directement avec, ni d’explorer les données en détail, seule ombre à ce travail.

Le second traitement data de la campagne américaine est signé du Washington Post. Plusieurs visualisations interactives sont proposées sur le site du journal américain, toujours via le prisme de la cartographie.

La dernière en date est axée sur les déplacements des candidats à la fonction suprême. Où l’on apprend que le candidat républicain arpente plus le territoire que son adversaire occupant actuellement la Maison Blanche, Mitt Romney quadrillant notamment plus l’intérieur des terres américaines.

Les données du Washington Post ne s’arrêtent pas là puisque sont également comptabilisés les déplacements des épouses des candidats – ici la tendance s’inverse, Michèle Obama est bien plus sur les routes qu’Ann Romney – ainsi que celle des vice-présidents et de leurs conjointes.

Pour compléter cette visualisation géographique, une timeline affiche la répartition de ces visites dans le temps et de courtes notes de contexte sont proposées pour chaque événement.

En avoir #oupas

Pour qui veut s’exercer à rendre lisible des jeux de données complexes, Wikipedia et ses millions d’articles et de contributeurs peuvent être une destination tentante, notamment via son API. Santiago Ortiz, développeur indépendant rompu à la mise en scène interactive de données, s’est amusé à faire joujou dans ce luxuriant jardin plein de chiffres.

Partant d’un article du New York Times pointant la prédominance des contributeurs masculins, il est allé à la source et a développé une web-application permettant de parcourir ces données.

Si elle n’est pas évidente à appréhender au premier coup d’œil, elle mérite que l’on y passe quelques minutes. Identifiez bien les différentes diagonales marquant les paliers de la répartition femmes/hommes dans les contributions et amusez-vous à jouer avec les filtres proposés qui permettent de n’afficher que certaines catégories d’articles de l’encyclopédie (émissions TV, films, livres, émotions…).

Y croire #oupas

Travailler les données, c’est aussi (souvent) jouer la confrontation, la comparaison et aboutir à une vision macroscopique des forces en présence. C’est ce à quoi ce sont amusés les designers de l’agence Column Five en partant d’un jeu de données fourni par le Pew Forum : comment sont répartis les revenus dans les différentes communautés religieuses des États-Unis ?

Cette visualisation statique, “The Allmighty Dollar“, claire et efficace, nous permet d’explorer en un coup d’œil les portefeuilles de la foi.

Dataïfier le monde

Pour clore ces data en forme, échappons-nous du côté des représentations un peu folles du monde par les données. Explorons les data avec nos tympans autant que nos rétines.

L’ouïe tout d’abord avec ce projet bien allumé monté par Aaron Reuben, journaliste indépendant, et Gabriel Isaacman étudiant en science de l’environnement à l’université de Berkeley. Leur but commun : écouter l’air.

Comment ? Rien de plus simple : dans différents endroits, ils ont recueilli sur des filtres des particules atmosphériques. Ils ont ensuite séparé les milliers de composants qui forment la mixture que nous respirons puis leur ont assigné un son à chacun. Il ne restait plus qu’à appuyer sur “play” et laisser l’évolution des données nous rendre audible l’air qui nous entoure.

Comparaison oblige, jetez une oreille à l’air d’un tunnel encombré de semi-remorques puis à celui nettement plus apaisé des hauteurs de la Sierra Nevada.

Finissons comme promis avec une expérience visuelle, une vision où les data viendraient encombrer votre cornée, un génial exercice de style codé par le développeur canadien Peter Nitsch : Ascii StreetView. Certains nous ferons remarquer que le lien n’est pas neuf, certes, mais comme l’on dit par ici “old but gold”.

C’est “juste” le service Street View proposé par Google entièrement repeint à la sauce Ascii. Si ce service avait existé dans le kiosque de feu le Minitel, il aurait sans doute ressemblé à ça.

Bonne balade et à la semaine prochaine.

]]>
http://owni.fr/2012/09/17/les-data-en-forme-48/feed/ 1
Pesticides à volonté http://owni.fr/2012/03/16/pesticides-pollution-eau/ http://owni.fr/2012/03/16/pesticides-pollution-eau/#comments Fri, 16 Mar 2012 15:23:34 +0000 Dorothée Descamps http://owni.fr/?p=101895

Le 22 février dernier, l’association Générations Futures a révélé l’existence d’une directive du ministère de la Santé, discrètement entrée en vigueur il y a plus d’un an, et qui revoit à la hausse les concentrations autorisées de pesticides dans l’eau potable.  Avec cette modification passée sous silence, la France tolère ces polluants en quantité cinq fois supérieures.

Une découverte qui devrait animer les débats prévus en France, à partir du 20 mars prochain, à l’occasion de la Semaine sans pesticides, à laquelle prendront part une douzaine d’ONG ainsi que quelques collectivités publiques, dont la Mairie de Paris.

Car la conséquence de ces changements réglementaires nourrit quelques inquiétudes. Alors qu’en 2009, 34.300 personnes avaient subi des restrictions d’usage du fait de la présence de pesticides dans l’eau, en 2010, leur nombre n’était plus que de 8.939 personnes. Pour Générations Futures, il s’agit d’une “baisse artificielle” due à une “manipulation des valeurs”. En cause, une instruction émise par la Direction générale de la santé le 9 décembre 2010.

Pour répondre aux exigences dans la lutte contre la pollution de l’eau, soit on met tout en œuvre pour réduire la présence des substances nocives, soit on préfère remonter les taux et prétendre à une amélioration de la situation. C’est un peu comme si on changeait les degrés sur un thermomètre pour faire croire qu’il fait moins chaud.

François Veillerette, président du Mouvement pour les droits et le respect des générations futures, s’insurge ainsi contre ce cet “aveu de faiblesse” du gouvernement. Selon lui, en France, l’examen de la qualité de l’eau reste un processus abscons qui pourrait, à l’occasion, générer des interprétations abusives.

La surveillance de l’eau du robinet, pour déterminer si elle est potable, s’effectue en plusieurs étapes. Le principe consiste à mesurer la quantité de pesticides présente dans un échantillon pour en déduire une concentration en microgramme par litre. L’Union européenne a instauré la directive 98/83/CE en novembre 1998 pour juger de la bonne conformité en proposant des doses maximales en dessous desquelles l’eau est dite de qualité.

Limites de qualité pour l’eau du robinet, en microgramme par litre (μg/L)
0,10 pour chaque pesticide (par substance individuelle)
0,03 pour les pesticides aldrine, dieldrine, heptachlore et époxyde d’heptachlore
0,50 pour la somme de tous les pesticides en présence

Lorsque ces exigences ne sont pas respectées, il faut de nouveau tester cette eau et mesurer les concentrations de tous les pesticides en présence. Ces taux vont alors être comparés avec des valeurs de référence, uniques pour chacune de ces substances et qui correspondent à des limites au delà desquelles un risque pour la santé est suspecté. Ces valeurs sont appelées Vmax pour valeurs sanitaires maximales, provenant majoritairement des données de l’Organisation mondiale de la santé.

Depuis 1998, un avis du Conseil supérieur d’hygiène publique de France (CSHPF) prévoyait une interdiction provisoire de consommation :

lorsque la valeur mesurée et confirmée dépasse la valeur maximale sanitaire ;
lorsque le dépassement est supérieur à 20% de la valeur maximale sanitaire pendant plus de 30 jours consécutifs.

Par exemple, un herbicide comme la Simazine, dont l’utilisation a été prohibée en 2003, a une Vmax de 2μg/L. Si on la retrouve dans les eaux en concentration supérieure à 0,4μg/L pendant plus d’un mois, l’eau ne peut être consommée, “ni pour la boisson, ni pour la préparation des aliments”.

Revenant sur ces précautions d’usage, la Direction générale de la santé, dépendant du ministère de la Santé, a donc émis le 9 décembre 2010 une instruction qui remplace le précédent avis. Cette note interne, non communiquée aux associations locales, fixe la limite à ne pas dépasser à 100% de la Vmax. C’est l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) qui s’est chargée de déterminer la valeur maximale sanitaire pour chacun des pesticides surveillés. Extrait de l’instruction :

L’Anses estime ainsi que l’ingestion pendant la vie entière d’une eau contenant un pesticide à une concentration inférieure ou égale à la valeur sanitaire maximale (Vmax) n’entraîne, sur la base des critères toxicologiques retenus et en l’état actuel des connaissances, aucun effet néfaste pour la santé.

Le taux intermediaire de 20 % n’existe plus, ce qui revient à dire que la concentration maximale autorisée pour chaque pesticide a été multipliée par cinq lorsqu’une pollution sur plus de 30 jours est constatée.

Pour Jean-Charles Bocquet, directeur général de l’UIPP, l’Union des Industries de la Protection des Plantes qui compte parmi ses adhérents les plus grands producteurs de pesticides, il s’agit d’une évolution logique :

Les risques sanitaires ont été évalués par l’Anses. Qui dit présence de polluants ne veut pas forcément dire danger pour la santé ou pour l’environnement ! Les dépassements de concentrations autorisées étant assez fréquents il était normal de fixer à quel niveau on se situe pour éviter de faire trop de traitements des eaux.

En conséquence, une eau peut contenir des doses très élevées de certains pesticides sans pour autant être interdite à la consommation.  La présence d’acide benzoïque dont est dérivé le désherbant Dicamba, peut par exemple atteindre les 15 milligrammes dans un litre d’eau. Bien loin donc des recommandations de la directive européenne. Si ces Vmax sont sensées refléter une idée relative de la toxicité pour chaque polluant à l’étude, le cas de certains pesticides soulève des interrogations.

Une étude de l’Inserm datée de mars 2011 menée en Bretagne souligne notamment qu’un herbicide, l’Atrazine aurait un impact sur le développement du fœtus et ce à de faibles doses environnementales. Hautement toxique et soupçonné d’être cancérigène et perturbateur endocrinien, il a été interdit en France en 2003 après 30 ans d’utilisation intensive, il est pourtant encore fréquemment retrouvé en cas de pollution des eaux.  Depuis décembre 2010, le taux limite est désormais fixé à 2μg/L, quelque soit la durée d’exposition. François Veillerette y voit dans cette nouvelle instruction un système hypocrite :

Même si ces 20% n’étaient qu’une valeur relative, cette concentration maximum permettait au moins de se rapprocher un peu plus de l’esprit du texte européen à savoir retrouver le moins de résidus de pesticides possible. En se cachant derrière des chiffres, le gouvernement a en fait une attitude anti-scientifique : elle oublie le principe de précaution. C’est ce genre de raisonnement qui a causé le scandale du bisphénol A.

À noter également que cette instruction ne prend toujours pas en compte les effets de synergie pouvant survenir, c’est-à-dire les effets combinés des pesticides qui, mélangés, peuvent avoir de graves conséquences.

]]> http://owni.fr/2012/03/16/pesticides-pollution-eau/feed/ 20 Un air de particules http://owni.fr/2012/02/28/un-air-de-particules/ http://owni.fr/2012/02/28/un-air-de-particules/#comments Tue, 28 Feb 2012 07:38:51 +0000 Dorothée Descamps http://owni.fr/?p=99658

La semaine dernière, le 24 février, deux décrets visant à lutter contre la pollution atmosphérique sont rentrés en vigueur, pour permettre la mise en place des Zones d’actions prioritaires pour l’air (Zapa). L’objectif est de faire diminuer le taux de polluants émis par les pots d’échappement dans et autour des agglomérations les plus exposées.

C’est-à-dire : Paris, Saint-Denis, Bordeaux, Clermont-Ferrand, Lyon, Grenoble, Nice et Aix-en-Provence. À terme, dans ces huit villes, l’enjeu est de restreindre voire d’interdire, à certaines conditions, la circulation des véhicules les plus émetteurs de particules ou d’oxydes d’azote. Cette mesure ne concernera pas les véhicules d’intérêt général, ceux relevant du ministère de la défense ou encore ceux portant une carte de stationnement pour personnes handicapées.

Pour tous les autres, l’un des textes précise les sanctions prévues en cas d’infraction, 135 € pour les poids lourds, les bus et autocars, 68 € pour les véhicules légers. Mais attention, ces textes ne seront pas d’application immédiate. Pour leur mise en œuvre systématique, un troisième décret est prévu dont la date de sortie a été repoussée au premier semestre 2013.

Le projet Zapa est un axe phare du plan Particules, paru en 2007. Un programme de lutte contre la pollution de l’air par les particules, et ses conséquences sur la santé, en droite lignée des recommandations du Grenelle de l’environnement. Un bilan à mi parcours de ce plan, présenté le 7 décembre dernier par le ministère de l’Écologie, permettait de mesurer l’étendu du chantier juridique qui restait à réaliser.

Pourtant, la réalité de la pollution observée inviterait plutôt à accélérer ces processus. Le 6 février, Airparif signalait le dépassement d’un premier seuil d’alerte aux particules fines en Île-de-France. La vague de froid qui sévissait a entraîné sur l‘ensemble du territoire nombre de rapports sur une concentration anormalement élevée de ces polluants dans l’air. En cause, des couches d’air non brassées et un anticyclone persistant.

Ces particules fines sont dénommées PM2,5, en raison de leur diamètre inférieur à 2,5 micromètres. Une taille infime qui leur permet, en cas d’inhalation, de pénétrer jusqu’au niveau des alvéoles pulmonaires. Un risque pour la santé dénoncé par l’Organisation mondiale de la santé (OMS), qui estime que 1,3 millions de décès dans le monde seraient imputables à la pollution de l’air en zone urbaine.

Le plan Particules, pour s’aligner avec les directives européennes, préconise d’atteindre un taux de PM2,5 de 15 microgrammes par mètres cube d’air (μg/m3). À partir de 2015, la nouvelle valeur cible sera de 10μg/m3. L’objectif est de correspondre aux conseils pressants de l’OMS en termes de lutte contre la pollution de l’air :

Pour Patrice Halimi, Secrétaire général de l’Association santé environnement france (ASEF), descendre sous la barre des 10μg/m3 sera difficilement réalisable. Et pourtant :

Les microparticules émises par les véhicules diesel, sont entre autre reconnues comme cancérigènes, irritantes et allergènes. En 2007, l’étude ISAAC réalisée dans six villes françaises sur près de 8 000 enfants, a démontré l’effet de la pollution atmosphérique sur le développement de l’asthme et des allergies. Les enfants résidant depuis huit ans dans des zones à pollutions élevées ont 3 fois plus d’eczéma, 1,5 fois plus d’asthme et presque 2 fois plus d’asthme à l’effort !

Pour déterminer l’influence au long terme de ces particules fines, l’Institut de veille sanitaire (InVS), a coordonné de juillet 2008 à mars 2011 le projet Aphekom. Ce dernier a permis d’établir les impacts sanitaires de la pollution atmosphérique dans 12 pays européens.

Nombre moyen de mois de vie gagnés si les 25 villes de villes à l’étude baissaient le taux de concentration jusqu’à atteindre le taux de 10μg/m3.

Les chiffres de l’Agence nationale de sécurité sanitaire(Anes) montrent que, pour l’année 2002, les particules fines auraient causé 600 à 1 100 décès par cancer du poumon et 3 000 à 5 000 décès par maladies cardiorespiratoires. Des chiffres alarmants qui pourraient donc être considérablement réduits même si à l’heure actuelle aucun seuil n’a été déterminé en dessous duquel les PM2,5 n’auraient aucun impact sur la santé. En cas de pics de concentration, comme ce fut le cas lors de la période de grand froid, les incidences sur la santé s’observent rapidement :

En moyenne sur une année, on observe que les jours où les concentrations de particules fines sont élevées, les hospitalisations augmentent, de même que les taux d’infarctus ou d’AVC. Ainsi, une hausse de 10 µg/m3 de la dose journalière entraîne en moyenne deux fois plus d’hospitalisations d’enfants et de personnes âgées.

Une synthèse sur l’estimation des hospitalisations en urgence en temps de pollution atmosphérique corrobore les propos de Patrice Halimi. L’un de ces co-auteurs, Sabine Host de l’Observatoire régional de santé d’Île-de-France souligne toutefois que de nombreuses dispositions sont prises pour réduire le taux de PM2,5 – en théorie.

Les sources à l’origine des particules fines sont multiples. L’effort est surtout mis sur des mesures de restrictions au niveau des sources fixes comme les usines, les chaufferies… Il y a aussi des plans de déplacements urbains qui vont réguler l’utilisation de la voiture en ville ou encore le projet Zapa mais aussi une nouvelle régulation sur la biomasse et l’interdiction des déchets verts.


L’étude des sources aide à trouver des situations répondant à des conditions spécifiques. D’après le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa), en 2009, les émissions à l’origine des PM2,5  en France proviendraient de ces différentes sources :

Ces 35% du secteur résidentiel/tertiaire souligne l’importance de sources de pollution qui restent malgré tout peu régulées. Elles concernent notamment les particules fines émises par le chauffage au bois des habitations. Si des mesures de restrictions sont difficiles à mettre en place, des initiatives voient le jour comme le label Flamme Verte qui favorise l’installation de dispositifs de chauffage moins polluants.

Cette multitude de sources, dont les proportions varient selon le positionnement géographique, et l’effet de dispersion des particules fines dans l’atmosphère mettent en évidence une autre conséquence : la pollution ne s’arrête pas à la porte de la maison.

Les transferts entre air extérieur et air intérieur existent. Il est impossible de déterminer le taux de particules fines dans une habitation ou un bureau car les situations diffèrent d’un endroit à un autre. Un logement mal isolé va permettre plus d’échanges, et inversement. Mais paradoxalement cela veut dire qu’un habitat qui va avoir peu de transferts peut aussi concentrer les polluants à l’intérieur.

Si la pollution extérieure impacte la pollution intérieure, il est indéniable que, outre les résidus de combustion, les produits ménagers, le bricolage, le tabac le cas échéant, font également partie des agents dangereux. Les études sur les éléments précis qui composent ces poussières, d’origine intérieure ou extérieure, font cruellement défaut.  Le manque de données précises crée un flou qui se répercute sur l’état des connaissances portées aux consommateurs. Une situation que dénonce Patrice Halimi :

Ce qu’il faut prendre en compte, c’est que nous respirons au quotidien un air pollué ! Il est donc primordial d’informer le grand public.

Le bilan à mi parcours du plan Particules a montré que l’essentiel de la communication aux particuliers réside en la diffusion de plaquettes. La sensibilisation sur les émissions polluantes dues au système de chauffage est quant à elle confiée aux “professionnels de la maintenance”.

Si la lutte contre la pollution aux particules fines passent naturellement par l’effort de réduction des émissions, il n’est pas fait mention des possibilités de purification de l’air. Car des solutions comme une aération pouvant filtrer le PM2,5 sont envisageables mais restent coûteuses et nécessitent un entretien régulier.


Photo par Wa So/Flickr (CC-byncnd)

]]>
http://owni.fr/2012/02/28/un-air-de-particules/feed/ 13
Les poissons mutants de Sanofi http://owni.fr/2011/09/26/goujon-poissons-sanofi-pollution/ http://owni.fr/2011/09/26/goujon-poissons-sanofi-pollution/#comments Mon, 26 Sep 2011 06:09:06 +0000 emmanueldaniel http://owni.fr/?p=80859 Une étude scientifique à paraître dans l’édition du mois de novembre de la revue Environment International [en] confirme la pollution des rivières françaises par l’industrie pharmaceutique. Les recherches ont été menées par l’Institut national de l’environnement industriel et des risques (Ineris). Et ont pris pour cas pratique une rivière coulant aux abords d’une usine Sanofi implantée dans le Puy-de-Dôme. Le site, basée sur la commune de Vertolaye, produit des hormones et des stéroïdes.

Les scientifiques ont réalisé plusieurs prélèvements au fil de l’eau, en amont et en aval de l’usine. Et ils relèvent des troubles incontestables : présence de perturbateurs endocriniens dans l’eau (influant sur les hormones) ; malformations sexuelles observées chez les goujons à l’abdomen hypertrophié ; taux de goujons intersexués (organes sexuels difficiles à déterminer) allant jusqu’à 80% en aval de l’usine ; et déclin de la densité de poissons.

Un chercheur qui a participé à l’étude de terrain confie même qu’il a rarement vu une rivière aussi dépeuplée. « Si le problème persiste, on pourrait assister à une diminution voire une disparition de certaines espèces », analyse Wilfried Sanchez, l’auteur de l’étude.

Du goujon venu d’une autre dimension

Hervé Maillard, responsable de l’usine Sanofi depuis mars 2011 insiste sur les difficultés rencontrées pour endiguer le phénomène :

On est en train de chercher l’équivalent d’un sucre dans une piscine olympique. De plus, seuls les goujons sont pour l’instant victimes de malformations (…) Peut-être que notre activité a un impact, c’est pour ça que nous mesurons nos rejets et investissons plusieurs millions d’euros par an pour les réduire.

Le phénomène des goujons au gros ventre était déjà constaté dans un rapport datant de 1996 réalisé par le Conseil supérieur de la pêche (CSP). « Au départ, on pensait que c’était dû à des retards de ponte chez les femelles », indique William Sremsky de l’Office nationale de l’eau et des milieux aquatiques (l’Onema).

Mais le problème subsiste. En 2000, des goujons présentant des malformations similaires sont de nouveau pêchés. L’information est transmise à la Direction départementale des services vétérinaires. Dès 2003, l’usine mise en cause par des associations de défense de l’environnement promet de réduire ses émissions d’hormones dans le milieu aquatique.

Pourtant, il faudra attendre 2007 pour que la situation se débloque. L’Onema signale une nouvelle fois le problème aux services de l’eau. Une étude visant à rechercher des pathologies chez les poissons est alors lancée. En 2008, la prise de conscience s’accélère. « Avec le Grenelle de l’environnement, les mentalités ont changé », estime Daniel Vigier, Président de la Fédération départementale pour l’environnement et la nature et Vice-président du Comité de surveillance de l’usine Sanofi (Clic) créé en 2005. Un arrêté préfectoral interdit la consommation des poissons de la rivière Dore ainsi que l’abreuvement du bétail. La même année, le ministère de l’Environnement mandate l’Ineris pour analyser le phénomène. Un comité de suivi de l’étude regroupant institutionnels, associatifs et scientifiques est chargé de gérer le problème.

Le goujon transgenre s’installe

Et au cours de l’année 2011, les rapports d’étape de l’étude de l’Ineris provoquent la signature d’un nouvel arrêté préfectoral obligeant Sanofi à faire mesurer ses rejets par un cabinet indépendant et à trouver une solution pour les réduire. Les expérimentations sont toujours en cours et les premiers résultats tomberont à la fin de l’année.

Au plan du droit, il n’existe pas à ce jour de loi limitant les rejets de ce type de substances. Le site est pourtant classé Seveso seuil haut, soumis à la réglementation européenne Reach sur les produits chimiques, certifié ISO 14001 et fait partie des Installations classées pour la protection de l’environnement (Icpe). Mais en l’absence de règles sur les rejets de substances pharmaceutiques, cet arsenal législatif et sécuritaire est peu efficace. L’article 232-2 du Code rural et le Code de l’environnement indiquent bien qu’il est interdit de polluer l’eau mais, sans précisions, cette mesure reste lettre morte, comme une loi sans décrets d’application.

À Vertolaye, associations de protection de l’environnement et direction de l’usine cherchent déjà des solutions, avec l’espoir de servir d’exemple. Daniel Vigier doute pourtant qu’une évolution rapide survienne.

Tant qu’il n’y a pas de risque humain avéré personne ne réagit. La moitié de la faune et de la flore peut disparaître, ce n’est pas grave, les conséquences se mesurent uniquement en victimes humaines et en indemnisation que l’entreprise devra verser.

Si ce vide juridique et scientifique n’est pas comblé, usines pharmaceutiques, stations d’épuration et hôpitaux pourront continuer à recracher des substances médicamenteuses actives sans être contraints de modifier leurs comportements.

Illustrations Flickr PaternitéPas d'utilisation commerciale Freedom Goliath’s Impermanence Paternité • Happy Batatinha •

]]>
http://owni.fr/2011/09/26/goujon-poissons-sanofi-pollution/feed/ 25
La SNCF et l’écologie: essai en cours de transformation http://owni.fr/2011/02/15/la-sncf-et-lecologie-essai-en-cours-de-transformation/ http://owni.fr/2011/02/15/la-sncf-et-lecologie-essai-en-cours-de-transformation/#comments Tue, 15 Feb 2011 16:37:19 +0000 Ludovic Bu http://owni.fr/?p=38036 Lors de mes conférences, je cite régulièrement la SNCF comme le meilleur exemple d’une entreprise ayant pour stratégie une intégration horizontale de l’ensemble de la chaîne de mobilité. La compagnie de transports française a, en effet, parfaitement compris le fait qu’un voyageur souhaite qu’on le prenne en charge depuis son point de départ et jusqu’à son point d’arrivée, et non uniquement sur des tronçons de trajets (par exemple d’une gare à une autre). Challenge que seule la voiture individuelle en possession propre réussissait à relever jusqu’à présent, en étant présente dans votre garage et vous amenant jusqu’au parking de votre lieu de destination (voire vous permettant de ne pas avoir à sortir de votre auto en utilisant des services de “drive thru”).

Quand une entreprise publique agit pour l’environnement

Dans cette logique, la SNCF a totalement intégré Keolis (transports en commun locaux, un peu d’auto-partage) et Effia (stationnement, principalement à l’abord des gares, services de vélos, etc). Elle a également lancé le fond d’investissement “éco-mobilité”, doté de 15 millions d’euros, pour entrer dans des start-ups offrant des services permettant de compléter cette chaîne de mobilité. Lors de sa conférence annuelle “rencontres clients”, j’ai découvert qu’elle allait beaucoup plus loin dans sa mise en oeuvre de principes et d’actions en faveur de déplacements moins impactants écologiquement.

Pourtant, de prime abord, je ne m’attendais pas que ce gros paquebot industriel soit à la pointe de l’innovation dans ce domaine. A la fois parce qu’il est toujours difficile de manoeuvrer un tel navire. Qui plus est pour le transformer d’une entreprise de cheminots qui font rouler des trains en une entreprise multi-services orientée voyageurs. A la fois parce que le discours simplifié de la SNCF consiste à expliquer que prendre le train est un acte écolo, car cela pollue moins qu’un même trajet effectué en voiture ou en avion, sans jamais remettre en question l’utilité même des multiples causes de déplacements. Enfin, parce que l’image communément associée à l’entreprise est moins celle d’une entreprise innovante que celle d’une compagnie publique toujours au bord du déficit et à deux doigts de la grève paralysante pour notre pays (image très caricaturale, d’ailleurs, car les jours de grèves ne sont pas si nombreux, mais ils sont très visibles).

Eh bien, lors de la rencontre client 2011, j’ai mangé mon chapeau, et j’ai découvert une entreprise à la pointe dans le secteur. Les initiatives sont lancées tous azimuts, et cela ne semble être qu’un début. Parmi la multiplicité des projets présentés, mon attention a particulièrement été attirée par le projet de gare HQE de Besançon, le nouveau service de mobilité totale à Pau et la transcription audio des affichages visuels à Nancy.

Réjouissances pour les voyageurs dès décembre 2011

La gare HQE ouvrira au public en décembre 2011. Ce sera la première gare en Europe labellisée Haute Qualité Environnementale. Elle sera notamment chauffée au bois et en partie enterrée, ce qui lui permettra d’avoir toujours naturellement au moins une température de 10°. Quant au second projet, la principale innovation est que, désormais, les Palois peuvent utiliser des services de transports en commun, d’autopartage et de location de vélo avec une seule carte et une seule tarification, assurant ainsi une facilité d’usage bien nécessaire pour imposer des modes alternatifs à la voiture individuelle.
Enfin, à Nancy, 120 mal et non voyants peuvent désormais entendre ce qui est affiché sur les panneaux de la gare, en temps réel ! Ce service est également disponible à Amiens et Orléans, et est en cours d’installation à la Gare de l’Est. Outre l’autonomie qu’il procure à ses utilisateurs, pour une fois pas obligés de demander à quelqu’un de leur lire ce qu’ils ne voient pas, j’y vois aussi un début de réponse pour aider tous ceux qui ont des difficultés avec la lecture, et pour qui il est handicapant pour se déplacer.

Mais, si ces trois projets ont retenu mon attention en particulier, il faut que j’ajoute qu’ils s’inscrivent dans un impressionnant ensemble de nouveautés ! Jugez-en vous même : carte interactive vélo + TER en Bretagne, Tram-train à Mulhouse, 25 tonnes de paniers fraîcheurs livrés chaque jour dans 80 gares (uniquement avec des produits de saison et de la région), expérimentation d’une locomotive hybride en vue d’une industrialisation, diminution de 7% des émissions carbones provoquées par la restauration à bord des Thalys (soit 2% de l’empreinte carbone totale de ce train), lancement de la V2 de l’éco-comparateur, création de pas@pas, une plateforme partagée d’achats responsables ou encore lancement de CO2Go, un éco-comparateur individuel en temps réel.

Seul petit bémol, la promotion du covoiturage pour aller dans les gares d’Ile de France, qui a tout de la fausse bonne idée dans son organisation actuelle. En effet, le système, basé sur un site web de mise en relation entre voyageurs, est présenté comme permettant de diminuer le nombre de voitures se rendant dans les gares tous les jours, et donc de la place nécessaire pour les parkings, alors que c’est plutôt la diminution du nombre de parkings aux abords des gares et la réservation des places disponibles aux seuls covoitureurs qui permettra l’augmentation de la pratique. D’ailleurs, aucun chiffre n’a été présenté pour appuyer la démonstration des orateurs, ce qui laisse penser qu’il n’y en a pas…

Mais c’est un bien petit bémol comparativement à tous les points abordés à l’occasion de cette rencontre. D’autant qu’au cours de la séance des questions / réponses, la langue de bois usuellement pratiquée par d’autres dans ce type de circonstances avait été remisée au placard, les principaux dirigeants de la société acceptant la remise en question (notamment du tout vitesse) et répondant parfaitement à mes interrogations. C’est aussi pourquoi, et au vu de cet immense ensemble d’initiatives, j’ai le plaisir de reconnaître que la SNCF est en passe de réussir son pari de devenir l’acteur majeur et incontournable de l’éco-mobilité ! A condition de déployer largement toutes ces bonnes initiatives dans l’ensemble des gares et trains de la compagnie, bien sûr.

Publié initialement sur Le blog de Ludovic Bu sous le titre SNCF: naissance d’un acteur majeur de l’éco-mobilité

Illustrations Flickr CC Mhliaw et Mgrenner

]]>
http://owni.fr/2011/02/15/la-sncf-et-lecologie-essai-en-cours-de-transformation/feed/ 6
Les crédits carbone: nouveau joujou toxique de la finance http://owni.fr/2011/02/01/les-credits-carbone-nouveau-joujou-toxique-de-la-finance/ http://owni.fr/2011/02/01/les-credits-carbone-nouveau-joujou-toxique-de-la-finance/#comments Tue, 01 Feb 2011 10:08:41 +0000 Sylvain Lapoix http://owni.fr/?p=44811 200 millions d’euros, sans arme, ni haine, ni violence. Juste de très bons hackers. En forçant les registres des marchés, ces cybercriminels de haut vol ont réussi à dérober quelques millions de tonne de « crédits carbone » (droit à polluer) en Autriche, en Grèce, en République tchèque, en Pologne et en Estonie pour les revendre dans la foulée sur les marchés « spot », où les valeurs sont échangées à grande vitesse. Une fuite qui a obligé la Commission européenne à suspendre les cotations dès le mercredi 19 janvier, quand le casse a été constaté.

Pourtant, au départ, l’idée était présentée comme la panacée du libéralisme : pour freiner la pollution à tout va, le protocole de Kyoto instaurait un système de pollueur-payeur où les « tonnes de CO2 » rejetées dans l’atmosphère devaient être achetées, le nombre total de tickets distribués étant évalué selon des objectifs mondiaux. Les moins polluants des pays ou des entreprises pourraient revendre les « crédits carbone » excédentaires à ceux en ayant besoin. Un scénario merveilleux… s’il n’était pas immédiatement tombé dans les travers de la finance.

Vente « d’air chaud » et titrisation de la pollution

Dès leur distribution, les crédits ont fait l’objet de transactions financières douteuses. En mars 2010, certaines entreprises hongroises ont ainsi vendu des crédits déjà utilisés sur les marchés, de « l’air chaud » dans le jargon : 800 tonnes de crédits carbones « déjà rejetés » par des sociétés basées en Hongrie ont ainsi trouvé preneur hors de l’Union européenne. Un détournement du système qui aura autorisé le rejet de 1600 tonnes de CO2 au lieu de la moitié !

Quant au roi de l’acier, Lakshmi Mittal, c’est par un mauvais calcul des autorités européennes qu’il s’est vu octroyer un surplus de droit à polluer pour ArcelorMittal : cette erreur de la banque de carbone en sa faveur pourrait lui rapporter la bagatelle d’un milliard de livre sterling ! Pas de surprise chez Les amis de la Terre. Selon un rapport publié en 2009 par l’ONG, les crédits carbones ont depuis longtemps quitté l’escarcelle des entreprises pour tomber dans les mains des banques et autres fonds de gestion :

Les marchés carbone n’ont pas permis les réductions d’émissions de gaz à effet de serre promises. Pire, ils sont largement basés sur des mécanismes de compensations des émissions des pays riches dans les pays pauvres. Ces mécanismes sont les plus risqués et mettent sur le marché une partie de crédits carbone fictifs. L’amplification du phénomène pourrait conduire à l’effondrement du prix du carbone.

Secteur de placement comme un autre, il fait l’objet d’investissements de la part des grandes banques pour assurer leur expertise : en juin 2009, Barclays Capital déboursait quelques 120 millions d’euros pour racheter Tricorona, spécialiste suédois du développement et du courtage en crédits carbones. Pas sûr que les transactions réalisées par ces acteurs du marché du carbone contribuent à la modération des rejets de gaz à effet de serre.

Les mêmes causes produisent les mêmes effets

Et encore, il ne s’agit là que de la partie émergée de l’iceberg. Dès la mise en place des marchés carbone en 2005, des produits « structurés » (des produits financiers dont la valeur dépend des évolutions des actions) avaient été créés à partir des crédits carbone. Portant sur les marchés « à terme », ils permettaient de spéculer sur l’obtention de crédits carbone. Selon le rapport de Michel Prada, inspecteur général des finances honoraire, la chute de Lehman Brothers a freiné la création de « produits toxiques » misant sur la pollution… mais pas empêché la production d’autres dérivés pas forcément plus sains.

La période récente a témoigné d’une financiarisation accrue du marché du CO2. Le développement de produits financiers structuré a débuté, avec, par exemple, l’apparition de produits structurés, de type Collateralized Debt Obligation, permettant de « titriser » des portefeuilles de projets développés dans le cadre du Mécanisme de Développement Propre, présentant des niveaux de validation par le bureau international des Nations Unies: ce type de produits peut poser des problèmes de valorisation des risques [...] Il est cependant manifeste que ce sujet n’est pas spécifique au marché du CO2 et doit être appréhender dans le contexte plus général de réflexion internationale sur le meilleur encadrement des opérations de titrisation.

Le constat n’est guère rassurant : le marché des droits à polluer n’est plus là pour « encadrer » la pollution, il est devenu une extension du domaine de la finance.

L’idée n’a pas échappé à la criminalité organisée: en utilisant la méthode du « carrousel », des acheteurs anonymes récupéraient des tonnes de CO2 hors taxe avant de les faire « tourner » dans des pays européens et de les vendre, renchéries par la TVA, dans un pays où elles s’appliquaient, empochant la différence. Selon Europol, le trafic aurait rapporté 5 milliards d’euros aux fraudeurs entre 2008 et 2009, dont 1,4 milliards aux frais du contribuable français. De quoi motiver Christine Lagarde pour commander un rapport d’audit sur l’efficacité du marché des crédits carbone. La manne a attisé les intérêts des réseaux criminels au point de faire tomber quelques têtes de la « jewish connection », où des courtiers en gaz à effet de serre ont vu leurs carrières stoppées à coup de flingue, comme le révélait une enquête de Frédéric Ploquin parue dans Marianne le 15 janvier dernier.

Sans arme, ni haine, ni débat démocratique, le marché du carbone a mis un prix sur la qualité de l’air. Or, au lieu de responsabiliser les acteurs du marché, elle n’a fait que stimuler les mécanismes de transmission néolibéraux de la profitabilité : création de produits dérivés, multiplications des intermédiaires… et déresponsabilisation des acteurs politiques ! Paradoxe ultime: les entreprises coupables de pollution, celles qui auraient du se serrer la ceinture, sont désormais celles qui spéculent et bénéficient financièrement de l’émission de crédits carbone. Une nouvelle preuve de l’impuissance des régulateurs à exiger quoique ce soit des entreprises, comme le soulignait Aurélien Bernier dans son ouvrage Le climat otage de la finance. Reste à savoir si les responsables politiques accepteront de revenir sur ces faux engagements écologiques, histoire de fermer cette usine à crise avant qu’elle ne surchauffe.

Photo : FlickR CC Nathan Eal Photography ; PertpetualTourist2000 ; **Mary**.

]]>
http://owni.fr/2011/02/01/les-credits-carbone-nouveau-joujou-toxique-de-la-finance/feed/ 9
[App] Attention forages à risques http://owni.fr/2010/12/07/app-attention-forages-a-risques/ http://owni.fr/2010/12/07/app-attention-forages-a-risques/#comments Tue, 07 Dec 2010 18:49:37 +0000 Sylvain Lapoix, Ophelia Noor et Pierre Ropert http://owni.fr/?p=38523 « Du sable, de l’eau et de la pression ». Sur le site officiel d’Halliburton, la recette de l’extraction des gaz de schiste ressemble à celle d’un pâté de sable. Le mélange original n’en était peut-être pas loin quand il a été injecté pour la première fois par la compagnie en 1947 pour remuer le fond des puits de pétrole ou de gaz du champs de Hugoton au Texas afin d’en extraire les dernières gouttes. Mais ses derniers perfectionnement dans les années 1980 et 1990 ont poussé la technique de « fracturation hydraulique » à des degrés de raffinement qui confinent au secret défense : interrogé par l’Agence de protection de l’environnement américaine, le géant des hydrocarbures a refusé de livrer la recette de sa potion magique, soupçonnée par les autorités sanitaires d’avoir empoisonné les réserves d’eau potable aux abords de certains puits d’extraction de gaz de schiste utilisant sa technique. Pour toute aumône aux curieux, Halliburton livre une dizaine d’ingrédients, dont trois types de sables et de l’eau, sur son site internet. Mais, comme pour le Coca, la touche qui fait la différence manque à l’énumération.

De simple système « d’activation » des puits de pétrole et de gaz, cette technologie, alliée à des matériaux souples résistants à de très hautes pressions et à de nouveaux systèmes de forages horizontaux, a rendu accessible les immenses réserves de gaz contenues dans les couches de schistes, dissimulées à 1200, 2500 et parfois même 3000 mètres sous la surface de la terre. Présentes quasiment partout sur la planète, ces gisements de milliers de milliards de mètres cubes de gaz représentent une autonomie énergétique potentielle pour les pays… et une manne de contrats pour Halliburton et ses concurrents, Schlumberger ou Baker Hughes.

“A la sortie du puits : CO², NOx et autres gaz à effet de serre”

Pour chaque puits, le principe est le même : les ingénieurs creusent les fondements du puits, installent un coffre de béton et commencent un forage vertical de 30 cm de diamètre jusqu’à plus de 1200 mètres de profondeur avant de « couder » le forage qui avance, horizontalement, dans la couche de schiste censée renfermer du gaz. Après avoir fait exploser une charge au fond du puits, les ingénieurs y injectent à très haute pression un mélange d’eau, de sable et de divers produits chimiques facilitant le processus : propulsé à 600 bars (deux fois la puissance d’une lance à incendie Cobra), le liquide écarte les fissures formées par l’explosion que le sable garde ouvertes pour en faire échapper le gaz qui remonte avec la moitié du liquide (le reste était capturé par la roche). Pour chacune de ses fracturations 7 à 15000 mètres cubes d’eau son nécessaires, sont seulement la moitié remonte à la surface. Or, c’est justement sur le chemin du retour que les dégâts commencent à se faire sentir.

A peine sorti, le gaz est injecté dans un séparateur qui le dissocie de l’eau remontée du puits avant d’être pompée vers un condensateur, sorte d’immense réservoir de 40000 à 80000 litres. Le gaz y est séparé de ses autres composantes, laissant échapper des vapeurs d’hydrocarbures : CO², Nox et autres gaz à effet de serre. Autant de polluants dont la dispersion dans l’air était inconnue avant les travaux du Professeur Al Armendariz du département d’ingénierie civile et environnementale de l’université méthodiste de Dallas.

61% des maladies causées par l’exposition aux gaz toxiques

Autre petit secret, les mystérieux liquides de fracturation s’échappent parfois par des failles dans le coffrage du puits, atteignant des sources ou des roches poreuses par lesquelles ils s’infiltrent parfois avec du gaz jusqu’à atteindre des nappes phréatiques et à remonter dans les tuyaux, mêlés à une eau plus potable du tout. Pour percer le mystère de ces 0,5% de composants “autres” que l’eau et le sable, le docteur Wilma Subra a suivi en Louisiane) le ballet des camions amenant les produits chimiques pour le mélange et celui des tankers emportant au loin les eaux usagées jusqu’à pouvoir prélever un échantillon à la composition bien plus complexe que la dizaine d’ingrédients suggérés par le site d’Halliburton. Dans ses éprouvettes, elle a énuméré plus de 596 substances chimiques qui, en plus de leurs qualités d’inhibiteur d’acides, d’anticorrosif ou encore d’épaississant, ont pour certains des effets dramatiques sur la santé (cancérigènes, tels que l’ethylbenzène, perturbateurs endocriniens, comme le diethylène glycol).


Prenant pour échantillon représentatif la ville texane de Dish, Wilma Subra a conclut que 61% des problèmes de santé constaté chez les habitants de la ville étaient causés par des taux de polluants supérieurs aux normes environnementales admises : exposés à des quantités importantes d’ozone, de soufre, de gaz naturel ou d’ether, les habitants ressentaient plusieurs fois par jour nausés, maux de tête, vomissement… jusqu’à des affections respiratoires : 58% des personnes observées souffraient de problèmes de sinus.
La corrélation entre fracturation hydraulique et activité sismique reste à établir : Brian Stump et Chris Hayward chercheurs à la Southern Methodist University de Dallas, ont enquêté sur le site de Fort Worth au Texas. Ils mettent en garde :

Nous avons établi un lien entre la sismicité, le moment et le lieu de l’injection d’eau [ndlr : dans le puits de fracturation] ; ce qu’il nous manque ce sont des données sur la sous-surface de cette zone, sur la porosité et la perméabilité de la roche, le chemin qu’empruntent les fluides, et comment ces éléments pourraient provoquer un séisme.

Les chercheurs et les gaziers s’accordent à dire que la technique d’extraction en elle-même provoque des micro-séismes, “jusqu’à une magnitude de 3,4 sur l’échelle de Richter en surface” selon le géologue Aurèle Parriaux, docteur en géologie de l’ingénieur à l’université polytechnique de Lausanne. Un faible tremblement de terre, perceptible par l’être humain. Cependant le réel impact de la fracturation hydraulique reste à prouver, et des études sont encore nécessaires pour déterminer l’influence de ces fissures dans des zones sismiques.
Afin d’établir au plus vite les conséquences de ce procédé, Brian Stump a appelé à une “collaboration entre les universités, l’Etat du Texas, les autorités locales, le secteur de l’énergie, et, éventuellement, le gouvernement fédéral pour l’étude de la question de la sismicité”.Vue leur mauvaise volonté à livrer la recette de leurs potions magiques, difficile de croire que les sociétés gazières reconnaîtront demain être les auteurs de tremblement de terre.

Illustration pour owni.fr par Marion Boucharlat

Application par owni.fr

Crédits photo sur flickr sous licence CC : Oljeindustriens Landsforening OLF

Retrouvez tous nos articles sur les gaz de schiste sur OWNI.fr et OWNIpolitics.com ainsi que nos brèves sur le sujet en suivant OWNIlive.com.

]]>
http://owni.fr/2010/12/07/app-attention-forages-a-risques/feed/ 51