10 septembre 2011 6 10 /09 /septembre /2011 09:21

Vous souvenez-vous de la grande panne électrique du 4 novembre 2006 ? Ce soir-là, 10 millions d'Européens, dont 5 millions de foyers français, se sont retrouvés dans le noir... Tout cela, à cause d'un seul bateau, tout juste sorti d'un chantier naval allemand, qui souhaitait gagner la mer du Nord par la rivière Ems. Le problème, c'est qu'il existe une ligne à haute tension de 400 000 volts enjambant cette même rivière. Or le mât du bateau passait un peu trop près de la ligne : il existait donc un risque de formation d'arc électrique. On avait convenu de couper temporairement la ligne au passage du bateau, ce qui devait se produire à l'aube, aux heures creuses.

 

Mais voilà que le capitaine change ses plans, qu'il s'engage dans le passage en plein pic de consommation électrique (21h30) : on n'arrive pas à le joindre, et le gestionnaire de réseau doit couper la ligne en catastrophe. L'ensemble du réseau électrique européen se retrouve alors scindé en trois zones, qui ne communiquent plus. Or à ce moment-là, l'Europe entière est devant sa télévision, il fait froid, les foyers français siphonnent à qui mieux mieux l'électricité produite dans les centrales allemandes... La coupure d'une seule ligne va changer toute la donne !

 

A l'est, on produit soudain trop d'électricité pour la demande globale, et le réseau se retrouve en surtension ; à l'ouest (dont en France) et au sud-est (Balkans), c'est l'inverse : la fréquence du réseau chute par sous-alimentation — provoquant au passage l'arrêt de toutes les éoliennes (10% de l'électricité produite alors), ce qui aggrave encore la pénurie... Dans ces cas-là, les déséquilibres s'accumulent en cascade, et l'effondrement de tout le réseau menace. Pour éviter un black-out total, les opérateurs n'ont d'autre choix que d'opérer des délestages, c'est-à-dire de couper le courant dans certaines zones avec l'espoir de rétablir, au final, l'équilibre dans le réseau entre la production et la consommation. Voilà comment par faute d'un bateau, on arrive à une méga-panne.

 

Les leçons d'une panne L'épisode, heureusement, n'a pas duré longtemps ; mais on comprend qu'il ait donné des sueurs froides aux autorités. Il illustre la fragilité du réseau électrique, non seulement en Europe, mais partout dans le monde. Cette fragilité s'explique par plusieurs raisons. - Tout d'abord, l'électricité ne se stocke pas : elle doit être consommée aussitôt produite. - Ensuite, sa consommation augmente d'année en année. - Enfin, les réseaux ont initialement été déployés sur les territoires par les gouvernements, dans des perspectives à la fois nationales et centralisées : de grandes unités de production, tournées d'abord vers l'approvisionnement des foyers et des usines du pays.

 

Il existe, bien entendu, des connexions avec les pays voisins, mais en petit nombre — si bien qu'une seule défaillance menace l'équilibre de tout un continent, comme l'a montré la panne de 2006. Il est clair que le modèle historique est remis en cause par la globalisation de l'économie et la montée de la demande énergétique. Le casse-tête de l'Europe électrique Pendant ce temps, les unités de production se multiplient elles aussi : la distribution, autrefois ultra-centralisée, s'éparpille ; une éolienne, par exemple, est une petit centrale autonome, conçue pour se désactiver automatiquement en cas de sous-tension...

 

Eoliennes et panneaux solaires locaux s'ajoutent aux infrastructures existantes et doivent s'y intégrer. Comment fluidifier tout cela, sachant que les systèmes de contrôle ont été pensés au départ au niveau national ? Sachant qu'une coupure à Papenburg peut impacter toute une ville en Bretagne ? Bienvenue dans le casse-tête de l'Europe électrique. J'avais évoqué ces problèmes dans MAP n°8 (Le grand mic-mac électro-gazier). La solution des fourmis A ces défis, les smart grids apportent une réponse directement inspirée de l'informatique.

 

Car les réseaux d'ordinateurs, à l'image de ceux qui font tourner Internet à l'échelle mondiale, se révèlent beaucoup plus robustes que leurs homologues électriques : après le séisme dévastateur survenu en 2010 en Haiti, l'accès à Internet du pays a été rétabli en quelques jours. Le secret de la résistance de ce modèle tient : - à la densité du maillage ; - à la décentralisation poussée de l'architecture ; - et à l'autonomie des agents. En forçant le trait, on peut dire que tout le monde communique avec tout le monde, si bien qu'un relais défaillant est immédiatement contourné. Par ailleurs, chacun est plus ou moins "libre de ses décisions", au sens où il ne dépend pas d'un grand régulateur qui lui dit quoi faire. Mais où est l'"intelligence centrale" du réseau, me demanderez-vous ?

 

Eh bien, il n'y en a pas. Chaque acteur dispose d'une "intelligence minimale" qui lui permet, en gros, de tenir sa place dans le réseau, pas davantage ; il dispose en outre d'une capacité à communiquer avec les autres, de recevoir leurs messages et d'en envoyer. C'est la combinaison de toutes ces intelligences minimales qui permet d'obtenir des effets de régulation complexes et réactifs, à l'image des comportements qu'on peut observer dans une colonie de fourmis.

 

En d'autres termes, plutôt que de penser le régulateur comme un joueur d'échecs tâchant de placer intelligemment toujours plus de pièces sur un échiquier toujours plus vaste, pensons plutôt le réseau comme une colonie de fourmis "idiotes" à l'échelle individuelle, mais intelligentes à l'échelle collective, parce qu'elles communiquent entre elles. Au lieu de multiplier les interconnexions ruineuses, tâchons de rendre chaque maillon de la chaîne plus autonome, pour optimiser l'ensemble. Et déléguons — partiellement — l'intelligence du réseau non plus à des hommes, mais à des systèmes automatiques simples, multiples, voire décentralisés. Dès lors, une coupure à Papenburg est répercutée à toutes les "fourmis" voisines, qui réagissent immédiatement, à leur petite échelle...

 

De proche en proche, le réseau se rééquilibre d'un bout à l'autre du continent. Telle est, dans ses grandes lignes, la philosophie des smart grids. Sachez aussi que l'électricité est la composante de la demande globale en énergie qui connaît la croissance la plus rapide : une croissance estimée, selon les projections de l'Agence Internationale de l'Energie, entre 115% et 150% entre 2007 et 2015, et qui sera tirée à 80% par les pays émergents. Un secteur en pleine concentration Tel est donc le programme : utiliser les avancées les plus récentes de la télécommunication et de l'informatique de pointe (intelligence artificielle, notamment) pour rendre les réseaux électriques plus intelligents. La notion de smart grid regroupe des activités très diverses : production, fourniture et stockage d'énergie, informatique, télécoms, fabrication de matériels électrique.

 

Logiquement, de nombreux acteurs, d'horizons bien différents, s'intéressent au potentiel de ce marché. Mais, peu peuvent se targuer de maîtriser la technologie de A à Z. Il en résulte un éclatement des compétences, que chaque intervenant tente de réduire en acquérant une partie des activités qui lui font défaut. On assiste donc à une phase de concentration du secteur, où les grands groupes tentent de mettre la main sur les marchés de niche.

 

 


9 septembre 2011 5 09 /09 /septembre /2011 08:35

C’est le ministère de l’Écologie qui le dit et c’est une excellente nouvelle. Si le gouvernement aura sans doute des difficultés à se conformer à l’objectif fixé dans le cadre du Grenelle de l’environnement de 23 % d’électricité issue de sources renouvelables à l’horizon 2020, les derniers chiffres sont encourageants (NDLR : 14%)  et constituent une agréable surprise étant donné la conjoncture, que pléthore d’observateurs avaient quelques raisons de supputer défavorable pour l’une comme pour l’autre.

 

panneau-solaire-photovoltaique

L’énergie solaire a vu sa puissance installée presque tripler entre fin juin 2010 et fin juin 2011, passant de 580 mégawatts (MW) environ à 1 679 MW. Une augmentation d’autant plus étonnante que les projets de plus de 3 kilowatts crête (KWc – NDLR : l’unité de mesure représentant la puissance maximale d’un dispositif solaire) ont fait l’objet d’un moratoire de trois mois au cours de cette période. À ce standby synonyme de coup de massue pour de nombreuses PME a par ailleurs succédé l’instauration d’un nouveau cadre de développement largement décrié par les professionnels du secteur, lesquels ont été nombreux à estimer qu’il ne répond pas aux enjeux actuels et futurs et à douter de sa pertinence pour lutter contre la concurrence chinoise.


« Au cours du premier semestre, la puissance du parc solaire français a bondi de 55 % avec l’installation de plus de deux cent sept mille unités de production solaire. Quelque 599 MW ont été installés, soit 143 % de plus par rapport à fin juin 2010 », souligne le ministère, citant des pourcentages édités par le Commissariat général au développement durable (CGDD), sur son site Internet. Trois régions de la moitié sud de la France en particulier, l’Aquitaine, les Midi-Pyrénées et la Provence-Alpes-Côte-d’Azur (PACA), ont tiré leur épingle du jeu, totalisant « près de 40 % des puissances raccordées au cours du premier semestre », rapporte le Commissariat.


 

La production d’électricité d’origine éolienne en hausse de 14 % entre juin 2010 et juin 2011


La puissance raccordée d’éoliennes, elle, a atteint 6 253 MW au début de l’été pour une production de 5,4 terawattheures (TWh), soit « 14 % de plus qu’il y a un an », précise le CGDD. Si la part de l’éolien dans la consommation électrique en France reste modeste (elle était 2,2 % fin juin), le fait est qu’elle est également en hausse.


Férocement critiquées par les associations écologistes, pour qui elles risquent de compromettre la progression de l’énergie éolienne sur l’ensemble du territoire national, les dispositions de la deuxième loi du Grenelle viennent d’entrer en application. Les lobbies hostiles à l’éolien ont globalement été entendus en amont de l’adoption de la nouvelle législation en juin 2010. Le dernier pointage du CGDD a toutefois démontré qu’il pouvait y avoir de bonnes surprises…


À plus long terme, l’implantation des premiers parcs éoliens offshore dans les eaux territoriales françaises augure de perspectives plutôt réjouissantes pour la filière. Il y a donc matière à rester optimiste pour l’avenir des technologies vertes dans l’Hexagone, malgré les nombreux coups de canif portés au Grenelle.

 

 


8 septembre 2011 4 08 /09 /septembre /2011 14:26

Le Réseau Action Climat vient de sortir une étude sur les conséquences néfastes pour l'environnement de l'étalement urbain. Il propose des mesures pour freiner ce phénomène, et favoriser l'habitat à l'intérieur des agglomérations...


Quand l’humain s’étale, c’est le climat qui trinque. Une nouvelle étude du Réseau Action Climat (RAC) sur le phénomène d’étalement urbain, qui consomme en France 60.000 ha - soit l’équivalent de la surface d’un département- tous les sept ans, montre que le phénomène continue de s’accélérer, et qu’il est particulièrement néfaste pour l’environnement. Augmentation des mobilités et des distances domicile-travail, utilisation de la voiture plutôt que des transports en commun, émissions de gaz à effet de serre, fragilisation de la biodiversité, augmentation des risques d’inondation…  Pour le RAC, l’augmentation de la surface des agglomérations concourt à notre perte.


Le logement individuel est le premier responsable de cette perte d’espaces naturels, loin devant le réseau routier et les équipements de sport et de loisir, recense le RAC. Les terres agricoles sont les principales impactées.

Pourtant, ce phénomène semble correspondre au schéma de vie idéal des Français, qui plébiscitent largement la maison individuelle, et la périphérie ou la campagne plutôt que la ville - assimilée aux nuisances. La hausse des prix de l’immobilier en centre-ville ces dernières années a encore renforcé cette tendance, même si le RAC relativise son impact, citant une étude du Credoc qui relève que «les prix de l’immobilier évoluent au même rythme quels que soient le lieu et le type de bien.»


L’image de la densité «est toujours assimilée aux grandes tours»


Comment réconcilier les Français avec l’habitat urbain? Marion Richard, chargée de mission climat énergie au RAC, dresse quelques pistes. «On ne met pas assez en avant d’autres formes de logement, autres que l’appartement et la maison individuelle, comme la maison de ville ou le logement intermédiaire, appartement doté d’un jardin à partager avec les logements voisins.» Dans la même veine, elle suggère que les collectivités «communiquent davantage sur les programmes de densification urbaine réalisés à l’aide de petits ensembles collectifs. L’image de la densité est aujourd’hui négative car elle est assimilée aux grands ensembles et aux grandes tours, qui ont été un échec et ont marqué les esprits.»


Le RAC préconise également de renforcer la construction de logements sociaux en centre et de les rendre pérennes. «Si au bout de quelques années  on les met en accession à la propriété, et que leur prix flambe, ils deviendront de nouveau inaccessibles aux classes les moins aisées qui seront encore obligées de s’éloigner.» Pour le réseau, un dispositif comme le PTZ+ (prêt à taux zéro) est devenu par ailleurs «contre-productif dès lors qu’il ôte toute condition de ressources: dans un contexte de marché tendu, les ménages pauvres sont moins compétitifs et devront s’exiler plus loin.» Il serait donc nécessaire de «rétablir des conditions de ressources dans les critères d’obtention de ce prêt.» Enfin l’organisme réclame «un vaste plan de rénovation énergétique de l’habitat existant.»


Une taxe carbone pour influencer le choix de localisation des ménages


Si les collectivités ont commencé à s’emparer du sujet, le RAC souligne que l’unité urbaine aujourd’hui en France est trop petite pour appliquer une politique cohérente. «On comptabilise 36.000 communes en France, pour  90.000 dans l’ensemble des 27 pays de l’Union. C’est énorme. On ne peut pas réfléchir à l’échelle d’une commune de 1.500 habitants à des phénomènes aussi complexes que l’urbanisation et les déplacements. Le bassin de vie, c’est-à-dire l’espace dans lequel on travaille, on va faire ses courses, est beaucoup plus vaste. Il faut réfléchir au niveau de l’intercommunalité, or, les plans locaux d’urbanisme, et les permis de construire, s’accordent toujours au niveau de la commune. C’est un non-sens.»


Dernière mesure réclamée par le RAC, la fameuse Taxe carbone, un temps évoquée avant d’être abandonnée. «Il s’agirait d’une taxe indexée  sur les consommations d’énergie. Elle permettrait d’intégrer l’impact d’un habitat éloigné du lieu de travail et ainsi d’influencer le choix de localisation des ménages et des entreprises. Les recettes permettraient de compenser les ménages à faibles revenus, et de financer les économies d’énergie.» D'ici là, la hausse du prix de l’essencesera peut-être devenue le critère principal dans le choix du lieu de son habitat.

 

 


Published by Gerome - dans Nature
commenter cet article
6 septembre 2011 2 06 /09 /septembre /2011 08:23

Paris, New-York (Etats-Unis), Londres (Grande-Bretagne). Qu’est-ce que ces villes ont notamment en commun ? Des lignes de métro bien sûr ! Et par la même occasion un joli potentiel énergétique encore inexploité.

 

metro1.jpg


D’après les ingénieurs de l’entreprise californienne Vycon Energy, il serait en effet possible de récupérer l’énergie cinétique des rames de métro et des trains légers et de la transformer en électricité. En accélérant, les trains génèrent une grande quantité d’énergie cinétique, un phénomène physique qui se produit en fait à chaque fois qu’un corps entre en mouvement.

 

Celle-ci est toutefois automatiquement perdue au moment de la décélération. Un immense gâchis que ces ingénieurs croient pouvoir éviter grâce au freinage régénératif, technologie déjà utilisée sur certains véhicules hybrides. En connectant un volant d’inertie à la voie, l’énergie cinétique pourrait être transformée en électricité, laquelle serait ensuite stockée dans la station de métro et permettrait de faire redémarrer une rame.

 

« Quand le train voudra partir, il suffira d’utiliser l’énergie créée précédemment », résume le vice-président de Vycon Energy Louis Romo, selon lequel un métro composé de dix voitures nécessiterait une décharge comprise entre trois et quatre mégawatts (MW) pendant trente secondes pour regagner sa vitesse de croisière. Pour que le système soit encore plus efficace, l’entreprise suggère par ailleurs de modifier les horaires des métros pour que deux rames s’arrêtent simultanément. L’énergie serait ainsi immédiatement utilisée en limitant les creux de tension, « un véritable problème pour les entreprises ferroviaires » aux dires de M. Romo.


L’alternative paraît tout à fait plausible, d’autant qu’elle est proposée par une entreprise leader dans le secteur du recyclage de l’énergie cinétique. Créée en 2002, Vycon Energy a déjà fait ses preuves auparavant, grâce notamment aux volants cinétiques qu’elle a installés sur des grues de chantier. En descendant un container de trente tonnes, le volant génère jusqu’à 200 kilowatts (KW) d’électricité. Les municipalités de Los Angeles, Sacramento (Californie) et Denver (Colorado) seraient en train de négocier un contrat avec Vycon Energy afin d’installer le dispositif sur leurs réseaux de transports en commun. Elles ont manifestement compris qu’il peut permettre d’alléger sympathiquement leurs factures énergétiques…