Tous les articles par Mario

Et la mer monte, monte !

Tuvalu

J’ai encore été traîner sur un vilain site et découvert qu’une nouvelle étude scientifique montre que le niveau de la mer dans le Pacifique occidental était 40 centimètres plus haut qu’aujourd’hui il y a 3600 ans.

Pourtant « les médias qui nous disent toujours la vérité » nous informent que le niveau de la mer monte rapidement et qu’à moins de contrôler le climat en réduisant drastiquement le CO2 d’origine humaine, bientôt, New York et même des villes européennes comme Cologne finiront dans l’eau.

Le NOAA a annoncé la mise à jour de ses données de marégraphes pour 2018 et indique que l’élévation absolue du niveau de la mer au niveau mondial (donc corrigée de la variation du niveau des terres) est estimée à 1,7-1,8 mm par an, contrairement aux données satellitaires qui indiquent une augmentation de plus de 3 mm par an !

Les données des marégraphes sont fondamentales car elles mesurent l’élévation physique réelle du niveau de la mer sur la côte, là où vivent les gens. Les données satellitaires sont sujettes à d’énormes biais, car la précision de la mesure altimétrique dépend de la vapeur d’eau contenue dans la colonne mesurée, de l’état de la mer, des marées, des vents, de la dérive de l’orbite du satellite et de celles des instruments de mesure..

Aux mesures sont donc appliquées des corrections qui peuvent être parfois grandement pifométriques et le « niveau moyen des mers affiche encore des erreurs de 2 à 4 mm qui ne sont pas encore parfaitement comprises ». (M. Ablain et al. 2017)

La question est donc : pourquoi « les journaux qui ne disent que la vérité » n’indiquent pas la marge d’erreur possible des mesures satellitaires ? C’est vrai que dire que le CO2 d’origine humaine provoque une augmentation annuelle de 3 mm ± 4 mm, cela fait un peu tache.

De même, écrire qu’il y a 3600 ans, sans CO2 anthropique, le niveau de la mer était supérieur de 40 cm par rapport à aujourd’hui dans le Pacifique occidental et qu’en 2100 le niveau n’aura augmenté que de 14 cm ce n’est pas très vendeur de catastrophe, quand les gens qui vivent au bord de l’Atlantique savent tous que les plus grandes marées annuelles font 16 m !

Reste 2 questions de fond :
– Qu’est ce qui a fait monter et redescendre le niveau du Pacifique de 40 cm il y a 3600 ans et qui n’est pas le taux de CO2 ?
– Ce phénomène naturel agit-t-il encore aujourd’hui ?

Sans réponse à ces questions, qui peut affirmer comme le GIEC, organisme politique de l’ONU, que l’homme est responsable de l’augmentation du niveau des mer à 97% de certitude..
Des scientifiques ou des politiciens habitués aux fake-news ?

N.B. : Un scientifique devient également un politicien quand l’attribution de ses crédits de recherche dépend de la conformité de ses résultats avec la pensée unique du moment.

Allez, vous reprendriez bien une dernière petite goutte de taxe CO2 avant de partir 😉

Article du site sur un sujet similaire

A la mémoire de Jacques Duran, père spirituel de ce site

Jacques Duran, photo pensee-unique.fr

Fin 2009, c'est le scandale du « Climategate », la publication de plus de 200000 emails et fichiers datés entre 1996 et novembre 2009 du CRU (Climate Rechearch Unit, Université East-Anglia, travaillant pour le Met Office anglais. Le CRU est une des sources principales de données de température du GIEC.

Ce scandale m'a fait prendre conscience qu'un organisme politique onusien et un organisme étatique n'était pas forcement des sources scientifiques fiables.

La mise à disposition des emails a démontré un bidonnage des données de températures dans un but politique, avec notamment la fameuse courbe de température « en crosse de hockey » de Michael Mann directeur de l'Earth System Science Center (USA) rédigée en accord avec Phil Jones, directeur du CRU, courbe qui a été publiée dans le rapport de 2001 du GIEC puis absente dans les rapports suivants le scandale.

Cette courbe des derniers 1000 ans de la température de la terre fait disparaître l'Optimum Climatique Médiéval et le Petit Age Glaciaire. Elle montre une brutale accélération des températures à partir de l'ère industrielle, justifiant ainsi un effet quasi unique du CO2 dans l'augmentation des températures récentes de la terre.

De multiples données y compris historiques de l'hémisphère nord et de l'hémisphère sud démontrent pourtant que l'Optimum climatique médiéval a bien existé et que les températures actuelles sont inférieures ou égales à celles-ci !

Ce scandale a eu un retentissement très important dans le monde anglo-saxon mais est passé sous silence en France. Le médiatique et honorable correspondant scientifique du journal le Monde en est un des principaux censeurs.

Pourtant après dénégation de tricheries de la part des autorités, Phil Jones directeur du CRU, James Hansen, directeur du GISS de la NASA, autre source principale de données du GIEC ont tous les deux été « écartés » de leur poste de directeur.

James Hansen s'est révélé être un activiste climatique manipulateur (coupure de la clim lors d'une audition au Sénat américain un jour d'été). Jones a reconnu, après « la perte » inexpliquée des données sources de son étude sur le réchauffement de la planète de 1990, données qui auraient pu prouver le bidonnages de ses chiffres, que ce n'était pas acceptable ! Moins pire que d'avouer être un tricheur ?

Michael Mann, l'autre honorable chercheur, a toujours refusé de donner les sources des données de sa fameuse courbe, ce qui du point de vue scientifique est injustifiable. À la suite de plusieurs procès et de son derniers recours, il a été contraint de fournir les données qui devraient être mises à la disposition du public dans les prochains jours. Cet événement est attendu avec beaucoup d'impatience !

Ce « Climategate » m'a fait prendre conscience que je devais trouver d'autres sources d'information, scientifiques et vérifiables qui ne soient pas manipulées par des intérêts politiques de quelque bord que ce soit. Les « Réchauffistes » d'une part et les « Climato-sceptiques » d'autre part, sont tous les deux très typés politiquement, d’extrême gauche-verte pour les uns à ultra-droite, pour les autres.

C'est là que j'ai découvert début 2010 le site pensee-unique.fr de Jean Martin. Jean Martin est un pseudonyme, car beaucoup de scientifiques ne peuvent pas s'exprimer librement s'ils ne sont pas en phase avec la doctrine politique dominante. La science "pure" n'existe plus à partir du moment où le travail principal d'un chercheur est de trouver des financements. Il faut être dans l'air du temps et faire semblant d'y croire... et/ou vendre son âme.

Jean Martin était Jacques Duran, Directeur de Recherche du CNRS. Il a été directeur des études de l'École supérieure de physique et de chimie industrielles de la ville de Paris de 1996 à 2003 aux côtés de Pierre-Gilles de Gennes, prix Nobel de Physique. Le préambule de son site m'a plu tout de suite :

« Ce site est dédié à toutes celles et à tous ceux qui ont conservé un certain esprit critique et qui se refusent à absorber sans réfléchir, une grande partie des nouvelles de toutes sortes qui nous parviennent chaque jour. Rédigé par un scientifique, ce site vous propose des explications alternatives à certaines informations qui, sous le couvert de la science ou des statistiques, uniformisent nos opinions ».

Jacques Duran reprenait et traduisait en français tous les articles scientifiques sur le climat qui n'étaient pas dans la « pensée unique » du moment afin de donner à ses lecteurs la possibilité de juger par eux-même que la science climatique n'était pas établie et qu'il fallait toujours garder son esprit critique.

À partir de ce moment, j'ai attendu patiemment chaque mois la parution d'un nouvel article. Comme le dit si bien Benoit Rittaut (mathématicien), « Jacques était un exemple de probité scientifique en même temps qu’un vulgarisateur extraordinaire. Même ceux qui n’avaient pas de formation scientifique dévoraient ses articles. Il nous rendait plus intelligent et nous apprenait l’humilité du scientifique...

...Le courage, c’est aussi la voie que tu as suivie lorsque tu t’es dressé, alors bien seul en France, pour défendre la science en des temps où l’esprit moutonnier semble la seule règle sur la question du climat. Le courage, enfin, c’est ce que tu as donné à tous les lecteurs de ton site, pensée-unique, avec ta plume inimitable. Une plume qui se tenait toujours loin de l’idéologie, loin des peurs irrationnelles, loin des exagérations médiatiques ».

En 2014, une première alerte, pas d'article depuis fin mai ! Je n'avais pas oser jusqu'à présent écrire à l'auteur, sans doute la timidité de l'apprenti devant le maître, mais là, pas question fin août 2014 de rester sans ma dose ! Voici mon message :

« Bonjour,
Lecteur assidu de vos billets, je suis inquiet de ne voir aucune nouvelle publication depuis fin mai. Cela me manque !
J'espère que vous aller bien.
Cordialement »

Et à ma grande surprise, voici sa réponse rapide et sympathique, comme à un ami :

« Oui. Pas de problème. J'ai seulement pris quelques vacances loin de mon clavier et d'internet et je m'occupe de mes petits enfants.
L'art d'être grand-père...
Je vais bientôt publier un nouveau billet et reprendre le cours normal.
Merci de votre sollicitude.
Cordialement
JD »

Ouf, sauvé ! De septembre 2015 à juillet 2016, retour aux billets mensuels que je lis assidûment, avec de-ci de-là un billet manquant, mais pas de véritable alerte. Et puis la catastrophe, après juillet 2016, plus rien. Début décembre je craque de nouveau et je lui envoie ce message dans la soirée :

« Bonsoir,
L'été est passé et je regarde régulièrement votre site en espérant la venue du prochain billet.
N'étant pas un bon anglophone, j'apprécie vos traductions et la qualité des sources scientifiques citées.
Dans l'attente, j'ai découvert l'association des climato-réalistes avec skyfall.fr et le blog elogedelacomplexite.wordpress.com..
.. mais je reste sur ma faim !
J'espère que vous allez bien et que vous pourrez continuer à poster de nouveaux billets.
Cordialement »

Jacques Duran m'a répondu toujours aussi simplement quelques jours plus tard :

« Grand merci pour votre courrier et vos encouragements.
Hélas, je connais des ennuis de santé suffisamment invalidants pour me tenir éloigné de mon ordinateur et de mon logiciel préféré que j'utilise pour PU.
Désolé mais je ne sais pas encore quand je pourrai reprendre le cours de mes billets.
Bien cordialement
JD »

Voilà. Je n'ai pas osé lui écrire de nouveau. Il n'y a plus eu de billet. Je me suis senti vraiment orphelin.

Ensuite, avec le temps, sans l'analyse pointue de Jacques Duran mais grâce à l'amélioration des traductions automatiques, j'ai pu accéder directement aux sites d'autres scientifiques comme celui de Judith Curry, Roy Spencer, aux compte-rendus des conférences de Richard Lindzen sans oublier celles du francais Vincent Courtillot, et bien sûr à tous les articles scientifiques en accès libre.

Il y a bien sûr plein de sites anglophones et francophones climatosceptiques, mais seul le site des climato-réalistes français dont Jacques Duran était le Président d'Honneur et celui du mathématicien Benoit Rittaut se tiennent assez loin des idéologies partisanes.

C'est avec beaucoup de tristesse que j'ai appris hier le décès de Jacques Duran, le 26 octobre 2018.

Repose en paix.

Cop24, nous allons tous bouillir !

La Cop24, la conférence de Katowice (Pologne) sur les changements climatiques, va bientôt se réunir (03/12/2018) et les médias nous alertent tous les jours de l’imminence de la catastrophe climatique, nous allons tous bouillir ! D’autant que les pays qui ont promis des sous à la Conférence de Paris traînent franchement les pieds et ça urge..

J’ai zoné hier sur un vilain site négationniste du réchauffement climatique, qui j’espère sera bientôt interdit grâce aux lois sur les fake-news ! 🙂Il y avait un graphique éhonté à faire peur, le climat terrestre se refroidirait depuis 10 000 ans avec à la clé et prévu pour demain, l’arrivée d’un nouvel âge glaciaire !

Évidemment, Cop24 oblige, je ne pouvais laisser passer un tel mensonge sans réagir, tout le monde sait que le climat s’échauffe, c’est écrit dans tous les journaux, même Macron et l’ONU le disent ! Et pour avoir des billes scientifiques pour y répondre estampillées « consensus » , je suis allé chercher l’information à sa source, les données paléoclimatiques en accès libre du NOAA.

Pour reconstituer les températures d’avant l’invention du thermomètre, les paléoclimatologues utilisent des « proxies ». Ce sont par exemple les cernes des arbres fossiles, la limite de l’habitat des arbres, les pollens dans les sédiments lacustres, la différence de pourcentage de certains isotopes dans des fossiles, des stalactites ou la glace des pôles, etc... La comparaison de ces items fossiles avec ceux du présent permet de reconstituer le climat passé.

Ce n’est pas une science absolue, définitive. Mais les comparaisons multi-proxies permettent quand même d’approcher de manière assez précises des conditions qui devaient notamment régner au début de l’Holocène jusqu’à maintenant, notre « dernière » déglaciation. La composition isotopique de l’oxygène δ18O/16O dans la glace donne une idée de la température moyenne atmosphérique au moment de sa formation. On peut obtenir un résultat équivalent avec une méthode qui utilise les rapports isotopiques de l'argon et de l'azote dans les bulles d'air occluses dans la glace.

J’ai utilisé 2 études assez récentes (et gratuites) à partir de carottages de glaciers de l’Arctique et aux proxies différents pour avoir un aperçu du passé de l’hémisphère nord. Les études récentes sont payantes, les revues dans lesquelles elles sont publiées ne sont pas philanthropiques, ce qui pose le problème de « l’accès universel et gratuit à la Science » ! On peut parfois réussir à glaner quelques graphiques, j’en ai fourni 3 en bas de l’article, avec les liens des publications. Ils complètent les 2 études choisies, mais malheureusement sans que j'ai pu avoir accès aux sources...

- l’étude de Vinther et al. de 2011 sur les dernières 11 700 années de l'Holocène est multi-glacier et utilise la mesure du δ18O sur cinq sites au Groenland et un site au Canada : sources des données. 

et celle-ci pour corroborer/infirmer la première :

- l’étude de Kobashi et al. de 2012 sur les derniers 4 000 ans de l'Holocène est basée sur les carottes du forage GISP2 du Groenland avec l’utilisation bi-proxies Ar-N. Sources des données.

Ci dessous, le position géographique des forages et le nom des sites. Pour plus de détail, voir les fichiers sources qui indiquent également la position GPS.

Ice core

J’ai utilisé les 2 sources de données citées pour faire les graphiques ci-dessous avec le tableur de LibreOffice. Vous pouvez ainsi ne pas me croire sur parole et vérifier par vous-même le résultat en récupérant les fichiers sur le site du NOAA :

Argh de chez Argh, panique totale !

D’après le proxy δ18O, avec les données lissées sur 20 ans, le climat de notre Holocène chéri ne se réchauffe pas mais refroidit bien tranquilou depuis 10 000 ans ! Les vilains climato-négationistes auraient-ils raison ? Les fake-news ne seraient pas celles que l’on croit ?

En 7 000 ans, de -8 000 à -1 000, la tendance linéaire avec les valeurs lissées sur 20 ans est une perte de plus de 1°C, soit 0,17°C par millénaire. Mais pendant cette même période, les températures ont oscillé en permanence avec des variations rapides de plus de 2°C ! Sur la dernière période de -1 000 à 2 000, soit 3 000 ans, la perte est également de plus de 1°C, soit 0,38°C par millénaire, avec des fluctuations rapides d’amplitude supérieures à 2°C.

Le proxy de mesure des isotopes d'Ar-N sur 4 000 ans, avec ses données lissées sur un an, indique la même tendance au refroidissement de l'Holocène, ici 0,38°C par millénaire sur la période. Pour comparer au précédent graphique, c'est 0,42°C par millénaire sur les derniers 3 000 ans. En allant plus loin, cela donne 0,75°C pour les derniers 2 000 ans et 0,89°C pour le dernier millénaire. Nous sommes bien dans un phénomène d'accélération du refroidissement !

Et pendant ces 4 000 ans, les moyennes annuelles des températures,  lissées sur un an dans cette étude, montrent des oscillations de plus de 4°C sur des temps très courts sans pour autant être en présence de variation d'un quelconque CO2 anthropique, inexistant pendant 3850 ans. Curieux non ? 😉

Certes, ce sont les températures reconstruites de l’Arctique et non pas de la terre entière mais les résultats des 2 études au proxies différents sont cohérentes et les tendances similaires. Les océans qui occupent plus de 70 % de sa surface et même jusqu'à 80 % dans l’hémisphère sud, provoquent des fluctuations thermiques locales fortes comme El Niño & La Niña. Elles peuvent modifier et décaler dans le temps les températures, d’une région, d’un continent, d’un hémisphère à l’autre.

Le cycle des courants océaniques qui parcourent le monde, les courants thermohalins et les eaux océaniques profondes est de 1000 ans, cela laisse de la marge. Actuellement les eaux qui remontent des profondeurs ont été réchauffées en surface.. pendant l’Optimum Médiéval !

La masse totale des océans est d'environ 1,4E+021 kg et celle de l’atmosphère de 5,2E+18kg. L’atmosphère ne représente donc que 0,37 % du total, un pouième. La machine thermique de l’atmosphère, c’est l’océan mondial ! L’albédo de l’eau varie de 2 % à 15 %. La moyenne terrestre est de 30% ce qui veut dire que l’albédo des terres, qui ne représentent que 19 % de la surface totale est nettement plus élevé, et renvoie d’avantage d’énergie vers l’espace que l’eau. Et l’eau absorbe dans les 100 premiers mètres presque toute la lumière visible qui n’est pas reflétée, contrairement à l’atmosphère qui est quasi-transparente..

Mais ce qui est certain, c’est que la tendance linéaire globale est à la baisse des températures, comme le montre également la courbe verte avec un filtre gaussien de 2700 ans. Cette courbe est très similaire à celles des déglaciations précédentes qui commencent toujours avec une période plus chaude suivie d’une régression des températures jusqu’à la prochaine glaciation.

Une dernière constatation, et non des moindres, c’est que la période la plus froide des 10 000 dernières années est vers la fin de Petit Âge glaciaire, au tout début du XXIIIème siècle, il y a 300 ans. Les températures remontent depuis, sans pour autant atteindre les valeurs de l’Optimum Médiéval, et encore moins celles de l’Optimum Romain et Minoen. Et jusqu’à quand ?

Infos complémentaires : Le forage NGRIP pour North Greenland Ice Core Project qui est une des références  de l’étude de Vinther et al. de 2011 a servi pour la nouvelle subdivision en 3 parties de l'Holocène par la Commission Internationale de Stratigraphie (2018) :

  1. Le Greenlandien de -11 700 à -8 326 BP (Before Present = 2000) est le début du réchauffement climatique (déglaciation) à la fin froide du Dryas récent
  2. Le Northgrippien de -8326 à - 4200 BP dont le début correspond à un brusque refroidissement climatique,
  3. Le Meghalayen de - 4200 BP à maintenant dont le début a été marqué par de grandes sécheresses.

Que peut-on en conclure ?

Les températures s’accroissent de nouveau depuis 1720, ouf ! Cela aurait pu être le début de la fin ! Pas plus rapidement que pendant les périodes de réchauffement précédentes et moins « chaudement » que pendant ces périodes optimales. Elles restent largement contenue dans la fourchette des fluctuations constatées depuis le début du Northgrippien, il y a plus de 8000 ans .

Sommes nous sauvé de l’arrivée prochaine d’une glaciation ? Nul ne peut actuellement le dire. La précédente déglaciation, l'Eemien il y a 128 000 ans, a duré 12 000 ans avec des températures plus chaudes qu'aujourd'hui de 4 à 8°C (CNRS). La notre, l'Holocène atteint également cet age canonique. 11 700 ans, Oops !

Mais ce qui est certain, c’est qu’aucun modèle climatique basé sur l’importance du CO2 anthropique dans l’effet dit de « serre » n'est compatible avec les variations rapides et de grandes amplitudes des températures du passé pré-industriel de l’Holocène, ni expliquer les phénomènes déglaciation-glaciation. Je reviendrais dans un prochain article sur ce sujet.

Quels sont les enjeux ?

Les glaciations concernent essentiellement l’hémisphère nord, les 2 tiers des terres s’y trouvent et une grande partie en zone « gelable », et beaucoup d’autres en zones de toundra ou déserts glacés. L’Antarctique et la pointe de l’Amérique du sud seraient concernées dans l’hémisphère sud, c.a.d. peanuts donc. Une glaciation réduirait drastiquement les denrées alimentaires mondiale fournies (essentiellement) par l’hémisphère nord. L’effet étant rapide, vous imaginez bien sûr le résultat rigolo avec une population qui devrait atteindre 10 milliard bientôt 😉

Est-ce que des panneaux solaires recouverts de neige et des éoliennes gelées et à l’arrêt dans un anticyclone polaire, comme on l’a vu cet hiver en Allemagne, peuvent nous sauver de la prochaine glaciation ? Ces produits chers ont une durée de vie courte (20 ans) et les « terres rares » et métaux indispensables à leur fabrication sont rares, non-renouvelables et très polluants ? 🙂 🙂 🙂

Articles récents

Ci- dessous 3 exemples de graphiques avec des proxies différents (sédiments lacustres, pollens, fossiles benthiques) qui confirment le refroidissement continu du climat depuis 10 000 ans et l'influence des oscillations océaniques. Si vous achetez ces articles, n'oubliez pas de m'en envoyer une copie 😉

http://journals.sagepub.com/doi/10.1177/0959683617702223
https://link.springer.com/article/10.1007/s10584-017-2074-1

Tiens donc ! Le maximum thermique de l'Holocène était caractérisé par des températures de l'air en été d'environ 2,5 ° C supérieures à celles du présent. On nous aurait menti ? Nous ne serions pas à la fin des temps ? 😉

https://link.springer.com/article/10.1007/s00704-017-2139-0

Dérèglement du climat ? C'est quoi la règle ?

Le passage arctique du nord-ouest ne sera pas ouvert cette année

https://www.meretmarine.com/fr/content/ponant-le-passage-du-nord-ouest-infranchissable

Pas de chance, le passage arctique du nord-ouest ne sera pas ouvert cette année !

C’est en effet pendant août et septembre que la banquise est au plus bas en Arctique. Le passage nord-est l’été le long de la cote sibérienne ne nécessite pas toujours de brise-glace, un méthanier de Total de 300 mètres de long vient de le franchir mi-août sans escorte et sans encombre. Il n’est est pas de même pour le passage nord-ouest.

Et pourtant ! Fin 2009, le prix Nobel 2007 de la Paix Al Gore, lauréat avec le GIEC pour son action pour le climat, déclarait au sommet de Copenhague : « qu’il y a 75 % de chances que la calotte polaire ait disparu pendant les mois d’été, d’ici 5 à 7 ans ».

En prenant la fourchette large, la glace aurait du disparaître cette année, ou au pire être dans 25 % des cas très réduite… Le manque de chance de Mme Irma-Gore et de ses copines cartomanciennes spécialistes du Tarot-modèle-climatique, c’est que la réalité est bien différente !

Si l’on regarde la masse de glace accumulée au Groenland, depuis 2 ans elle s’accumule en abondance. Regardez la ligne 2017-2018, nettement au dessus de la moyenne de la période de référence 1981-2010 et qui s’en approche du maximum. On est loin de la catastrophe annoncée…

https://www.dmi.dk/uploads/tx_dmidatastore/webservice/b/m/s/d/e/accumulatedsmb.png

Regardons maintenant la banquise, tous les glaciologues sérieux en connaissent sa variabilité en fonction des cycles maritimes comme celui de l’Oscillation Multidécennale Atlantique de 60 ans (AMO) et celui du cycle El Niño et La Niña pour le Pacifique. Cette année est la 4ème plus faible, en surface de plus de 15 % de glace, sur la période de référence 2004-2013 (déplacement et regroupement des glaces flottantes par les vents).

http://saf.met.no/quicklooks/prod/ice/2018/08/ice_drift_nh_polstere-625_multi-oi_201808291200-201808311200_combo.png

Mais elle est dans la moyenne en volume et supérieure en épaisseur sur cette même période de référence ! Plusieurs zones de banquise ont plus de 4 mètres malgré les « extrêmes chaleurs estivales » dans l’Arctique annoncées dans la presse cet été !

http://polarportal.dk/fileadmin/polarportal/sea/CICE_curve_thick_LA_EN_20180904.png
http://polarportal.dk/fileadmin/polarportal/sea/CICE_map_thick_LA_EN_20180904.png

Comme le disait le célèbre physicien quantique Richard Feynman : « Peu importe la beauté de votre théorie, peu importe que vous soyez intelligent, si elle n’est pas en accord avec l’expérience, elle est fausse ».

Si l’on peut toujours changer les données de température du passé et du présent par des ajustements opaques comme le font le NOAA et le Met Office pour que les données collent aux modèles et non l’inverse, en matière de glace, les faits sont têtus et plus difficilement camouflables !

Il y a quelques jours, un voilier français modifié pour l’Arctique a été pris dans les glaces et a coulé en tentant le passage nord-ouest. Il a fallut 11 heures aux gardes côtes canadien pour héliporter l’équipage !

La semaine d’avant, un bateau affrété par une université américaine qui devait montrer en direct la fonte dramatique des glaces s’est échoué en essayant d’éviter la banquise qui barrait le passage ! Croire au Dieu GIEC présente des risques…

Aujourd’hui 5 septembre, les marchands ̶d̶u̶ ̶t̶e̶m̶p̶l̶e̶ ̶c̶l̶i̶m̶a̶t̶i̶q̶u̶e̶ de croisières qui n’hésitent pas, pour la bonne cause, à perturber l’écosystème fragile de l’Arctique canadien rebroussent chemin ! Deux navires de la compagnie française Ponant sont contraints d’abandonner le franchissement de l’Arctique par le passage du nord-ouest !

Heureusement, ces nouvelles arctiques qui sont scandaleusement en contradiction avec la Foi seront bientôt interdites de publication grâce à la nouvelle loi sur les fausses-nouvelles 😜

Tuvalu, ces atolls qui gagnent en surface alors qu’on avait prédit leur disparition

https://www.maxisciences.com/ile/les-chercheurs-avaient-predit-la-disparition-de-cette-ile-et-pourtant-elle-grandit_art40336.html

C'est con, mais les prédictions catastrophiques des experts de l'IPCC et l'appel à répondre à la détresse des déplacés climatiques du premier ministre de Tuvalu lors des accords de Paris risquent de passer pour de la manipulation.

Dans les colonnes du Fiji Times, le premier ministre de Tuvalu n'est pas content : « En tant que chef des Tuvalu, auxquels la majorité du rapport a prêté attention, je trouve cela complètement malencontreux et sans doute prématuré, dans la mesure où les autorités des Tuvalu n’ont jamais pu vérifier ou réagir à cette information. »
Ils habitent sur place et ils n'ont rien vu 

On peut comprendre l'inquiétude du premier ministre, une petite recherche sur le fond vert de l'ONU (Green Climate Fund) montre qu'il y a une subvention de 36 millions de dollars pour un projet d'adaptation côtière de Tuvalu (6600 bénéficiaires. / 5454$ par hab.)
Mais de quoi a-t-il peur, personne n'a vérifié et le projet est déjà approuvé depuis le 8 juin 2016 ?
Peut-être pour les subventions futures 

Green Climate Fund - île Tuvalu

Record de température

Selon les données du Met Office, le record de température pour l’Espagne était de 47,3°C, le 13 juillet 2017 à Montoro, Andalousie. Son record le 3 août 2018 est de 45,6°C..

http://www.aemet.es/fr/eltiempo/observacion/ultimosdatos?k=and&l=5361X&w=2&datos=img&x=&f=tmax

Par curiosité, et grâce à l’œil de Dieu Google et des photos de Paco Eslava García sur Twitter (5 août), je suis allé vérifier si la station de Montoro respectait les standards météo internationaux.

Google Street View, d’après les coordonnées GPS de la météo espagnole..
Photo sur twitter de Paco Eslava García, vu de la grille d’entrée

Mais alors pas du tout !
La station est située au bord d’un chemin goudronné, à 20 m d’un bâtiment industriel et à moins de 30 m de la Guadalquivir !

Mais ce n’est pas tout ! les photos publiées sur twitter (j’ai vérifié si elles correspondaient à celles de Google Street) montre que l’entretien de cette station est indigent !

Photo sur twitter de Paco Eslava García, agrandissement. On voit nettement l’entretien indigent de cette station météo !

L’absence d’une porte à l’écran Stevenson, la peinture écaillée et sombre, l’herbe non tondue qui empêche la circulation de l’air, font que les températures mesurées sont complètement fausses.

Ecran Stevenson – coupe – La couleur blanche est choisie pour ses qualités réflexives !

Voila les records du sérieux scientifique de la météo espagnole ! 🙄
Ayez confiance, ayez confiance, croyez et dormez, je vous l’ordonne, l’Apocalypse arrive !

Pour en savoir plus sur les normes de la WMO

WMO Station classe 1
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/wmo_guide-des-instruments_fr.pdf

L’îlot de chaleur

Pour comprendre l'importance de l'effet « d'îlot de chaleur urbain (ICU) » dans la mesure de la température de la terre, il est nécessaire de savoir comment sont effectuées lesdites mesures...

Mesurer la température de l’air

Mesurer la température de l’air depuis l’invention du thermomètre est facile. Il suffit de regarder l’aiguille sur un cadran ou le niveau de liquide dans le tube de verre face aux graduations sous-jacentes et de les reporter sur un papier. 🙂

La précision de lecture (graduation, défaut de parallaxe, myopie de l'opérateur) et celle du calibrage de l’instrument vont déterminer l'incertitude de la mesure. Les erreurs d’écriture vont rajouter d’autres incertitudes aléatoires. Mais qu’en est-il de la justesse de la mesure et comment être sûr qu’elle représente bien la température de l’air ?

Exemple d'écran Stevenson utilisé par Météo-France

L'écran Stevenson

C’est à partir de la deuxième moitié du XIXe siècle que les thermomètres vont être placés dans un abri ou écran « Stevenson » de façon à ce que la température mesurée soit effectuée à peu près dans les mêmes conditions partout. L’Organisation Météorologique Internationale est crée en 1873. En 1951, elle deviendra l’ Organisation Météorologique Mondiale (WMO), une agence de l’ONU.

Lors de la mesure de la température, les thermomètres doivent être protégés des rayonnements solaire et de ceux en provenance du sol. l’abri ne doit pas avoir une trop grande masse calorique et doit être ventilé pour que l'air de l'intérieur représente bien l'atmosphère extérieure. La ventilation latérale est assurée par des persiennes et chaque abri a une cheminée qui évacue l'air par convection. Pour limiter l'absorption de rayonnement solaire, l'abri météorologique est peint en blanc.

Ecran Stevenson - coupe

L’abri météorologique doit être installé dans un lieu sans obstacle, couvert d'un sol naturel représentatif de la région pour être en classe 1 ou 2 au normes WMO. Il doit respecter une certaine distance par rapport aux sources de chaleur/froid parasites et doit avoir un entretien et contrôle régulier.

WMO Station classe 1
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/wmo_guide-des-instruments_fr.pdf

Mais l’air qui circule dans l’abri entre en contact pendant un temps fini avec la paroi extérieure et sa température peut en être modifiée. Ce phénomène devient important lorsque le vent est faible et que la température de la paroi extérieure de l’abri est très différente de celle de l’air ambiant. La température de l’air à l’intérieur d’un abri tend à être supérieure à la température réelle de l’atmosphère par fort ensoleillement et temps calme (+ 2,5 °C), et à  être légèrement inférieure les nuits où le ciel est clair et le temps calme (– 0,5 °C). D’autres erreurs peuvent se produire à cause du refroidissement dû à l’évaporation à partir d’un abri mouillé après la pluie (WMO).

Jusqu’au début des années 1980, il y avait deux thermomètres pour mesurer la température, un thermomètre à minima à alcool et un thermomètre à maxima au mercure (graduations de 0,5 °C, quelques rares à 0,2 °C). L’opérateur relevait la température minimum et la température maximum chaque jour. S’il n’y avait qu’un seul relevé par jour, il devait être effectué le matin, à la même heure locale toute l’année et en dehors des minimums (en général au levé du soleil) et maximums (vers 15 heures au soleil).

La mesure de la température s'effectue maintenant avec une sonde thermométrique normalisée à résistance de platine (norme EIT1990). La gamme de mesure de la température de l'air en France est de - 30 à + 50 °C et l'incertitude de mesure max est toujours de 0,5 °C, incertitude garantie par Météo-France !

Avec les turbulences thermiques, la température de l’air varie en permanence d’un à deux degrés en l’espace de quelques secondes. Les thermomètres à alcool ou à mercure ont un coefficient d’inertie assez important si bien qu’ils lissent les fluctuations rapides de même que la ventilation plus ou moins forte. Les sondes thermométriques ont une inertie très faible ce qui impose de prendre la moyenne de plusieurs relevés pour obtenir une valeur représentative.

Hokitika Aero minimum-maximum anomalies - Modification non "ajustée" du système de mesure de la température

Tout changement de système de mesure n’est pas anodin car il occasionne une rupture dans les séries de températures. Je ne connais pas la cause pour l’aérodrome d’Hokitika qui n’a pas « ajusté » ses mesures mais l’exemple est frappant ! La méthode de calcul WMO de la moyenne de la température journalière est la demi-somme des températures min et max. Une modification de la lecture des maximum et minimum induit une modification de la moyenne journalière qui se répercute sur la moyenne mensuelle et annuelle.

La précision de la mesure

Avec tous les détails donnés ci-dessus, vous voyez que la précision de la mesure est « garantie » à ± 0,5 °C quel que soit le système utilisé et surtout que la correspondance avec la température réelle en fonction du vent et de l’humidité de l’air peut très largement  dépasser les ± 1 °C même quand l’abri météo est aux normes 1 ou 2 du WMO. Quelle est la vraie température quand les instruments n’ont pas été régulièrement étalonnés ou quand l'implantation de l’abri ne respecte pas les normes comme ci-dessous ?

Qualité des stations USHCN - Université d'Arizona
http://surfacestations.org/Fall_etal_2011/fall_etal_media_resource_may08.pdf

Il y a tellement de stations météos qui ne respectent pas les normes du WMO que des vilains climato-contestataires ont remis en question la validité des calculs sur l’évolution de la température de la Terre depuis 1850, le début de l’ère industrielle. Les modèles d’ajustement automatiques mis en place par le GISS (NOAA) et le Met Office pour compenser « les inhomogénéités » des mesures sont encore plus suspects car ils ne « refroidissent » que les températures du passé trop chaudes (par exemple celles des années 40) et pas les autres et toujours dans le bon sens de la doctrine officielle. Mais ceci est une autre histoire…

Statistiques de qualité des stations USHCN d'après le standard de qualité du WMO
https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2010JD015146

Au USA, le NOAA a mis en place au début des années 2000, le « réseau américain de référence sur le climat (USCRN) ». Ces stations utilisent des instruments de « haute qualité » pour mesurer la température, etc. Le but du programme USCRN est de fournir une série continue d'observations climatiques non contestable.

Le réseau américain de référence sur le climat

Pour mesurer la température, ces nouvelles stations automatiques réparties sur le territoire des USA n’utilisent plus d’abri Stevenson mais un système de triple sondes à air aspiré. Ce système est réputé plus juste grâce à sa ventilation forcée, bien que dans de rares circonstances, cela occasionne des mesures erronées. Météo-France utilise très rarement la ventilation forcée, car cela nécessite une source d’énergie… et c’est trop cher !

Station USCRN type
https://www1.ncdc.noaa.gov/pub/data/uscrn/documentation/site/photos/stationsbystate_hires.pdf

Quelques stations sont doublées voire triplées pour assurer une totale disponibilité des mesures H24 J7/7 (site de lancement NASA) ce qui évite la perte de données pendant les entretiens des stations par exemple. À la suite de la lecture d’une publication scientifique récente ventant les mérites de ces nouvelles stations et d’une critique lue sur le « vilain site » 😉 d'Anthony Watts, tel un Saint Thomas paranoïde, j’ai décidé de vérifier par moi-même cette critique éhontée sur la qualité des mesures de températures des deux sites USCRN appariés de l’Université de Rhode Island…

Les deux stations USCRN de l'Université de Rhode Island
Université de Rhode Island (Plains Road Site) - Station RI Kingston I NW
Université de Rhode Island (Peckham Farm Site) Station USCRN RI Kingston I W

Et miracle de Big-Brother, grâce à Skynet Google, notamment Google Earth Pro, j’ai pu remonter le temps et regarder si depuis la création de ces deux stations, il y avait eu des changements dans l’environnement de celles-ci. Les photos issues de Google Earth sont à haute définition, cliquez dessus pour plus de détails.

Et là re-miracle, l’un des sites, « Peckham Farm Site » situé au milieu de champs n’a eu comme changements que les saisonniers, ceux de la culture et du labourage des champs. Par contre pour « Plains Road Site », ce n’est pas la même histoire !

Université de Rhode Island (Peckham Farm Site) W - Photo Google Earth 04/2001, avant l'installation de la station USCRN
Université de Rhode Island (Peckham Farm Site) W - Photo Google Earth 03/2003
Université de Rhode Island (Peckham Farm Site) W - Photo Google Earth 08/2016

Comme vous pouvez le constater sur la série de photos suivantes, si le site de Plains Road respectait à peu près les normes du WMO au début de sa création (qualité 2) en 2001, ce n’est plus le cas aujourd’hui ! Et c’est là tout l’intérêt de ce double site : il est possible de comparer l’effet des modifications environnementales sur le mesure de température et surtout les variations entre deux sites situés à 1,4 km l’un de l’autre et quasiment à la même altitude (± 3 m).

Quand le GISS et le Met Office affirme que l’on peut extrapoler la température moyenne de la Terre à partir de quelques sites répartis sur la surface du globe dont très peu au niveau des océans qui représentent pourtant 71 % de la superficie totale de la terre, et très peu également en Afrique, en Arctique et en Antarctique, il a comme un Schmilblick ! Mais revenons aux stations…

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 04/2001, avant l'installation de la station USCRN

Plains Road Site, le 04/04/2001 avant l'installation de la station USCRN. les champs sont ouverts autour du futur site mais il y a une serre proche et un petit bâtiment au sud.

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 04/2003

04/2003. Le capteur de température est à 50 m d'un chemin de terre, à 40 m de la serre, à 80 m du petit bâtiment et de son petit parking goudronné et à 130 m d’une route. Il y un un grand parking à 200 m à l'est à la place des champs ouverts.

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 07/2007

07/2007 le parking a été étendu à moins de 170 m de la station.

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 04/2012

04/2012 Trois nouvelles serres ont été installées à moins de 20 m des capteurs de température !

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 09/2014

09/2014. Une nouvelle route a été construite à 60 m et une extension supplémentaire du parking se situe maintenant à 90 m de la station. La première serre isolée a été enlevée pour faire place à la route, mais les trois autres restent et il y a un nouveau bâtiment à 50 m et deux nouvelles serres (40 et 70 m). Un nouveau chemin de terre apparaît à 5 m des capteurs de température.

Université de Rhode Island (Plains Road Site) NW - Photo Google Earth 08/2016

08/2016 Pas de changement apparents.

Les mesures de températures des 2 sites

Les deux principaux critères d'implantation des stations USCRN sont la représentativité spatiale du climat régional et la stabilité temporelle. Les sites ne doivent pas avoir de changement majeur lié à humain. Peckham Farm répond assez bien à ces deux critères, malgré les différentes cultures saisonnières autour du site qui sont liées aux activités humaines. Plains Road échoue totalement sur le deuxième point.

Sur le site du NCDC (NOAA) il est possible de télécharger les données mesurées sur les différentes station du réseau USCRN. J’ai donc compilé les datas des stations de Kingston W (Peckham Farm Site) et Kingston NW (Plains Road Site) de l’Université de Rhode Island. Source des datasets contrôlées de qualité 🙂

Il est possible d'avoir pour chaque site, la moyenne de la température des 5 minutes (à partir de 2009), des heures, jours et mois depuis le début. Les capteurs de température co-localisés font des mesures indépendantes toutes les 10 secondes qui sont utilisées pour donner la moyenne.

Les moyennes sont données au 0,1 °C près mais je n'ai pas trouvé sur la page, la précision des capteurs. L'incertitude d'une moyenne est égale à la moyenne des incertitudes. Si la précision des capteurs est garantie à ± 0,5 °C, une moyenne fournie au 1/10eme ne sera pas plus précise pour autant. Par exemple 12,6 °C pour une moyenne indique que la température est comprise entre 12,1 °C et 13,1 °C !

Les trois capteurs distant d'un mètre ne mesurent pas simultanément le même volume d'air aspiré qui peut varier d’un à deux degrés en l’espace de quelques secondes à cause des turbulences thermiques. Ce serait à mon avis très limite d'oser calculer l'écart type afin de justifier d'une réduction de l'incertitude des moyennes de température données par ces trois capteurs.

Comme il est précisé sur la page  du NCDC-NOAA, les données ont subit un contrôle de qualité ! « Les données calculées sont montrées seulement si une quantité suffisante de données source réussit ses tests de contrôle de qualité; sinon, ces valeurs sont définies sur une valeur manquante ». Nous sommes donc rassuré. J'en ai fait de même dans mes calculs de moyennes de saisons et annuelles. Si une donnée manquait, je n'ai pas effectué les calculs...

Écart des températures mensuelles maximum, minimum et moyenne entre Kingston NW et W

J'ai tout simplement commencé à soustraire les moyennes mensuelles du site W (Peckham Farm) de celles du site NW (Plains Road). Et là surprise !

Il est évident que les données antérieures à janvier 2006 sont à la ramasse. En regardant  de plus près les données journalières de 2005, le soupcon de capteurs défaillants est totalement justifié. La question qui se pose c'est : il est où est le contrôle de qualité ?

Malgré le "contrôle qualité", les données des capteurs défaillants sont toujours là !
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRND0103-2005-RI_Kingston.ods

Pendant l'année 2005, il a de nombreux écarts de 3 à 4 °C et le standard est de l'ordre de 2 °C. C'est quand se produisent des écarts de 10 °C que le NCDC réagit, mais il n’efface pas toutes les mesures aberrantes. On voit qu'à partir de décembre, les écarts sont inférieurs à 1 °C, ce qui semble plus normal pour deux sites hors ville situés à 1,4 km l'un de l'autre et mesuré avec des supers capteurs !

Maintenant, il est intéressant de savoir si il y a des différences de mesure en fonction des saisons et surtout si cela a un impact sur la qualité de la mesure de la tendance climatique actuelle d'augmentation de la température terrestre.

Moyenne Hiver - Kingston NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

Sur ce premier graphique de la moyenne des hivers (décembre de l'année précédente - janvier - février), si on exclue 2006 et antérieur (décembre est 2005) on voit que progressivement le décalage de 0,1 °C s’accroît progressivement en fonction des travaux sur Plains Road jusqu'à 0,3 °C aujourd'hui.

Moyenne Printemps - Kingston NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

Au printemps, l'effet du « bétonnage » semble plus efficace à partir de 2013 (ajout de 3 serres) et encore plus à partir de la construction de la route à 60 m en 2014 (0,3 °C à 0,4 °C).

Moyenne Été - Kingston NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

En été, l'effet « îlot de chaleur urbain » qui pointait son nez au printemps apparaît dans toute sa splendeur, avec 0,5 °C d'écart !

Moyenne Automne - Kingston NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

A l'arrivé de l'automne, « l'îlot de chaleur urbain » est toujours actif, avec 0,4 °C d'augmentation de température à cause de l'urbanisation humaine de cette zone de campagne.

Moyennes Annuelles - Kingston-NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

Quand on regarde les moyennes annuelles, nous voyons que les courbes sont bien corrélées à partir de 2009, ce qui suppose que les capteurs sont enfin bien réglés, mais surtout nous voyons la dérive progressive à la hausse de la température mesurée sur le site de Plains Road qui a subit une forte baisse de qualité selon les critères du WMO.

Nous avons ici un exemple de l'incapacité du NCDC-NOAA de maintenir les normes de qualité de données et de stabilité temporelle pour ces deux sites. Mais cet échec est un merveilleux laboratoire qui va nous permettre de mesurer l'effet « l'îlot de chaleur urbain » de cet exemple sur le taux d'accroissement de la température !

Moyennes Annuelles 2006-2017 Kingston NW et Kingston W
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

Et toc ! Si vous avez eu le courage d'aller jusqu'au bout de cet article vous pouvez constater que la taux d'augmentation de la température est 3,3 fois plus élevé ces 11 dernière années sur le site bétonné et goudronné de Plains Road que dans les champs ouverts de Peckham Farm !

Et là nous sommes avec des stations dotées de triple capteurs et sensées être parfaites ! Imaginer toutes ces stations qui, il y a 150 ans, étaient à la campagne et qui sont maintenant en pleine zone urbaine... La population mondiale a été multipliée par six depuis le début de l’ère industrielle, cela en fait du béton et du goudron !

Ce dernier petit graphique pour la fin et c'est une sacrée surprise ! Ce graphique montre la différence de température entre Plains Road et Peckham Farm, les températures de Peckham Farm, par saisons sur la période 2006-2018, étant soustraites de celles Plains Road. Le chiffre de l'année correspond à l'Hiver, les gradations intermédiaires entre deux années à printemps-été-automne.

Variation de l'effet îlot de chaleur en fonction des saisons
https://www.apocalypse.60n.eu/wp-content/uploads/2018/04/CRNM0102-RI_Kingston.ods

La première chose qui saute aux yeux, c'est que l'effet îlot de chaleur agit sur les températures minimum, le moins en hiver, de 0 à 0,5 °C, un peu plus au printemps et à l'automne mais le maximum en été, de 0,6 à 1 °C en plus ! Les températures minimum de Plains Road sont en accroissement notable depuis 2006.

L'analyse des températures maximum amène une autre surprise ! Celles de Plains Road, le site bétonné, sont très rarement plus élevées que celle de Peckham Farm et si c'est le cas, faiblement,  de 0,1 à 0,2 °C au printemps et à l'automne. Il n'y a pas d'effet d'îlot de chaleur sur les températures maximum l'été, au contraire !
Voir mon article précédent sur les événements extrêmes.

L'été depuis 2006, les températures maximum de Peckham Farm vont être supérieures de celles de Plains Road de 0 à 0,6 °C suivant les années sauf en 2017. Mon hypothèse, c'est que les variations de l'évapotranspiration et de l'albédo du couvert végétal autour des capteurs de températures de Peckham Farm sont dépendantes de ce qui est cultivé. Il n’empêche que ce n'est pas anodin non-plus et que TOUTES les activités humaines à coté des capteurs ont un impact important sur la mesure de températures !

Dans son troisième rapport (2001), le GIEC explique que l'effet îlot de chaleur urbain ne peut excéder 0,05 °C au niveau mondial ! Ce n'est pas ce que l'on peut constater avec les supers stations météo nouvelle génération USCRN de l'Université de Rhodes Island en l'espace de 11 ans ! 🙂

En guise de conclusion

Quelle est la part dans les 0,8 °C « mesurés » d'augmentation de la température de la Terre depuis 100 ans qui provient :

♦  de la variation naturelle du climat, celle qui provoque les cycles de glaciations et les déglaciations par exemple ?

♦  de celle, artificielle, provoquée par « l'îlot de chaleur urbain (ICU) » et des capteurs ou thermomètres mal positionnés, au minimum trois fois plus importante que la variation naturelle et qui touche plus de 90 % des mesures ?

♦  de celle, artificielle, provoquée par « les ajustements » pifométriques à sens unique des modèles mathématiques du NOAA et du Met Office ?

♦  et pour finir de celle, hypothétique mais néanmoins prônée « certaine à 97 % » par le GIEC, de l'effet du CO2 anthropique ?

Qui peut parler d'année la plus chaude de tout les temps - à 0,02 °C près - quand la précision des mesures de température n'est garantie qu'à ± 0,5 °C et que celle de la correspondance avec la réalité des température est de ± 1 °C dans le meilleurs des cas (hors tripatouillage des données historiques) ?

Merci d'être arrivé jusqu'ici 🙂

 

Événements extrêmes

 En traînant sur un vilain site pourvoyeur de fausses nouvelles, je suis tombé sur le tweet d'un japonais qui avait analysé les jours de canicule sur l'île de Hachijo de 1906 à 2017. Selon la théorie du CO2 anthropique, les températures globales sont supposées augmenter rapidement et nous devrions avoir d'avantage de «jours de chaleur» qu'il y a 50 ou 100 ans.

Île de Hachijo, à l'est de Tokyo, Japon

Cette île à l'est de Tokyo est un endroit protégé de l'effet « d'îlot de chaleur urbain » qui fausse les mesures des températures maximales. Et ce pourvoyeur de fausses nouvelles a osé dire qu'en regardant les 111 dernières années, la tendance du nombre de jours de plus de 30 ℃ à Hachijo de 1906 à 2017 «nie l'hypothèse du réchauffement climatique anthropique» et ne soutient pas le mythe d'un changement climatique généralisé par l'homme !

Horreur et putréfaction ! Mon sang n'a fait qu'un tour. Qu'en est-il de l'Arctique qui doit se réchauffer deux fois plus vite ?  J'ai immédiatement relu la Bible Verte pour me rassurer, le dernier rapport du GIEC (IPCC), l'AR5.

CHANGEMENTS CLIMATIQUES 2013 - Les éléments scientifiques - Résumé à l’intention des décideurs, Résumé technique et Foire aux questions

Quelques extraits du « Grand Livre des Prophéties » 🙂
P.9 « De multiples éléments indiquent que l’Arctique connaît un réchauffement très important depuis le milieu du XXe siècle »
P.17 « Il est probable que les forçages anthropiques ont contribué au réchauffement très important observé en Arctique depuis le milieu du XXe siècle »
P.20 « ...pour la période 2081–2100… L’Arctique se réchauffera plus rapidement que l’ensemble du globe et le réchauffement moyen sera plus important à la surface des continents qu’à la surface des océans (degré de confiance très élevé) »
P.73 «  Il est probable que les activités de l’homme ont contribué de manière significative au réchauffement très substantiel des températures à la surface des terres émergées dans l’Arctique au cours des 50 dernières années »
P.77 « Avec la connaissance des forçages climatiques externes du passé, les synthèses de données paléo-climatiques ont étayé l’amplification polaire, caractérisée par des variations des températures de l’Arctique plus importantes que la moyenne mondiale en réponse à des concentrations élevées ou faibles de CO2 »
P.182 « Les régions polaires illustrent bien la complexité des processus impliqués dans le changement climatique régional. Le réchauffement de l’Arctique devrait être supérieur à la moyenne mondiale... ».

Pas de doute. le GIEC l'affirme : l'Arctique se réchauffe plus que le reste du monde et « depuis le milieu du XXe siècle » !

https://fr.wikipedia.org/wiki/Oscillation_atlantique_multid%C3%A9cennale

Le problème avec le climat, c'est qu'il y a tout plein d'oscillations de diverses natures qui viennent compliquer l'analyse des tendances. Il y a notamment El Niño et La Niña pour le Pacifique et l'Oscillation Atlantique Multi-décennale. Ces deux oscillations agissent sur le climat arctique. l'AMO a une période assez longue, entre 50 et 70 ans. Il est donc indispensable de trouver des enregistrements météos long (+ de 100 ans).

Pour que les mesures représentent correctement un signal, il faut que la la fréquence d’échantillonnage soit au moins le double de celle du signal (théorème de Shannon). C'est pour cela que les relevés des satellites qui ont débuté au début des années 80 peuvent voir des tendances là où il n'y a qu'une partie de cycle.

À Noter également que ces satellites en orbite basse dont la technologie change presqu'à chaque génération (compatibilité ?) ont une durée de vie courte et beaucoup de dérive orbitale. Cela impose des ajustements parfois plus important que le signal lui même !
Ajustement des mesures satellitaires (2018).

Il y a peu de stations ayant de longs enregistrements (+ de 100 ans) proche du cercle polaire arctique. La station de Sodankylä a des données de 1908 à nos jours.

Autour de l'Arctique, les longs enregistrements complets de stations météos au sol ne sont pas légion, mais coup de chance, il y en existe un en Finlande, celui de la station de Sodankylä. Ses enregistrements commencent en 1908, avec minima, maxima, moyenne et précipitation. Et bonheur complet, ce site, situé en pleine toundra, n'est pas soumis à la perturbation d’îlot de chaleur urbain !

Il ne reste plus qu'à récupérer les données à partir de l'Institut Royal Météorologique des Pays-Bas, simple et rapide, et dont les datas  sources sont celles du GHCND (NOAA). Un petit tripatouillage avec LibreOffice et quelques graphiques plus tard, la canicule de Sodankylä apparaît !
Les données et graphiques sont ICI

Nombre de jours de canicule à Sodankylä. La tendance est à la baisse de -2,2 jours par siècle.

En Finlande, la canicule débute à 25℃ et non pas 30℃ comme au Japon. J'ai pris cette température comme seuil car à Sodankylä, il n'y a eu que 35 jours supérieurs à 30℃ en 110 ans et 28 de ces 35 jours se sont produits avant 1975. La température la plus élevée mesurée depuis 1908 est de 31,7℃, le 7 juillet 1914 !

Et là il faut bien se rendre à l'évidence... le nombre de jours de canicule diminue à Sodankylä depuis 1908 ! La tendance est à la baisse : -2,2 jours en 100 ans pour une moyenne de 7,8 jours ! La prophétie du GIEC ne s'est pas réalisée. À Sodankylä, l'Arctique ne se réchauffe pas plus que le reste du monde depuis le milieu du XXe siècle et il n'y a pas d'avantage de «jours de chaleur» qu'il y a 50 ou 100 ans, au contraire, leur nombre diminue !

Température moyenne des jours de canicule à Sodankylä. La tendance est à la baisse de -0,5°C par siècle.

Mais qu'en est-il de la température moyenne des jours de canicule ? Est-elle en augmentation comme la prophétie du GIEC le suggère ? Enfer et damnation ! cette prophétie est vraiment de la daube, car là aussi, la tendance est à la baisse de 0,5℃ par siècle pour une moyenne de 26,6℃ ! Mais que font les sorciers experts du GIEC ! 🙁

Nombre de jours de canicule et température moyenne pendant la canicule. Il n'y a pas de corrélation apparente.

Avec ce dernier graphique, il est plutôt évident qu'il n'y a pas de corrélation entre le nombre de jours de canicule et la température moyenne des canicules sur les 110 ans de l'enregistrement. On peut voir également qu'il y a eu quatre années sans « jours de chaleur ».

Pour être complet dans la démarche de vérification des affirmations prophétiques des éminents sorciers experts du GIEC, voici le  graphique présentant les moyennes annuelles de Sodankylä depuis 1908.

Sur la période des 100 dernières années, la température de Sodankylä a progressé de 0,7°C, ce qui est dans la moyenne mondiale. On distingue nettement un cycle de 70 ans correspondant à l'AMO, l'Oscillation Atlantique Multi-décennale.

La tendance annuelle des 100 dernières année est de 0,7℃ d'augmentation, ce qui n'est pas d'avantage que la progression moyenne de la température de la Terre. On distingue très nettement un cycle d'environ 70 ans qui semble être corrélé à celui de l'AMO.

Il n'y a pas de variations de températures à Sodankylä plus importantes que celle de la moyenne mondiale, ni de réponse plus importante à une élévation de la concentration du CO2 . Encore une prophétie ratée !

100 ans de température mondiale à partir de la série HadCRUT 3 unadjusted - UK Met Office
http://www.woodfortrees.org/plot/hadcrut3gl/from:1918/to:2018/plot/hadcrut3gl/from:1918/to:2018/trend

L'article scientifique « Pairwise comparisons to reconstruct mean temperature in the Arctic Atlantic Region over the last 2000 years » de Sami Hanhijärvi et Atte Korhola (Department of Environmental Sciences, University of Helsinki) et de Martin P. Tingley (Department of Earth and Planetary Sciences, Harvard University), accepté et publié chez Springer-Verlag Berlin Heidelberg en février 2013, reconstruit la température moyenne de l'Arctique Atlantique des derniers 2000 ans.

Pairwise comparisons to reconstruct mean temperature in the Arctic Atlantic Region over the last 2,000 years
https://link.springer.com/article/10.1007/s00382-013-1701-4

Dans le résumé il est précisé : « La reconstruction (du climat) de l'Arctique atlantique présente, durant la période chaude romaine et celle de l'Optimum Climatique Médiéval, des températures qui sont comparables ou même plus chaudes que celles du XXe siècle et (présente) au milieu du XIXe siècle, juste avant le début de la récente tendance au réchauffement, les températures les plus froides (en 2000 ans) ».

Cela a le mérite d'être clair. Les températures les plus froides de l'Arctique atlantique des deux derniers millénaires se seraient produites il y a 170 ans environ. Le réchauffement de 0,7℃ depuis 100 ans à Sodankylä est plutôt une bonne chose et semble normal après les températures si souvent froides du dernier « Petit Age Glaciaire » qui a suivi « l'Optimum Climatique Médiéval ».

Les températures actuelles inférieures ou égales à celles de l'Optimum Médiéval ne confirment absolument pas une augmentation importantes des températures de l’Arctique en réaction aux concentrations plus élevées du CO2 (inférieures à 280 ppmv au moyen age et plus de 400 ppmv aujourd'hui).

La salle des prophéties au Ministère de la Magie, Harry Potter

Encore une prophétie des magiciens experts du GIEC qui tombe à l'eau !
Mais que fait Harry Potter ? 97% des élèves de Poudlard font des fausses prophéties 🙂

 

 

La faim blanche

J'ai lu le mois dernier « La faim blanche », de Aki Ollikainen. Cet écrivain finlandais décrit un épisode terrible et méconnu de la proto-histoire de la Finlande qui était alors le Grand Duché de Finlande et appartenait à la Russie. Pendant les années 1866 à 1868, 270 mille finlandais sont morts, pour l'essentiel de faim et de maladies, sur une population totale de 1.7 millions d'habitants.

Dans cette sépulture repose 400 victimes de faim et de maladie de la Grande Famine de 1867-1868

Alors que l'épisode de la famine qui a touché l'Irlande quelques années plus tôt s'est traduite par une révolution, la Grande Famine, telle désignée par les finlandais, a été vécue comme un acte divin inéluctable, Luther oblige, et pourtant..

Si les conditions météorologiques qui ont provoqué cette pénurie alimentaire sont bien réelles, elles ne sont pas exceptionnelles au regard de cette période de fin du petit Age Glaciaire. Ce sont les décisions politiques des dirigeants fennomanes de l'époque qui ont aggravé, si ce n'est provoqué, cette catastrophe humanitaire.

Au début du XIX siècle, l'agriculture au Grand Duché de Finlande, russe depuis 1809, est principalement le fait de petits agriculteurs indépendants, les grandes exploitations sont rares. Mais en 50 ans, la population va doubler et les exploitations vont devenir plus grandes avec d'avantage d'ouvriers agricoles, sans terre.

Un gel soudain à la fin de l'été va être la cause récurrente de l'échec des récoltes dès 1856. À partir de cette date, il n'y a pas d'années sans perte de récolte quelque part dans le pays et la mortalité augmente localement à chaque fois.

Le prolétariat rural sans terre n'a aucun moyen de se procurer des vivres par lui-même, et dépend des fermiers. Sans embauche, les ouvriers n'ont d'autre choix que de devenir mendiants et/ou voleurs. Quant aux nombreux petits agriculteurs touchés par la perte des récoltes, ils hypothèquent leurs exploitations pour acheter des semences pour les semis de l'année suivante.

Johan Vilhelm Snellman, qui a désindexé le mark finlandais du rouble.

J.V. Snellman, sénateur et activiste fennomane, « ministre des finances » du Grand Duché de Finlande est le principal responsable de la catastrophe qui va suivre. Il met en place une réforme monétaire pour rendre le mark finlandais indépendant du rouble et le lie à l'étalon-argent en 1865.

Une déflation va suivre ce changement monétaire. Les agriculteurs ont plus de difficulté à rembourser leurs dettes alors qu'ils obtiennent des prix plus bas pour leurs produits. Ils n'ont pas d'autre choix que de licencier leurs ouvriers et de vendre des parts de leur exploitation pour payer leur hypothèque.

En 1867, la récolte a été perdue partout dans le pays, sauf dans les régions côtières et en Laponie. Les autorités ne réalisent pas rapidement ce qui se passe. Et Snellman ne veut pas « gaspiller » d'argent pour importer des céréales parce qu'il pense que cela met sa réforme monétaire en péril.

Quand finalement il emprunte de l'argent, il est trop tard, les céréales sont devenus rares et chères. L'hiver arrivé tôt en 1867 et les mers gelées empêchent la venue de l’approvisionnement par la mer et par la terre, c'est très difficile. Il faut 14 jours pour rallier Saint-Pétersbourg à Turku en diligence (550 km).

Avec une rigueur luthérienne, les autorités ne veulent pas distribuer les secours aux affamés sans contre-parties pour ne pas encourager la « paresse parmi les classes inférieures » (comme avec la Grèce récemment !). « La famine retranche à la nation ses éléments les plus faibles, comme le jardinier élague les mauvaises branches d’un pommier ! »  (Snellman).

Famille mendiante sur la route. Peinture de Robert Wilhelm Ekman de 1860.

Dès l'automne de 1867, les affamés commencent à fuir leurs régions d'origine et les routes deviennent noires de monde. Une foule interminable et malade, s'est mise en route vers le sud du pays dont les récoltes sont relativement indemnes. Les autorités essayent d'arrêter cet exode et renvoient les gens dans leurs régions, mais en vain.

Comme solution miracle, le gouvernement invente les « fabriques » locales, sorte d'hospice des pauvres, dont le but est de fournir de la soupe en échange de travail. Il y a tellement de pauvres qui s'y entassent qu'elles ressemblent à des camps de concentration. Les maladies y sont virulentes. En avril et mai 1868, le nombre de décès explose, il est cinq fois plus élevé que les naissances.

Les fabriques, où les affamés fabriquaient leur propres cercueils contre de la soupe.

Pendant cette seule année, 138 mille personnes sont mortes en Finlande, soit 7,7% de la population. À l'automne, le nombre de décès baisse et les épidémies également, après avoir fait des ravages. La récolte de céréales est bonne, ce qui met définitivement fin à la Grande Famine de Finlande.

Le climat en Finlande au 19ème et 20ème siècle

Il n'y a que 2 enregistrements longs des températures moyennes mensuelles en Finlande qui permettent de connaître le climat autour et pendant la période de la grande famine. Il n'y a pas eu de grandes éruptions volcaniques dans la région à cette époque qui auraient pu expliquer une modification soudaine du climat. (fichier source des données et graphiques)

La station météo de Helsinki-Seutula a un enregistrement de 1829 à 2013. La station suédoise de Haparanda située à la frontière de la Finlande au bord de la Baltique (proche du cercle polaire) a un enregistrement de 1860 à 2009. Les hypothèses qui tentent d'expliquer les variations climatiques de l'ère préindustrielles sont principalement liées à la variabilité orbitale de la terre provoquée par la masse des grandes planètes (cycle de Milanković). Elles agissent également sur l'activité solaire (cycle de Swabe).

Hiver météo : décembre n-1, janvier n, février n

Sur ces graphiques des hivers météorologiques (décembre-janvier-février) de Haparanda et d'Helsinki, ceux de la période 1860-1870 ne sont pas exceptionnellement froids. A remarquer que la tendance depuis 1930, est au refroidissement ( -0,6°C/siècle Hki., -0,3°C Hap.)

Printemps météo :  mars - avril - mai

Le printemps de 1867 (mars-avril-mai) est le plus froid de toute la période de mesure aussi bien à Helsinki qu'à Haparanda. A noter une hausse continuelle de la tendance de 2°C environ par siècle sur toute la période de mesure.

Été météo : juin - juillet - août

Sur la période de mesure, l'été 1867 est très froid au nord en mai et juin, ce qui retarde les plantations, mais il n'est pas le pire au sud. La tendance depuis 1930 est à la stabilité des température de mai-juin-juillet.

Automne météo : septembre - octobre - novembre

À part août et septembre 1867 qui sont un peu plus frais que la moyenne de la période 1860-1891, les automnes météos de 1866 à 1868 ne se distinguent pas particulièrement. A noter une forte baisse de la tendance linéaire des température de -1,1°C sur Helsinki et de -0,5°C sur Haparanda à partir de 1930. Le refroidissement de l’automne et de l'hiver, le réchauffement du printemps et la stabilité de l'été me fait penser à une arrivée plus précoce des saisons. Ou pas 🙂

Comparaison Helsinki-Haparanda / Moyenne 1860-1891

À part le printemps exceptionnellement froid de 1867 et un été froid dans le nord de la Finlande, cette période de fin du Petit Age Glaciaire ne se distingue pas énormément de la période 1860-1891.

C'est bien la prolétarisation de l'agriculture ajouté à l’égoïsme des gros propriétaires terriens, le tout aggravé par les décisions politiques et monétaires bornées du gouvernement fennomane, qui ont favorisé ces conséquences dramatiques pour la population finlandaise...
... Et non pas la fatalité climatique divine !
🙂

J'ai réalisé les graphiques à partir des données météo accessibles de l'Institut royal météorologique des Pays-Bas qui fait partie de l'European Climate Assessment & Dataset project.

Reconstitution de la température de l'arctique.
https://tuhat.helsinki.fi/portal/en/publications/pairwise-comparison(68eef230-faef-4888-a0ca-8bc6a46edf5a).html

J'ai également joint ce graphique extrait de l'article scientifique « Pairwise comparisons to reconstruct mean temperature in the Arctic Atlantic Region over the last 2,000 years » de Sami Hanhijärvi, Martin P. Tingley et Atte Korhola. Ce graphique est une reconstruction multi-proxies du climat de l'Arctique des derniers 2000 ans.

La Grande Famine - Températures reconstituées multi-proxies

J'ai utilisé l'écart par rapport à la moyenne (anomalie) des températures de la période mesurée plutôt que la valeur réelle. Cela revient au même, mais cela montre en degrés l'écart réel par rapport à la moyenne sur cette période. Seul le graphique et le tableau qui compare les températures mensuelles d'Helsinki et d'Haparanda de 1860 à 1870 utilisent les valeurs mesurées.

Ci dessous les cycles de Schwabe reconstitués qui indiquent l'activité solaire à partir du nombre de taches. La période 1866-1868 est une période de très basse activité entre les cycles 10 et 11, au minimum de la courbe.

Les cycles 10 à 13 des taches solaires. Reconstruction des cycles 10 et 11

See you later, comme dirait notre défenseur de la francophonie 😉

Paix à Pâques, poisson d’avril !

Ou mon pet pascal pour 2018 🙂 

À lire au deuxième degré... ou pas 😉

Petit retour sur un vieux livre...
Genèse, 1.28 : ...et Dieu leur dit : Croissez et multipliez, et remplissez la terre, et l’assujettissez, et dominez sur les poissons de la mer et sur les oiseaux des cieux, et sur tout animal qui se meut sur la terre...
...Voici je vous ai donné toute herbe portant semence, qui est à la surface de toute la terre, et tout arbre qui a en soi du fruit d’arbre portant semence ; ce sera votre nourriture...
...Et Dieu vit tout ce qu’il avait fait, et voici, c’était très bon.

Interprété puis traduit de l'araméen en grec, puis du grec en latin, le message à le mérite d’être malgré tout très clair ! Malthus et autres écolos-néo-malthusiens ne sont que des abominables hérétiques ! À aucun moment Dieu dit qu’il faut arrêter de baiser et consommer très peu, encore moins d’utiliser des moyens contraceptifs. Il encourage même la gestation pour autrui si c'est nécessaire !

Abraham, dont la femme Sarah est stérile, ne peut ni croître ni se multiplier. Il reçoit l'ordre de Dieu de copuler avec Agar, la servante de sa femme. Ismaël sera le premier enfant conçu sous GPA ! Mais comme Sarah n’aime pas Agar, on peut imaginer qu'Abraham a peut-être lutiné la servante bien avant que Dieu ne le lui commande ! 😉

Quand Sarah met au monde Isaac, son premier fils, à l'age de 80 ans (la première PMA sans doute), elle convainc Abraham de se débarrasser d'Ismaël et de sa mère dans le désert pour qu’ils en meurent. Et c’est là qu'apparaît le principe divin fondamental « Dieu y pourvoira ». Il permet à Ismaël de survivre, une source (de pétrole ? 😉 ) apparaît soudainement dans le désert.

Tu ne tueras point, sauf si c'est Dieu qui te dit de le faire - le sacrifice du fils

Comme Dieu n’a pas aimé qu’Abraham ai voulu se débarrasser d'Ismaël (les arabes), il lui demande de sacrifier son autre fils, Isaac (les juifs), sur la montagne de la Moriah. Dieu fait ça pour vérifier si Abraham va enfin lui obéir. Il remplace Isaac par un bélier avant que le couteau ne l'égorge ! Depuis nous avons le rôti d’agneau pour les uns et les œufs en chocolat pour les autres, mais aussi la phrase « à la montagne de l’Éternel il sera pourvu », soit plus tard « Dieu (ou le ciel) y pourvoira ».

Le dommage collatéral de cette première GPA, c’est que depuis cette époque, les Juifs et les Arabes se tapent sur la gueule ! Le plus amusant, c'est que chacune des trois religions abrahamiques a sa propre interprétation de ce passage de la Torah. Mais seul le judaïsme accepte aujourd'hui la GPA, à partir du principe fondamental de la Genèse : Croissez et multipliez ! 😉

Donc pas de soucis écolos-néo-malthusiens à avoir : on baise, on bouffe, on fait des gosses et Dieu y pourvoira ! C'est forcement vrai, c'est écrit dans la Bible !
Sauf que...

L'ère du Capitalocène

Nous ne sommes pas rentré dans l’ère de l’Anthropocène, notion édulcorée verte-bon-chic-bon-genre, mais dans celle du Capitalocène où le moteur est celui du profit personnel et non d’une juste répartition des ressources et des bénéfices avec tous les indigents de la terre. Non mais, faut pas déconner !

Nous, les riches, nous allons devenir de plus en plus minoritaires pendant que ces salops de pauvres qui se reproduisent comme des lapins vont finir par nous bouffer toutes nos ressources de notre Terre à nous rien que pour nous !

La notion de « développement soutenable » (durable est une mauvaise traduction) apparaît dans un rapport de 1987 de l’ONU rédigé par la norvégienne (et luthérienne) Gro Harlem Brundtland . Il a inspiré la création du GIEC (IPCC) et a le mérite d'être clair (chap. 2.III.4) : « Mais il ne reste pas beaucoup de temps et les pays en développement devront également recourir à des mesures directes pour réduire la fécondité, évitant ainsi de dépasser le potentiel productif leur permettant de faire vivre leur population ». C'est la fameuse décroissance malthusienne qui revient en loucedé...

La Déclaration des Droits de l’Homme - 1789

J’ai précisé « luthériens », car le malthusianisme et l’eugénisme sont les deux facettes sympathiques du protestantisme, un gros bémol au principe fondamental du croissez et multipliez ! En Norvège, la religion luthérienne d’État n’est abolie que depuis seulement 2012 et 2000 pour la Suède. En Finlande, C'est encore une religion d’état avec l’église orthodoxe, mais il y a liberté de culte depuis 1923, une séquelle sans doute de la révolution russe. La France est un pays laïc depuis la loi de séparation entre les églises et l'état de 1905, mais cela a commencé dès 1789 avec la déclaration des droits de l'homme. Je vous conseille vivement de lire ces deux articles, ils sont édifiants : Malthusianisme et protestantisme et Eugénique à la scandinave

Alors que faire si les pays en développement ne font pas le nécessaire pour arrêter de faire une multitude de gosses ? Il va bien falloir que nous, les riches, nous réagissions « pour sauver la planète ». Les bombes « propres » à neutrons sont écologiques, avec très peu de retombées fâcheuses, mais leur portée est limitée 😉 Construire un mur, on sait bien depuis la fin de la saison 7 de Game of Thrones, que cela n'arrête qu'un temps les marcheurs... 😉

Game of Thrones - Le mur

Selon un rapport de ONU de juin 2017 « de 2017 à 2050, la moitié de la croissance de la population mondiale sera concentrée dans seulement neuf pays classés en fonction de leur contribution à la croissance démographique mondiale : l'Inde, le Nigeria, la République démocratique du Congo, le Pakistan, l'Éthiopie, la Tanzanie, les États-Unis, l'Ouganda et l'Indonésie. »
La population mondiale atteindra 9,8 milliards d’habitants en 2050

L’Inde, dont la population va bientôt dépasser celle de la Chine, et la Chine elle-même, sont les 2 pays qui ont dépensé le plus dans leur armement en 2017. Nous devons espérer qu’ils s’auto-réguleront leur population réciproquement. Le Pakistan et l’Inde ont tous les deux la bombe, cela peut marcher aussi !

Mais qui va s’occuper de l’Afrique qui est le continent le plus prolifique ? Nous ne pouvons pas décemment réduire de force la population de la République démocratique du Congo dont la langue officielle est le français, « we must defend the Francophonie » a dit à juste titre notre président ! 🙂

Les anglais qui possèdent également la bombe à neutrons vont peut-être défendre le Nigeria qui parle l’anglais, mais avec le Brexit, rien n’est moins sûr. Aller l’Europe, courage, il faut défendre Nos Ressources Rien qu’à Nous que pour Nous, « L’humanité se met en danger ! ». Il va bien falloir trouver des solutions finales !

Sauvez la planète, tuez vous !

Heureusement, l'ONU veille. En 2012, elle accouche de l'IPBES, une nouvelle structure, basée en Allemagne, rassemblant aujourd’hui 129 pays et qui est qualifiée de « GIEC de la biodiversité ». Son dernier rapport est : Le déclin massif de la biodiversité menace l’humanité. Et voila, en plus du GIEC (IPCC), nous avons maintenant l'IPBES. Ils vont parfaitement nous préparer mentalement à prendre les bonnes décisions politiques, ça c'est sûr ! 🙂

Ouf !