/http%3A%2F%2Fwww.coxandforkum.com%2Farchives%2F05.12.06.WinterBlunder-X.gif)
Non, ce n'est pas une blague mais un véritable site, une formidable mine de renseignements, un remède anti-désinformation magistral !!
http://www.pensee-unique.fr n'est pas un blog mais un site web à l'ancienne. Son auteur , un chercheur de 65 ans, qui a été directeur de recherche au CNRS ne se contente pas de refourguer quelques arguments contre le réchauffement mais tente de mettre sur la table tous les éléments scientifiques probants afin que l'on puisse se faire une opinion réelle !!
Chaque "chapitre" (en fait les titres présents sur l'accueil renvoie à une page longue comme un jour sans pain mais ultra documentée, avec des tonnes de liens, de références, d'explications...
Bref, un travail sérieux, loin de toutes subventions ou mouvements de pression. Un site que La pensée néoconservatrice ne peut que recommander et dont je vais faire une pub maximale !! Il le mérite.
Allez, quelques titres de chapitres pour vous aguicher :
Les média, les écologistes et les politiques tendent à accréditer l'idée que l'affaire est entendue : Le réchauffement global proviendrait de l'effet de serre engendré par le CO2 que nous envoyons à profusion dans l'atmosphère, disent-ils... Mais au fait, sur quelles "certitudes" scientifiques reposent ces affirmations ?
De nombreux et éminents chercheurs ont proposés des explications alternatives et convaincantes au réchauffement bénin de +0,6°C qu'a connu notre planète en deux épisodes successifs (1850-1940 et 1978-1998), tout comme d'ailleurs aux épisodes précédents de l'histoire de la planète. Leurs explications reposent sur l'observation directe des phénomènes naturels ...et non pas sur les projections hasardeuses des ordinateurs de l'effet de serre du GIEC.
Il est très instructif d’exhumer quelques unes des déclarations fracassantes proférées, dans un passé récent par nos prévisionnistes qu’ils soient scientifiques, politiques, journalistes ou écrivains. Cela nous permet de relativiser et de replacer dans un contexte historique les affirmations péremptoires, proférées dans les mêmes termes qu’autrefois mais démenties par les faits, de certains de nos penseurs actuels.
Si vous ne craignez pas de perdre vos illusions sur tout ce que l’on vous assène à longueur de journée, d’un ton sans réplique, n’hésitez pas à lire cette page.
Comme vous le verrez, c’est tout à fait étonnant, pour ne pas dire plus !
Les médias, Al Gore et Sir Stern (qui ne lisent pas les articles “trop techniques”) nous saturent de descriptions apocalyptiques sur la fonte des glaces polaires qui devraient engloutir notre planète comme l'antique Atlantide.
Eh bien NON, messieurs les Saint Jean de l’Apocalypse ! Les dernières mesures montrent que la fusion des glaces polaires ne contribue que très peu à la hausse du niveau des océans. L’Arctique et l’Antarctique fondent bien à certains endroits mais -ce que l'on nous dit jamais- s'épaississent en glace à d’autres endroits. La contribution au niveau des océans est quasiment nulle !
D'autre part, en juillet 2007, il a été démontré que le Groenland ne fondrait pas !
Et ce ne sont que les titres de la page d'accueil. Imaginez la somme d'infos qui se cachent derrière. Allez , hop, on clique !!
Celui ci porte sur certaines contradictions que le grand public ignore généralement. Mais c'est sans doute pour la bonne cause.

L'exemple de l'Antarctique est tout à fait typique : Une partie fond actuellement mais l'autre s'épaissit. Que signifie alors une température moyenne sur ce continent? A l'échelle de la terre c'est encore pire. Certaines parties se réchauffent (à cause de courants marins comme El Niño, par exemple) tandis que d'autres refroidissent. l'OMM (Organisation Météorologique Mondiale) qui fournit chaque année une moyenne "globale" se contente de simples moyennes du type ( Nord+Sud)/2 qui ne signifient pas grand chose en réalité. C'est aussi un sujet de débat. (Voir une bonne discussion de la NASA ici)
La mesure des températures est problématique en particulier à cause de l'effet dit des "îlots de chaleur", c'est à dire l'effet de la proximité des habitats et des industries de tailles grandissantes et de l'asphalte des voies de communication qui poussent les thermomètres à la hausse. Certains pensent que les mesures sont ainsi faussées par rapport aux mesures plus anciennes et donnent l'impression d'une hausse artificielle. D'autres disent que ces effets sont négligeables !
D'autre part, les évolutions de température d'une année sur l'autre sont de l'ordre de quelques dixièmes de degré (0,02 à 0,3 °C) comme le montre la courbe officielle ci-contre. Les physiciens savent bien que la mesure exacte de la température est toujours une chose délicate mais mesurer des variations aussi faibles (au millième de degré près comme les chiffres de la WMO ! ) sur différents points de la surface du globe avec une fiabilité suffisante pour en faire une moyenne significative relève d'un pari très difficile, sinon impossible. Prétendre évaluer la température de la planète au millième ou au centième de °C près relève de l'exploit... ou de la foi, car tout dépend de la manière dont on fait la moyenne des différents points de mesure ! Et quel est le vrai pourcentage d'incertitude que l'on ne donne jamais ?
L'incertitude doit être bien supérieure aux écarts supposés d'une année sur l'autre. Par contre les mesures satellitaires se révèlent plus précises et plus fiables que les mesures terrestres mais elles ont été longtemps rejetées par les partisans de l'effet de serre parce qu'elles indiquaient un réchauffement beaucoup plus faible voire pas de réchauffement du tout de la basse atmosphère. Il semble que des corrections aient été apportées depuis mais elles sont encore sujettes à caution. Bref, c'est un autre beau sujet de discussion et de disputes !

Permettez moi, avant d'aborder le sujet de cette page un peu iconoclaste, un petite prologue destiné à introduire les méthodes scientifiques alternatives à celle du GIEC qui, comme vous le savez, est basée sur les projections données par les ordinateurs. Ces dernières font la manchette des journaux alarmistes et prédisent une élévation constante de la température de la planète dans les années qui viennent...
Mais (on ne vous le dit jamais), il y a deux manières, très différentes, d'aborder les sciences du climat, la climatologie. Or, ces deux approches conduisent à des résultats et à des prévisions diamétralement opposées...Voyons cela :
La première de ces méthodes, mise en avant par les climatologues du GIEC et ses adeptes et dont on vous rebat les oreilles en vous affirmant qu'elle est incontournable, repose sur l'utilisation exclusive de modèles d'ordinateurs dits GCM (Global Circulation Model ou modèles de circulation générale). C'est ce que l'on appelle des modèles "déterministes" en ce sens que l'on présuppose que l'on est capable d'élaborer des simulations numériques du climat du temps présent et du futur, à partir des tout premiers principes. Cela suppose que l'on a tout compris des mouvements de l'atmosphère et des océans et que l'on sait tout sur les équations et les multiples paramètres qui influencent le climat et aussi, sur les nombreuses réponses (contre-réactions) positives ou négatives des différents composantes de la planète (terres, océans, biotas etc.). Ce sont ces modèles déterministes qui sont utilisés, en particulier et parmi bien d'autres, par les ingénieurs de Météo-France qui ont extrapolés les modèles classiques utilisée par la météorologie (tel que ARPEGE-climat qui est un avatar de ARPEGE météorologie) pour essayer de prédire le climat... dans cent ans. Compte tenu de l'extraordinaire complexité du problème climatique et du grand nombre d'inconnues, il est clair pour des milliers de scientifiques rigoureux que le résultat d'un tel exercice ne peut-être qu'extrêmement hasardeux (voir ici). Cette méthode aboutit, en général, à ce que l'on appelle des "projections" ou encore à des "scénarios" et non à des "prévisions" comme beaucoup le pensent, à tort.
La seconde méthode est la méthode empirique. Elle consiste à étudier les variations climatiques du temps passé et à essayer de trouver d'éventuelles périodicités dans ces évolutions ou des corrélations entre les variables du climat, comme la température, et les quantités réellement observables (telles les caractéristiques des océans où des éruptions solaires, par exemple). Ces méthodes, car il y en a plusieurs, sont basées fondamentalement sur les sciences de l'observation et non pas sur les projections, plus ou moins virtuelles, fournies par les ordinateurs. Cette méthode ne présuppose pas la connaissance détaillée de la totalité des multiples processus qui influencent le climat. Elle se contente d'observer et d'extrapoler.
A noter que cette distinction entre ces deux approches, très différentes, de la science climatique, n'est absolument pas propre à cette dernière. On retrouve actuellement cette dualité dans pratiquement toutes les sciences des systèmes complexes. La première méthode est toute récente. Elle procède des énormes progrès accomplis par les ordinateurs durant ces dernières décades. La seconde est la méthode traditionnelle, classique. C'est celle qui a permis à la Science d'accomplir les immenses progrès que nous connaissons. C'est celle de Louis Pasteur ou de Claude Bernard, parmi d'autres. Ainsi, le débat actuel qui oppose les tenants de l'effet de serre anthropogénique et les "sceptiques", ou plutôt, les "rationalistes" n'est pas seulement un débat scientifique habituel. Il reflète aussi le débat, plus vaste encore, qui oppose, dans les sciences de la complexité, les tenants des sciences de l'observation à ceux des simulations numériques par ordinateur.
Peu d'entre vous connaissent la grande diversité des projections modérément alarmistes des ordinateurs du GIEC. Par contre, tout le monde connaît les prévisions catastrophistes du bureau politique du GIEC, répercutées et amplifiées au centuple par les journaux, les télévisions, les écologistes, Al Gore etc. qui s'en font quotidiennement l'écho au point que beaucoup commencent à se lasser de ce matraquage en règle, qui constituera un précédent dans l'Histoire avec des conséquences sans doute désastreuses.

(L'article se continue , ici, avec les différentes hypothèses envisagées. Allez y, cela vaut franchement le coup d'être lu! Je vous donne sa dernière phrase)
A noter que la glace du pôle Nord dont on nous a dit qu'elle devait disparaître rapidement, s'est reconstituée à une vitesse record à la fin de l'automne 2007....
En attendant et en décembre 2007, au Canada et aux Etats-Unis, on a battu des records...
de neige et de froid !
Et cela continue à la fin du mois de Janvier.

Marcel Leroux, professeur émérite en climatologie à l'Université Jean Moulin - Lyon III, directeur du Laboratoire de climatologie, risques et environnement.
LISEZ LE rapport SUR LE MYTHE DU RECHAUFFEMENT CLIMATIQUE
- Elizabeth Teissier, prochaine directrice du GIEC ? -