dimanche 25 décembre 2016

La presse doit-elle toujours défendre le bio comme elle le fait ?

La réponse est beaucoup plus nuancée que les journaux ne voudraient nous le faire croire. 
Normal, casser les rêves n'est pas vendeur. On préfère alimenter un manichéisme moral, qui voudrait que la productivité soit forcément anti-écologique et anti-sociale.

Cette pensée binaire est confortable, peu importe si la vérité est complexe. Peu importe si on part souvent dans la mauvaise direction. Qui osera jouer le rabat joie ? Contester la pensée dominante c'est forcément être acheté par les lobbies.

Et pourtant si on lit la science, la nouvelle méta-étude ci dessous, en mettant de coté les avis des lobbies bio et non bio, on découvre objectivement que les intrants et méthodes bios sont souvent pires que les intrants et méthodes synthétiques, ces derniers étant plus optimisés.
Avocat du diable : Instruisons pour une fois uniquement à charge contre le "bio" ?

Synthèse : 

1) Concernant les émissions de gaz à effet de serre :

a) Pour "les émissions de CO2, les méthodes organiques sont en moyenne en Europe 10% plus impactantes pour le climat que les méthodes conventionnelles dans la filière laitière"

b) Pour le méthane, "la culture biologique semble ne pas être une option efficace pour atténuer les impacts climatiques combinés de CH4 et N2O dans la production de riz"

2) Bien sûr le bio a parfois des avantages. Mais pour ce qui est de la biodiversité, c'est contrasté : "Les insecticides organiques ont parfois eu un impact plus grand sur des ennemis naturels que les insecticides de synthèse."

3) Et "les pratiques de l' agriculture biologique n'ont pas nécessairement d'effets positifs sur l'environnement par unité de produit" comme l'étude le démontre.

4) Idem pour "les émissions d'ammoniac, le lessivage de l'azote et les émissions d'oxyde d'azote par unité de produit : elles sont plus élevés pour les systèmes organiques."

5) De plus, "l'agriculture intensive met en œuvre un engrais liquide à travers l'irrigation au goutte à goutte et a donc donné lieu à des taux beaucoup plus faibles de pollution de la zone et des eaux souterraines". L'engrais solide (fumier,...) a l'effet contraire...

6) "Le paillage avec des feuilles polyéthylène (autorisé en agriculture biologique) est plus polluant que la pulvérisation de glyphosate, et les sarcleuses à flamme (autorisées en agriculture biologique) sont plus coûteuses, comme l'énergie qu'elles exigent, que le glyphosate, et beaucoup moins efficace dans le contrôle des mauvaises herbes vivaces."

7) "Le contrôle mécanique des mauvaises herbes est fréquemment utilisé dans l'agriculture biologique, et il a été montré que le travail du sol peut provoquer une mortalité élevée parmi les œufs et les jeunes des alouettes."

8) "Pour les arthropodes, les niveaux de toxicité obtenus en laboratoire pour les pyréthrines naturelles ont été similaires ou supérieurs à ceux de plusieurs insecticides synthétiques."

Conclusion : GES, pollution, biodiversité, la presse est en faute si elle ne relativise pas soigneusement les mérites du bio sur le conventionnel. Elle doit au contraire également souligner proportionnellement les bienfaits du conventionnel sur le bio.Même si cela fâche nos préjugés...

Traduction automatique du lien (pas toujours rectifiée manuellement):

"Comparaison des impacts environnementaux de l'agriculture conventionnelle et biologique"
L'AGRICULTURE BIOLOGIQUE NE RÉDUIT PAS LES IMPACTS ENVIRONNEMENTAUX ? --Un Méta-analyse de la recherche européenne Tuomisto et.al. (2012)
ABSTRACT
les pratiques de l'agriculture biologique ont été promus comme, entre autres, la réduction des impacts environnementaux de l'agriculture. Cette méta-analyse analyse systématique des études publiées qui comparent les impacts environnementaux de l'agriculture biologique et conventionnelle en Europe.Les résultats montrent que les pratiques de l' agriculture biologique ont généralement des effets positifs sur l'environnement par unité de surface, mais pas nécessairement par unité de produit .Les fermes biologiques ont tendance à avoir un sol plus forte teneur en matière organique et la diminution des pertes d'éléments nutritifs (de lixiviation de l'azote, les émissions d'oxyde d'azote et les émissions d'ammoniac) par unité de surface de terrain. Cependant, les émissions d'ammoniac, lessivage de l'azote et les émissions d'oxyde d'azote par unité de produit étaient plus élevés des systèmes organiques.Les systèmes biologiques avaient un moindre besoin en énergie, mais l'utilisation des terres plus, le potentiel d'eutrophisation et potentiels d'acidification par unité de produit. La variation dans les résultats entre les différentes études était grande en raison des différences dans les systèmes comparés et les méthodes de recherche utilisées.Les seuls impacts qui ont été trouvés à différer de manière significative entre les systèmes étaient teneur du sol en matière organique, le lessivage de l'azote, les émissions d'oxyde d'azote par unité de surface de terrain, la consommation d'énergie et l'utilisation des terres. La plupart des études qui ont comparé la biodiversité dans l'agriculture biologique et conventionnelle ont démontré les impacts environnementaux plus faibles de l'agriculture biologique. Les principaux défis dans l'agriculture conventionnelle sont d'améliorer la qualité du sol (par des rotations et des ajouts de matières organiques végétales polyvalents), recycler les éléments nutritifs et d'améliorer et de protéger la biodiversité. Dans l'agriculture biologique, les principaux défis sont d'améliorer les rendements de gestion et d'augmenter les nutriments. Afin de réduire les impacts environnementaux de l'agriculture en Europe, les efforts et les politiques de recherche devraient être ciblées sur le développement de systèmes agricoles qui produisent des rendements élevés avec des impacts négatifs sur l'environnement à faible tirant sur les techniques des deux systèmes biologiques et conventionnels.
CHOISIR LES PESTICIDES ORGANIQUES AU DÉPEND DES PESTICIDES SYNTHÉTIQUES NE PEUT LIMITER EFFICACEMENT LE RISQUE ENVIRONNEMENTAL DANS LE SOJA (2010) RÉSUMÉ
Méthodologie / Principales constatations
Nous rapportons les résultats d'une étude sur l'impact environnemental de plusieurs nouveaux synthétiques et insecticides biologiques certifiés considérés comme insecticides à risque réduit pour le puceron du soja (Aphis glycines) commande, en utilisant desméthodologies établies et nouvelles pour quantifier directement l' impact des pesticides en termes de services de biocontrôle . Nous avons constaté que, en plus de l'efficacité réduite contre les pucerons par rapport à de nouveaux insecticides synthétiques, les insecticides organiques autorisés eu un impact négatif similaire ou encore plus grand sur plusieurs espèces d'ennemis naturels dans les études de laboratoire, et étaient plus nuisibles pour les organismes de lutte biologique dans des expériences sur le terrain, et a eu plus de Quotient d'impact environnemental à des taux d'utilisation sur le terrain.
Conclusions / Importance
Ces données recommandent la prudence sur l'hypothèse largement répandue selon laquelle les pesticides biologiques sont moins nocifs pour l'environnement que les synthétiques. Tous les pesticides doivent être évaluées à l'aide d'une évaluation des risques fondée sur des données empiriques, parce que des généralisations fondées sur l'origine chimique ne sont pas valables dans tous les cas.
NITRATE LIXIVIATION DE FERMES BIOLOGIQUES INTENSIF AUX EAUX SOUTERRAINES (2014)
ABSTRAIT
Il est communément présumé que l'agriculture biologique provoque la pollution environnementale minime.Dans cette étude, nous avons mesuré la qualité des eaux de percolation dans la zone vadose, qui sous-tend les deux serres intensifs biologiques et conventionnels. Notre étude a été menée dans les fermes nouvellement créées, où le sous-sol sous-jacent aux serres a été surveillées en continu à partir de leur mise en place.De manière surprenante, l' agriculture biologique intensif reposant sur la matière organique solide, tel que du fumier composté qui est mis en oeuvre dans le sol avant la plantation comme seul engrais, a abouti à la baisse significative du lessivage des nitrates dans la zone non saturée dans la nappe phréatique. D'autre part, l'agriculture intensive similaire met en œuvre un engrais liquide à travers l' irrigation au goutte à goutte, comme couramment pratiqué dans l' agriculture conventionnelle, a donné lieu à des taux beaucoup plus faibles de la pollution de la zone vadose et les eaux souterraines.Il a été démontré que les méthodes de fertilisation précis qui distribuent les engrais à travers le système d'irrigation, selon la demande de la plante, au cours de la saison de croissance réduisent considérablement le risque de contamination des eaux souterraines par les deux serres biologiques et conventionnels.
L' atténuation des émissions de gaz à effet de serre en Europe conventionnelle et biologique élevage laitier A. Weiskea,,, A. Vabitschb, JE Olesenc, K. Scheldec, J. Michela, R. Friedrichb, M. Kaltschmitta 2005
En moyenne pour toutes les régions laitières européennes, les émissions provenant des systèmes de production biologique ont été d'environ 1,6 kg de CO2-éq. kg-1 du lait et donc 10% plus élevé par rapport aux fermes modèles classiques (1,4 kg CO2-éq. kg-1 du lait).Lors du calcul des émissions sur la base de la production laitière, les fermes biologiques ont tendance à avoir des émissions plus élevées que les exploitations conventionnelles à l'excédent agricole de N similaire et N efficacité. La relation était très significative pour les deux fermes biologiques et conventionnelles, mais avec des émissions légèrement plus élevées de GES provenant de fermes biologiques à la ferme N similaire efficacité. Cela peut être dû en partie aux émissions estimées de plus de CH4 provenant de la fermentation entérique en raison d'une proportion plus élevée des cultures fourragères dans le régime alimentaire.
L' atténuation des gaz à effet de serre par l'intensification agricole Jennifer A. Burneya, b, 1, Steven J. Davisc, et David B. Lobella, b 2010
L'agriculture intensive est préférable à moins de l'agriculture d'entrée. Cela a sauvé 161 GTC carbone jusqu'à présent depuis 1961 - 2005. Les sols continuent à agir en tant que puits de carbone, mais deviendraient des sources de carbone s'ils étaient labourés.
Comparaison des Douze organiques et des systèmes agricoles classiques: Une des émissions de gaz à effet de serre du cycle de vie Perspective Kumar Venkat Journal of Sustainable Agriculture 36 (6) · Juillet 2012
Abstract
Compte tenu de l'importance croissante de la production d'aliments biologiques, il y a un besoin urgent de comprendre les impacts environnementaux relatifs des méthodes d'agriculture biologique et conventionnelle. Cette étude applique l'évaluation du cycle de vie basé sur des normes pour comparer les émissions de gaz berceau à la ferme la porte à effet de serre de 12 produits végétaux cultivés en Californie en utilisant les deux méthodes biologiques et conventionnelles.Les résultats montrent que l'état d'équilibre la production biologique a des émissions plus élevées par kg que la production classique dans sept des 12 cas (10,6% globalement plus élevé, à l'exclusion d'une valeur aberrante). la production biologique de transition fonctionne mieux, générant moins d'émissions que la production conventionnelle dans sept cas (ensemble 17,7% inférieure) et les émissions de 22,3% inférieurs à ceux de régime permanent organique. Les résultats démontrent que la conversion des terres cultivées supplémentaires à la production biologique peut offrir d'importantes possibilités de réduction des GES au cours des prochaines décennies, par le biais de l'augmentation des stocks de carbone des sols organiques pendant la transition. Les systèmes non-organiques pourraient également améliorer leur performance environnementale en adoptant des pratiques de gestion pour augmenter les stocks de carbone des sols organiques.
Évaluation des production agricoles conventionnelles et biologiques par rapport aux intrants énergétiques primaires et certaines émissions de gaz de la pollution du ministère fédéral de l'alimentation, de l' agriculture et des forêts (BML), Murphy, DPL ;, Roever, M. et Heinemeyer, O.
Une forme d'agriculture avec une utilisation réduite des ressources minérales N-engrais par intégration de production végétale et animale combinée à l'utilisation de la production de concentré d'aliments pour animaux locaux est avantageux en ce qui concerne les émissions de la consommation d'énergie et de gaz à effet de serre primaires. Un tel système peut être classique ou organique.
Suivi des GES dans les magasins de fumier dans les fermes laitières biologiques et conventionnelles RW Sneath, F. Beline, MA Hilhorst, P. 2005 Peu
Abstract
Les méthodes d'agriculture biologique sont réputées pour être plus respectueux de l'environnement que les méthodes conventionnelles et le projet européen MIDAIR avait un objectif global de comparer les émissions provenant de l'élevage laitier biologique avec des méthodes classiques de production de lait. magasins de fumier sont la deuxième source d'émissions de méthane (après la fermentation entérique) sur la production laitière européenne.De grandes incertitudes dans les méthodes de mesure signifie que même dans le cas des magasins, des différences découvertes entre les deux systèmes d'exploitation agricole ne pouvait pas être prouvées comme sensiblement différentes.
Méthane et d'oxyde nitreux : émissions provenant des systèmes de culture de riz biologiques et conventionnels en Chine duSud - Est Yanmei Qin, Shuwei Liu, Yanqin Guo, Qiaohui Liu, Jianwen Zou
Les résultats de cette étude suggèrent que le système de culture biologique pourrait ne pas être une option efficace pour atténuer les impacts climatiques combinés de CH4 et N2O dans la production de riz paddy.
La comparaison entre agriculture intensive et agriculture biologique sur la gestion extensive des prairies dans le sud de l'Allemagne par l'évaluation du cycle de vie du processus. Guido Haas, Frank Wetterich, Ulrich Köpke 2001
Analyse de la catégorie d'impact sur la biodiversité : l'image du paysage et de l'élevage, les fermes biologiques ont des avantages évidents dans le nombre d'indicateurs d'espèces des prairies, le pâturage du bétail, la mise en page de l'exploitation agricole et de la gestion du troupeau, mais des indices dans ces catégories a montré une large gamme et sont en partie indépendante de la système d'exploitation.Lower CO2- et les émissions de N2O des fermes biologiques sont compensées par une émission plus élevée de CH4 par unité de lait produite en raison de la performance du lait inférieur.
Évaluation du cycle de vie de la production laitière conventionnelle et biologique aux Pays - Bas MA Thomassena 2008, KJ van Calkerb, MCJ Smitsc, GL Iepemad, IJM de Boera
Dans cet article, deux systèmes de production de lait néerlandais, à savoir un classique et un organique, ont été comparés sur leur impact environnemental intégral et les points chauds ont été identifiés dans les chaînes de production de lait conventionnelles et biologiques.Les résultats ont montré une meilleure performance environnementale concernant l'utilisation de l'énergie et le potentiel d'eutrophisation par kilogramme de lait pour les fermes biologiques que pour les fermes conventionnelles. En outre, un potentiel plus élevé à la ferme acidification et le potentiel de réchauffement de la planète par kilogramme de lait biologique implique que l'ammoniac plus élevé, le méthane et l'oxyde nitreux émissions se produisent à la ferme par kilogramme de lait biologique que pour le lait conventionnel. potentiel d'acidification totale et le potentiel de réchauffement de la planète par le lait kilogramme ne différaient pas entre les fermes conventionnelles et biologiques sélectionnés. En outre, les résultats montrent l'utilisation des terres plus faible par kilogramme de lait conventionnel par rapport au lait biologique.
L' évaluation de l' impact environnemental de la production laitière conventionnelle et biologique. Imke JM de Boer 2003
la production de lait biologique augmente intrinsèquement les émissions de méthane et, par conséquent, peut réduire le potentiel de réchauffement global que par la réduction des émissions de dioxyde de carbone et l'oxyde nitreux considérablement.
Les émissions d'oxyde d' azote provenant des systèmes biologiques et conventionnels arables culturales sur deux types de sol Ngonidzashe Chirindaa, c,,, Mette S. Carterb, Kristian R. Albertb, Per Ambusb, Jørgen E. Olesena, John R. Porterc, Søren O. Petersena 2006
les émissions d'oxyde nitreux étaient similaires ou plus de classiques que de rotations biologiques, sauf en Autriche, où l'entrée de N dans le fumier était beaucoup plus élevé de la rotation organique que de la rotation classique
Fondants d'oxyde nitreux et de méthane, et le lessivage d'azote provenant des sols sableux organiquement et conventionnellement cultivés dans l' ouest de la Finlande E. Syväsalo, K. Regina, E. Turtola, R. Lemola, M. Esala 2006
Azote lessivage et les pertes de N2O gazeux étaient légèrement plus grand pour de l'herbe organique que pour l'herbe classiquement cultivée, et la différence était encore plus évidente lorsque les pertes ont été calculées par le rendement.
L'écart de rendement des cultures entre l'agriculture biologique et conventionnelle. Tomek de Ponti, Bert Rijk, Martin K. van Ittersum 2012
L'écart de rendement des cultures entre l'agriculture biologique et conventionnelle. Nous avons analysé 362 rendements publiés des cultures comparatives organiques conventionnelles. L'écart de rendement organique est de 20%, mais diffère quelque peu entre les cultures et les régions. Nous avons trouvé une faible indication d'un écart de rendement plus les rendements conventionnels augmententaient. Nous émettons l'hypothèse que lorsque upscaling à la ferme / régional l'écart de rendement sera plus grande. Dans ce contexte, la recherche est nécessaire à la ferme et au niveau régional et sur la disponibilité des nutriments.
Comparaison des rendements de l'agriculture biologique et conventionnelle. Verena Seufert, Navin Ramankutty & Jonathan A. Foley 2012
Le taux de rendement organique à conventionnel moyen de notre méta-analyse est de 0,75 (avec un intervalle de confiance à 95% de 0,71 à 0,79); qui est, dans l'ensemble, les rendements biologiques sont de 25% inférieurs à ceux conventionnels. Ceci est juste la moyenne globale, cependant: comme la figure ci-dessous, il y a une variabilité considérable entre les différentes cultures.
L' impact environnemental des engrais de farine de viande par rapport à l' engrais chimique Ressources, Conservation et recyclage, 55 (11), pp.1078-1086.Spångberg, J. et al., 2011
Un des défis pour les exploitations biologiques sans accès à du fumier est de trouver des sources durables de nutriments végétaux, puisque seulement ceux naturel, renouvelable et des ressources régénératives peuvent être utilisés
La production alimentaire par rapport à la biodiversité: Comparaison de l' agriculture biologique et conventionnelle Gabriel, D. et al, 2013... Journal of Applied Ecology, 50 (2), pp.355-364.
Lors du contrôle du rendement, la diversité des bourdons, les papillons, les syrphes et les arthropodes épigés ne différait pas entre les systèmes de production, ce qui indique que les différences observées dans la biodiversité entre les champs biologiques et conventionnels sont expliqués par des rendements plus faibles dans les domaines biologiques et non par des pratiques différentes de gestion en soi. Compte tenu de ces résultats et du rendement par rapport à ses relations à la biodiversité observées dans notre étude, il est probable que les plus grands gains de biodiversité par le rendement des cultures de l'unité se produirait dans les paysages mixtes et à faible productivité. Ce résultat est en contradiction avec le consensus existant qui dit que le gain de biodiversité maximale se produira par la promotion de l'agriculture biologique homogènes, sans paysages intensifs.
L'écart de rendement des cultures entre l'agriculture biologique et conventionnelle.De Ponti, T., Rijk, B. & Van Ittersum, MK, Systèmes agricoles, 108, pp.1-9. 2012.
Nourrir le monde avec l'agriculture biologique peut exiger plus de terres que l'agriculture conventionnelle et donc la zone des écosystèmes naturels et semi-naturels peut être plus faible, alors que la qualité de la biodiversité sur et autour des terres agricoles peut être plus élevé.
Les aliments biologiques: acheter plus desécurité ou tout simplement la tranquillité d'esprit? Un examen critique de la littérature. Commentaires critiques dans la science alimentaire et la nutrition, 46 (1), pp.23-56. Magkos, F., Arvaniti, F. & Zampelas, A. 2006.
De la pertinence, une étude récente a rapporté que les soupes préparées à partir de légumes biologiques cultivés (achetés directement à partir de la vente au détail) avaient presque six fois plus d'acide salicylique (médiane, 117 ng / g; plage, 8-1040 ng / g) que les soupes classiques ( me-dian, 20 ng / g; plage, 0-248 ng / g)-Ainsi, la sélection de variétés résistantes aux ravageurs en agriculture biologique pourrait également signifier que ces plantes ont des niveaux plus élevés de toxines naturelles, ou des niveaux de plus grande puissance.
Les tentatives précédentes pour augmenter la résistance aux maladies dans les variétés de pommes de terre, le céleri et les panais par l'utilisation de plantes de type sauvage et des programmes de résistance de reproduction, ont conduit à une augmentation des concentrations de toxine naturelle et le retrait de ces aliments de la vente au détail (Ames and Gold, 1989; McGregor, 1998; Fenwick et al., 1990).
-Néanmoins, il a été récemment rapporté que le soufre a dû être appliqué dans des quantités de 40% supérieurs à un fongicide synthétique correspondant,
Impact environnemental des différentes pratiques de gestion agricole: classiques contre l' agriculture biologique. Gomiero, T., Pimentel, D. & Paoletti, MG, 2011. Critical Reviews in Plant Sciences, 30 (1-2), pp.95-124.
Le document décrit ensuite la consommation d'énergie dans différents contextes agricoles: l'agriculture biologique a une plus grande efficacité énergétique (entrée / sortie), mais, en moyenne, présente une baisse des rendements et de la productivité par conséquent réduite. Les inconvénients possibles de la fertilisation organique ont été reporté par certains auteurs (par exemple, Tilman et al, 2002; Sieling et Kage, 2006; Kirchmann et al, 2007; Wu et Sardo 2010..): la «Libération lente» des nutriments provenant du compost organique ou ma-Nures vert peut être difficile à contrôler et harnais et risquent de ne pas répondre à la demande des cultures, ce qui entraîne des pertes d'azote par lessivage et volatilisation. En outre, dans les systèmes biologiques, la compétition avec les mauvaises herbes peut réduire considérablement l'efficacité N apport
En outre, Wu et Sardo (2010) suggèrent que le paillage avec des feuilles polyethy-lene (autorisée en agriculture biologique) est plus polluant que la pulvérisation de glyphosate, et que les sarcleuses de flamme (autorisés en agriculture biologique) sont plus coûteux et l'énergie exigeant que le glyphosate et beaucoup moins efficace dans le contrôle des mauvaises herbes vivaces.
Approches pour évaluer l'impact environnemental de l' agriculture biologique eu égard en particulier au Danemark Hansen, B., Alroe, HF & Kristensen, ES, 2001.. Agriculture, Ecosystems and Environment, 83 (1-2), pp.11-26.
le contrôle mécanique des mauvaises herbes est fréquemment utilisé dans l'agriculture biologique, et a été montré le travail du sol pour provoquer une mortalité élevée parmi les œufs et les jeunes des alouettes.
Face à l' insécurité alimentaire en Afrique: Pourquoi, après 30 ans de travail dans l'agriculture biologique, je suis la promotion de l'utilisation des engrais synthétiques et les herbicides dans la production des cultures de base à petite échelle Lotter, D. 2014 .. Agriculture and Human Values, (Pretty 1997 ), pp.111-118.
Herbicide médiée labour CA via un pulvérisateur à dos peut sous-sensiblement augmenter les rendements de maïs conventionnelles tout en même temps presque éliminer l'érosion et l'augmentation de la capture d'eau de pluie jusqu'à cinq fois. À mon avis, la perte de spectre massive du sol par l'érosion et la perte de nutriments par le travail du sol en Afrique dans les prochaines decades éclipse largement les effets possibles sur la santé de vos expositions à la substance chimique.
Effets des insecticides organiques agricoles compatibles sur quatre puceron espèces d'ennemis naturels. Jansen, JP, Defrance, T. & Warnier, AM, 2010. lutte antiparasitaire Science, 66 (6), pp.650-656.
Les résultats indiquent potentiellement une forte toxicité des pyréthrines naturelles pour les arthropodes bénéfiques. Bien que cette toxicité doit être confirmée dans des conditions de terrain, les niveaux de toxicité obtenus dans le laboratoire ont été similaires ou supérieurs à ceux de plusieurs insecticides synthétiques connus pour être toxiques dans le domaine
Produits naturels dans la protection des cultures. Dayan, FE, Cantrell, CL & Duke, SO 2009. bioorganique et Medicinal Chemistry,
La gestion des mauvaises herbes dans les pratiques de l'agriculture biologique est très problématique. Alors que la plupart des méthodes reposent sur la cultivation du sol, le binage à la main, le biocontrôle, les paillis organiques, et ironiquement en plastique (synthétique) la couverture du sol, et l'utilisation de certains produits naturels est autorisée
Une méta-analyse des différences dans les impacts environnementaux entre l'agriculture biologique et conventionnelle. Mondelaers, K., Aertsens, J. & Huylenbroeck, G. Van, 2009. British Food Journal, 111 (10), pp.1098-1119.
Cette perte de services écosystémiques est grande par rapport à l'avantage d'une réduction des émissions de nutriments et de pesticides. De méta-analyse du papier, il peut conclure que les sols dans les systèmes d'agriculture biologique ont en moyenne une teneur élevée en matière organique. Il peut également conclure que l'agriculture biologique contribue positivement en faveur de l'agro-biodiversité (races utilisées par les agriculteurs) et de la biodiversité naturelle (la vie sauvage). En ce qui concerne l'impact du système d'agriculture biologique sur les émissions de nitrates et de lessivage du phosphore et de gaz à effet de serre le résultat de l'analyse ne sont pas aussi simple que cela. Lorsqu'elle est exprimée par zone de production agriculture biologique les scores sont meilleurs que pour l'agriculture conventionnelle pour ces articles. Toutefois, compte tenu de la faible efficacité de l'utilisation des terres de l'agriculture biologique dans les pays développés, cet effet positif exprimé par unité de produit est moins prononcé ou non présent systématiquement.

samedi 17 décembre 2016

Le gaz radon dans les habitations : pourquoi encourager une psychose de plus vu les doses ?

Zone rouge !

La paranoïa s'installe et l'IRSN y contribue une fois de plus :
Une carte prétendument scientifique dont une grande partie est coloriée en rouge fait peur.
Exemples de reprise sans distance critique :
"le radon est la cause de 10 % des décès du cancer du poumon en France. "

"l’on estime en France qu’il y a environ 2 000 décès par an liés au radon"


En Belgique idem :
"Radon: dès 2018, une nouvelle norme classera 80% d'habitations supplémentaires en zone à risque"


En fait, en abaissant le prétendu seuil de danger à des niveaux ridiculement bas, il est facile de généraliser la peur et de l'amplifier.

Dans le contexte actuel, celui qui dénoncera ces excès passera forcément pour un affreux pronucléaire révisionniste même s'il a raison sur le fond. (Voir les documents sur www.ecolo.org (2))

La résilience cellulaire dépend beaucoup de la santé et de l'âge, mais même cela ne tient pas pour justifier cet alarmisme. Un adulte en santé moyenne ou même basse n'a pas de raison valable de s'inquiéter du radon. Respirer au dessus d'un sol et au milieu de murs granitiques n'a généralement pas d'incidence sauf à calfeutrer toutes les issues d'air (dans ce cas le CO2 nous affectera plus vite...).
Dangereux à partir de combien ?

Rappel scientifique.

A partir de 500 Bq/m3 on voit un léger excès de cancers du poumon chez les femmes qui ne fument pas (cf étude Conradi, Becker dans les années 90 dans l'Erzgebirge).

1 000 bq/m2 semble un seuil tout à fait raisonnable à l'échelle collective. En effet il faut comparer les pertes en années de vie avec celles induites si on détourne pour les familles modestes les subventions affectées à leur protection sociale. Chacun est libre évidemment de ventiler davantage son logemres si ce taux est plus élevé.

Bien sûr, chez les fumeurs, la situation est plus sensible. Le RR croît à partir de 150 Bq/m3 dans la meta-analyse de Darby et al. Mais c'est le tabac qui en est la cause. Doit-on affecter le niveau social des classes modestes pour sauver quelques victimes suicidaires ?

Attention : Je n'ai nulle intention de nier la dangerosité du radon à haute dose. Les rats exposés permettent de confirmer que les expositions à ses produits de filiation ont un risque cancérogène avéré dès 20 WLM.

Alors que conclure ?

Que le risque reste infiniment faible face au tabac et l'existence de ce risque ne contredit pas de potentiels effets bénéfiques (observés selon les critères de la médecine fondée sur les preuves, mais encore peu étudiés et publiés faute d'intérêt financier).

L'irradiation externe est aussi douée de vertus thérapeutiques y compris sur diverses pathologies douloureuses comme les spondylarthrites... (Cures de la Bourboule, etc..)
150 Bq/m3 : qui dit mieux ?

Encore faut-il préciser l'unité et savoir de quoi on parle.


Comparons par exemple avec la radioactivité naturelle du corps humain.

En effet le becquerel est une unité toute petite, qui correspond à la désintégration d'un seul atome à chaque seconde, ce qui est une quantité de radioactivité infiniment minuscule.

Nous pouvons donc assez facilement rencontrer ou même vivre en permanence avec une radioactivité en milliers de becquerels autour de nous (et même en nous !) ... sans que cela présente le moindre danger.

Le corps humain c'est environ 10 000 Becquerels de radioactivité naturelle (principalement du carbone 14 et du potassium 40 comme dans l'eau de mer) pour un volume de 0,07 m3, ce qui, en faisant

la division de ces deux chiffres, correspond à une concentration naturelle de 150 000 Bq/m3 de radioactivité naturelle dans notre organisme.

Oui, vous avez bien lu : 150 000 Bq/m3, ce qui parait ENORME, ce n'est que la radioactivité naturelle du corps humain, depuis la nuit des temps, même avant le démarrage de la première centrale nucléaire au milieu du XX ème siècle et avant qu'Antoine Becquerel ait découvert la radioactivité en 1896 !

Ce chiffre de 300 (si on ne précise pas l'unité) parait (en l'absence de références) très élevé, mais en réalité il s'agit donc d'une valeur extrêmement basse et tout à fait normale.

Autrefois la limite était à 1000, puis 500, puis 300. Comme on n'arrête pas le progrès, ce sera bientôt, 100 puis 50...

 A partir du moment ou on accepte de croire en la théorie (fausse) de la RLSS (Relation linéaire sans seuil), 150 Bq/m3 ce qui est effectivement très faible, c'est encore beaucoup trop et il n'y a aucune autre limite admissible que le zéro absolu...

Heureusement cette théorie est complètement fausse et on peut vivre en s'exposant sans crainte (comme dans le Montana) et même avec des bienfaits, jusqu'à 80 000 Bq/m3 à l'occasion de cures (jusqu'à 50 h).

Sous la pression de l'IRSN, Crii-rad et cie, s'appuyant sur la base scientifique fausse de la RLSS, on va donc diminuer d'année en année la dose de radon considérée comme admissible, jusqu'à ce qu'elle devienne quasi-impossible à respecter tellement elle sera basse et on fera alors apparaitre le ridicule de la situation et l'absurdité de vouloir interdire un gaz bienfaisant qu'on trouve pourtant partout dans la nature et auquel nous sommes parfaitement adaptés à doses raisonnables.

Résultat, l'IRSN gâche ainsi de précieuses ressources mais se plaint curieusement avec l'ASN d'un manque de 200 postes pour exercer ses missions. Bien qu'il n'ait pas pris en compte de rapport parlementaire (1) qui l'enjoignait de réformer son organisation inefficace, l'ASN retarde pendant ce temps à donner ses réponses sur le générateur du Bugey ou sur la cuve de l'EPR de Flamanville, mettant en danger nos exportations d'EPR à Taishan (Chine).

Quel journaliste scientifique explique tout cela ?


(2) : Texte co-rédigé par Bruno Comby - AEPN.

Rappel imagé du sens des unités Becquerel, Gray, Sivert

 

lundi 12 décembre 2016

Diesel: Mortalité supposée liée à la pollution de l'air - A qui profite le soi-disant crime ?


Environnementalistes, politiques, ONG, médias, tout le monde profite de l'alarmisme excessif et sans nuance lié à l'environnement, et à la pollution de l'air en particulier. Et qui le dénoncerait passerait pour un ami de cette pollution... 

Osons dénoncer l'excès de zèle et la presse antiscientifique ?

La fin ne justifie pas les moyens car les choix économiques deviennent parfois contreproductifs, comme sortir à tout prix du diesel vers l'essence au lieu d'investir dans le décarboné. D'autant plus qu'on va voir ci dessous que, sans la nier, cette dangerosité du diesel recent est en fait surévaluée au regard des dépenses proposées, qui serait allouées plus efficacement sur d'autres leviers.


---


Les 48.000 décès imputables par la "Santé Publique’’ à la pollution atmosphérique résultent d’une évaluation comportant d’assez nombreuses incertitudes. 

La première concerne le coefficient de risque relatif  à retenir par 10 microgrammes de PM 2,5. Les auteurs français ne retiennent pas la valeur OMS, résultant des larges meta analyses (notamment Arden Pope et ACS américaines) de 1,07 mais celle des études plus modestes d’Escape et Gazel-Air qui aboutissent à 1,15, ce qui revient presque à doubler l’évaluation des décès imputables.

La 2ème concerne la validité de la loi linéaire reliant exposition et excès de décès dans une plage d’exposition où les informations sont nettement insuffisantes, c’est-à-dire au niveau de 5 microgrammes par m3 censé représenter le minimum d’exposition sans apport anthropique, observable dans 5% des petites communes de montagne. Malgré l’affirmation incantatoire de l’existence avérée d’une relation linéaire (parfaitement valide dans la plage d’exposition supérieure à 10 microgrammes par m3) on ne voit pas bien comment cette relation trouverait une plausibilité toxicologique aux très faibles concentrations et pourrait devenir une relation linéaire sans seuil, hypothèse ici privilégiée.

Si l’on s’en tenait à ce qui serait évité si on ne dépassait jamais le seuil OMS de 10 microgrammes par m3 le nombre de décès évité serait en fait de 17.000 avec les hypothèses des auteurs. L’OMS pour sa part attribue à la pollution de l’air en France un excès de 10.954 décès en 2012.

L’étude française ne permet pas de connaître les causes de la mortalité en excès. Dans l’étude OMS, pour la France de 2012, 3.793 décès sont attribués aux cardiopathies ischémiques, 2.774 aux AVC, 4.256 aux cancers du poumon (11% des nouveaux cancers du poumon diagnostiqués en 2012), 126 bronchopneumopathies et 4 cas de bronchiolites, ceci sur la base des méta analyses essentiellement américaines et d’une modélisation de la pollution sur notre pays. Les auteurs de l’étude française font l’hypothèse que ces mêmes pathologies sont à l’origine des excès de mortalité observés avec mention de différentes autres cibles possibles nettement moins bien établies.

Si on retenait les causes de mortalité OMS et le coefficient de risque relatif Escape/Gazel-Air cela reviendrait à attribuer 45% des cancers du poumon en France à la pollution atmosphérique, ce qui paraît très peu vraisemblable.

Il faut saluer le travail fait d’inventaire des risques en fonction de la densité de l’habitat et du suivi des cohortes mais, comme les auteurs de Santé Publique le reconnaissent il existe encore de nombreuses lacunes concernant à la fois l’exposition aux PM 2,5 et leurs effets sur la santé , sans compter l’imprécision du concept toxicologique caché derrière PM 2,5. La prudence est de considérer les résultats de l’étude comme trop préliminaire pour en faire un référentiel.


Pour la perte d’espérance de vie c’est en moyenne pour la France 9 mois dans le scenario "absence de pollution anthropique" et 4 mois dans le scenario OMS selon les propres données des auteurs de Santé Publique : évaluation considérée comme la perte d’espérance de vie à 30 ans par rapport à une absence totale de pollution par les PM 2,5 anthropique dans le premier cas ou absence de dépassement de 10 microgrammes de PM 2,5 dans le second cas, compte tenu des spécificités démographiques françaises, de la densité de l’habitat et du taux de mortalité par tranche d’âge.

C’est un calcul qui a de l’intérêt pour évaluer le coût de la santé mais il efface un problème éthique important. Le développement de l’énergie bénéficie à tous et il a un prix à payer qui n’est payé que par les victimes de la pollution. La mutualisation de ce coût en termes de perte moyenne d’espérance de vie est de ce fait assez discutable. Les défenseurs de la méthode s’en défendent et font comme si ‘’ils n’en mouraient pas tous mais tous étaient frappés’’ cherchant des liens assez ténus entre pollution et diabète, autisme, maladies infectieuses, dégénératives, héréditaires et génétiques …sans avoir jusqu’à maintenant validé la solidité de ces liens alors que l’impact sur le cardiovasculaire et le cardiopulmonaire ne souffre plus de doute. C’est peut-être le seul impact (c’est bien assez car il est lourd !) qui justifie d’être pris en compte car il y a encore discussion sur l’impact réel en matière de cancers pulmonaires y compris parmi les membres de l’IARC qui ont classé les particules diesel parmi les cancérogènes avérés. Dans cette perspective la perte moyenne d’espérance de vie n’a pas grand sens, celui qui est atteint peut perdre plus de 10 ans ou plus, alors que le reste de la communauté ne perd rien.

Et n'oublions pas qu'au moins la moitié des #ParticulesFines dans l'air à Paris proviennent de l'usure des pneus et des freins. (Source scientifique : #APPAasso)

Ces particules fines, riches en métaux lourds, parfois mutagènes, sont un poison pour l'Homme et source de cancers mais leur incidence est faible vu les 50 mois de vie gagnés en vivant à Paris et vu la longévité croissante qui y reigne. 

L'enfer étant pavé de bonnes intentions, combien coûtera cette sortie précipitée et électoraliste à la collectivité socio-économique française ? 100 milliards en quelques années ? (Gachis industriel PSA, Renault, etc..., précarité énergétique accrue en régions, etc...)

Alors qu'on a besoin de financer en priorité l'emploi, la santé, la recherche ?


Source : REVIEW : Lung cancer and diesel exhaust: an updated critical review  of the occupational epidemiology literature

https://www.ncbi.nlm.nih.gov/pubmed/22656672


Image du graphique sur le peripherique : pertinence à vérifier sur : https://climatdeterreur.info/pollution/la-grande-farce-de-la-circulation-alternee-a-paris

Image espérance de vie à 80 ans : https://t.co/P0JnqJKIDi


Annexe : http://www.contrepoints.org/2016/12/22/275774-faut-tuer-diesel

jeudi 24 novembre 2016

L'effet Dunning-Kruger, la surconfiance des incompétents, renforcé par les médias actuels.

La démocratisation de l'éducation engendre un peuple qui s'autorise à avoir une opinion.
Quelle est sa profondeur critique ? Les médias de masse ont bien compris quel profit en tirer, y compris Facebook qui vous fidélise en vous proposant ce qui vous conforte. A l'État de prendre enfin ses responsabilités ?

http://mobile.lemonde.fr/sciences/article/2016/11/21/pourquoi-les-incompetents-se-croient-si-doues_5035337_1650684.html

"Un jour de 1995, McArthur Wheeler dévalisa deux banques de Pittsburgh (Pennsylvanie) à visage découvert. Même pas peur. Le soir même, peu de temps après que les images prises par les caméras de surveillance eurent été diffusées au journal télévisé de 23 heures, l’homme fut assez logiquement reconnu, dénoncé, arrêté.

Quand la police lui montra les enregistrements, Wheeler le voleur fut frappé de stupéfaction. « Pourtant, je portais du jus », marmonna-t-il. Apparemment, celui qui se croyait si malin s’était persuadé que le jus de citron, bien pratique pour fabriquer de l’encre invisible, ­allait aussi rendre son visage indétectable par la ­vidéosurveillance et il s’en était par conséquent barbouillé la trogne.

Si David Dunning et Justin Kruger, deux psychologues américains de l’université Cornell (Etat de New York), ont évoqué la mésaventure de M. Wheeler en préambule de l’étude qu’ils ont publiée en 1999 dans le Journal of Personality and Social Psychology, ce n’est pas parce qu’ils avaient l’intention d’y vérifier les qualités masquantes du jus de citron, mais parce qu’ils souhaitaient comprendre pourquoi les personnes incompétentes – comme l’était ce maladroit détrousseur de banques digne d’un roman de Donald Westlake – peuvent avoir l’impression que leurs mauvaises décisions sont excellentes.

Tenter de comprendre pourquoi « l’ignorance engendre plus souvent la confiance que ne le fait la connaissance », pour reprendre un célèbre constat du grand observateur de ses congénères qu’était Charles Darwin.
Auto-évaluation

Disons-le d’emblée, la réponse à cette question n’est pas à chercher du côté de l’intelligence – songez à ­votre supérieur hiérarchique et à certains chefs d’Etat, que vous considériez comme des non-crétins tant qu’ils n’avaient pas atteint leur seuil d’incompétence.

Dunning et Kruger ont émis l’hypothèse que chez les incompétents existait un biais psychologique qui les poussait à surestimer leurs capacités et leurs performances.

Pour mettre cette idée à l’épreuve, ils ont élaboré plusieurs expériences destinées à tester des ­cobayes dans des domaines nécessitant un minimum de savoir et de finesse : l’humour (avec des blagues ­notées par des comédiens professionnels), le raisonnement logique et la grammaire.

A chaque fois, les participants devaient faire un exercice et auto-évaluer leur prestation. Quel que fût le domaine, les résultats se sont avérés d’une constance remarquable. Systématiquement, les sujets les moins aptes surestimaient de beaucoup leur capacité à réussir l’épreuve, ainsi que le nombre de questions auxquelles ils avaient répondu juste. A l’inverse, les plus doués des participants avaient un peu tendance à se dévaluer.
Contents...

Plusieurs semaines après le test portant sur la grammaire, les auteurs de l’étude ont invité les meilleurs mais aussi les plus nuls des participants à une deuxième session au cours de laquelle ils avaient pour mission de corriger les copies de cinq autres personnes et… de se réévaluer après avoir vu leurs réponses.

Il advint ce qui devait arriver : les « champions » s’aperçurent qu’ils étaient meilleurs qu’ils ne le croyaient, tandis que les cancres furent incapables de reconnaître la compétence des autres et de se remettre en question. Tout allait bien pour eux. Contents, contents, contents…

Depuis cette étude, ce biais dans l’auto-évaluation des incompétents, cette « surconfiance » qu’ils ont en leurs capacités, porte le nom d’effet Dunning-Kruger. Les deux chercheurs américains ont désormais, en la personne de leur nouveau président, un sujet idéal pour tester leur théorie."

mardi 11 octobre 2016

La guerre contre la science et le nouvel autoritarisme, nouveau défi du journalisme.


Traduction informelle de l’article :



"Un plan pour se défendre de la guerre contre la science"

Le défi de créer un public capable d'analyser les «faits» libre de preuves incombe à la presse, les éducateurs et d'autres leaders d'opinion.

De Shawn Otto le 9 Octobre 2016


Il y a quatre ans dans le Scientific American, j’ai mis en garde les lecteurs sur un problème croissant dans la démocratie américaine. L'article, intitulé "Les croyances antiscience compromettent la démocratie des Etats-Unis," cartographiait comment il devenait non seulement acceptable, mais souvent nécessaire, pour les politiciens d’embrasser des positions antiscience, et comment ces positions ont sauté au visage des principes fondamentaux sur lesquels les États-Unis ont été fondés : que si quelqu'un vient à découvrir la vérité sur quelque chose pour lui-même en utilisant les outils de la science, alors aucun roi, aucun pape et pas même un riche seigneur n’est plus légitime à gouverner le peuple qu'il  ne l’est lui-même. Cela allait de soi.

Dans les années qui ont suivi, la situation a empiré. Nous avons vu l'émergence d'une politique «post-fait », qui a normalisé le déni de la preuve scientifique qui est en conflit avec les agendas politiques, religieux ou économiques de l'autorité. Une grande partie de ce négationnistes, dont la position devient maintenant prévisible, tourne autour du changement climatique, mais pas tous. S'il y a un seul facteur à considérer comme un baromètre qui évoque tous les autres dans cette élection, ce sont les attitudes des candidats envers les sciences.

Considérons, par exemple, ce qui a été produit par le Congrès. Le Représentant Lamar Smith, le républicain du Texas qui préside le Comité de la Chambre sur la science, l'espace et la technologie, est un sceptique sur le changement climatique. Smith a utilisé son poste pour lancer une série de chasses aux sorcières, selon le style de McCarthy, par la délivrance des citations à comparaître et exigeant la correspondance privée et les témoignages des scientifiques, des fonctionnaires, des organismes scientifiques du gouvernement, les procureurs généraux et les organisations à but non lucratif dont le travail montre que le réchauffement climatique se produit, que les humains en sont à l'origine et que ce sont (surprise !) les entreprises du secteur énergétique ont cherché à semer le doute sur ce fait.

Smith, qui est de la secte "Christian Science" et semble se complaire dans son rôle de bête noire de la communauté scientifique, n’est pas le seul. Le déni climatique est devenu une planche de salut virtuelle du Parti républicain (en rejetant littéralement l’accord de Paris sur le climat) et une large majorité des républicains du Congrès épousent cette cause. Le sénateur Ted Cruz (R-Texas), président du Sous-comité du Sénat sur l'espace, la science et la compétitivité, a pris congé de sa campagne présidentielle en décembre dernier pour  tenir des audiences pendant le sommet sur le climat de Paris, mettant en vedette des négationnistes climatiques bien connus afin de répéter des points de discussion scientifiquement discrédités .

La situation autour de la science est devenue si partisane que Hillary Clinton a énoncé la phrase « Je crois en la science » sous les plus grands applaudissements au cours de son discours de la convention où elle a accepté la nomination du Parti démocrate. Donald Trump, en revanche, est le premier grand parti candidat à la présidence qui est un négationniste climatique pur et simple, après avoir baptisé de nombreuses fois la science du climat comme un "canular". Dans ses réponses à l'organisation que j'ai aidé à fonder, www.ScienceDebate.org , qui obtient des candidats présidentiels des  dossiers sur la science, il nous a dit qu' « il y a encore beaucoup qui doit être étudié dans le domaine du « changement climatique », et qu’il faut « mettre alerter et  jeter un doute sur sa réalité. Lorsque des contestations sont apparues à propos des commentaires sur ce canular, le directeur de campagne Kellyanne Conway a affirmé que Trump est l'homme  qui ne croit pas au changement climatique.

Au cours des 25 dernières années, la droite politique a largement été organisée sur des lignes antisciences qui sont devenues de plus en plus frappantes: les évangélistes fondamentalistes qui rejettent ce que les sciences biologiques ont à dire sur les origines humaines, la sexualité et la reproduction, servent de fantassins et sont comme prêts à servir les intérêts commerciaux fortunés qui rejettent ce que les sciences de l'environnement ont à dire sur la pollution et l'extraction des ressources. En 1990, par exemple, les démocrates de la Chambre ont reçu une moyenne de 68 % de votes venant de la Ligue des électeurs du Conservation National Scorecard environnement et les républicains a reçu un respectable 40 %. Mais en 2014 les démocrates ont reçu 87 % tandis que les scores républicains ont chuté à un peu plus de 4 %.

Ce rejet est essentiellement un argument autoritaire qui dit: «Je ne me soucie pas de la preuve; ce que je dis / ce que dit ce livre / ce que dit ma tribu / ce que mon portefeuille dit me va ». Cette approche est typiquement humaine, et n’est  pas nécessairement consciente. Elle est plutôt le reflet de la sorte de de biais de confirmation scientifiques contre lesquels ont doit continuellement mettre en garde. Francis Bacon a noté le problème au début de la révolution scientifique, observant: ". Ce qu'un homme pense était vrai, il y croit plus facilement". Les conservateurs remarquent que de nombreux scientifiques sont, en fait, de gauche. Si un politicien  n’est pas un scientifique, et qu’il est conservateur, on est vite amené à supposer, qu’il motivé par des objectifs  gauchisant.

Ceux de gauche sont plus enclins à accepter les conclusions de la preuve de la science biologique et l'environnement, mais ils ne sont pas à l'abri d’attitudes antiscience également. Là, les craintes scientifiquement discrédités que les vaccins causent l'autisme ont conduit à un mouvement gauchiste d’anti-vaccination, mettant en danger la santé publique. Les craintes que les OGM (organismes génétiquement modifiés) en tant que nourriture sont impropre à la consommation, également brandi, ont propulsé le mouvement d'étiquetage national. Les craintes que les téléphones cellulaires causent le cancer du cerveau ou que wi-fi cause des problèmes de santé ou que la fluoration de l'eau peut réduire le QI, aucun n’étant cautionné par la science, proviennent aussi en grande partie de la gauche politique.

Une grande partie de cela vient de soupçons de soi-disant capture réglementaire, dans lequel les organismes gouvernementaux s'alignent sur les intérêts des entreprises, un danger que le candidat du Parti Vert, Jill Stein, a soulevé dans sa réponse à www.ScienceDebate.org sur la vaccination. Ces soupçons ne sont pas toujours sans fondement, et si on ne peut pas faire confiance à l'impartialité des règles de sécurité du gouvernement, le principe d'évitement devient la position par défaut et la science est refusée sur la base qu'elle est de la Relation Publique d’entreprise. Cela a été bien illustré par une bataille en 2011 à San Francisco, où au sein du conseil de surveillance, tous les démocrates, ont voté l’article 10-1 pour exiger des magasins de téléphonie cellulaire d’avertir les clients qu'ils peuvent causer le cancer du cerveau (une ordonnance qui a été largement critiquée et plus tard abrogée). La différence est que, bien que ceux de gauche cherchent à étendre des règlements fondés sur des craintes qui ne seraient pas toujours pris en charge par la science, ceux de droite sont opposés à des règlements qui le sont.

Un tel biais de confirmation a été activé par une génération d'universitaires qui ont enseigné un marqueur corrosif de la politique identitaire postmoderniste qui fait valoir que la vérité est relative, et que la science est une histoire -a «méta-récit» concoctée par l'élite dirigeante masculine blanche afin de conserver le pouvoir et donc suspect. Les revendications de la science, soutenues par ces universitaires, ne sont pas plus privilégiées que tout autre "moyen de savoir», comme la vérité du peuple noir, ou la vérité de la femme indigène. Par exemple, un professeur Minneapolis a récemment soutenu que nous ne pouvons savoir que la Terre tourne autour du soleil  que parce que ces sortes de visions du monde ont été délogées par les changements de paradigme à travers l'histoire. Ainsi, chacun de nous construit sa propre vérité, et le travail d'un éducateur ou d'un journaliste est de faciliter ce processus de découverte.

Les idées du postmodernisme cadrent bien avec l’identité de la politique de la gauche, et elles ont contribué à l'autonomisation des voix défavorisées, ce qui ajoute toujours à la conversation. Mais ce qui fonctionne dans ce cas pour le discours politique est manifestement faux lorsqu'elle est appliquée à la science. Une déclaration scientifique signifie qu’elle est indépendante du sexe, de l'orientation sexuelle, de l'origine éthique, de la religion ou de l'identité politique de la personne qui prend la mesure.. Elle est liée à l'objet mesuré, pas à l'objet qui fait la mesure.

En sapant la revendication d'objectivité de la science, ces postmodernistes ont involontairement jeté les bases philosophiques de la nouvelle montée de l'autoritarisme. Parce que s'il n'y a pas de preuve objective qui a une crédibilité ultime. Comment doit-on régler les revendications concurrentes de la vérité, comme celles émises par Trump ? Sans la vérité objective, la querelle des experts peut durer éternellement, et ne peut être réglée que par ceux qui ont le plus grand bâton ou le plus fort mégaphone, bref, par l'affirmation autoritaire, une situation issue non du post-modernisme mais du pré-modernisme. Ce qui est exactement ce qui se passe. Et qui fonctionne complètement à l'encontre des idées des Lumières de la démocratie américaine et sur lequel le journalisme est censé informer.

Le problème est que les dangers à propos de la science sont révélateurs et réels, et l'incapacité à les réguler, promue au nom de l'économie de marché, est elle-même scientifiquement non prise en charge. La population humaine qui explose couplé à l'expansion liée à la puissance technologique a un impact collectif profond sur une planète à dimension finie. Quand Adam Smith a d'abord offert l'idée libertaire de l'auto-régulation du marché  par la «main invisible», le monde était effectivement illimité et ne comptait que sur les forces du marché pour produire le plus grand bien qui semblait raisonnable parce que l'on n'a jamais été concernés par les déchets qui ne seraient pas écoulés ou des ressources qui ne seraient pas à reconstituer.

Mais le modèle devient un problème quand le monde est limité, que la population a connu une croissance exponentielle, que nous nageons dans les déchets et sommes face à la diminution des ressources, et que notre système d'échappement cumulatif est le réchauffement de la planète. Ce sont des faits scientifiques, et en face d'eux ils impliquent la régulation du marché libre. Pas étonnant, alors, que la science soit divisée le long des lignes politiques entre ceux de la gauche, qui favorisent la moralité personnelle et la responsabilité collective via la réglementation et ceux de droite qui favorisent la moralité collective et la responsabilité personnelle par le retrait de la réglementation.

La guerre de l'industrie contre la science ne se limite pas aux changements climatiques. Une foule de campagnes de relations publiques au cours des cinq dernières décennies ont dépensé des milliards de dollars dans le but expresse de semer le doute public sur la science. Les techniques sont généralement les mêmes: la mise en évidence de faits pris isolément , fournis par des médecins ou des scientifiques, dont les conclusions alternatives soutiennent votre agenda contre rémunération; souligner la nécessité d'un « débat sain » (quand il n'y en a pas vraiment); attaquer l'intégrité de la science devant le grand public et les scientifiques; mettre l'accent sur les conséquences négatives de la lutte contre le problème; fournir des histoires sympathiques aux journalistes (ou l'achat d'une publication de nouvelles); des fonds pour des collectifs  pour créer l'illusion d'un soutien populaire; appeler à «l'équilibre»; et donner de l'argent aux législateurs qui vont voter en votre faveur.

Dans les années 1960, par exemple dans le domaine du tabac, les entreprises ont monté une campagne pour créer de l'incertitude dans le public sur la preuve scientifique que le tabagisme provoque le cancer. L'industrie sucrière a financé la recherche à l'Université de Harvard pendant des décennies pour  créer l'incertitude sur le rôle du sucre dans les maladies cardiaques, tout en favorisant la graisse comme le vrai coupable. L'industrie chimique a vilipendé Rachel Carson pour créer l'incertitude sur les problèmes environnementaux causés par les pesticides. Les industries de la construction et de l'extraction ont mobilisé des ressources en faveur de consultants payés pour les aider à créer l'incertitude sur les risques pour la santé de l'amiante, la silice et le plomb. Plus récemment, la Ligue nationale de football a utilisé des données incomplètes et les médecins de la ligue affiliés ont créé de l'incertitude au sujet de la relation entre un traumatisme crânien et l’encéphalopathie traumatique chronique. Le message central est toujours: parce que nous ne pouvons pas être certains à cent pour cent, nous ne devrions rien faire.

La scission partisane a été exacerbée par ces campagnes, et par les médias formés depuis deux générations dans la fausse vision postmoderniste qui défend que l'objectivité n’a pas de réalité. Les écoles de journalisme l’enseignent; c’est contenu dans les lignes directrices du journalisme et répété par les plus grands journalistes. Conçu comme un avertissement contre l'hypothèse que sa propre déclaration ne serait pas impartiale, le mantra est tellement ancré que les journalistes remettent rarement en question ceux au pouvoir pour des motifs de non établissement de la preuve, ce qui est l'un des principaux objectifs du quatrième pouvoir. David Gregory, chef correspondant de NBC à la Maison Blanche pendant l'administration de George W. Bush, a dit très clairement dans sa défense de la Maison Blanche de ne pas avoir poussé le Président. Bush sur l'absence de preuves crédibles au sujet de Saddam Hussein sur "les armes de destruction massive» avant. envahissement de l'Irak par les U.S.A. "Je pense qu'il y a beaucoup de critiques qui pensent que ... si nous ne nous levons pas  et ne disons pas que « ceci est faux, et que vous êtes un menteur, et pourquoi faites-vous cela », nous ne faisons pas notre travail, » dit Gregory. « Je suis en désaccord avec eux. Ce n’est pas notre rôle."

Mais si ce n'est pas le rôle de la presse, à qui incombe-t-il ? Est-il partisan de contester Trump à propos de ses fausses affirmations sur le réchauffement climatique ? Comment les gens peuvent-ils prendre des décisions éclairées au sujet des politiques capitales ou d’élections importantes sans des informations raisonnablement objectives et  précises et dans le questionnement des puissants ? Au lieu de cela, les journalistes cherchent souvent à trouver des intervenants qui fourniront des arguments opposés et créer «l'équilibre», de sorte qu'ils peuvent apparaître comme des arbitres neutres dans le terrain de jeux. Mais le principe journalistique de l'équilibre est en difficulté quand il y a une affaire dans laquelle la science a des preuves significatives de ce qu’on peut être amené à défendre.

Les cabinets de relations publiques le savent et en profitent pour manipuler les journalistes. Un journaliste qui consacre la moitié de l'histoire à un scientifique qui représente toutes les connaissances créées à partir des dizaines de milliers d'expériences menées par des milliers de scientifiques (dont beaucoup ont risqué leur carrière et parfois leur vie) en utilisant des milliards de points de données, sur une main; et l'autre moitié à un ardent défenseur d'une opinion opposée représentant une vue de la minorité ou tout à fait extérieure à la science, est engagé dans un faux équilibre. Ces représentations dépeignent ces vues aberrantes comme si elles avaient le même poids que celles où la science est dominante, et donc d'élever des vues extrêmes (et l'extrême partisannerie) dans le dialogue national.

La nature autoritaire du déni de la science fait partie intégrante de la montée d'un nouveau nationalisme autoritaire qui est en réaction à la mondialisation provoquée par notre succès scientifique d'après-guerre, et est l'antithèse de la science et de la démarche scientifique de l'enquête. Ces autoritaristes mettent la science dans leur ligne de mire et affirment qu'elle est un outil partisan, tout comme ils ont demandé aux journalistes, en critique contre les «médias gauchistes »  de traiter les réclamations contre ces preuves. Mais la science n’est jamais partisane. Pour être efficaces, les scientifiques doivent être à la fois conservateurs et progressistes: Ils doivent étudier toute la science connue sur un sujet donné et au moins reconnaître et tenir compte des valeurs traditionnelles s’ils publient quelque chose de nouveau sur le sujet où ils risquent le suicide de leur carrière.

Mais ils doivent aussi être ouverts à de nouvelles idées et de nouvelles façons de penser, parce qu’il faut savoir où est la frontière, et le faire moins est un risque de stagnation de leur carrière, une autre forme de suicide. La science n’est jamais partisane, mais elle est intrinsèquement politique, parce qu’elle est antiautoritaire, fondée sur des conclusions et des preuves qui soit confirment soit contestent des idéologies ou des économies chères à quelques intérêts et qui est toujours politique. Considérée de cette façon, la politique n’est pas une simple continuum gauche-droite; elle a également une composante verticale entre l'autoritarisme et anti-autoritarisme. Ainsi, il y a des autoritaristes comme Mao et Staline sur la gauche; Hitler et Mussolini sur la droite, mais ce qu'ils ont en commun est l'intolérance à la sorte d'échange ouvert qui est au cœur de l'art, de la science et du progrès humain.

Cette tension verticale entre experts et autoritaristes aide à expliquer ce qui se passe au sein du Parti républicain et à la fois et dans l'Union européenne avec le vote du Brexit et la montée d'un nouvel autoritarisme, et pourquoi il est si corrosif pour la science. L'argument est entre anti-autoritaires qui soutiennent la science et la preuve, et autoritaristes qui en ont assez des experts.

Ce problème devrait peut être empirer dans les années à venir, en particulier si les candidats autoritaires continuent à être élus à l'aide d'un support de nouvelles qui traitent tous les points de vue, peu importe la non prise en charge de la légitimité. Nous créons des connaissances à selon un facteur 10 par rapport au taux que nous avions dans un passé récent. Toutes ces nouvelles informations doivent être analysées et leurs implications évoluent grâce à notre discussion morale et éthique, puis elles sont codifiées dans nos systèmes juridiques et réglementaires, ce qui est inévitablement un processus lourd et politique. Les progrès dans l'édition de gènes fournissent un contrôle croissant sur le processus de conception de la vie et de la création, ce qui soulève des questions éthiques et politiques complexes. Les progrès des neurosciences montrent de plus que l'esprit se situe dans la construction du cerveau.

Ces connaissances, combinées avec les progrès de la pharmacie et de la technologie d'interface ordinateur-cerveau, vont défier nos idées sur la psychologie, la spiritualité et la responsabilité personnelle ainsi que bousculer nos idées sur la justice pénale. Et pourtant, nous sommes toujours coincés dans un débat d’il y a e 40 ans sur la preuve que les humains sont à l'origine du réchauffement climatique.

Il existe des solutions cependant. Et www.Sciencedebate.org  en est certainement un début. Les faits montrent que le public est avide de cette discussion où  la science est axée sur les questions qui affectent les électeurs au moins autant que l'économie, la politique étrangère, et sur la foi et les valeurs traditionnelles des candidats  et des discutions qui donnent la possibilité d’interroger des candidats pour tenir compte des  preuves. Les particuliers peuvent s’y joindre ainsi que les organismes de soutien comme ScienceDebate.org ou de l'Union of Concerned Scientists qui luttent pour l'intégrité scientifique. Les pasteurs et les prédicateurs peuvent certainement faire plus en restant informés de la science de pointe et en aidant à ce que leurs paroissiens analysent les implications morales et éthiques complexes de nouvelles connaissances au lieu de ressasser de vieux clivages politiques. Les éducateurs peuvent développer des modèles de programmes et fournir une formation pour les classes de science et éducation civique au niveau secondaire et postsecondaire afin que les étudiants non scientifiques développent dans les politiques publiques une compréhension de la façon dont fonctionne la science, ainsi que la façon dont elle se rapporte à leur vie quotidienne. Il y en a des dizaines d'autres. Je discute beaucoup de ces solutions dans mon nouveau livre, « La guerre pour la science ».

Thomas Jefferson a écrit : «Partout où les gens sont bien informés, ils peuvent faire confiance à leur propre gouvernement." Nous devons développer des moyens plus robustes d'intégrer rapidement l'avancement des connaissances scientifiques dans notre dialogue politique, afin que les électeurs puissent continuer à guider le processus démocratique et la bataille contre le  retour de l’autoritarisme comme nous l'avons fait à notre fondation et que nous avons fait tout au long de notre histoire. Cela exigera des médias qu’ils repensent leur rôle dans les rapports sur les questions où les connaissances scientifiques sont cruciales. Est-ce idéaliste ? Oui. Tout comme l’étaient les fondateurs de l'Amérique.

mardi 31 mai 2016

Les ondes et les statistiques : comment instrumentaliser un supposé effet, et non comparable sur l'Homme ?

Le lien vers la préétude qu'une certaine presse cherche à monter en polémique par intérêt et faute d'analyse rigoureuse...:

Report of Partial Findings from the National
Toxicology Program Carcinogenesis Studies of Cell
Phone Radiofrequency Radiation in Hsd: Sprague
Dawley® SD rats (Whole Body Exposures)
http://biorxiv.org/content/early/2016/05/26/055699

Justifier ses angoisses liées aux nouvelles technologies est un travail de chaque jour...

Dès qu'une nouvelle étude sort, même si les tests sur les animaux ne montrent pas, bien au contraire, de surmortalité malgré d'énormes doses absorbées, on crie haut et fort : "le mobile donne le cancer ! C'est prouvé !" ;-)

Explication:

Malgré la classification du CIRC en 2B, la notion d’un risque cancérogène associé aux champs électriques et magnétiques comme ceux des portables s’est jusqu’alors heurtée à l’absence d’éléments de preuves sérieuses issues de l’expérimentation et l’opinion s’est apaisée. Les résultats d ’une expérimentation ultime du National Toxicology Program (NTP) étaient cependant attendus. Ces résultats viennent de tomber et identifient un risque de cancer du cerveau et de schwanomes cardiaques chez l’animal exposé depuis sa conception. Ce n’est sans doute pas extrapolable directement mais nous ne savons pas quel mécanisme est en jeu. Il est vraisemblable que certains vont en tirer des conclusions fort angoissantes sur les champs en général !

Alors, quelle doses ? Sont-elles comparables ou plus fortes ici que celles reçues dans vie courante ?

Question importante dans la mesure où un effet thermique pourrait-être évoqué à l'origine des observations. Dans l'expérimentation la ''dose'' (SAR) est donnée en W/Kg : de 1,5 à 6 watts par kg, ce qui est comparable à la ''dose'' absorbée dans un volume de 10 g de tissus exposés au niveau de l'oreille d'un portable chez l'homme. Il s'agit cependant chez l'animal d'une exposition corps entier, ce qui n'est pas comparable.

Rapporté aux champs des antennes dans lesquels nous sommes environnés par exemple on est très au dessus. Il reste qu'à ce niveau d'exposition il n'a pas été observé d'effets thermiques mesurables. Si le rapport était validé la notion d'un mécanisme cancérogène inconnu serait envisagée, ainsi que la demande de précaution naturellement justifiée dans de multiples situations d'expositions aux champs électriques et magnétiques.

Sachons ne pas conclure trop vite...

La probabilité de découvrir un nouvel effet semble infime, à fortiori de démontrer un quelconque effet sur l'Homme. Disons le...

S'il existe, le risque cancérogène est extrêmement faible et ne pose pas de problème majeur de santé publique, c'est en substance la réponse du 2ème extrait de l'article de Microwaves du 31 mai.

6W/kg sur quelque chose qui est essentiellement de l'eau (un coeur), cela fait +5°C par heure si la chaleur n'est pas évacuée. Bien sûr elle est évacuée, 
mais cela représente un stress sur le système de régulation de tout le 
corps, et cela peut avoir à la longue un effet hormonal.

De toutes façons c'est un effet global sur le corps et pas local. Pour ce qui est du cerveau humain, qui évacue de 
l'ordre de 20 watt, cela veut dire que les 
quelques 0.1 watts auquel on expose notre cerveau avec un portable sont 
négligeables vis-à-vis de l'exposition à laquelle sont soumis ces rats..

Ce qui est en jeu, à mon avis, c'est la nécessité de trouver une explication plausible aux faits observés, s'ils résistent à l'analyse critique. On se trouve face à la licorne du jardin de Maddox, celle qui témoignait de la mémoire de l'eau pour l'éditeur de ''Nature''...

--------------------------
Annexe : Détails

Contrairement à ce que certains commentaires ont essayé d'accréditer, cette étude ne permet aucune conclusion quant à l'exposition au portable (ou aux antennes relais) qui délivrent une exposition bien différente.

En effet, tout le corps des rats est exposé, de manière homogène alors que l'exposition au portable concerne essentiellement la tête, ce qui permet à la vascularisation de maintenir la température des zones les plus exposées à une valeur pratiquement normale.

D'autre part, la puissance du rayonnement pour une exposition de l'ensemble du corps était, selon les groupes de 90 rats, de 1,5 ; 3 et 6 W/kg (en alternance de 10 minutes allumé/éteint...) alors que la réglementation limite dans ce cas l'exposition humaine à 0,08 W/kg, soit respectivement 18, 37 et 75 fois plus !

L'exposition des rats peut en revanche être comparée à celle des antennes relais lesquelles entrainent également une exposition homogène de tout le corps, qui ne dépasse pas 0,00016 W/kg pour 97% des antennes, soit respectivement 9 375, 18 750 et 37 500 fois moins que les rats pendant les périodes d'exposition..L'hypothèse d'effets "thermiques", liés au seul échauffement des animaux exposés à de tels niveaux, doit donc impérativement être étudiée. 

Globalement, les résultats de cette étude préliminaire sont fort étonnants et en contradiction avec des nombreuses études animales antérieures. Ils auraient mérité vérification avant de les publier, au risque de créer des frayeurs infondées. En effet,

-        les rats non exposés vivent moins longtemps que les rats exposés (les auteurs ne précisent pas pourquoi) ce qui entraine normalement une incidence plus grande des cancers, que les auteurs ont tenté de corriger de manière peu convaincante par un artifice statistique ;

-        seuls les rats mâles présentent significativement plus de tumeurs, au plus haut niveau d’exposition (6 W/kg), sans explication ;

-        les rats ne semblent pas avoir été autopsiés en insu du groupe auquel ils appartenaient, ce qui peut entrainer un biais ;

-        des faux positifs (résultats dus au simple hasard) sont possibles au vu du très faible nombre de cas observés par groupe et du nombre de tests (qui n'est pas précisé mais semble important, notamment pour les schwannomes).

mardi 22 mars 2016

Pourquoi nous devons plutôt "croire" la science. par Naomi Oreskes


Reproduction de la traduction de l'article en français :

http://www.ted.com/talks/naomi_oreskes_why_we_should_believe_in_science

Tous les jours nous faisons face à des problèmes comme le changement climatique ou la sécurité des vaccins pour lesquels nous devons répondre à des questions dont les réponses s'appuient fortement sur l'information scientifique. Les chercheurs nous disent que le monde se réchauffe. Les chercheurs nous disent que les vaccins sont sûrs. Mais comment savoir s'ils ont raison ? Pourquoi devrions-nous croire en la science ? Le fait est, qu'en réalité, beaucoup d'entre nous ne croient pas en la science. Les sondages d'opinion publique montrent sans cesse qu'un pourcentage significatif de la population américaine ne croit pas que le réchauffement climatique est dû aux activités humaines, ne croit pas qu'il y a évolution par sélection naturelle, et n'est pas convaincu par la sécurité de la vaccination.

Pourquoi devrions nous croire en la science ? Eh bien, les chercheurs n'aiment pas parler de la science comme d'une croyance. En fait, ils opposeraient plutôt la science et la foi, et diraient que la croyance est du domaine de la foi. Et que la foi est une chose distincte et séparée de la science. En effet, ils diraient que la religion est fondée sur la foi ou peut-être sur les calculs du pari de Pascal. Blaise Pascal était un mathématicien du dix-septième siècle qui a essayé d'apporter un raisonnement scientifique à la question de savoir si l'on devait ou non croire en Dieu, et son pari était le suivant : Eh bien, si Dieu n'existe pas mais que je décide de croire en lui on ne perd pas grand chose. Peut-être quelques heures le dimanche. (Rires) Mais s'il existe et que je ne crois pas en lui, alors j'ai de gros problèmes.Et donc Pascal a dit que nous ferions mieux de croire en Dieu. Ou comme le disait un de mes professeurs d'université, « Il s'agrippait à la rampe de la foi. » Il a fait cet acte de foi en laissant la science et le rationalisme derrière.

Le fait est que, pour la plupart d'entre nous,

La plupart des allégations scientifiques sont des actes de foi. Dans la plupart des cas, nous ne sommes pas en mesure de juger les allégations scientifiques par nous-mêmes. Et en effet, c'est vrai pour la plupart des scientifiques en dehors de leur propre spécialité. Donc si on y réfléchit, un géologue ne peut pas vous dire si un vaccin est sûr. La plupart des chimistes ne sont pas experts en théorie de l'évolution. Un physicien ne peut pas vous dire, malgré les affirmations de certains d'entre eux, si oui ou non, le tabac provoque des cancers. Donc, même si les scientifiques eux-mêmes doivent faire un acte de foi en dehors de leurs propres domaines, alors pourquoi acceptent-ils les affirmations des autres scientifiques ? Pourquoi croient-ils les affirmations des autres ? Et pourquoi devrions-nous croire ces affirmations ?

Ce que je voudrais défendre c'est que oui, nous devrions mais pas pour la raison à laquelle la plupart d'entre nous pensent. La plupart d'entre nous ont appris à l'école que la raison pour laquelle nous devrions croire en la science est la méthode scientifique. On nous a enseigné que les scientifiques suivent une méthode et que c'est cette méthode qui garantit la vérité de leurs affirmations. La méthode que la plupart d'entre nous ont apprise à l'école, qu'on peut appeler la méthode classique, est la méthode de la déduction hypothétique. Selon le modèle standard, le modèle classique, les scientifiques développent des hypothèses, ils déduisent des conséquences de ces hypothèses, et ensuite ils vont dans le monde et disent, « OK, est-ce que ces conséquences sont vraies ? » Peut-on les observer dans le monde naturel ? Et s'ils ont raison, les scientifiques disent,« Génial, nous savons que cette hypothèse est vérifiée. »

Il y a donc de nombreux exemples célèbres dans l'histoire de la science où des scientifiques ont agi exactement ainsi. Un des exemples les plus célèbres est issu du travail d'Albert Einstein.Quand Einstein a développé la théorie de la relativité générale, une des conséquences de sa théorie était que l'espace-temps n'était pas uniquement une coquille vide mais qu'il avait, en fait, un tissu. Et que ce tissu était courbé en présence d'objets massifs comme le soleil. Donc si cette théorie était vraie, ça signifiait alors que la lumière, quand elle passait au niveau du soleil, elle devrait en fait se courber autour de lui. C'était une prédiction plutôt surprenante et ça a pris quelques années avant que les scientifiques ne soient capables de la tester mais ils l'ont fait en 1919, et il s'est avéré que c'était vrai. La lumière des étoiles se courbe bien lorsqu'elle passe autour du soleil.C'était une confirmation énorme de la théorie. Ce fut considéré comme une preuve de la vérité de cette nouvelle idée radicale, et ce fut écrit dans de nombreux journaux dans le monde.

Maintenant, parfois cette théorie ou ce modèle est utilisée comme référence du modèle déductif-nomologique, surtout parce que les universitaires aiment compliquer les choses. Mais aussi parce que dans le cas idéal, il s'agit de lois. Donc nomologique signifie que ça concerne les lois. Et dans le cas idéal, l'hypothèse n'est pas juste une idée : idéalement, c'est une loi de la nature. Pourquoi est-ce que ça compte que ce soit une loi de la nature ? Parce que si c'est une loi, on ne peut pas la briser. Si c'est une loi, alors ce sera toujours vrai partout et n'importe quand, quelles que soient les circonstances. Vous connaissez tous au moins un exemple de cette fameuse loi : la célèbre équation d'Einstein, E=mc², qui nous dit quelle est la relation entre l'énergie et la masse. Cette relation est vraie quoi qu'il arrive.

Maintenant, il s'avère qu'il y a plusieurs problèmes avec ce modèle. Le principal problème est qu'il est faux. Ce n'est tout simplement pas vrai. (Rires) Je vais vous parler des trois raisons pour lesquelles c'est faux. La première raison est une raison logique. C'est le problème de l'illusion d'affirmer le conséquent. C'est une autre façon fantaisiste et académique de dire que de fausses théories peuvent faire de vraies prédictions. Donc, simplement parce qu'une prédiction est vraie ça ne prouve pas de manière logique que la théorie est correcte. J'ai aussi un bon exemple de ça, encore issu de l'histoire de la science. C'est une image de l'univers Ptolémaïque avec la Terre au centre de l'univers et le soleil et les planètes autour. Le géocentrisme était considéré comme vrai par de nombreuses personnes très intelligentes pendant de nombreux siècles. Pourquoi ? Eh bien, la réponse est parce qu'il est constitué de nombreuses prédictions qui se sont avérées vraies. Le géocentrisme a permis aux astronomes de faire des prédictions précises sur les mouvements de la planète, en fait, plus précises au départ, que la théorie de Copernic que nous savons désormais vraie. C'est donc l'un des problèmes avec le modèle classique. Un deuxième problème est un problème pratique, c'est le problème des hypothèses auxiliaires. Les hypothèses auxiliaires sont des suppositions que les scientifiques font en étant conscients ou non de les faire. Un exemple important vient du modèle de Copernic, qui a finalement remplacé le système de Ptolémée. Lorsque Nicolas Copernic a dit, en fait la Terre n'est pas le centre de l'univers, le Soleil est le centre du système solaire, et la Terre se déplace autour du Soleil. Les scientifiques ont dit, bon OK Nicolas, si c'est vrai nous devrions être capable de détecter les mouvements de la Terre autour du Soleil. Et donc cette diapositive ici illustre un concept connu comme le parallaxe solaire. Les astronomes disaient que si la Terre se déplace et que l'on regarde une étoile connue, disons, Sirius -- bon je sais qu'on est à Manhattan et que vous ne pouvez pas voir les étoiles, mais imaginez que vous êtes dans la campagne, que vous avez choisi une vie rurale -- on regarde une étoile en Décembre, on voit cette étoile dans le contexte des étoiles éloignées. Si maintenant on fait la même observation six mois plus tard lorsque la Terre a bougé de sa position en Juin, on regarde la même étoile et on la voit dans un contexte différent. Cette différence, cette différence angulaire, c'est le parallaxe solaire. C'est donc une prédiction que fait le modèle de Copernic. Les astronomes ont cherché le parallaxe solaire et n'ont rien trouvé, absolument rien. Et de nombreuses personnes ont soutenu que ça prouvait que le modèle de Copernic était faux.

Donc que s'est-il passé ? Avec du recul, on peut dire que les astronomes faisaient deux hypothèses auxiliaires, dont on dirait maintenant qu'elles étaient incorrectes toutes les deux. La première hypothèse concerne la taille de l'orbite de la Terre. Les astronomes supposaient que l'orbite de la Terre était plus grande que la distance avec les étoiles. Aujourd'hui, on dessinerait plutôt une image comme ceci, ça provient de la NASA, et vous voyez que l'orbite de la Terre est en fait plutôt petite. En fait, elle est même bien plus petite que ce que l'on montre ici. Par conséquent, le parallaxe solaire, est très petit et en fait très difficile à détecter.

Et ça mène à la deuxième raison pour laquelle la prédiction ne fonctionnait pas, parce que les scientifiques faisaient aussi l'hypothèse que leurs télescopes étaient suffisamment sensibles pour détecter le parallaxe. Il s'est avéré que ce n'était pas vrai. Ce n'est qu'au dix-neuvième siècle que les scientifiques ont été capables de détecter le parallaxe solaire.

Il y a aussi un troisième problème. Le troisième problème est un problème factuel, Le modèle classique ne correspond pas à de nombreuses sciences. 

De nombreuses sciences ne sont pas du tout déductives, elles sont en fait inductives. Je veux dire par là, que les scientifiques ne commencent pas nécessairement par les théories et les hypothèses, souvent ils débutent par des observations de choses qui se passent dans le monde. L'un des exemples les plus célèbres est celui du scientifique le plus célèbre ayant existé, Charles Darwin. Lorsque Darwin, alors jeune homme, a embarqué sur le Beagle, il n'avait pas d'hypothèse, il n'avait pas de théorie. Il savait simplement qu'il voulait avoir une carrière de scientifique et il a commencé à collecter des informations. Il savait qu'il détestait la médecine parce que la vue du sang le rendait malade donc il devait trouver une carrière alternative. Donc il a commencé à collecter des données. Il a collecté de nombreuses choses, notamment ces célèbres pinsons. Lorsqu'il collectait ces pinsons, il les jetait dans un sac et n'avait aucune idée de ce que ça signifiait. Des années plus tard, de retour à Londres, Darwin a de nouveau observé ses données et a commencé à développer une explication, et cette explication, c'était la théorie de la sélection naturelle.

En plus de la science inductive, les scientifiques utilisent aussi souvent la modélisation. Une des choses que les scientifiques veulent faire dans la vie c'est expliquer les raisons des choses. Comment fait-on ça ? Eh bien, une des manières de le faire c'est de construire un modèle qui teste cette idée.

Voilà une photo d'Henry Cadell, qui était un géologue écossais du dix-neuvième siècle. On peut dire qu'il est Écossais parce qu'il porte une casquette à la Sherlock Holmes et des bottes en caoutchouc. (Rires) Cadell voulait répondre à la question suivante : comment se forment les montagnes ? Une des choses qu'il a observées c'est que si vous regardez des montagnes comme les Appalaches, vous remarquerez souvent que les roches sont pliées, et elles sont pliées d'une façon particulière, qui lui suggéra qu'elles étaient en fait comprimées par le côté. Cette idée jouera plus tard un rôle majeur dans les discussions sur la dérive des continents. Donc il a construit ce modèle, cette machine démente avec des leviers et du bois, et voilà sa brouette, des seaux, un gros marteau de forgeron. Je ne sais pas pourquoi il a des bottes en caoutchouc. Peut-être qu'il va pleuvoir. Il a créé ce modèle physique pour montrer que l'on pouvait, en fait, créer des motifs dans les roches, ou au moins, dans ce cas, dans la boue, qui ressemblent beaucoup aux montagnes si on les compresse sur le côté. C'était un argument sur l'origine des montagnes.

De nos jours, la plupart des scientifiques préfèrent travailler à l'intérieur, donc ils ne construisent plus tellement de modèles physiques mais plutôt des simulations sur ordinateur. Mais une simulation sur ordinateur est une sorte de modèle. C'est un modèle construit à partir de mathématiques, et comme les modèles physiques du dix-neuvième siècle, c'est très important pour réfléchir aux causes. Donc l'une des grandes questions liées au changement climatique, nous avons des quantités énormes de preuves que la Terre se réchauffe. Sur cette diapositive, la ligne noire montre les mesures que les scientifiques ont prises durant les 150 dernières années montrant que la température de la Terre a constamment augmenté, et l'on peut voir qu'en particulier que durant les 50 dernières années il y a eu une augmentation spectaculaire de presque un degré centigrade, ou presque deux degrés Fahrenheit.

Quelle est la cause de ce changement ? Comment peut-on savoir ce qui provoque ce réchauffement constaté ? Eh bien, les scientifiques peuvent le modéliser en utilisant une simulation informatique. Donc ce diagramme illustre la simulation informatique qui a observé tous les différents facteurs que nous connaissons comme influençant le climat de la Terre, les particules de sulfate de la pollution atmosphérique, les poussières volcaniques issues des éruptions, les changements de radiation solaire, et bien sûr, les gaz à effet de serre. Ils se sont posé la question : quel jeu de variables utilisé dans un modèle reproduirait ce que l'on voit réellement dans la vraie vie ? Donc ici, voici la vraie vie en noir. Voici le modèle en gris clair, et la réponse est un modèle qui inclut, c'est la réponse E sur ce QCM, toutes les propositions ci-dessus. La seule façon de reproduire les mesures de température observées, c'est en associant tous ces éléments, y compris les gaz à effet de serre, et, en particulier, vous pouvez voir que l'augmentation des gaz à effet de serre, cette augmentation très importante de la température au cours des 50 dernières années. Voilà pourquoi les spécialistes du changement climatique disent que nous ne savons pas juste que le réchauffement climatique existe, nous savons que les gaz à effet de serre en sont majoritairement responsables.

Donc, parce qu'il y a toutes ces choses que font les scientifiques, le philosophe Paul Feyerabend a fait cette célèbre citation : « Le seul principe en sciences qui n'inhibe pas le progrès est : tout est bon. » Cette citation a souvent été sortie de son contexte, parce que Feyerabend ne disait pas vraiment que tout est bon dans les sciences. Ce qu'il disait c'est, la citation complète est, « Si vous me demandez de dire ce qu'est la méthode scientifique, je devrais dire : tout est bon. » Ce qu'il voulait dire, c'est que les scientifiques font beaucoup de choses différentes. Les scientifiques sont créatifs.

Mais ça pose la question suivante en retour : si les scientifiques n'utilisent pas une seule méthode,alors comment décident-ils ce qui est vrai et ce qui est faux ? Et qui juge ? Et la réponse est que, les scientifiques jugent, et ils jugent en jugeant les preuves. Les scientifiques collectent des preuves de différentes manières, mais peu importe la façon dont ils les collectent, ils doivent les soumettre à un examen approfondi. Cela a amené le sociologue Robert Merton à se concentrer sur la façon dont les scientifiques analysent les données et les preuves, et il a déclaré qu'ils le faisaient avec une méthode appelée : « un scepticisme organisé ». Il considérait ça comme organisé parce qu'ils le font collectivement, ils le font en groupe, et le scepticisme, c'est parce qu'ils se placent en position de méfiance. Ça signifie, que la charge de la preuve incombe à la personne qui a une nouvelle affirmation. Et en ce sens, la science est intrinsèquement conservatrice. Il est très difficile de persuader la communauté scientifique de dire : « Oui, nous savons quelque chose, ceci est vrai. »Donc malgré la popularité du concept de changement de paradigme, ce que l'on voit c'est qu'en fait, les changements majeurs dans la pensée scientifique sont relativement rares dans l'histoire de la science.

Ce qui nous amène finalement à une idée supplémentaire : si les scientifiques jugent les preuves collectivement, les historiens se sont donc intéressés à la question du consensus, et peuvent dire finalement ce qu'est la science, ce qu'est la connaissance scientifique : c'est le consensus parmi les experts scientifiques qui, grâce à ce processus d'examen approfondi, d'étude collective, ont jugé les preuves et en ont tiré une conclusion, soit oui, soit non.

On peut donc considérer la connaissance scientifique comme un consensus d'experts. On peut aussi considérer la science comme étant une sorte de jury, sauf que c'est un jury vraiment spécial. Ce n'est pas un jury de vos pairs, c'est un jury de geeks. C'est un jury d'hommes et de femmes avec des doctorats, et à la différence des jurys conventionnels, qui n'ont que deux choix, coupable ou non coupable, le jury scientifique a, en fait, de nombreux choix. Les scientifiques peuvent dire oui, c'est vrai. Les scientifiques peuvent dire non, c'est faux. Ou bien, ils peuvent dire, eh bien ça pourrait être vrai mais nous avons besoin de travailler plus et de rassembler plus de preuves. Ou, ils peuvent dire que ça pourrait être vrai, mais que nous ne savons pas comment répondre à la question et que nous allons la mettre de côté et peut-être y revenir plus tard. C'est ce que les scientifiques appellent « insoluble ».

Mais cela nous amène à un ultime problème : si la science est ce que les scientifiques en disent, alors n'est-ce pas simplement faire appel à l'autorité ? Est-ce qu'on ne nous enseigne pas à l'école que faire appel à l'autorité est une logique fallacieuse ? Eh bien, voilà le paradoxe de la science moderne, le paradoxe de la conclusion, à laquelle, je pense, les historiens, les philosophes et les sociologues sont arrivés ; qu'en fait la science est un appel à l'autorité mais il ne s'agit pas de l'autorité d'un individu, quelle que soit l'intelligence de cet individu, comme Platon, Socrate ou Einstein. C'est l'autorité de la communauté dans son ensemble. Vous pouvez y penser comme une sorte de sagesse de la foule, mais une foule très spéciale. La science fait appel à l'autorité, mais ne se base pas sur n'importe quel individu, quelle que soit l'intelligence de l'individu. Elle se base sur la sagesse collective, la connaissance collective, le travail collectif de tous les scientifiques qui ont travaillé sur un problème particulier. Les scientifiques ont une sorte de culture de la méfiance collective cette culture du « Montre-moi », illustrée par cette belle femme ici montrant à ses collègues ses preuves. Bien sûr, ces gens ne ressemblent pas vraiment à des scientifiques, parce qu'ils sont trop heureux. (Rires)

OK, ça m'amène à mon dernier point. La plupart d'entre nous se lèvent le matin. La plupart d'entre nous font confiance à nos voitures. Voyons, je me dis, je suis à Manhattan, c'est une mauvaise analogie, mais la plupart des Américains qui ne vivent pas à Manhattan se lèvent le matin et montent dans leurs voitures, mettent le contact et leurs voitures fonctionnent, et elles fonctionnent incroyablement  5/5
bien.
L'automobile moderne tombe rarement en panne.

Comment ça se fait ? Pourquoi les voitures fonctionnent-elles si bien ? Ce n'est pas grâce aux génies comme Henry Ford, Karl Benz ou même Elon Musk. C'est parce que la voiture moderne est le produit de plus de 100 ans de travail de centaines, de milliers, de dizaines de milliers de personnes. La voiture moderne est le produit d'un travail de collecte de sagesse et d'expérience de chaque homme et femme qui a travaillé à un moment sur une voiture, et la fiabilité de cette technologie est le résultat de cet effort accumulé. Nous ne profitons pas uniquement du génie de Benz, Ford et Musk mais de l'intelligence collective et du dur labeur de toutes les personnes qui ont travaillé sur la voiture moderne. La même chose est vraie pour la science, sauf que la science est même plus ancienne. La base de la confiance dans les sciences est la même que la base de la confiance dans les technologies, et la même que la base pour croire en n'importe quoi, à savoir, l'expérience.

Mais nous ne devrions pas faire confiance aveuglement, tout comme nous ne devrions pas croire aveuglement en quoi que ce soit. Notre confiance en la science, comme la science elle-même, devrait être fondée sur les preuves, et ça signifie que les scientifiques doivent devenir de meilleurs communicants. Ils doivent nous expliquer non seulement ce qu'ils savent mais comment ils le savent, et ça implique que l'on devienne de meilleurs auditeurs.

Merci beaucoup.