Análisis de puntos focales en comunicación del cambio climático

10/03/2013 por Ferran P. Vilar

Texto publicado en el libro “Medios de Comunicación y Cambio Climático”, coordinado por Rogelio Fernández Reyes (Universidad de Sevilla, marzo 2013), Fénix Editora – en ocasión de las Jornadas Internacionales sobre Medios de Comunicación y Cambio Climático – Sevilla, 22-23.11.2012

Post Analisis focales de los medios de comunicacion ante el cambio climatico

La comunicación es uno de los aspectos menos explorados del problema climático. La necesidad de describir el problema, su magnitud y sus previsibles consecuencias no dejará de aumentar con el tiempo. En este ámbito, uno de los elementos necesarios es el establecimiento de una expresión que ejerza la función de punto focal, a modo de eslogan movilizador, a la vez que sea suficientemente expresivo por sí mismo. En este texto se analizan los atributos comunicativos de los dos puntos focales que son de uso general en la actualidad, a saber, un incremento máximo de temperatura de 2 ºC y una concentración atmosférica máxima de 350 ppm de CO2, y se examinan en el marco de la cadena causal del cambio climático y del conocimiento científico más reciente. Finalmente, se sugiere un nuevo punto focal, que se somete a reflexión y debate.

La cadena causal

Asociamos fácilmente el forzamiento antropogénico del calentamiento global con el dióxido de carbono resultado de la quema de combustibles fósiles. Sin embargo, es de la máxima importancia tener en cuenta otros dos factores que contribuyen al forzamiento del estado climático de los últimos 10.000 años, cuya estabilidad permitió el desarrollo de todas las civilizaciones conocidas, y al que la vida está adaptada.

El primero de estos factores adicionales está formado por los demás gases de efecto invernadero (denominados gases traza), a saber, y principalmente, el gas natural (metano), los óxidos de nitrógeno, el ozono troposférico y los clorofluorocarbonos CFC y sus sustitutos los HFC. Se ha calculado que estos otros gases ejercen un efecto invernadero de una magnitud tal que supone algo menos de la mitad del forzamiento climático total en el sentido del calentamiento. Sin embargo, se diferencian del CO2 en que su tiempo de residencia en la atmósfera es comparativamente muy bajo, lo que, en la práctica, les confiere una importancia secundaria.

Cadena causal

El segundo factor está constituido por los aerosoles, partículas sólidas microscópicas en suspensión que son generadas también por la actividad humana. Casi todos los aerosoles añaden efecto invernadero, salvo uno de ellos: las partículas de dióxido de azufre que son emitidas por las centrales de generación de energía eléctrica a base de carbón, las mayoritarias. Estas partículas son las que provocan la lluvia ácida. Salvo Europa y los Estados Unidos, muy pocos países disponen de reglamentaciones medioambientales al respecto que obliguen a filtrar y retener estas partículas. Actualmente, la gran cantidad de centrales de generación de energía eléctrica a base de carbón que se están construyendo en China, India y otros países en desarrollo, está contribuyendo a aumentar la concentración de aerosoles de azufre en la atmósfera.

Su efecto climático, a diferencia de los demás aerosoles, tiene la particularidad de reflejar hacia el espacio, y apantallar así, una parte de la cantidad de energía procedente de la radiación solar que llega a la superficie de la Tierra, compensando así parcialmente el forzamiento de los gases GEI. ¿Cuál es esta parte?

Sólo sería posible saberlo mediante mediciones efectuadas desde satélites que alojaran una instrumentación de medida ad hoc. Sin embargo, por algún motivo los dos satélites que se han intentado poner en órbita a este exclusivo fin han fallado en su objetivo, y resultaron destruidos antes de alcanzar la órbita que tenían asignada. La falta de disponibilidad de estas mediciones es uno de los factores  que más influye en la dificultad de aumentar la exactitud de las predicciones en la ciencia del clima.

En estas condiciones,  sólo es posible conocer su influencia mediante estimaciones indirectas, que añaden siempre cierta incertidumbre. El estado del conocimiento actual nos permite afirmar que su efecto de compensación del efecto invernadero de los gases y los demás aerosoles se encuentra entre dos extremos: 1) llega a compensar el forzamiento positivo de todos los gases traza y el resto de aerosoles; y 2) compensa incluso una parte del forzamiento debido al dióxido de carbono.

Sea como fuere, estamos frente a una de las mayores incertidumbres de la ciencia del clima. Sabemos lo suficiente como para realizar estas afirmaciones pero, junto al papel de la nubosidad, la influencia precisa de los aerosoles en el sistema climático constituye, hoy por hoy, uno de los elementos en los que los márgenes de incertidumbre científica son mayores, lo cual no es ninguna buena noticia en la medida de que convierte en verosímiles los peores augurios. El tiempo de residencia en la atmósfera de estos aerosoles se mide en días o semanas de modo que, si todas las centrales eléctricas de carbón cesaran súbitamente su actividad, en un par de semanas la temperatura media de la Tierra aumentaría entre varias décimas y 2 ºC de forma casi inmediata (1,2).

¿Cuánto es demasiado cambio climático?

Para poder decidir cuál es la ‘cantidad’ de cambio climático que estamos dispuestos a soportar debemos fijarnos en los impactos. Éstos tienen lugar en tres ámbitos diferenciados: el aumento de temperatura actual, el aumento de temperatura futuro y, además, aquellos que están relacionados con la emergencia de carbono adicional al ciclo físico-biológico. Entre estos últimos se encuentran la afectación sobre la vegetación, los suelos y los océanos.

Pero vayamos a los orígenes.

La cadena causal (figura 1) comienza con la emisión a la atmósfera de gases de efecto invernadero y aerosoles. Este cambio en la composición físico-química de la atmósfera produce un forzamiento radiativo, en el sentido de que altera la cantidad y distribución de la radiación que llega a la superficie de la Tierra, condicionando así su temperatura. Sin embargo, debido al retardo del sistema climático que introduce el efecto de amortiguación de los océanos y de las grandes masas de hielo, la temperatura de equilibrio que corresponde a determinada composición atmosférica no se manifiesta de forma inmediata.

Así pues, dado el efecto invernadero del CO2, de los demás gases traza y de los aerosoles con efecto invernadero, compensado éste por el efecto de apantallamiento solar de los aerosoles de azufre, en un determinado momento 1) se habrá producido un aumento de la temperatura, que denominaremos actual, y 2) quedará todavía cierto aumento por producirse, el que  corresponde a la totalidad del forzamiento, que denominaremos futuro, en la medida en que ese forzamiento no se ha manifestado todavía. Dicho de otro modo, mientras no se haya alcanzado la temperatura que corresponde a cada composición atmosférica concreta, la Tierra estará en desequilibrio, en desequilibrio energético pues, debido al efecto invernadero aumentado respecto al natural, ésta absorbe una cantidad de energía del sol superior a la que es capaz de devolver al espacio, de modo que la acumula. Si este desequilibrio fuera cero, la temperatura ya no aumentaría más. Si fuera negativo, disminuiría.

¿Son tolerables más de +2 ºC, como se tiene en muchos círculos como límite de seguridad? Depende de lo que consideremos ‘excesivo’. Dado que el calentamiento global provoca una disminución neta de la productividad agrícola, estimada en un 10% por ºC (3) al tiempo que la población no deja de aumentar exponencialmente y la biotecnología parece estar en una situación de rendimientos decrecientes ¿en qué punto de precio de los alimentos o desnutrición entenderíamos que hay demasiado calentamiento?

Burning embers nou

¿Sería demasiado cambio climático si éste llegara a afectar a muchos ecosistemas? Recordemos que nuestro sistema económico depende de ellos, a través de los denominados servicios ecológicos. ¿Sería demasiado que el número de fenómenos meteorológicos extremos sufriera un gran aumento? ¿Consideraríamos demasiado que la distribución de los impactos del cambio climático fuera negativa para la mayor parte de las regiones del planeta, lo que nos incluye a nosotros? ¿O que los impactos “de mercado” hagan que la mayoría de las personas de este mundo resultara afectada de forma adversa?  ¿Consideraría usted excesivo que el riesgo de discontinuidades a gran escala fuera elevado?

Tal vez la rotundidad de alguno de los riesgos anteriores fuera ya suficiente por si sola como para hacer todo lo posible para evitar el cambio climático. Pero se da el caso de que la comunidad científica ha afirmado que las tres primeras escalas de medida mencionadas, en el caso de un incremento de sólo +2 ºC, están claramente en zona roja, y en ámbar las dos últimas (4) (figura 2). Ciertamente, decidir cuál es el riesgo máximo tolerable es una cuestión social y no científica, pero la ciencia es capaz de señalarnos el riesgo que asumimos en función de la decisión que vayamos a tomar.

En este sentido, los mejores climatólogos y expertos en especialidades académicas afines, reunidos en Copenhague seis meses antes de la convención política de 2009, declararon:

“Aunque un incremento de 2 ºC respecto a la era preindustrial siga siendo el umbral más citado para evitar el cambio climático peligroso, acarrea sin embargo riesgos significativos de impactos dañinos para la sociedad y el medio ambiente.” (5)

Así pues, si alguno de los riesgos mencionados, denominadas ‘motivos de preocupación’, podría ya ser excesivo por sí mismo, los cinco a la vez nos conducen de manera natural a un rechazo frontal de la afirmación del punto focal de +2 ºC en tanto que límite de seguridad.

Lo cierto es que estamos frente a un valor adoptado por el proceso político que se inició en los años 90, pero que no tiene el menor soporte científico. Veamos si no el texto del escuálido “Acuerdo de Copenhague”, momento que se tiene por el origen público de este guarismo como punto focal:

“Para alcanzar el objetivo último de la Convención de estabilizar la concentración de gases de efecto invernadero en la atmósfera en un nivel que evite una interferencia antropógena peligrosa en el sistema climático, [y teniendo en cuenta la opinión científica de que el aumento de la temperatura mundial debería permanecer por debajo de 2 ºC, sobre la base de la equidad y en el contexto del desarrollo sostenible], intensificaremos nuestra cooperación a largo plazo para luchar contra el cambio climático.” [Corchetes y énfasis añadidos] (6)

Démonos cuenta de que los firmantes no sancionan que la comunidad científica señale los +2 ºC como límite de seguridad, sino que tiene que estar por debajo. Ni tan sólo menciona la referencia de medida, de modo que es posible suponer que se refieren bien a la temperatura media preindustrial, a la que se tiene como base en la comunidad científica, o bien a la del año 2009 (o cualquier fecha intermedia como 1990, año del protocolo de Kioto): no sería una diferencia  menor, pues la temperatura ha aumentado ya poco menos de 1 ºC entre esos dos momentos, habiendo añadido a la atmósfera, y sobre todo a los océanos, una inmensa cantidad de energía. Tampoco se dice nada de que se haya acordado no superar los +2 ºC: lo único que se acuerda es “intensificar la cooperación a largo plazo”[1].

Pero en ese momento, gracias a los impagables servicios de la agencia de comunicación Hill & Knowlton, contratada por el gobierno entonces liberal de Copenhague, todos creímos erróneamente que los países firmantes habían acordado no superar los +2 ºC, y que además los científicos afirman que es un límite de seguridad (7). Cosas de los mercenarios de la comunicación.

Cabe en todo caso preguntarse por la viabilidad de la consecución de este supuesto objetivo. Tras un minucioso análisis, Kevin Anderson y Alice Bows, del Tyndall Centre for Climate Research, publicaron en la académica Philosophical Transactions of the Royal Society of London que:

“… a pesar de las declaraciones de alto nivel en contrario, la probabilidad de mantener el incremento de la temperatura media global por debajo de +2 ºC es mínima o inexistente. Además, los impactos asociados con +2 ºC han sido revisados al alza, lo suficiente como para que la línea de los +2 ºC represente ahora más apropiadamente el umbral entre el cambio climático ‘peligroso’ y el cambio climático ‘extremadamente peligroso.” [énfasis añadido] (8).

La cantidad de trabajos científicos que concluyen en la práctica imposibilidad de mantener la temperatura por debajo de +2 ºC es abrumadora. Los pocos estudios que sugieren alguna verosimilitud efectúan tal número de suposiciones arriesgadas respecto del sistema climático y acerca de la disponibilidad y aceptación social a gran escala de tecnologías todavía en fase de maduración, e incluso inexistentes, que sería un auténtico milagro que se revelaran acertados (9). En cualquier caso, las exigencias en reducción de emisiones son tan inmediatas, y tan rápidas, que nos es permitido dudar de su posibilidad de realización.

James Hansen, el climatólogo-jefe de la NASA y referido como el mejor climatólogo del mundo por sus compañeros, presentó a principios de 2008 un enfoque diferente, referido a una variable distinta: la concentración de CO2 en la atmósfera no debe de ser superior a 350 ppmv[2] (10). Hasta entonces el IPCC, aunque formalmente no efectúe recomendaciones, había centrado sus análisis en situaciones de 550 ppmv en 1990-2001 y 450 ppmv en 2007, otorgándoles así la consideración implícita de tolerables. Sin embargo, Hansen y su equipo señalan que:

“Hemos llegado a la conclusión de que la Tierra, en los períodos interglaciales más cálidos, fue menos de 1 ºC más caliente que el Holoceno, y que los objetivos de limitar el calentamiento antropogénico a 2 ºC y 450 ppm son recetas para el desastre. El calentamiento polar en los anteriores interglaciales y en el Plioceno no supone la existencia de colchón alguno entre el cima actual y el clima peligroso: por el contrario, la Tierra está hoy destinada a experimentar fuertes efectos de retroalimentación polar positiva en respuesta a un calentamiento moderado.” [Énfasis añadido] (11)

El nivel del mar en los interglaciales anteriores a los que se refiere el texto, correspondiente a épocas en las que la temperatura media de la Tierra no llegaba a ser dos grados superior a la preindustrial, era entre 5,5 y 9 metros superior al actual, una vez el planeta alcanzó su equilibrio térmico (12), pero cuando en el Plioceno llegó a ser 2 ºC superior, el nivel del mar alcanzó por lo menos 25 m más que el presente (13). ¿No sería esto demasiado?

La propuesta de las 350 ppmv supuso, y sigue suponiendo, un cambio fundamental en la consideración del fenómeno. El motivo no es otro que, al ser la concentración actual algo mayor de 390 ppmv, resulta que los valores sugeridos por el IPCC ofrecerían margen de actuación, pero si el límite está en 350 ppmv nos damos cuenta súbitamente de que estamos ya por encima del umbral (actualmente a más de 390 ppmv), y nuestro primer objetivo consiste en invertir cuanto antes la tendencia al crecimiento permanente de esa concentración. Un auténtico game-changer.

Ningún climatólogo ha desautorizado convincentemente la ciencia de James Hansen, si bien muchos siguen todavía en la ficción de escenarios de análisis que ya nada tendrán que ver con la realidad, o que son recetas para el desastre. Estos trabajos, sin embargo, van a ser incorporados al próximo informe del IPCC y, como todos querremos creernos los escenarios más favorables, atribuiremos credibilidad al mínimo común denominador que se tiene en ese foro como norma de funcionamiento. Nos resultará así perceptivamente ocultada la magnitud de la probabilidad del caso peor que, según se ha podido demostrar, resulta ser mucho mayor que la del caso mejor (14).

Con todo, el punto focal +2 ºC ha tenido mucho más eco y promoción mediática del que merece, y se ha convertido en la referencia que todo político de cualquier nivel – negacionistas aparte – y la mayor parte del público tiene acerca del problema climático. Por su parte, las 350 ppmv han alcanzando un éxito más restringido a los movimientos activistas, habiendo dado lugar nada menos que a una organización de alcance mundial exclusivamente dedicada al problema climático, denominada 350.org. Dirigida por el carismático posibilista estadounidense Bill McKibben, declara que ésta es la cifra más importante de la humanidad. Este movimiento, que cuenta con el apoyo explícito de climatólogos y otras personalidades en su condición de mensajeros, ha cosechado un notable éxito, si bien todavía insuficiente. Su mayor virtud es su carácter intersticial en red y el amplio alcance mundial de sus actividades, que ocasionalmente reciben eco en algún medio de comunicación.

Así pues, en el ecosistema comunicativo del cambio climático existen dos puntos focales principales en tanto que objetivos climáticos: no superar +2 ºC y reducir la concentración de CO2 a 350 ppm. La experiencia muestra, sin embargo, que su capacidad de movilización es, al menos por ahora, limitada. Examinemos sus características desde el punto de vista comunicativo.

El punto focal +2 ºC

La principal característica de este punto focal es que ha sido asumido por los economistas – profesión a la que la clase política presta atención preferente – y que ha sido convertido en referencia ampliamente aceptada en el entorno político y mediático[3]. Tiene la ventaja de que, al tratarse de una variable de temperatura, resulta muy comprensible. Pero entiendo que aquí terminan las prestaciones favorables a la adopción de este punto focal.

Podría pensarse que una ventaja adicional deriva de su condición de variable tangible, detectable por los sentidos. Sin embargo, esta aparente ventaja se diluye en el marco de la confusión popular entre tiempo meteorológico y clima, pues a nadie parecería tener que preocupar un incremento tan pequeño. En este sentido, estamos frente a un punto focal desmovilizador en cuanto a los efectos del cambio climático: el público, desconocedor de la gravedad de las consecuencias de este valor promedio, puede aceptar un incremento de 2 ºC como algo tolerable. Incluso podría ser deseable en ciertas latitudes. Tampoco es todo lo movilizador que la situación requiere pues, en la medida en que no se ha superado todavía este valor, puede parecer que todavía queda tiempo, en la medida de que el retardo inherente al sistema climático no es algo bien conocido por el público.

Por otra parte, el método de medición de la temperatura promedio es controvertido en la medida en que, en cada período de tiempo que se considere, tiene lugar una variabilidad natural del sistema climático que se superpone al forzamiento antropogénico, y que dificulta la atribución precisa del incremento de temperatura. ¿Tomamos el valor de cada año? ¿El promedio de los últimos 5, 10, 20 años, eliminando así las variabilidades naturales de período corto (variaciones en la radiación solar, corriente oceánica El Niño, etc.)? ¿Respecto a qué año medimos el incremento? ¿La temperatura preindustrial? ¿El año 1990, referencia de Kioto? ¿El año 2000? (15) En estas condiciones, decidir si se ha alcanzado ese incremento de temperatura, o a qué distancia del mismo nos encontramos en cada momento, puede dar lugar a debates inacabables y a facilitar los intentos de distracción.

Este punto focal es, asimismo, desmovilizador respecto a las causas, pues nada nos dice sobre ellas. Además, al encontrarse cerca del final de la cadena causal, la incertidumbre acumulada entre la causa original y este valor es elevada, lo que no permite establecer objetivos de emisiones con la precisión deseable. Peor aún, la dinámica del sistema económico actual llevaría, como de hecho se está haciendo implícitamente, a apurar en exceso el margen superior. Esta situación conduce, sin solución de continuidad, a aumentar la probabilidad de superar el objetivo. Con más motivo por cuanto el efecto de temperatura antecede a las causas en el tiempo, en una magnitud singularmente indeterminada por el conocimiento científico actual, pero que puede medirse en décadas. Esto significa que, al acercarnos al valor límite establecido, es ya muy tarde para establecer acciones para evitarlo.

En cualquier caso, el hecho de que este punto focal +2 ºC no sea considerado seguro por los científicos naturales sino, antes bien, una ‘receta para el desastre’, debería ser razón suficiente para descartarlo. No parece lógico que el consenso de economistas, políticos estándar y medios de comunicación sea un argumento suficiente en su favor.

El punto focal 350 ppm

Por el contrario, el punto focal de 350 ppm si cuenta con el acuerdo generalizado de la comunidad científica, versión ciencias naturales, si bien se mantiene cierta discrepancia acerca de si hay que referirse solamente al CO2 o a CO2 equivalente-  es decir, contando también con los demás gases traza – lo que resultaría mucho más exigente. Y a diferencia de la variable de temperatura, esta magnitud si apunta directamente a la causa del problema climático (el forzamiento) y nos recuerda su origen antropogénico. Se trata de la variable a controlar y, en este sentido, visualiza el clima como sistema. Además, el método de medición es mucho menos controvertido, y su variabilidad interanual muy reducida.

Hemos señalado que esta cifra, establecida como objetivo, si resulta movilizadora. Esto es así porque la concentración actual de CO2 en la atmósfera es superior a 390 ppm y, si se tiene en cuenta el efecto de todos los gases, es ya superior a 450 ppm CO2eq. De modo que, a diferencia de unos +2 ºC todavía no alcanzados establecer como objetivo una concentración de GEI[4] inferior a la actual, concentración que por otra parte no cesa de aumentar, sugiere la idea de que la acción correctora debe de ser inmediata, con el fin de revertir la situación cuanto antes. Es más: indica que cualquier acción debe ser drástica, en la medida de que el umbral de seguridad ha sido ya superado y no conocemos lo suficiente cuánto margen de tiempo de overshoot nos autoriza el sistema climático, si es que autoriza alguno.

Pero este punto focal presenta también algunas limitaciones. Por ejemplo, su facilidad de memorización es moderada aunque, como en el caso de los +2 ºC, este hecho puede ser parcialmente corregido mediante una promoción suficiente. Pero su principal inconveniente reside en su incertidumbre: nadie puede afirmar con toda rotundidad que 350 ppm es el valor límite (analogía del colesterol), toda vez que su propio proponente, James Hansen, afirma que debe ir acompañado, necesariamente, de la paulatina y rápida eliminación de los gases traza y aerosoles que contribuyen al efecto invernadero.

Propuesta de nuevo punto focal: cero sin azufre

La razón científica que concluye con la determinación de la cifra de 350 ppmv no es otra que la necesidad de devolver a la Tierra a su equilibrio energético perdido. Como hemos visto, la temperatura sólo cesará de aumentar cuando dicho desequilibrio (en inglés energy imbalance) haya desparecido. De modo que el objetivo real, la misión de fondo, es que este desequilibrio sea cero[5]. Una forma de reducirlo, desde luego, consiste en disminuir la concentración en la atmósfera de los gases y partículas que contribuyen a él. Pero otra forma alternativa sería provocar la reducción de la cantidad de radiación solar que alcanza a la superficie de la Tierra.

Hemos visto que los aerosoles de azufre cumplen esta función. Sin embargo, para que los aerosoles de azufre presentes en la troposfera fueran capaces de compensar el desequilibrio energético total producido por los gases (y los demás aerosoles), su concentración debería ser de una magnitud tal que interferiría seriamente sobre toda la biosfera, y desde luego afectaría gravemente a nuestra salud. Este camino queda pues descartado pues, por el contrario, bien pronto los países denominados emergentes se verán en la necesidad de establecer controles y filtros que eviten la emisión de estas partículas a la atmósfera, con el fin de proteger sus sistemas ecológicos y su población.

Queda sin embargo otra posibilidad, que es la de difundir partículas de este tipo en la estratosfera regularmente, aviación mediante. Entramos aquí en el terreno de la geoingeniería, versión ‘gestión de la radiación solar’. Se trata de una de las técnicas de la denominada geoingeniería fuerte[6], o intervención a gran escala en el sistema climático de la Tierra.

Aunque es muy posible que, dado el punto al que hemos llegado, sea inevitable algún grado de geoingeniería en el futuro, en la actualidad estas técnicas son altamente especulativas, y lo serán previsiblemente durante mucho tiempo. Nada garantiza que no se produzcan efectos indeseados imprevistos, y en todo caso parece claro que su implantación cambiaría de forma sustantiva los patrones de precipitación en gran parte del mundo (16, 17).

Por lo demás, si resulta ya difícil que la comunidad internacional adopte acuerdos climáticos significativos en aquello que está en sus manos ¿se pondría de acuerdo en la técnica e intensidad de geoingeniería supuestamente necesaria? En el caso de las reducciones de emisiones, cada país es responsable de las suyas. Pero, en términos de geoingeniería ¿quién la llevaría a cabo? ¿Un solo país? ¿Naciones Unidas? ¿Quién gobernaría el proceso? (18) ¿Quién asumiría la responsabilidad por los posibles daños colaterales?

Salvo en caso de emergencia planetaria grave e irreversible por otros medios, la geoingeniería no es una opción aceptable para nadie preocupado por el problema climático. No resuelve el problema de la acidificación de los océanos, sugiere la posibilidad de seguir derrochando energía fósil a gran velocidad y sus consecuencias indeseables no son bien conocidas y tal vez no lo sean nunca sin haber hecho antes el experimento.

Creer que la tecnología puede solucionar el problema climático es una ingenuidad. El tecno-optimismo está en horas bajas, sobre todo desde que sabemos que ni tan sólo puede ofrecernos energías renovables en la cantidad que sería deseable. Démonos cuenta, además, de que el problema climático ha surgido debido a la ilusión tecnocrática de dominio del planeta por parte de ciertas civilizaciones adolescentes del presente: no deberíamos corregir el error cayendo de nuevo en el mismo.

Podemos pues convenir que la atmósfera no debe de contener azufre, cuyas connotaciones diabólicas no son tampoco un buen augurio. De modo que lo que pretendemos, climáticamente, es que el desequilibrio energético de la Tierra sea cero, y ello sin emplear azufre. Cero sin azufre. Zero sulfurless.

¿Podría ser esta expresión un nuevo punto focal en el debate climático? No es mi intención realizar una propuesta formal al respecto, en sustitución del ya bien establecido “350”, con el que comparte muchos atributos deseables y que, como hemos visto, en realidad dicen (casi) lo mismo. Pero sería interesante reflexionar sobre él, y examinar si podrían ser complementarios. Las tablas adjuntas pueden contribuir a este análisis.

Pulsar en las tablas para mejor resolución

Tabla 2

Conclusiones

La comunicación del cambio climático es uno de los ámbitos menos explorados (19) de un problema de alcance planetario, pero que cuenta con características locales que son función del contexto idiomático, cultural, geográfico y social. El espacio comunicativo en este campo está singularmente plagado de una gran diversidad de dificultades perceptivas, resistencias psicológicas,  interferencias interesadas y silencios cómplices. Así, la promoción de la movilización de la población mundial en favor de la exigencia de respuestas adecuadas a la magnitud del problema constituye toda una proeza donde el periodismo, los profesionales honestos de la comunicación y todo comunicador público tienen un gran papel a jugar, junto a una responsabilidad ineludible.

Comunicar el problema climático de forma que se conjugue el rigor con la veracidad asequible al público; la complejidad del problema con la sencillez expositiva; la noticia meteorológica o social del momento con su contexto climático y causal; y la razón científica con la emoción movilizadora, constituye un reto extraordinario y una necesidad social de la mayor prioridad, a la que los comunicadores debemos responder adecuadamente.


[1] Convenciones ulteriores han corregido esta situación y establecido este límite con mayor claridad
[2] Partes por millón, en volumen
[3] Por ejemplo, es sorprendente que una persona como Cristina Narbona afirme en público  que “los científicos nos dicen que un incremento de +2 ºC es tolerable”.
[4] Gases de efecto invernadero
[5] Hacerlo negativo permitiría a la Tierra enfriarse y tal vez reponer su estabilidad preindustrial pero, dado lo lejano del objetivo, lo primero es anular el desequilibrio positivo que lleva a que el calentamiento prosiga.
[6] En contraposición a la geoingeniería denominada débil, por ejemplo la reforestación para absorber parte del CO2 en exceso.

Visto en ustednoselocree.com

por Fernando Valdepeñas COG Editor

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s