El mayor reactor experimental de fusión nuclear está listo para entrar en acción. No es JET y es crucial para ITER.

Si deseas profundizar en esta entrada; cliquea por favor donde se encuentre escrito con “azul”. Muchas gracias.

El reactor de fusión JT-60SA ha seguido su camino con discreción. Casi sin hacer ruido. Y, sin embargo, forma parte de un experimento muy importante. 

De hecho, hasta que ITER, el reactor experimental de fusión que está siendo construido en Cadarache (Francia) esté listo, esta sofisticada y compleja máquina japonesa será el reactor de fusión más grande sobre la faz de la Tierra.

Está instalado en Naka, una pequeña ciudad no muy alejada de Tokio (pequeña para los estándares nipones). Esta máquina es el auténtico corazón del programa de fusión público de Japón, pero no es importante solo para el país que la alberga; también lo es para Europa, que está colaborando estrechamente con Japón para llevar este proyecto a buen puerto.

De hecho, el objetivo primordial del reactor JT-60SA es llevar a cabo una colección de experimentos cuyos resultados serán muy valiosos para ITER. En otras palabras, lo que persigue es allanar el camino a este último reactor de fusión, algo que ya está haciendo el reactor experimental JET alojado en Oxford (Inglaterra). 

En marzo de 2021 JT-60SA dio un traspié, algo que, por otra parte, es normal en un proyecto tan complejo como este. Pero este año nos promete emociones fuertes.

Las pruebas con plasma en el reactor JT-60SA empezarán a finales de 2023

La construcción de este reactor experimental de fusión nuclear comenzó en enero de 2013. Pero no lo hizo desde cero; lo hizo tomando como punto de partida el reactor JT-60, su precursor, una máquina que entró en operación en 1985 y que durante más de tres décadas ha alcanzado hitos muy importantes en el ámbito de la energía de fusión. 

El ensamblaje del JT-60SA finalizó a principios de 2020, y la intención de los científicos japoneses y europeos involucrados en su puesta a punto era iniciar las pruebas con plasma lo antes posible, pero se toparon con un inconveniente.

Antes de abordar los tests con plasma es necesario poner a prueba otros subsistemas del reactor para comprobar que todo funciona correctamente. Es lo normal, especialmente en una máquina tan compleja como lo es un reactor experimental de fusión. 

Pero en marzo de 2021 se produjo un giro inesperado de los acontecimientos: durante los tests previos a las pruebas con plasma se desencadenó un cortocircuito en los terminales de una de las gigantescas bobinas de campo poloidal que se responsabilizan del confinamiento magnético del gas a altísima temperatura.

Afortunadamente, los ingenieros que operaban el reactor en ese momento reaccionaron con mucha rapidez y consiguieron limitar los daños. En ese momento los imanes estaban funcionando con baja corriente, pero, aun así, se produjo una fuga de helio que obligó a los técnicos a apagar esta máquina. 

Estas incidencias son en gran medida inevitables en un ingenio tan complejo como este, y este contratiempo en particular ha requerido la reparación de 90 elementos del reactor, y también ha obligado a los técnicos a volver a cablear todos los sensores.

Como es lógico, durante el tiempo que han requerido estas reparaciones no se ha podido seguir adelante con el programa de investigación que describe el itinerario del reactor, pero los científicos japoneses y europeos involucrados en este proyecto están trabajando a buen ritmo. Y su esfuerzo va a verse recompensado en breve debido a que durante el próximo mes de marzo iniciarán las pruebas «en frío» que preceden a los primeros tests con plasma, que, si todo va bien, llegarán a finales de 2023.

Tweet

Ver Tweets nuevos

Conversación

Fusion For Energy

@fusionforenergy

JT-60SA, the biggest #fusion device until ITER is completed, will resume operations in 2023! We go behind the scenes of this major scientific experiment with @iterjapan https://bit.ly/3irW8Kf #innovation #collaboration

Traducir Tweet

Imagen

Fusion For Energy y 6 más

8:30 a. m. · 1 dic. 2022

Es una noticia fabulosa. Y lo es porque, como hemos visto más arriba, el propósito del reactor JT-60SA es entregar información muy valiosa a ITER. 

Su programa de investigación contempla varias fases durante las que se pondrá a prueba la estabilidad del sistema magnético en el modo de operación de alta corriente, y también se estudiará el comportamiento del plasma, entre otros objetivos. 

Un apunte interesante: la base del criostato, que es una cámara de acero inoxidable que proporciona el alto vacío y preserva el entorno ultrafrío que requieren los imanes superconductores, ha sido fabricada en España.

Si deseas ver el vídeo; toca por favor el siguiente link. Muchas gracias.

JT 60SA組立動画

Imagen de portada:  QST/F4E Reactor de fusión nuclear (Xataka)

FUENTE RESPONSABLE: Xataka. Por Juan Carlos López. 6 de febrero 2023.

Sociedad/Ciencia/Investigación/Energía/Reactor nuclear/ Fusión nuclear/Iter/Actualidad.

Las minas reconvertidas que pueden abastecer de energía a todo el planeta.

SEGÚN UN NUEVO ESTUDIO

Un nuevo estudio asegura que instalar baterías de gravedad en las minas de carbón abandonadas de todo el planeta permitiría satisfacer el consumo de energía mundial.

Si deseas profundizar en esta entrada; cliquea por favor adonde se encuentre escrito en color “azul”. Muchas gracias. 

Si convertimos las plantas de carbón abandonadas de todo el mundo en gigantes baterías de gravedad podríamos suministrar energía a todo el planeta. Esta es la ambiciosa propuesta de los investigadores del Instituto Internacional de Análisis de Sistemas Aplicados (IIASA), en Suiza.

La fuerte inversión en energías renovables —se estima que en 2026 la capacidad de estas formas de energía aumentará en un 60% con respecto a 2020— también conlleva encontrar nuevas soluciones que nos ayuden a asegurar un suministro constante. 

Aquí ya hemos visto numerosas propuestas de almacenamiento que prometen terminar con los problemas de intermitencia de las energías eólica y solar. La última llega de un estudio realizado por los investigadores del IIASA y se llama Almacenamiento Subterráneo de Energía por Gravedad (UGES). UGES aprovecha la infraestructura de las plantas de carbón abandonadas para convertirlas en baterías gigantes capaces de almacenar energía suficiente como para alimentar a todo el planeta. La gran ventaja de este sistema, además de su gran tamaño, es que no pierde capacidad de almacenamiento con el tiempo.

Un túnel en una mina de carbón al sur de Polonia que ya no está en servicio. (EFE Andrzej Grygiel)

«Cuando una mina cierra, despide a miles de trabajadores. Esto es devastador para las comunidades que sólo dependen de la mina para su rendimiento económico. El UGES crearía unos cuantos puestos de trabajo, ya que la mina prestaría servicios de almacenamiento de energía tras el cese de su actividad», afirma Julian Hunt, investigador del Programa de Energía, Clima y Medio Ambiente del IIASA y autor principal del estudio. «Las plantas ya cuentan con la infraestructura básica y están conectadas a la red eléctrica, lo que reduce significativamente el coste y facilita la implantación de plantas UGES».

Cómo funciona

El sistema, dicen sus creadores, genera electricidad cuando la demanda de energía es más alta. Esto lo consigue haciendo descender un material pesado como la arena a la mina subterránea y convirtiendo su energía potencial en electricidad mediante un sistema de frenado regenerativo. Cuando la energía es más barata, se vuelve a elevar la arena a un depósito superior utilizando motores eléctricos para volver a recargar la batería. 

Los componentes principales para hacer funcionar el sistema son el pozo, el motor-generador, los depósitos superior e inferior y el equipo de extracción 

El equipo asegura que los componentes principales para hacer funcionar el sistema son el pozo, el motor-generador, los depósitos superior e inferior y el equipo de extracción. Cuanto más profundo y ancho sea el pozo, dicen, más energía podrá extraerse de la planta. Y cuanto más grande sea la mina, mayor será su capacidad de almacenamiento de energía. 

Las UGES, dicen los autores del estudio, tienen un coste de inversión de entre 1 y 10 dólares por kilovatio hora, mientras que los costes de capacidad energética están en 2.000 dólares el kilovatio. Los investigadores estiman que esta tecnología tiene un potencial mundial de 7 a 70 teravatios-hora, concentrado fundamentalmente en China, India, Rusia y Estados Unidos. La última medición de la Asociación Internacional de la Energía data de 2020 y dice que el consumo mundial de energía ascendió a 24.901,4 teravatios-hora, el equivalente a unos 68 teravatios-hora al día.

De las plantas de carbón a los rascacielos

Los mismos investigadores ya propusieron una tecnología similar que en lugar de usar el desnivel de las minas subterráneas emplea la altura de los rascacielos de las ciudades. 

El sistema lleva el nombre de LEST (Sistema de almacenamiento de energía por elevación) y se puede aplicar en edificios existentes que en muchos casos ya cuentan con ascensores con sistemas de frenado regenerativo. 

Según cuentan en su estudio, publicado en la revista Energy, hay más de 18 millones de ascensores en funcionamiento en todo el mundo que pasan mucho tiempo parados. Estos ascensores cuando no se utilizan para transportar personas pueden utilizarse para almacenar o generar electricidad.

Tres de las torres en el área financiera de Madrid. (EFE Mariscal)

El equipo sostiene que la gran ventaja del LEST es que la capacidad energética ya está instalada en este tipo de ascensores, mientras que otros sistemas de almacenamiento de energía por gravedad tienen que crearla. 

Además, dicen que los nuevos ascensores inteligentes con motores de engranaje síncrono de imanes permanentes pueden funcionar con eficiencias cercanas al 92% cuando están completamente cargados. Y también permiten configurar la velocidad de descenso óptima para la generación de energía. 

En su estudio, los investigadores calculan que el coste de almacenamiento de energía de la capacidad instalada del LEST es de entre 21 y 128 dólares por kilovatio-hora, dependiendo de la altura del edificio. Esto es prácticamente un tercio de lo que cuesta el kilovatio-hora en baterías similares. Además el equipo estima que el potencial de generación a nivel mundial es de entre 30 a 300 gigavatios-hora, suficiente para alimentar de energía a toda la ciudad de Nueva York durante un mes.

Imagen de portada: Las minas de carbon abandonadas pueden usarse para suministrar energía a todo el planeta.

FUENTE RESPONSABLE: El Confidencial. Por Omar Kardoudi. Actualizado el 30 de enero 2023.

Sociedad/Energía/Economía/Minas de carbón/Investigación.

La teleportación cuántica de energía revolucionará la física y la economía.

Un equipo de investigadores japoneses han teleportado energía por primera vez, confirmando una teoría publicada originalmente en 2014.

Revolución potencial

Por primera vez en la historia se ha conseguido teleportar energía, confirmando una teoría formulada a principios de siglo a partir del descubrimiento de la teleportación de información cuántica. Según el científico que ha realizado el experimento, “la capacidad de transferir energía cuántica a largas distancias provocará una nueva revolución en la tecnología de comunicación cuántica” y será vital para el desarrollo de una nueva era tecnológica y económica.

Si deseas profundizar en esta entrada; cliquea por favor adonde se encuentre escrito en color “azul”. Muchas gracias.

La teleportación instantánea de información usando partículas cuánticas entrelazada a grandes distancias es posible desde hace décadas. La experiencia más notable fue la teleportación a 1.400 kilómetros usando el satélite Micius, parte del programa chino-europeo Quess, del que ya hemos hablado en estas páginas. Ése fue el récord de la distancia más larga jamás conseguida. 

La demostración de teleportación de energía funciona de forma similar y no tendrá limitación en la distancia de teleportación, por lo menos según el estudio pendiente de revisión por pares publicado en el servidor Arxiv.

El experimento

La primera vez que se formuló la posibilidad de teleportar energía sin ningún límite de distancia fue en 2010, cuando un equipo de científicos japoneses liderados por Masahiro Hotta publicó un artículo científico detallando los cálculos que lo demostraban. 

Su trabajo estaba basado en la labor que Charlie Bennett desarrolló en 1993, cuando demostró por primera vez que la teleportación de información a nivel cuántico era posible en el Centro de investigación Watson de IBM en Nueva York.

El físico Masahiro Hotta junto a Stephen Hawking.

Hotta concluyó que los fundamentos de aquel experimento podrían aplicarse a la teleportación de energía sobre distancias ilimitadas y sin reducción del nivel energético, algo que la revista Technology Review del Instituto Tecnológico de Massachusetts calificó en su día como una técnica que tendría profundas consecuencias para el futuro de la física”.

Ahora, el también japonés Kazuki Ikeda ha demostrado que Hotta tenía razón, realizando el experimento en uno de los ordenadores cuánticos que la propia IBM tiene a disposición de empresas e instituciones educativas. Desde su laboratorios en la Universidad de Stony Brook, Nueva York, Ikeda dice que ha logrado teletransportar energía usando un par de partículas cuánticas entrelazadas dentro de uno de los chips cuánticos de IBM.

El centro de investigación de IBM en Yorktown Heights, Nueva York. (Simon Greig/CC)

Ikeda escribió un algoritmo para esa máquina siguiendo la teoría de Hotta, que afirma que la medición de un sistema cuántico inyecta energía en el sistema y que esa energía puede ser extraída del mismo sistema en una localización diferente sin que la energía tenga que atravesar ninguna distancia ni usar un canal físico. La energía es siempre la misma, teletransportandose sin pérdida alguna ni tampoco ganancia. Sencillamente desaparece en un sitio y aparece en el otro gracias a las fluctuaciones de los sistemas cuánticos.

Una revolución de consecuencias impredecibles

Aunque la distancia entre los dos puntos fue básicamente el tamaño del chip de IBM, Ikeda afirma que la teoría de Hotta tenía razón y los resultados del experimento confirman punto por punto sus cálculos.

Según Ikeda, “la teletransportación de energía cuántica no tiene límite de distancia”. Ikeda asegura que “la realización de un QET (teletransporte cuántico de energía) de largo alcance tendrá implicaciones importantes más allá del desarrollo de la tecnología de la información y la comunicación y la física cuántica. La información y la energía son físicas, pero también [tienen una dimensión] económica”. 

Esto, dice, permitirá que las cantidades físicas se negocien concretamente en la red cuántica y significa que nacerá un nuevo mercado económico. La teletransportación cuántica de energía se podrá utilizar como energía, asegura, así como para otros usos. 

Pone un ejemplo: “En un mercado cuántico donde existen Alice, Bob y Charlie, si Bob puede obtener más energía de Charlie que de Alice, Bob puede elegir hacer negocios con Charlie en lugar de con Alice, y puede que prefiera un estado de entrelazamiento con Charlie. Sin embargo, dependiendo de los costos de transacción, Bob podría elegir a Alice”. Así, afirma, se pueden crear muchas de esas situaciones teóricas en “una economía de la información cuántica que aún no existe”.

El chip cuántico IBM Osprey de 433 cubits. (IBM)

Esto último es importante: nadie sabe todavía las implicaciones que este descubrimiento y el establecimiento de una red internet cuántica podrán tener. Se espera que la red se consolide y se haga mundial en la década del 2030, pero nadie puede imaginar cuáles serán las consecuencias de este tipo de comunicaciones y transacciones más allá de conseguir comunicaciones instantáneas imposibles de interceptar.

La carrera de la teleportación cuántica

Pero, a pesar de no conocer sus ramificaciones y aplicaciones de esta nueva tecnología ahora en desarrollo, las potencias mundiales están corriendo una nueva carrera para conseguir dominar el sector, algo que los expertos dicen que es vital para conseguir la futura hegemonía mundial. 

Por el momento sabemos que China está a la cabeza, dejando atrás a los Estados Unidos por ahora. Los chinos llevan años construyendo este tipo de redes y, según los expertos, su impresionante avance en los últimos seis años tendrá graves consecuencias estratégicas a nivel comercial y militar. 

Es lo que cuenta Arthur Herman, historiador, experto en computación cuántica, inteligencia artificial y director de la Iniciativa de la Alianza Cuántica del think tank internacional Hudson Institute.

Parte del sistema Quess para la teleportación cuántica de información.

Herman también afirma que, ante el éxito chino, Europa ha pegado un acelerón con tres iniciativas público-privadas cuyo objetivo es establecer redes de comunicación cuánticas apoyados por satélites.

Sorprendentemente, EEUU ahora mismo está fuera de esta nueva carrera tecnológica que ellos mismos iniciaron en 2003, cuando DARPA — el brazo de investigación avanzada del Pentágono que desarrolló Internet y el GPS, entre otras muchas tecnologías claves — puso en marcha la primera red de comunicación cuántica. 

Todavía queda mucho partido pero, de confirmarse, este experimento habría pegado un acelerón más en una carrera cuyo final todavía es imprevisible.

Imagen de portada:Un ordenador cuántico de IBM. (IBM)

FUENTE RESPONSABLE: El Confidencial. Por Jesús Díaz. 20 de enero 2023.

Sociedad/Ciencia/Actualidad/Computación cuántica/Física cuántica/ Teleportación cuántica/Plusvalía de la Información/Energía.

Científicos explican la reacción en cadena que nos mandará a la Edad Media si no la prevenimos.

EL EVENTO MIYAKE

Los científicos entrevistados para el documental Control Z: La Gran Tormenta, explican sus efectos y la cadena de desastres producto de la caída de la red eléctrica.

Sí deseas profundizar en esta entrada lee por favor adonde se encuentre escrito en color “azul”. Muchas gracias.

Que la actividad solar extrema es un peligro para la civilización humana no es algo nuevo. Muchos artículos han hablado sobre el tema, demoledores informes de instituciones como la Academia Nacional de las Ciencias de los EEUU y el Pentágono, así como estudios científicos y hasta películas y series de televisión de serie B que han especulado sobre las consecuencias de un evento Carrington, la tormenta solar que impactó la Tierra en 1859 destruyendo redes telegráficas de todo el planeta.

Pincha el link si deseas ver el vídeo. Muchas gracias.

El fenómeno natural que nos devolverá a la Edad Media

Sin embargo, el primer episodio del documental de nuestra nueva serie Control Z — La Gran Tormenta, sobre estas líneas — va más allá y une todos los hilos para formar un tapiz de las consecuencias interconectadas en una imagen general sin precendentes. Sobrecogedora y desoladora, pero con un mensaje optimista: la ciencia dice que, si actuamos, podremos evitar los gravísimos efectos de un fenómeno que es inevitable.

Crónica de una tormenta anunciada

Los efectos de los eventos solares extremos están documentados. La Dra. Holly Gilbert —que fue directora de la división de ciencia heliofísica del centro de investigación NASA Goddard y ahora encabeza el High Altitude Observatory del Centro Nacional de Investigación Atmosférica de los Estados Unidos— nos explicó que hay tres niveles de impacto. El primero es la erupción de una radiación de alta energía —rayos X y de ultravioleta extremo— que puede afectar a nuestra ionosfera en ocho minutos porque viaja a la velocidad de la luz. Las partículas también causan corrientes porque son partículas cargadas y, finalmente, las eyecciones de masa coronal, con decenas de miles de millones de toneladas de plasma y el campo magnético del Sol.

Los seres humanos vivimos en la ignorancia del grave peligro que el Sol, nuestra fuente de vida, representa para la civilización humana en cualquier momento. (Control Z).

Según nos contó por videoconferencia la Dra. Sangeetha Abdu Jyothi, profesora adjunta de Computación en la Universidad de California, Irvine, que estudió el efecto devastador que un evento como el Carrington tendría en la red de cables de internet submarinos, destruyendo sus centros repetidores por la falta de protección e inutilizando las conexiones de internet globales —esta combinación de efectos no solo derribaría la red internet, sino que nos devolvería al medioevo—. De hecho, “ni siquiera la Edad Media, diría que incluso antes”, remacha Abdu Jyothi.

Un bucle solar levantándose cientos de miles de kilómetros sobre el Sol.

Hoy, todas las infraestructuras críticas de la sociedad, desde la sanidad y la banca a la distribución de agua potable o la logística… la lista es interminable. Cualquier industria en la que puedas pensar, afirma, depende de la electricidad y la red internet. “Si no tenemos eso, básicamente volveremos a la Edad de Piedra. Especialmente con el tipo de densidad de población que tenemos en las grandes ciudades. Ni siquiera puedo imaginar lo que pasaría si ocurriera un evento a gran escala”. John Kappenman, un ingeniero estadounidense con décadas de experiencia en la industria eléctrica norteamericana, sí lo imagina. Lleva toda la vida estudiando estos fenómenos y su impacto en las redes de alta y media tensión: “Sí, claramente habría desastres de salud pública, desastres de servicios públicos, desastres en la cadena de distribución de alimentos, desastres de la industria farmaceútica, inutilización de los hospitales, de los sistemas de pago… Todo caerá una vez que sufres un impacto en la más importante de todas la infraestructura, la red eléctrica”, nos dice en entrevista telefónica.

La onda de choque de una eyección coronal masiva del Sol deformando el campo magnético terrestre.

En la actualidad, los científicos piensan que cada pocos cientos de años vamos a tener un evento de nivel Carrington —el último fue en julio de 2012, pero afortunadamente ocurrió hacia el lado opuesto a la Tierra—. «Pero cada mil años vamos a tener un evento que es 10 o 20 veces más fuerte que el evento Carrington. No es una cuestión de si lo vamos a sufrir o no. Es solo una cuestión de cuándo va a pasar», afirma Gilbert.

El evento Miyake será aún peor

Si el impacto global de un evento Carrington sería devastador de por sí, existe otro tipo de tormenta aún más poderosa: los eventos Miyake. El Dr. Ethan Siegel —astrofísico teórico, investigador y divulgador, autor del famoso podcast Starts with a Bang— ha seguido de cerca la situación de la red eléctrica mundial y el peligro que el tiempo solar extremo representa para la supervivencia de la civilización. Según Siegel, el evento de 1859 no es nada comparado con un evento Miyake.

La energía desatada al romperse la cola crearía una corriente eléctrica que reventaría la mayoría de los transformadores de todo el planeta.

“Sabemos que el Sol [crea eventos Carrington] con regularidad”, nos cuenta Siegel por videoconferencia, “pero recientemente nos hemos enterado de que este tipo de eventos no son los más fuertes que se hayan producido”. Hace más de un milenio, cuenta, en el año 774 o 775, hubo un gran aumento en el carbono 14 en la atmósfera de la Tierra que se codificó en anillos de árboles en todo el mundo. “Después de una década de investigar las causas del pico, hemos llegado a la conclusión científica de que el Sol tenía la culpa”, afirma, “y fue un evento más de 10 veces más poderoso que el evento Carrington. De hecho, puede que ni siquiera sea el evento más fuerte que jamás haya ocurrido. Porque si vamos y miramos en núcleos de hielo de hace 9.200 años, hubo una tormenta aún más poderosa que el evento de 774 a 775, que fue un evento Miyake”. 

Durante una tormenta solar, la erupción acelera los protones presentes en el viento solar de la heliosfera —el área de influencia del Sol, donde se encuentran la Tierra y el resto de planetas— a la velocidad de la luz. Estos protones se convierten así en partículas de alta energía que también son un peligro para los seres humanos y la civilización.

El campo electromagnético también inutilizaría todos los sistemas de alerta sobre el horizonte, según el Pentágono, inutilizando los sistemas de defensa temprana y mermando la capacidad militar de todo el mundo.

El Dr. Raimund Muscheler —profesor de Ciencias del Cuaternario y especialista en paleoclima de la Universidad de Lund— fue el descubridor de los núcleos de hielo a los que hace referencia Siegel. En una entrevista por videoconferencia, nos cuenta que estos protones son tan peligrosos para la infraestructura electrónica como el plasma solar lo es para la infraestructura eléctrica: “Representan un riesgo directo de radiación. La electrónica de los satélites puede destruirse cuando hay una alta radiación, pero también afectaría a cualquier persona en el espacio. Si vuelas en un avión cerca de áreas polares donde el campo germánico no nos protege de estas partículas de alta energía, allí también puedes estar expuesto a una alta exposición a la radiación”. Abdu Jyothi dice que estos protones afectarían también gravemente a todos los dispositivos electrónicos en la Tierra, causando daños irreparables en ficheros de datos y causando errores en chips cuando el incremento de partículas de alta energía llegara a la superficie terrestre. “Con un evento Carrington, nuestros teléfonos móviles, torres de telefonía móvil, servidores de portátiles y centros de datos, estarían en su mayoría seguros siempre y cuando tengan protección contra el voltaje transitorio del suministro eléctrico”, dice, “pero con un evento [como el Miyake] que es dos órdenes de magnitud más fuerte, si tenemos partículas cargadas que golpean la superficie de la Tierra, entonces esto podría corromper nuestro almacenamiento de datos”.

Cientos de miles de personas morirían en apenas unas horas ante la falta de electricidad después de agotar el combustible de los generadores de emergencia.

Abdu Jyothi dice que los datos que se almacenan en nuestros centros de datos —como tu información bancaria, registros de salud, casi todos los datos que tenemos hoy en día— podrían corromperse. “Hoy ya sabemos que hay pequeñas cantidades de partículas de carga que logran llegar a la superficie de la Tierra, penetrando a través de nuestra atmósfera y causando corrupción en los datos almacenados en los centros de datos”, asegura. “En tiempos normales, es una tasa de corrupción muy pequeña. Pero con un evento a gran escala, podría ser mucho más alta. Podríamos perder todos los datos en todo el mundo y eso podría ser un evento devastador”.

Una escala imposible de comprender

Pero la pérdida de datos no tendría importancia con lo que vendría inmediatamente después. El informe de la Academia Nacional de las Ciencias de los EEUU también es claro. “Debido a la interconexión de las infraestructuras críticas en la sociedad moderna, el impacto puede ir más allá de la interrupción de los sistemas técnicos existentes y conducir a interrupciones socioeconómicas colaterales a corto y a largo plazo”, afirma su Comité de Estudios, de la División de Ingeniería y Ciencias Físicas.

Todas las industrias dependen de la electricidad, desde la logística hasta la distribución de agua potable.

“Los efectos colaterales de una interrupción a largo plazo probablemente incluirían, por ejemplo, la interrupción de los sistemas de transporte, comunicación, banca y financiero y los servicios gubernamentales; la interrupción de la distribución de agua potable debido a la parada de las bombas, y la pérdida de alimentos y medicamentos perecederos debido a la falta de refrigeración. La pérdida resultante de servicios durante un periodo de tiempo significativo incluso en una región del país puede afectar a toda la nación y también tener impactos internacionales”. Solo en la Costa Este de los Estados Unidos, el estudio fija una estimación de uno a dos billones de dólares anuales en coste social y económico, con tiempos de recuperación de cuatro a 10 años. A nivel global, la extrapolación de cifras llegaría al rango de trillones.

La recuperación es una misión imposible

A nivel planetario, que es como se espera que suceda, todo esto sería muchísimo más grave. A nivel humano, el índice de mortalidad se dispararía globalmente por la falta de hospitales modernos y el colapso de la industria farmacéutica. En los primeros días, todas las personas cuya supervivencia dependiera de respiración asistida o cualquier otro sistema eléctrico morirían sin remedio. Solo durante los primeros meses, cientos de millones de urbanitas morirían por infecciones y hambrunas regionales debido a la falta de distribución de medicinas, alimentos y agua potable causada por el colapso en cascada de absolutamente todo gracias a la destrucción de la red eléctrica.

Pasarán décadas antes de poder llegar a fabricar y reemplazar todos los transformadores dañados en todo el globo. El tiempo de fabricación y entrega de uno de alta tensión en tiempos normales es de dos años.

La recuperación a escala global tardaría mucho más de una década, cuenta Kappenman. Sustituir todos los transformadores —de alta, media y baja tensión— afectados sería misión imposible. “Sabemos que estos grandes eventos van a ser eventos planetarios. No van a estar aislados en una parte del este de EEUU”, afirma. Muchos de los lugares de fabricación de transformadores también están dispersos por todo el mundo, asegura, y eso incluye China, una de las grandes productoras a nivel global. “Me preocuparía la situación geopolítica. En un escenario en el que se han producido muchos daños en todo el mundo, ¿permitirían los gobiernos que los grandes transformadores se exporten fuera de ese país mientras todavía están tratando de recuperarse de los daños?”. La respuesta es obvia.

El campo estaría relativamente a salvo en las primeras semanas, pero la migración masiva de ciudadanos huyendo de las urbes será un enorme problema.

Para hacerse una idea de lo grave que es esto, hay que comprender lo que se tarda en fabricar un transformador de alta tensión hoy en día, cuando no hay ningún problema en el mundo ni un apocalipsis industrial y social provocado por la falta total de electricidad: dos años desde el momento del pedido a la entrega. “El desafío del suministro global es preocupante”, afirma Kappenman, “el tipo correcto de cobre para los núcleos magnéticos de un transformador no se produce en todos los países. Tiene que adquirirse con años de antelación para mantener el suministro”. Y sin la red eléctrica en funcionamiento, “la capacidad de fabricar, enviar y suministrar todos estos componentes puede no ser factible”. Los tiempos de recuperación serían mucho más largos, “si es que podemos recuperarnos de este escenario”.

Un par de años después de la erupción, muchas estructuras estatales habrían desaparecido por el colapso de los recursos, los grandes desastres en todas las industrias y la fragmentación inevitable de la sociedad.

La solución es cuestión de planificación y poco dinero

Siegel afirma que la solución es sencillamente cuestión de dinero. Ahora mismo, estamos a merced de nuestra propia estrella, pero la industria ignora este peligro por un sencillo motivo: el coste. En vez de invertir en la protección de sus redes ante un evento que pasará tarde o temprano, lo ignoran y trabajan para que los legisladores lo ignoren. “En Estados Unidos, es prácticamente ilegal que una corporación priorice cualquier cosa que no sean los beneficios para los accionistas del próximo trimestre”, afirma. “Hay muchas cosas que deberíamos hacer de manera diferente. La elección ética es obvia, la elección del beneficios a largo plazo es obvia, pero las personas con el dinero y el poder en EEUU, el país más rico de la tierra, están legalmente obligadas a no priorizar esas cosas”. Siegel se refiere a los estatutos que atan a los directivos al beneficio de sus empresas.

Se necesita una nueva organización de la red eléctrica que la haga más resistente, con generación más local y sistemas redundantes.

Kappenman apunta que el regulador federal de la energía de los Estados Unidos ha comenzado a definir los estándares para evitar que un evento Carrington tenga estos efectos devastadores. Pero las compañías eléctricas se resisten. “Ha habido una gran discusión sobre lo grave que puede ser este evento, pero las compañías eléctricas proponen medidas que son demasiado débiles para evitar esta catástrofe”, afirma. El problema, asegura, es que ninguna empresa quiere gastar dinero en medidas de prevención. Esto es algo que ya se ha podido comprobar durante varios desastres naturales en que las redes eléctricas norteamericanas se han demostrado extremadamente frágiles en estados como Texas o California. Lo malo es que su visión no solo se aplica a Estados Unidos. Todas las compañías eléctricas del mundo siguen en la misma línea, algo que no sorprende, dadas sus tácticas y acciones ilegales y fraudulentas. Lo bueno es que hay soluciones técnicas: tres acciones que podrían prevenir que la humanidad cayera a los infiernos de la era preindustrial y la pérdida de millones de vidas.

Un plan de tres puntos

Siegel afirma que una de ellas es organizar la infraestructura eléctrica para que sea más resiliente, creando redes locales y regionales que puedan actuar de forma independiente cuando sea necesario, con fuentes energéticas más pequeñas y sistemas de almacenamiento debidamente protegidos. Kappenman afirma que la protección de los transformadores es fundamental, pero que la solución técnica es sencilla: “Se pueden utilizar condensadores en serie o neutros. Los últimos son, con mucho, la solución más barata”. Estos dispositivos son de voltaje relativamente bajo, “una especie de aislamiento nominal de 100 KV, lo que es relativamente modesto en términos de las clasificaciones de aislamiento que se necesitan”. Estos son dispositivos que fueron inventados y probados a principios de la década de los noventa. Kappenman trabajó en estos condensadores, que no están patentados: son diseños abiertos de libre uso, así que nadie los controla. “Basándonos en algunos de los proveedores que han entrado en el mercado en los últimos años”, afirma, “implementarlos costaría alrededor de 1.000 millones de dólares en todos los EEUU”. El coste, dice, sería similar en Europa o en otros lugares del mundo. De nuevo, solo el coste en la Costa Este americana sería de uno a dos billones de dólares anuales durante un periodo de hasta una década.

Necesitamos muchas más sondas de monitorización para poder desarrollar un sistema de alerta temprana, algo que podría tomarnos dos décadas.

Por último, Gilbert afirma que la tercera pata de defensa contra estos eventos sería un sistema de alerta temprana efectivo, con modelos de inteligencia artificial que puedan predecir cada paso del Sol con bastante antelación. “Viendo lo bien y cuánto han progresado los modelos solo en los últimos 10 años, creo, y esto es pura especulación, realmente creo que en 20 años vamos a ser muy buenos prediciendo”, asegura. “Puede ser un poco demasiado optimista, pero creo que estamos dando grandes pasos para conocer la hora de llegada de algunas de estas eyecciones coronales masivas”. Pero, para ello, dice, necesitamos más datos y cubrir el Sol desde todos los ángulos posibles con múltiples satélites, muchos más de los que tenemos ahora. Y con redundancia. “No tenemos una visión completa del Sol en este momento porque es muy caro enviar tantos satélites al espacio”.

La única manera de prevenir esta catástrofe inevitable es que el mundo acuerde tomar las medidas adecuadas.

Al final, como concluye Siegel, está claro que la solución está en todos nosotros: en la presión que podamos hacer sobre los políticos, exigiendo la protección de una infraestructura que ya no es solo un bien público sino una fuerza imprescindible para soportar el tejido social y económico que nos permite sobrevivir. El coste de todo esto es ridículo comparado con los efectos que podréis ver en el documental. “Podemos unificarnos como planeta para crear la legislación adecuada, hacer cumplirla y hacer que todas estas ciudades de todo el mundo estén seguras y puedan resistir estos eventos”, afirma Siegel. “Entonces, tal vez, no tendremos un desastre de varios trillones de dólares cuando ocurra lo inevitable. Esto depende de todos nosotros”.

Imagen de portada: Imagen del choque del plasma del sol contra el campo magnético terrestre. (NASA)

FUENTE RESPONSABLE: El Confidencial. Por Jesús Díaz. 17 de noviembre 2022.

Sociedad Global/Eléctricas/Espacio/Energía/Logística/Médicos/

Economía/Crisis extendida.

3 medidas del inédito plan de emergencia para abaratar las cuentas de luz en Europa (y en qué no han logrado ponerse de acuerdo).

Mientras en Italia manifestantes salieron a las calles estos días a quemar facturas de la luz en protesta por el aumento de los precios, los gobiernos de la Unión Europea intentan ponerse de acuerdo para controlar la escalada en el costo de la electricidad.

«Estamos en una guerra energética con Rusia, se acerca el invierno [boreal] y tenemos que actuar ahora», dijo el viernes el ministro checo de Energía, Jozef Sikela, cuyo país ejerce la presidencia rotativa del Consejo Europeo.

Esa urgencia por conseguir soluciones para enfrentar la escalada en las tarifas de la electricidad en medio de la crisis energética llevó a los ministros de Energía de la UE a conseguir un acuerdo en Bruselas.

El plan alcanzado incluye tres medidas de emergencia: una reducción del consumo eléctrico, un tope a los precios de la generación eléctrica que no depende del gas (renovables o nuclear) y un impuesto temporal a las petroleras conocido como «contribución solidaria».

Pero la gran batalla por contener los precios de la energía probablemente se va a librar, dicen los expertos, en el polémico campo de la intervención del precio del gas natural que llega a la región.

Algunos de los 27 países que componen el bloque comunitario esperan ir mucho más lejos y reclaman intervenciones más profundas para limitar el precio del gas, no solo el ruso, como propone la Comisión Europea.

Protestas en Roma contra el aumento de la electricidad organizada por Unione Sindacale di Base (USB).

FUENTE DE LA IMAGEN – GETTY IMAGES. En Roma manifestantes quemaron facturas de luz y advirtieron que los precios pueden subir hasta 60% en los próximos meses.

Sin embargo, esas aspiraciones chocan con la resistencia de países que temen que ello pueda afectar al suministro, como es el caso de Alemania o Países Bajos.

Qué implica el acuerdo

Los miembros del bloque se comprometieron a reducir el 10% del consumo general de electricidad y un 5% obligatorio en las horas punta.

Para concretar ese paso, los países deberán identificar entre diciembre de 2022 y marzo de 2023 cuáles son sus horas de máximo consumo y determinar libremente las medidas necesarias para reducir la demanda.

Camarero saliendo de restaurante y cuentas de electrcidad en la ventana

FUENTE DE LA IMAGEN – GETTY IMAGES. Algunos pequeños restaurantes están poniendo las cuentas de electricidad en sus ventanas.

Por otro lado, los países acordaron fijar un precio tope para las llamadas energías inframarginales (renovables y nuclear) de unos US$175 el megavatio hora entre diciembre y junio, aunque se permitirá a los países que ya cuentan con medidas en marcha, como España, mantener sus propios límites.

La tercera parte del acuerdo trata de la implementación de un impuesto temporal y obligatorio a los beneficios de las productoras de energías fósiles y las refinerías.

Esta «contribución solidaria» supondrá un gravamen del 33% de cualquier ganancia superior al 20% de lo que han obtenido como excedentes respecto a la media de los últimos cuatro años.

Desde el inicio de la invasión de Rusia a Ucrania en febrero, las tarifas energéticas y las preocupaciones sobre cómo manejar la crisis en el corto y en el largo plazo no han parado de crecer.

Y es que, tras la ofensiva rusa, Estados Unidos, la UE y sus aliados adoptaron una serie de sanciones sin precedentes y, en represalia, el Kremlin redujo drásticamente su suministro de gas natural, un componente clave para mantener en movimiento la industria y los hogares europeos.

Persona enchufa artefacto elécrico

FUENTE DE LA IMAGEN – GETTY IMAGES.

Hasta ahora, varios países del bloque han adoptado medidas de protección especial a los consumidores para pagar las cuentas de luz, precisamente cuando la inflación en la eurozona ha llegado al 10%.

Alemania, por ejemplo, el país más directamente afectado por la ausencia de gas ruso, adelantó que destinará casi US$200.000 millones para proteger a los hogares y empresas de la crisis.

Acusaciones de sabotaje

Mientras los países europeos intentan encontrar fórmulas para mitigar la escalada de precios del gas y la electricidad, el conflicto entre las potencias de Occidente y Rusia por la invasión de Ucrania continúa avanzando.

La semana pasada el presidente ruso, Vladimir Putin, anunció la anexión a su territorio de cuatro regiones ucranianas y la Unión Europea denunció que las fugas en dos importantes gasoductos que van de Rusia a Europa fueron causadas por un «sabotaje».

El gobierno de Ucrania aseguró que las fugas en los gasoductos Nord Stream y Nord Stream 2 fueron provocadas por Rusia en lo que calificó como un «ataque terrorista».

Trayecto gasoductos Nord Stream desde Rusia

Sin embargo, Moscú negó su responsabilidad. El portavoz del Kremlin, Dmitry Peskov, desestimó las acusaciones de sabotaje como «predecibles, estúpidas y absurdas».

Las cuatro fugas detectadas, dicen expertos, han dejado en evidencia la «fragilidad» energética de Europa frente al Kremlin.

Tras los incidentes, las naciones europeas han reforzado las medidas de seguridad cerca de sus infraestructuras estratégicas. «Nos tenemos que preparar para escenarios que hace poco eran inconcebibles», dijo Nancy Faeser, la ministra de Interior de Alemania.

La Agencia Internacional de Energía (AIE) declaró este lunes que Europa enfrenta riesgos sin precedentes para el suministro de gas natural y que podría terminar en una competencia con Asia por conseguir las escasas reservas de gas líquido transportado por barco.

En ese escenario, el organismo recomendó a los países de la UE reducir en un 13% su consumo durante los próximos meses en caso de un corte total del gas ruso.

Por ahora, los países del bloque han compensado buena parte del déficit ruso comprando costosos envíos de gas natural licuado (GNL), que llega por barco desde países como Estados Unidos y Qatar, y aumentando el suministro por gasoductos desde Noruega y Azerbaiyán.

Imagen de portada: GETTY IMAGES. Los consumidores están preocupados por el aumento de las facturas eléctricas.

FUENTE RESPONSABLE: Redacción BBC News Mundo. 4 de octubre 2022.

Sociedad y Cultura/Europa/Conflicto Rusia-Ucrania/Energía/ Restricciones.

 

 

 

 

Argentino inventó aparato para pagar menos de luz: cómo funciona.

Claudio Figuerola es argentino y ganó un concurso de soluciones para eficiencia energética con un video de su proyecto.

En el verano de 2016, en medio de una crisis energética con cortes de servicios y anuncios de próximos tarifazos, Claudio Figuerola, un ingeniero en sistemas y emprendedor, comenzó a investigar el ahorro energético. Junto al diseñador Gabriel Cacosso, hicieron un video y lo mandaron al concurso de emprendedores de la Confederación de la Mediana Empresa (CAME).

Su proyecto fue ganador en la edición de ese año en la categoría «soluciones para eficiencia energética».

Figuerola junto a el Grupo Esfera, la desarrolladora de software, desarrollaron Wabee, una unidad de negocio dedicada a la eficiencia energética. Así fueron puliendo un mvp (producto mínimo viable) y comenzaron a comercializarlo en dos versiones, una hogareña y otra comercial e industrial, según informó Iprofesional.

El sistema no reemplaza al medidor eléctrico de las distribuidoras de electricidad, pero aporta al usuario información relevante para ahorrar en su consumo. Consiste en un dispositivo IoT (internet de las cosas) que se instala en el interior de cualquier tablero eléctrico y tiene el tamaño y el aspecto de un router.

«Mediante una conexión wifi, recolecta y envía datos de parámetros y consumos eléctricos a la nube, donde son procesados, identificando patrones y aquellos sistemas y dispositivos con mayor consumo en organizaciones y edificios», explica Figuerola al medio.

Los datos pueden verse en forma de gráficos en la pantalla de la computadora o el celular, y en caso de que un electrodoméstico o máquina esté consumiendo más energía de lo estipulado se disparan alertas.

«Es importante hacer visibles los consumos energéticos, para empezar a ahorrar y ser más eficientes, sobre todo en el actual contexto de crisis energética y climática», destacó el emprendedor.

En Argentina el sector Energía representa el 53% de las emisiones de gases de efecto invernadero, según un estudio de la Cámara Argentina de Energías Renovables (CADER).

El costo del dispositivo para comercios e industrias es de unos u$s 450, más un fee por mantenimiento, dependiendo de la cantidad de empleados o usuarios.

«Estamos pensando abrir una filial en Uruguay, ya que desde aquí se complican los pagos internacionales», resaltó el emprendedor y añadió: «Nosotros importamos componentes para armar aquí los dispositivos y exportar nuestras soluciones de valor agregado».

Imagen de portada: Equipo de eficiencia energetica.

FUENTE RESPONSABLE: Minuto 1. 7 de septiembre 2022.

Sociedad y Cultura/Argentina/Energía/Invento/Ahorro.

 

Los países con la gasolina más cara y más barata del mundo.

Un precio es caro o barato en relación al poder adquisitivo que tienes.

Si el costo de la gasolina en Suiza parece a primera vista «carísimo», en realidad no lo es, al compararlo con el nivel de riqueza del país.

Hong Kong tiene el precio más alto del mundo (US$2.98 el litro, US$11.28 el galón), pero no es el más caro para el nivel de vida de su población, según el «ránking de asequibilidad» (gasoline affordability ranking, en inglés) elaborado por Global Petrol Prices, un proyecto de recolección y análisis de datos energéticos.

«Hay países exportadores de petróleo, como Qatar y Kuwait, que mantienen el precio del combustible muy bajo al subsidiarlo, pero también están las economías avanzadas, como Estados Unidos y Australia, donde el combustible es más caro pero los ingresos son altos», explica Neven Valev, director Global Petrol Prices y del Proyecto Economía Global.

«En el otro extremo de la escala se encuentran principalmente los países pobres. La gasolina allí no es especialmente cara pero el nivel de ingresos es muy bajo», agrega.

GETTY IMAGES. Hong Kong tiene el precio más alto del mundo. Foto de archivo.

Es así como Qatar, Kuwait, Luxemburgo, Estados Unidos y Australia son los países con el precio más asequible para el bolsillo de sus habitantes.

En cambio Mozambique, Madagascar, Malawi, Sierra Leona y Ruanda tienen los precios más caros en relación al nivel de ingresos de cada nación.

La crisis energética

Cuando el mundo está en medio de una crisis energética, el precio de la gasolina se ha vuelto un una preocupación central en la mayoría de los países que deben comprar combustibles en los mercados internacionales para abastecer su demanda local.

Getty

Los países con la gasolina menos costosa para su población

En relación al PIB per cápita del país

  • Estado de Catar Asia
  • KuwaitAsia
  • LuxemburgoEuropa
  • Estados UnidosAmérica del Norte
  • AustraliaOceanía

Fuente: Global Petrol Prices

El frenético aumento del precio de combustibles como el petróleo, la gasolina, el diésel y el gas ha remecido a la economía global, en medio de una ola inflacionaria que está golpeando duramente el presupuesto de los hogares y causando trastornos en el costo del crédito (por la subida en las tasas de interés) y el crecimiento económico.

Lo que ha pasado, le dice Valev a BBC Mundo, es que «el efecto de la guerra en Ucrania se sumó a la tendencia general de aumento de los precios de la energía a medida que la economía mundial se recuperaba de la pandemia».

Getty

Países con la gasolina más costosa para su población

En relación al PIB per cápita

  • MozambiqueÁfrica
  • MadagascarÁfrica
  • República de MalawiÁfrica
  • Sierra LeonaÁfrica
  • RuandaÁfrica

Fuente: Global Petrol Prices

Si bien los vaivenes del precio del petróleo en los mercados internacionales afectan el precio de la gasolina que pagan los consumidores, la situación es muy diferente en cada país, dependiendo de si se trata de una nación exportadora o importadora de crudo, si tiene la capacidad de refinarlo, y de otros factores, como de cuánto es el nivel de los subsidios que aplican los gobiernos.

Sin considerar la asequibilidad, otra forma de clasificar a los países es directamente por el costo del litro de gasolina, independientemente del nivel de ingresos de una nación.

Desde esta perspectiva, los precios más bajos están en Venezuela, Libia, Irán, Argelia y Kuwait.

En el otro lado de la balanza, con los precios más altos del mercado, están Hong Kong, Islandia, Zimbabue, Noruega y República Centroafricana.

La gasolina en América Latina

El ránking de asequibilidad compara los precios de la gasolina en 150 países, aunque no todos los latinoamericanos forman parte de la lista.

En la siguiente lista te mostramos los países de la región ordenados desde la nación donde la gasolina es más asequible para su población, hasta aquella donde el precio resulta más caro para sus habitantes.

Esta lista fue elaborada considerando el costo de llenar un tanque de gasolina de 40 litros.

Qué tan asequible es el precio de la gasolina para sus habitantes. Ordenados desde el país donde es menos costosa en relación al PIB per cápita..  .

Según este cálculo, los países con la gasolina menos costosa para su población serían Panamá, Chile y Colombia, mientras que los países con el mayor costo son Nicaragua, Honduras y El Salvador.

Es conveniente aclarar que el índice utiliza el dato de Producto Interno Bruto (PIB) per cápita como una medida para estandarizar el ingreso por persona, lo que significa que el cálculo no está basado en un análisis de la media del ingreso mensual que reciben las personas o los hogares.

¿Qué puede pasar a futuro?

A principios de año, el precio promedio mundial de la gasolina fue de US$1,23 por litro.

Con el paso de los meses fue subiendo, hasta que a fines de junio alcanzó el punto más alto, cuando llegó a US$1,50 por litro.

Autos en la carretera

FUENTE DE LA IMAGEN – GETTY IMAGES

Actualmente, está siguiendo una curva descendente que lo sitúa en US$1,31, es decir, los precios se estarían acercando al nivel anterior a la guerra.

Algo parecido está ocurriendo con el petróleo, en el sentido de que «la mayoría de las previsiones apuntan a una disminución lenta y gradual de los precios del crudo hasta los niveles anteriores a la guerra», argumenta.

«El impulsor clave de esa tendencia es la desaceleración de la actividad económica en todo el mundo», dice Valev.

Imagen de portada: GETTY IMAGES

FUENTE RESPONSABLE: Cecilia Barría; BBC News Mundo. 30 de agosto 2022.

El Mundo/Economía/Industria Petrolera/Energía/Negocios

La turbina que puede duplicar la producción eléctrica y «cambiar las reglas del juego».

USA CO2 EN ESTADO SUPERCRÍTICO

Científicos norteamericanos del Sandia National Laboratory han descubierto una manera mucho más efectiva de generar electricidad en centrales térmicas de cualquier tipo.

Si es de tu interés profundizar en esta entrada; cliquea por favor donde se encuentre escrito en “azul”.

Científicos norteamericanos han desarrollado un sistema para generar electricidad que, según ellos, “cambia las reglas del juego” de la industria: un dispositivo que puede duplicar la producción eléctrica de una central térmica, ya sea de combustible fósil, termosolar o nuclear. Ahora, no sólo han demostrado que funciona sino que, por primera vez, lo han conectado para inyectar energía a la red.

Creado por los ingenieros mecánicos Logan Rapp y Darryn Fleming del Laboratorio Nacional de Sandía, en Albuquerque, Nuevo México, el nuevo sistema utiliza dióxido de carbono supercrítico en vez de agua para mover una turbina similar a la de un avión. Rodney Keith, gerente del grupo de conceptos avanzados del laboratorio estadounidense, se han esforzado durante largos años para llegar a este punto y “demostrar que pueden conectar nuestro sistema a través de un dispositivo comercial”. Según Keith, éste es “el primer puente hacia una generación de electricidad más eficiente».

Cómo funciona

El sistema está basado en un ciclo de Brayton, un circuito cerrado que utiliza un líquido muy caliente y presurizado para hacer girar una turbina. En la versión del Sandia National Laboratory, el líquido es dióxido de carbono en estado supercrítico, un compuesto sometido a tal presión que se comporta como un líquido y un gas. Al ser cerrado, el CO2 supercrítico nunca sale a la atmósfera, sino que se mantiene en un perenne bucle en el que se enfría y se calienta. Éste también es el mismo principio que alimenta las turbinas de vapor tradicionales pero, al contrario que éstas, el nuevo invento tiene una eficiencia de conversión del calor a la electricidad de más allá del 50 por ciento. En comparación, las turbinas de agua sólo pueden llegar a un máximo de un tercio.

Darryl Fleming con el sistema de Brayton con CO2 supercrítico. (Sandia National Laboratory)

En su primer test conectado a la red eléctrica, los ingenieros calentaron el CO2 supercrítico a 315 C usando un intercambiador de calor. El CO2 es inyectado en la turbina, moviendo un eje que a su vez mueve el generador eléctrico. Al salir de la turbina, se enfría en un recuperador térmico. De ahí pasa a un compresor que vuelve a elevar su presión antes de entrar en el recuperador para volver a calentarse con el exceso de energía térmica recogida en el paso anterior. Una vez calentado, vuelve a entrar en el calentador principal para comenzar el ciclo de nuevo. Todo esto está controlado por circuitos electrónicos que moderan el flujo para que todo funcione de forma ininterrumpida, uno de los avances del proyecto que está basado en la tecnología de recuperación energética que se utiliza en algunos ascensores.

Diagrama del sistema. (Sandia National Laboratory)

En esta prueba sólo produjeron 10 kilovatios pero, según el Dr. Fleming, todo salió como esperaban: «Comenzamos con éxito nuestra turbina-alternador-compresor en un simple ciclo supercrítico de CO2 Brayton tres veces y tuvimos tres paradas controladas, e inyectamos energía en la red Sandia-Kirtland de forma constante durante 50 minutos”.

Gran esperanza para la humanidad

Parece un logro pequeño, dicen sus inventores, pero es un gran paso para demostrar su viabilidad. El grupo responsable del desarrollo ya se ha aliado con varias compañías de la industria eléctrica norteamericana para estudiar cómo integrar el nuevo sistema dentro de centrales térmicas de gas, carbón, nucleares o concentradores termosolares. Básicamente, cualquier central que use calor para producir energía eléctrica usando turbinas de vapor.

Cualquier central que use calor para mover turbinas podrá beneficiarse de este nuevo invento, dicen sus creadores. En la imagen, una planta solar en Chile. (EFE)

Todavía quedan varios pasos para que este sistema pueda reemplazar a las turbinas de vapor tradicionales. Según sus creadores, el primer objetivo es llegar a fabricar un sistema capaz de generar de uno a cinco megavatios. Para ello, el primer paso será incrementar la temperatura del sistema progresivamente hasta superar los 530C. 

En 2024, afirman, tendrán su primera turbina de CO2 supercrítico de un megavatio. Fleming dice que en 2023 es cuando tendrán todo lo necesario para que sus socios industriales se pongan a trabajar: «Para aplicaciones comerciales reales sabemos que necesitamos maquinaria turbo más grande, electrónica, rodamientos más grandes y sellos que funcionen para el CO2 supercrítico”. Fleming y su equipo parecen 100% seguros de que así será. Esperemos que todo vaya como planean porque actualizar todas las centrales térmicas del mundo para incrementar su potencia eléctrica aunque sólo fuera en un 20% sería un paso de gigante para la humanidad y el planeta. 

Pero duplicar la producción eléctrica sería un avance radical. Como dice Fleming, cambiaría las reglas del juego.

Imagen de portada: Un detalle de la turbina de dióxido de carbono supercrítico de Sandia National Laboratories. (SNL).

FUENTE RESPONSABLE: El Confidencial. Por Jesús Díaz. 19 de agosto 2022.

Sociedad/Tecnología/Energía/Eléctricas

 

 

 

Qué es la arquitectura pasiva, las viviendas donde no se pasa calor ni frío y casi no consumen energía.

Olas de calor, los combustible por las nubes… Calentar o enfriar una casa va a ser cada vez más caro y problemático, sin importar el lugar del mundo en el que te encuentres.

En pocas décadas, partes de la tierra que estaban habituadas a climas templados experimentarán meteorologías mucho más extremas. A más calor, más aire acondicionado, que resultará en más consumo de energía, lo que contribuirá al calentamiento global y se traducirá en… más calor. Un círculo vicioso en el que ya estamos inmersos y que nos condena al desastre.

Existen, sin embargo, soluciones para construir edificios que tengan un menor impacto medioambiental, ya sea porque utilizan materiales naturales reciclables, como la madera o el barro, o porque siguen una serie de pautas que reducen drásticamente el consumo energético.

Casa.

FUENTE DE LA IMAGEN – PASSIVE HOUSE INSTITUTE

Casa pasiva en el Delta de Tigre, Argentina, elevada sobre pilares para permitir las frecuentes crecidas del río.

Este último es el concepto de las conocidas como «casas pasivas», que utilizan la propia arquitectura del edificio para mantenerlas caldeadas en los meses fríos y frescas en los cálidos, y que pueden llegar a reducir el consumo energético hasta en un 90%.

Arquitectura que ahorra

«La idea es que el ahorro de energía no debe ser solo cosa del usuario, sino que es algo técnico que puede y debe resolverse con los componentes de la arquitectura y a través de conocimiento técnico», explica a BBC Mundo Berthold Kaufmann, científico senior del Passivhaus Institut, la institución alemana que ha sentado un estándar de construcción que hoy se ha extendido por todo el mundo.

Es decir, que reducir el consumo de energía no solo debe depender de que bajemos el termostato, nos abriguemos más en invierno o nos acostumbremos a pasar calor en verano: la arquitectura debe y puede ayudar.

Siguiendo una serie de principios básicos, como un buen aislamiento y un estudio de la orientación solar y las condiciones climáticas del entorno, las «casas pasivas» pueden reducir la huella energética de una vivienda a un nivel mínimo.

El arquitecto español Nacho Cordero, que se ha formado en el concepto de «passivhaus», utiliza una analogía para explicarlo: «Imagínate que te vas a hacer un barco, y la forma de de diseñarlo es hacerle una bomba de achique para que no se hunda. La arquitectura pasiva es lo contrario a esto. Es intentar que el barco no necesite la bomba de achique o que la tenga solo para una emergencia». En el fondo, señala, la idea es sencilla, «es intentar hacer las cosas bien».

Aunque habitualmente solemos asociar las viviendas ecológicas con construcciones espectaculares y lujosas, o aquellas situadas en parajes de ensueño, en realidad cualquier casa, incluso un insulso bloque de apartamentos de extrarradio, puede convertirse en una casa pasiva.

Eso sí, un edificio que cumpla con sus estándares será muy distinto en Islandia o en España o Cuba. El concepto y las propiedades físicas sobre las que se sustenta se mantienen, pero en un país frío, por ejemplo, intentará captar la mayor ganancia solar posible, mientras que allá donde el sol abrasa en verano, se buscará crear zonas de sombra.

Estación de bomberos en Heidelberg, Alemania.

FUENTE DE LA IMAGEN – GETTY IMAGES

La arquitectura pasiva se puede utilizar para grandes edificios públicos como esta estación de bomberos en Heidelberg, Alemania.

El objetivo de todas ellas, sin embargo, es el mismo: mantener el consumo energético al mínimo. 

«Para vivienda nueva, el objetivo de las casas pasivas es que consuman un máximo de 15 kw por m2 al año, y 25 para las que han sido renovadas con estos estándares», afirma Kaufmann. Teniendo en cuenta que una vivienda convencional puede consumir entre 150 y 300 kw por m2 al año, el ahorro es importante.

¿De dónde surge la arquitectura pasiva?

En el fondo, la arquitectura pasiva, entendida como aquella que se adapta a las condiciones climáticas de su entorno, existe desde la antigüedad. Los diferentes pueblos a lo largo de la historia han intentado utilizar los recursos disponibles en su entorno y adaptarse a la geografía y la meteorología para construir viviendas que les ofrecieran un nivel de confort aceptable.

Las casas de barro de Mali, frescas en su interior bajo el inclemente sol del Sáhara, o los iglús de los pueblos indígenas de las regiones árticas, son viviendas sostenibles y pasivas.

Casa

FUENTE DE LA IMAGEN – DUQUEYZAMORA. Vivienda pasiva nueva en Asturias, España.

Con la invención de los sistemas de aire acondicionado y calefacción modernos en el siglo XX, sin embargo, la arquitectura se desvinculó en gran medida del clima que la rodeaba. Un edificio podía mantenerse fresco con un climatizador a pesar de estar, por ejemplo, construido de cristal en una región soleada. Las calderas de calefacción, ya sean de gas o de petróleo, permiten mantener las casas calientes incluso con ventanas que cierran mal.

La crisis del petróleo de los años 70 puso, sin embargo, el concepto de la eficiencia energética sobre la mesa, algo que con la emergencia climática se ha convertido en una prioridad.

Desde entonces, el concepto de «vivienda pasiva» empieza a popularizarse en las escuelas de arquitectura con el objetivo de reducir el impacto energético de los edificios. Aunque surgen diferentes esquemas en Estados Unidos, Italia, o Suiza, el que ha acabado por imponerse es el que establecieron a finales de la década de los 80 el alemán Wolfgang Feist y el sueco Bo Adamson. Su primera «passivhaus» se construyó en 1991. Hoy miles de edificios en todo el mundo llevan esta certificación.

Principios de la arquitectura pasiva

¿Cuáles son sus principios?

Cinco principios básicos rigen el estándar de casa pasiva.

Aislamiento térmico. Las viviendas pasivas tienen un excelente aislamiento térmico, que puede llegar a ser el triple que el de los edificios convencionales. «En climas fríos es preciso utilizar capas de aislamiento de 20 o 30 centímetros, aunque en climas templados no es necesario que sea tan gruesas», explica Kaufmann. Esta capa protectora que envuelve la casa evitará tanto la entrada de frío o calor como su pérdida.

Hermeticidad. Si se ha instalado un aislamiento térmico de calidad pero no se ha sellado bien, el calor se escapará por las ranuras y se crearán incómodas corrientes de aire, perdiendo eficiencia energética. Las «passivhaus» tienen muy en cuenta el hermetismo de los edificios y, para ello, se realizan pruebas en las que se insufla aire dentro de las casas para comprobar por dónde se sale y poder corregirlo.

Viviendas y puertas de calidad. Una parte importantísima de la energía que usamos para calentar una vivienda se escapa por las ventanas. Las viviendas pasivas no solo cuidan al máximo la orientación de los vanos de la casa para aprovechar al máximo las ganancias solares, sino que utilizan ventanas de triple vidrio para evitar en todo lo posible las pérdidas de calor.

Reducción de puentes térmicos. Son aquellos puntos en los que se rompe la superficie aislante (por ejemplo, por un clavo o el marco de una ventana de aluminio) y permiten que se escape el calor en un edificio.

Sistema de ventilación con recuperación de calor. Al abrir las ventanas para ventilar se pierde calor en invierno y fresco en verano. Las casas pasivas llevan instalado un sistema de ventilación mecánica que filtra el aire y recupera el propio calor de la casa para calentar el aire que entra. Con este sistema no es necesario abrir las ventanas.

Una máquina de ventilación.

FUENTE DE LA IMAGEN – GETTY IMAGES. El sistema de ventilación con recuperación de calor permite tener aire limpio sin necesidad de abrir las ventanas.

Regulación pública

Este estándar es cada vez más común en regiones del mundo como la Unión Europea, donde desde las instituciones se exige que las nuevas construcciones se acerquen lo más posible al consumo energético casi nulo, directrices que luego son implementados en cada país por sus propias regulaciones.

Pero, en general, cada vez son más los países que intentan reducir la huella de carbono de las nuevas edificaciones. A veces, incluso, con medidas llamativas, como la que intentó imponer el alcalde de Nueva York, Bill de Blasio, que propuso prohibir la construcción de «los clásicos rascacielos de cristal y acero, que son increíblemente poco eficientes».

Edificio Bolueta en Bilbao.

FUENTE DE LA IMAGEN – VARQUITECTOS

Con sus 88 metros de alto, Bolueta, en Bilbao, España, ha sido el edificio passivhaus más alto del mundo hasta que una nueva edificacion que se está levantando en China le ha quitado el título.

La medida no salió adelante, pero sí hizo a muchos reflexionar sobre la relación entre la arquitectura y el cambio climático. Para Kaufmann, la propuesta de De Blasio, tiene mucho sentido: no solo es más ecológico, también es más barato.

«Un 30-50% de superficie de cristal es más que suficiente para obtener la luz necesaria. En un edificio de oficinas, por ejemplo, solo la zona de ventanas que está por encima de los escritorios es útil, todo lo que está por debajo no lo es, hará demasiado calor en verano y se perderá calor por ahí en invierno», reflexiona.

¿Puedo convertir mi vivienda en una casa pasiva?

Cualquier vivienda puede convertirse en una «casa pasiva. Las más eficientes serán aquellas que ya se han construido con estos estándares, pero «se pueden renovar casas siguiendo el concepto passivhaus», asegura Kaufmann.

«Es más habitual en la rehabilitación de edificios enteros o viviendas unifamiliares», explica Cordero, aunque eso no significa que un apartamento no pueda acondicionarse para acercarse lo más posible al estándar de «passivhaus».

Obreros construyen una casa.

FUENTE DE LA IMAGEN – GETTY IMAGES. El aislamiento térmico es fundamental en la arquitectura pasiva.

¿Cuánto cuesta una casa pasiva?

Evidentemente, invertir en materiales de calidad encarece el proceso de construcción. «Es cierto que es un poco más caro, pero no mucho más caro», reconoce Kaufmann, que cifra en un 5-6% más el precio de la envoltura del edificio. Otros elementos, como las ventanas de mayor calidad, también suman al precio final.

«En números absolutos nosotros calculamos unos 100 dólares extra por m2 de zona habitable de una construcción nueva, y algo más para las renovaciones, unos 150-200 dólares por m2», explica el experto.

El arquitecto Cordero reconoce que este tipo de construcción sube el precio de la vivienda, especialmente si se quiere conseguir la certificación que ofrece el Passivhaus Institute, un proceso que puede ser largo. «No es obligatorio, pero al final es un sello de calidad», explica.

Casa.

FUENTE DE LA IMAGEN – DUQUEYZAMORA. Vivienda renovada en Asturias, España, siguiendo los estándares «passivhaus».

Con sello o sin sello, el objetivo es le mismo: ahorrar energía. «Los clientes nos dicen que quieren una casa cuyo mantenimiento no sea un agujero energético. Al final es algo de sentido común: si vas a hacer una inversión grande como la de construir una casa, es preferible gastar un poco más en construirla pero que luego, mes a mes, sea más llevadero».

¿Y el mantenimiento? Excepto por el sistema de ventilación, que requiere cambiar los filtros de forma periódica, el resto del mantenimiento es igual que en los edificios convencionales.

Al final, explica Kaufmann, se trata de pensar en el futuro. La arquitectura pasiva requiere de un consumo energético tan bajo que podría abastecerse solo de energías renovables, algo imposible actualmente para los edificios convencionales. «Por eso necesitamos reducir su demanda energética, para cuando en el futuro no tengamos gas u otras fuentes fósiles de energía».

Un futuro que, quizás, no esté tan lejos…

Imagen de portada: GETTY IMAGES. La arquitectura pasiva intenta evitar las pérdidas de calor de los edificios para limitar al máximo el consumo energético.

FUENTE RESPONSABLE: Paula Rosas, BBC News Mundo. 3 de agosto 2022.

Cambio climático/Arquitectura/Tecnología/Energía/ 

Emergías renovables.

 

 

 

 

 

El nuevo hallazgo que amenaza la hegemonía China en la industria electrónica.

Turquía ha encontrado una enorme reserva de minerales raros que es la segunda más grande del mundo detrás de la de China. Estos materiales son fundamentales para la industria del coche eléctrico.

Si deseas profundizar esta entrada; cliquea por favor donde se encuentre escrito en “azul”. Muchas gracias.

Turquía se puede convertir en el proveedor más importante de metales raros de Europa y el segundo del mundo tras anunciar esta semana el descubrimiento de una enorme reserva en el distrito de Belikova, en Anatolia Central. Estos metales son fundamentales para industrias estratégicas como la del coche eléctrico, la aeroespacial, la militar, la biomédica o la producción de energía nuclear. Fatih Dönmez, Ministro de Energía y Recursos Naturales de Turquía, anunció este descubrimiento recientemente desde el propio yacimiento de Belikova. Según Dönmez, esta reserva es casi tan grande como la mayor del mundo, situada en China, y puede satisfacer tanto la demanda local como la global.

Turquía procesará 570.000 toneladas al año

Los metales raros, o tierras raras, son un conjunto de 17 elementos químicos que, a pesar de su nombre, se encuentran en todo el planeta aunque pocas veces en su estado puro. Según Dönmez, el nuevo yacimiento contiene 694 millones de toneladas métricas de minerales de tierras raras. Esto lo convierte en el segundo mayor del mundo por detrás del de Bayanoba, en China, con una reserva de 800 millones de toneladas. Según comentó el ministro durante su anuncio, en este yacimiento se pueden encontrar 10 de los 17 elementos de tierras raras. Y que su acceso es muy sencillo porque se encuentran entre 50 y 100 centímetros de la superficie, lo que facilita enormemente su extracción.

Fatih Dönmez, Ministro de Energía y Recursos Naturales de Turquía. (REUTERS)

Turquía quiere construir una planta piloto antes de que acabe el año para procesar estos materiales. Aunque las obras no comenzarán hasta que acaben los trabajos de I+D por parte de los ingenieros y académicos del país. Dönmez asegura que se procesarán 570 mil toneladas de mineral al año, de las que se estima se pueden extraer 72.000 toneladas de barita, 70.000 toneladas de fluorita y 250 toneladas de torio, un elemento que funciona como combustible nuclear. Una vez procesados, comenta Dönmez, se obtendrán cerca de 10.000 toneladas de óxido de tierras raras.

Materiales fundamentales para nuestro futuro

Los metales raros son fundamentales para la fabricación de componentes tecnológicos de industrias como la del transporte, la salud, las comunicaciones o la energía. Están en los imanes de los molinos de viento, en las baterías de los coches eléctricos o en los combustibles de las centrales nucleares. Su demanda anual ha llegado hasta 126.000 toneladas a nivel global y se estima que esa cifra puede ser más del doble en 2030. Según Cristina Pozo-Gonzalo, investigadora de la Universidad de Deakin, en Australia, se necesitan hasta 600 kilogramos de este tipo de material para hacer funcionar una sola turbina eólica.

Un yacimiento de ‘tierras raras’ en China (Shutterstock)

El nuevo yacimiento turco es también una gran noticia para Europa que no tendrá que sufrir la dependencia de países como China para conseguirlos. El aumento de la demanda previsto para los próximos años hace que los analistas dan por sentada la escasez futura de este tipo de materiales.

Y claves para el futuro del coche eléctrico

Reuters ya contó el año pasado que los fabricantes de coches eléctricos de occidente han empezado a reducir al mínimo el uso de metales raros y están buscando materiales alternativos para construir sus baterías. Además de la escasez, quieren evitar problemas con el suministro que viene de China, dominador del mercado de metales raros, y los vaivenes de su precio. Sin una solución clara a este problema, dice la agencia de noticias, no sé podrá ampliar la autonomía de los coches eléctricos que ha sido y es el gran talón de aquiles de esta nueva forma de transporte.

Mientras no encontremos un sustituto a la batería de iones de litio, la nueva reserva de Belikova ayudará a paliar este problema y a cubrir la demanda de metales raros, por lo menos de momento. Como apunta Pozo-Gonzalo, el aumento de demanda de un bien tan escaso nos va a obligar a sacar más minerales de la tierra, con el coste medioambiental que eso conlleva, por lo que hay que encontrar nuevas formas de reciclarlos sacándolos de los residuos tecnológicos. La propia investigadora ha trabajado en un novedoso sistema de reciclaje con el centro vasco de investigación Tecnalia. Juntos han desarrollado un proceso sostenible llamado ‘electrodeposición’, en el que mediante una baja corriente eléctrica se consigue que los metales se desprendan de los dispositivos y se depositen en una superficie de recogida. Este sistema, según Pozo-Gonzalo se puede aplicar también a otros elementos como el litio, otro metal fundamental para las baterías de los coches eléctricos que también tiene su fecha de caducidad a la vuelta de la esquina.

Imagen de portada:Turquía se puede convertir en el segundo productor mundial de metales raros. (Reuters)

FUENTE RESPONSABLE: El Confidencial. Por Omar Kardoudi. 8 de julio 2022.

Sociedad/Energía/Materiales/Tendencias de futuro.