martes, 9 de mayo de 2017

NASA ojos poderosa tormenta de invierno propagación en medio delAtlántico

Espacial de la NASA / Goddard de Vuelo CenterLoading vídeo ...VIDEO: GOES-Oriental imágenes de satélite de este NOAA animación a partir del 20 de enero al 22 muestra el movimiento del sistema que se espera que traiga una poderosa tormenta de invierno a los EE.UU. del Atlántico ... ver más

Crédito: Créditos: NASA / NOAA del GOES ProjectCredits: NASA / NOAA VA Proyecto

La tormenta de invierno que causó daños durante la noche a lo largo de la costa del Golfo ha profundizado y ha empezado a extenderse fuerte lluvia, lluvia de congelación, el aguanieve y la nieve hacia el norte en la región del Atlántico Medio. GPM de la NASA y la NOAA de los satélites GOES están proporcionando datos sobre las precipitaciones, altura de las nubes, la extensión y el movimiento de la tormenta.

El Servicio Meteorológico Nacional (SMN) Centro de Tiempo Predicción en College Park, Maryland, dijo "Un área de baja presión centrado sobre el sureste de los Estados Unidos continuará desarrollando en una gran tormenta de invierno que tendrá un impacto una gran parte de la costa este de los Apalaches del sur a través la mitad de los estados del Atlántico desde el viernes en el fin de semana. nevadas totales pueden exceder los 2 pies en porciones de estas áreas, incluyendo el Baltimore y Washington DC áreas metropolitanas ".

El núcleo de la misión global por satélite medición de la precipitación o GPM se reunieron datos de precipitación de la tormenta cada vez más peligroso el 22 de enero 2016 a 1329 UTC (08:29 am EST). Un análisis de la precipitación se ha creado usando los datos recogidos por Imager Microondas de GPM (GMI) y los instrumentos de doble frecuencia radar de precipitación (DPR). DPR de GPM vio precipitación que cae a una velocidad de más de 64 mm (2,5 pulgadas) por hora en las tormentas sobre el norte de Alabama.

En el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland, los datos de radar de la RPD de GPM (banda Ku) se utilizaron para mostrar la estructura vertical de la tormenta como mucho. Algunas de las tapas de tormenta estaban cerca de 7 kilómetros (4,3 millas) de altura a lo largo de los Apalaches en el este de Tennessee y Kentucky. Más altas cimas de nube de tormenta indicios de que las tormentas probablemente más fuerte. A las 3:46 am EST el 22 de enero, el Servicio Meteorológico Nacional dijo que "se espera que las zonas de nieve pesada para desarrollar en el oeste de Tennessee, Kentucky y en el sur de los Apalaches, y expandirse a Apalaches centrales y del Atlántico medio, mientras que el aumento de la intensidad de las nevadas. "

Una animación de imágenes infrarrojas y visibles de la NOAA GOES-Este satélite desde 20 de enero al 22 fue creado para mostrar el movimiento del sistema a través de la central de Estados Unidos en la región del Atlántico Medio. Una imagen visible de la NOAA GOES-Este satélite en 1830 UTC (1:30 pm EST) mostraron nubes asociadas a la tormenta de invierno que se extiende desde Arkansas a la costa noreste de Estados Unidos. La animación y las imágenes fueron creadas por la NASA / NOAA VA proyecto en la NASA Goddard.

NWS dijo "Una fuerte baja altura sobre las aguas del Atlántico se convertirá en una fuerza dominante en la creación de vientos muy racheados en el Atlántico a Long Island, con INUNDACIONES posible."

Los impactos de la tormenta se extienden desde las montañas de Ozark en el Atlántico medio. El 22 de enero, el NWS dijo nevada pesada y cada vez más fuertes vientos a sábado se predicen para causar peligrosas condiciones de ventisca en Washington, DC, donde las advertencias de ventisca estaban en vigor. Al sur, un cuarto a media pulgada de la acumulación de hielo en partes de las Carolinas interiores fuera de las montañas - con cantidades más ligeros que se esperan de Kentucky y sobre la mayor parte de los / las Carolinas orientales centrales. El clima severo también es posible a través de costas oriental del Golfo y la Florida.

Esa tormenta de invierno no es el único fabricante de tiempo grande en los Estados Unidos como otra área de baja presión estaba afectando el noroeste del Pacífico. El 22 de enero, se espera que las fuertes lluvias en las elevaciones más bajas del noroeste de California y el suroeste de Oregon con fuertes nevadas en las elevaciones más altas de las Sierras y Washington Cascade cordillera.

Para predicciones actualizadas, visite el sitio web de la NOAA NWS: http: //www.weather.gov

NASA proporciona un análisis en profundidad de la inusual tormenta tropical Alex



NASA / Goddard Space Flight Center

IMAGEN: satélite Suomi NPP de la NASA-NOAA proporciona este aspecto visible en el huracán Alex a las 14:20 GMT (9:20 am EST) el 15 de enero mientras se movía sobre las Azores .... Ver más

Crédito: Créditos: NASA / NOAA / Jeff Schmaltz

La NASA ha proporcionado los pronosticadores con una variedad de datos sobre el fuera de temporada de ciclones tropicales Alex. El instrumento AIRS a bordo del satélite Aqua de la NASA proporcionó valiosos datos de temperatura, el instrumento RapidScat identificó los vientos más fuertes, las tasas de precipitación proporcionados GPM principal de satélites y altura de las nubes, y proporcionó satélite Suomi NPP de la NASA-NOAA una imagen visible de la tormenta.

Alex es una rara tormenta

Alex se convirtió oficialmente en un huracán el 14 de enero, 2016 a 11 a.m. hora estándar del Atlántico (AST), con vientos máximos sostenidos estimados a 85 millas por hora el Centro Nacional de Huracanes (NHC), convirtiéndolo en el primer huracán para formar en el Atlántico desde 1938, cuando la primera tormenta de la temporada se convirtió en huracán el 4 de enero. Al igual que con Alex, que la tormenta también originó a partir de un centro extra-tropical de baja presión.

El último huracán que se produzca en enero fue el huracán Alice en 1955, pero Alice ya se había convertido en un huracán en el año anterior al final de diciembre y sobrevivido en enero. NHC declaró Alex a ser una tormenta subtropical en la tarde del miércoles 13 de enero, cuando estaba a unos 785 millas al sur-suroeste de las Azores.

Alex comenzó a partir de un área de baja presión que se formó hace aproximadamente una semana a lo largo de un antiguo límite frontal que se cuelga a través de Cuba. Esta baja se movió gradualmente hacia el centro del Atlántico en dirección general hacia el oeste y comenzó a producir actividad tormentosa, ya que comenzó a curvarse hacia el norte, hacia las Azores. Muchas veces, cuando las tormentas extra-tropicales adquieren aumento en la convección es la inestabilidad debido a ser más cálidas aguas, pero en el caso de Alex, parece que la inestabilidad se debió principalmente al aire frío en altura. En cualquier caso, la liberación de calor a partir de estas tormentas, que se conoce como calor latente, es lo que permitió a Alex a transformar con el tiempo en un huracán.

Medidas AIRES Nube Top Temperaturas

El instrumento Sonda Infrarroja Atmosférica o AIRS que vuela a bordo de las temperaturas medidas por satélite Aqua de la NASA en las nubes de huracán Alex, el 14 de enero a las 1429 GMT (9:29 am EST). AIRS proporciona datos de temperatura valiosos para los ciclones tropicales como cima de la nube y la superficie del mar temperaturas.

AIRES vio tormentas fuertes con nubes superiores temperaturas inferiores a menos de 72,6 grados Fahrenheit (menos 58,1 grados Celsius) alrededor del ojo. investigación de la NASA ha demostrado que las tormentas con la nube fría tapas que son lo suficientemente potente como para generar fuertes lluvias.

Localiza RapidScat vientos más fuertes

El 15 de enero a las 6 am EST, RapidScat vio vientos más fuertes del huracán Alex que afectan a algunas islas de las Azores. vientos más fuertes fueron (rojo) al norte y al noroeste del centro a 30 metros por segundo (67,1 mph / 108 kph). Los vientos máximos sostenidos no siempre se distribuyen por igual en zonas de baja presión y el instrumento RapidScat ayuda a encontrar los pronosticadores más fuertes de los cuadrantes de una tormenta. vientos de tormenta tropical se extienden hacia afuera hasta 460 millas (740 km) del centro.

RapidScat es un instrumento de la NASA que vuela a bordo de la Estación Espacial Internacional.

GPM satélite Medidas de lluvia del huracán Alex

El núcleo satélite de observación global medición de la precipitación o GPM voló directamente encima huracán Alex el 15 de enero 2016 a 1151 UTC (06:51 am EST) la recopilación de datos en un análisis de las precipitaciones. Alex se movía en las Azores como un huracán de categoría uno, con vientos máximos sostenidos estimados en 70 nudos (80,5 mph). de GPM Microwave Imager (GMI) y de doble frecuencia radar de precipitación (DPR) encontraron que la intensidad de la lluvia había disminuido significativamente desde que Alex fue declarado un huracán el 14 de enero 2016.

La mayor parte de la precipitación medida por DPR de GPM se midió a menos de 20 mm (.8 pulgadas) por hora. Además de radar (RDP de banda Ku) GPM encontró que la tormenta top alturas eran bastante bajos. Se encontró que las alturas máximas superiores tormenta al noroeste de ojo nublado de Alex para alcanzar altitudes 9,9 km (6,1 millas).

Fuerza de Alex, la ubicación y una recalada

A las 7 am EST (1200 GMT) el viernes 15 de enero de 2016 Alex seguía siendo un huracán con vientos máximos sostenidos de 75 mph (120 kph). Se encuentra cerca de 28,0 latitud norte y 26,9 longitud oeste, a 50 millas (80 km) al sur-sureste de la isla de Terceira en las Azores Central, y cerca de 105 millas (170 kilómetros) al este-sureste de la isla de Faial en las Azores Central. Alex se movía hacia el norte a 24 mph (39 kph) y tenía una presión central mínima de 986 milibares.

El Centro Nacional de Huracanes dijo que los datos satelitales y de superficie indican que Alex tocó tierra en la isla de Terceira alrededor de 915 AM AST (1315 UTC) como una tormenta tropical con una intensidad del 70 mph (110 kph).

A las 10 am EST (1500 GMT), el centro de la tormenta tropical Alex se encuentra cerca de la latitud 39.3 Norte y longitud 27.0 Oeste. Alex se movía hacia el norte, cerca de 28 mph (44 kph) y un giro hacia el norte-noroeste y se espera noroeste sobre el día siguiente más o menos. La presión mínima central estimada es de 986 milibares. Los vientos máximos sostenidos bajaron a alrededor de 70 mph (110 kph) haciendo una tormenta tropical Alex. Pocos cambios en la fuerza se prevé en las próximas 48 horas. El Centro Nacional de Huracanes dijo que "se espera que Alex perder características tropicales el día de hoy (15 de enero)."

Suomi NPP Fotos Alex de la NASA-NOAA

El instrumento Visible Infrared Imaging Radiometer Suite (VIIRS) a bordo del satélite Suomi NPP de la NASA-NOAA capturó una imagen de luz visible del huracán Alex a las 14:20 GMT (9:20 am EST) el 15 de enero, mientras se movía a través de las Azores.

La imagen mostró que el ojo se había convertido y bandas de tormentas eléctricas continuaron dar la vuelta al centro de la tormenta, sobre todo en los cuadrantes occidentales, norte y este lleno de nubes. VIIRS recoge imágenes visibles e infrarrojas y las observaciones globales de la tierra, la atmósfera, la criosfera y los océanos.

Futuro de Alex

Alex sigue acelerando y se espera un giro gradual hacia el noroeste. El 15 de enero de meteorólogos Pascua del Centro Nacional de Huracanes de la NOAA, dijo que el ciclón post-tropical se prevé fusionarse con o ser absorbida por otra baja extratropical dentro de dos días. Para las actualizaciones, visite NHC: http: //www.nhc.noaa.gov

NIST simula secuenciación de ADN rápida y precisa a través de nanopore de grafeno



Instituto Nacional de Estándares y Tecnología (NIST)

IMAGE: Este es el concepto del NIST para la secuenciación del ADN a través de un nanopore de grafeno.

Crédito: Smolyanitsky / NIST

Investigadores del Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) han simulado un nuevo concepto para la secuenciación de genes rápida y precisa tirando de una molécula de ADN a través de un diminuto agujero químicamente activado en grafeno - una capa ultrafina de átomos de carbono - En corriente eléctrica.

El estudio NIST sugiere que el método podría identificar alrededor de 66 millones de bases - las unidades más pequeñas de información genética - por segundo, con un 90 por ciento de precisión y sin falsos positivos. Si se demuestra experimentalmente, el método NIST podría ser en última instancia más rápido y más barato que la secuenciación convencional de ADN, satisfaciendo una necesidad crítica de aplicaciones como forense.

La secuenciación convencional, desarrollada en los años setenta, consiste en separar, copiar, etiquetar y reensamblar fragmentos de ADN para leer la información genética. La nueva propuesta del NIST es un giro en la más reciente "nanopore secuencia" idea de tirar de ADN a través de un agujero en materiales específicos, originalmente una proteína. Este concepto - pionero hace 20 años en NIST - se basa en el paso de partículas cargadas eléctricamente (iones) a través del poro. La idea sigue siendo popular pero plantea desafíos tales como ruido eléctrico no deseado, o interferencia, y selectividad inadecuada.

Por el contrario, la nueva propuesta de NIST es crear enlaces químicos temporales y confiar en la capacidad del grafeno para convertir las tensiones mecánicas de romper esos enlaces en blips mensurables en corriente eléctrica.

"Este es esencialmente un pequeño sensor de deformación", dice el teórico del NIST, Alex Smolyanitsky, quien ideó la idea y dirigió el proyecto. "No inventamos una tecnología completa. Hemos esbozado un nuevo principio físico que potencialmente puede ser muy superior a cualquier otra cosa.

Ananimation está disponible.

El grafeno es muy popular en las propuestas de secuenciación en nanopore debido a sus propiedades eléctricas y su estructura miniaturizada de película delgada. En el nuevo método NIST, un grafeno nanoribbon (4,5 por 15,5 nanómetros) tiene varias copias de una base unida al nanopore (2,5 nm de ancho). El código genético del ADN se construye a partir de cuatro tipos de bases, que se unen en pares como la citosina-guanina y la timina-adenina.

En las simulaciones (ver animación acompañante) de cómo el sensor se realizaría a temperatura ambiente en agua, la citosina se une al nanopore para detectar guanina. Una molécula de ADN de una sola hebra (descomprimida) es atraída a través del poro. Cuando la guanina pasa, los enlaces de hidrógeno se forman con la citosina. A medida que el ADN continúa moviéndose, el grafeno es arrancado y luego se desliza hacia atrás en posición cuando los enlaces se rompen.

El estudio del NIST se centró en cómo esta cepa afecta las propiedades electrónicas del grafeno y encontró que los cambios temporales en la corriente eléctrica de hecho indican que una base de destino ha pasado justo por. Para detectar las cuatro bases, cuatro cintas de grafeno, cada una con una base diferente insertada en el poro, podrían ser apiladas verticalmente para crear un sensor de ADN integrado.

Los investigadores combinaron los datos simulados con la teoría para estimar los niveles de variaciones mensurables de la señal. La intensidad de la señal estaba en el rango de miliamperios, más fuerte que en los anteriores métodos de nanopore de corriente iónica. Los investigadores sugirieron que cuatro mediciones independientes de la misma cadena de ADN producirían una precisión del 99,99 por ciento, según se requiera para la secuenciación de la secuencia de ADN. Genoma humano.

Los autores del estudio concluyeron que el método propuesto muestra "una promesa significativa para dispositivos de detección de ADN realistas" sin necesidad de procesamiento avanzado de datos, microscopios o condiciones de operación altamente restringidas. Aparte de fijar las bases al nanopore, todos los componentes del sensor han sido demostrados experimentalmente por otros grupos de investigación. El análisis teórico sugiere que los métodos electrónicos de filtrado básicos podrían aislar las señales eléctricas útiles. El método propuesto también podría usarse con otras membranas sensibles a la tensión, tales como disulfuro de molibdeno.

Aproximadamente la mitad de las simulaciones fueron realizadas por un coautor de la Universidad de Groningen en los Países Bajos. El resto se realizó en el NIST.

NASA-financiado lanzamiento de globos para estudiar el sol



NASA / Goddard Space Flight Center

IMAGEN: La Gamma-Ray Imager / polarímetro de llamaradas solares, o agarres, la carga útil lanzada hacia el cielo en un globo gigante el 18 de enero 2016. Será montar los vientos alrededor del polo sur ... ver más

Crédito: Créditos: NASA / Albert Shih

El 18 de enero, 2016, el equipo de balón PUÑOS envió sus instrumentos alza hacia la estratosfera sobre la Antártida, suspendido debajo de una, globo de tamaño científica campo de fútbol lleno de helio. PUÑOS, abreviatura de Rayos Gamma Imager / polarímetro de llamaradas solares, está estudiando muy radiación de alta energía liberada por las erupciones solares.

Las erupciones solares son creados por una realineación explosivo de los campos magnéticos, conocidas generalmente como la reconexión magnética. Cuando los campos magnéticos cambian repentinamente fuertes campos eléctricos se generan que producen una gran fuerza sobre las partículas cargadas. En el gas ionizado de la atmósfera del Sol, este proceso envía electrones e iones que vuelan a velocidades cercanas a la velocidad de la luz, provocando la liberación de los rayos gamma de alta energía.

"PUÑOS ve esta emisión tres veces más intensamente que cualquier instrumento anterior", dijo Albert Shih, científico del proyecto para la misión PUÑOS del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. "Vamos a ser capaces de identificar con mayor precisión los tiempos y lugares que producen rayos gamma."

verano antártico es el momento ideal para el lanzamiento de globos científicos, debido a los cielos relativamente tranquilas y - durante varias semanas - 24/7 luz del sol, que proporciona energía y recolección de datos continua para los instrumentos centrados solares como mordazas.

El equipo comenzó PUÑOS llegar a la estación McMurdo en la Antártida a finales de octubre de 2015. A lo largo de noviembre, diciembre y principios de enero, el equipo montado y probado PUÑOS mientras esperaban a que las condiciones adecuadas para poner en marcha su globo. El equipo PUÑOS espera su globo volará para cualquier lugar de 14 a 55 días, realizadas en todo el continente por un patrón de viento circular que se desarrolla sobre la Antártida cada verano.

globos científicos son una manera de bajo costo para acceder a la atmósfera superior de la Tierra hasta el borde del espacio, lo que permite a los científicos realizar mediciones que son imposibles desde el suelo.

PUÑOS está dirigido por la Universidad de California en Berkeley por el investigador principal Pascal Saint-Hilaire. Orbital ATK proporciona la gestión de programas, planificación de la misión, servicios de ingeniería y operaciones de campo para programa de globos científicos de la NASA. El programa se ejecuta desde Columbia Scientific Balloon Facility de la NASA en Palestine, Texas. El equipo de Columbia ha puesto en marcha más de 1.700 globos científicos en más de 35 años de operación.

División de Programas Polares de la Fundación Nacional de Ciencia proporciona apoyo logístico y aviones en la estación McMurdo, en la Antártida.

NCAR anuncia nuevo supercomputador para el descubrimiento científico



Centro Nacional para la Investigación Atmosférica / Corporación Universitaria de Investigación Atmosférica

Los científicos utilizaron el superordenador de Yellowstone para desarrollar esta representación tridimensional de una tormenta importante en julio de 2011 que causó inundaciones en el cañón de Fourmile al oeste de Boulder. Los colores muestran las condiciones ... ver más

Crédito: Imagen de David Gochis, NCAR.

BOULDER - El Centro Nacional de Investigación Atmosférica (NCAR) anunció hoy que ha seleccionado su próximo supercomputador para avanzar en las ciencias atmosféricas y de la Tierra, siguiendo un proceso competitivo abierto de adquisiciones. La nueva máquina ayudará a los científicos a sentar las bases para mejorar las predicciones de una gama de fenómenos, desde los riesgos de hora a hora asociados con los brotes de tormenta hasta el momento del ciclo solar de 11 años y sus posibles impactos en GPS y otras tecnologías sensibles.

El nuevo sistema, llamado Cheyenne, será instalado este año en el NCAR-Wyoming Supercomputing Center (NWSC) y estará operando a principios de 2017.

Cheyenne será construido por Silicon Graphics International Corp. (SGI) junto con el sistema de archivos centralizado y los componentes de almacenamiento de datos proporcionados por DataDirect Networks (DDN). El SGI de alto rendimiento será un sistema de 5,34-petaflop, lo que significa que puede realizar 5,34 billones de cálculos por segundo. Será capaz de más de 2,5 veces la cantidad de computación científica realizada por Yellowstone, el actual superordenador NCAR.

Fundada por la Fundación Nacional de Ciencias y el estado de Wyoming, Cheyenne será una herramienta fundamental para investigadores de todo el país que estudien el cambio climático, el clima severo, las tormentas geomagnéticas, la actividad sísmica, la calidad del aire, los incendios forestales y Otros temas importantes de geociencia. Desde que la instalación de supercomputación en Wyoming abrió sus puertas en 2012, más de 2.200 científicos de más de 300 universidades y laboratorios federales han utilizado sus recursos.

"Estamos muy contentos de traer más poder de supercomputación a la comunidad científica", dijo Anke Kamrath, director de operaciones y servicios del Laboratorio de Sistemas Computacionales y de Información de NCAR. "Ya sea la amenaza de las tormentas solares o un mayor riesgo en ciertos eventos climáticos severos, este nuevo sistema ayudará a conducir a mejores predicciones ya fortalecer la capacidad de resistencia de la sociedad ante posibles desastres".

"Los investigadores de la Universidad de Wyoming harán un gran uso del nuevo sistema a medida que continúen su trabajo en una mejor comprensión de áreas tales como los flujos superficiales y subterráneos de agua y otros líquidos, los procesos de nubes y el diseño de plantas de energía eólica", dijo William Gern, vicepresidente de investigación y desarrollo económico de la Universidad de Wyoming. "La relación de UW con NCAR a través de la NWSC ha fortalecido considerablemente nuestra investigación científica y centrada en datos. Nos está ayudando a presentar la próxima generación de científicos e ingenieros a estos esfuerzos ".

El NWSC se encuentra en Cheyenne, y el nombre del nuevo sistema fue elegido para honrar el apoyo que ha recibido de la gente de esa ciudad. También conmemora el próximo 150 aniversario de la ciudad, que fue fundada en 1867 y nombrada para la nación indiana Cheyenne.

Mayor potencia, mayor eficiencia

El nuevo sistema de almacenamiento de datos para Cheyenne se integrará con el sistema de archivos GLADE existente de NCAR. El almacenamiento DDN proporcionará una capacidad inicial de 20 petabytes, expandible a 40 petabytes con la adición de unidades adicionales. Esto, combinado con los 16 petabytes actuales de GLADE, totalizará 36 petabytes de almacenamiento de alta velocidad. El nuevo sistema DDN también transferirá datos a una velocidad de 200 gigabytes por segundo, lo que es más del doble que la velocidad actual del sistema de archivos de 90 gigabytes por segundo.

El sistema incluirá un poderoso procesador Intel Xeon & copy; Procesadores, cuyo desempeño será aumentado a través de trabajo de optimización que ha sido realizado por NCAR y la Universidad de Colorado Boulder. NCAR y la universidad realizaron este trabajo a través de su participación en el programa Intel Centros Paralelos de Computación.

Incluso con su mayor poder, Cheyenne será tres veces más eficiente en energía (en operaciones de punto flotante por segundo, o flops, por vatio) que Yellowstone, su predecesor, que es en sí mismo altamente eficiente.

"El nuevo sistema tendrá una tasa de computación máxima de más de 3 mil millones de cálculos por segundo por cada vatio de potencia consumida", dijo Irfan Elahi, director de proyectos de Cheyenne y director de sección para servicios de supercomputación de alto rendimiento de NCAR.

Predicciones más detalladas

Las computadoras de alto rendimiento como Cheyenne permiten a los investigadores ejecutar modelos cada vez más detallados que simulan procesos complejos y cómo podrían desplegarse en el futuro. Estas predicciones dan a los administradores de recursos ya los expertos en políticas información valiosa para planificar y mitigar el riesgo.

Algunas de las áreas en las que se espera que Cheyenne aceleren la investigación son las siguientes:

Flujo de corriente Las predicciones anuales de caudales y niveles de yacimientos asociados a un mayor nivel de detalle proporcionarán a los administradores del agua, a los agricultores ya otros tomadores de decisiones información vital sobre la probable disponibilidad de agua y el potencial de efectos de sequía o inundación.

Tiempo adverso Mediante la realización de múltiples simulaciones simultáneas (o conjuntos) de modelos de predicción de alta resolución, los científicos sentarán las bases para predicciones más específicas de fenómenos meteorológicos severos, como la probabilidad de que un grupo de tormentas intensas con riesgo de granizo o inundación llegue a Condado a una hora determinada.

Los usuarios de Modelos especializados de irradiancia solar y cobertura de nubes se ejecutarán con mayor frecuencia ya mayor resolución, produciendo investigación que ayudará a las empresas eléctricas a predecir cuánta energía será generada por las grandes matrices solares horas a días de antelación.

Cambio climático regional. Los científicos llevarán a cabo simulaciones múltiples con modelos climáticos detallados, previendo cómo regiones particulares en todo el mundo experimentarán patrones cambiantes de precipitación y temperatura, junto con impactos potenciales del aumento del nivel del mar, flujo de la corriente y escorrentía.

Pronóstico decenal. Conjuntos de modelos climáticos detallados también ayudarán a los científicos a predecir la probabilidad de ciertos patrones climáticos durante un período de 10 años, como el riesgo de sequía para una región determinada o cambios en la extensión del hielo marino del Ártico.

Calidad del Aire: Los científicos podrán simular con más detalle el movimiento y la evolución de los contaminantes atmosféricos, para así comprender mejor los efectos potenciales sobre la salud de determinados tipos de emisiones y trabajar para mejorar las previsiones de calidad del aire.

Flujos subsuperficiales. Modelos más precisos y detallados permitirán a los investigadores simular mejor los flujos subsuperficiales de agua, petróleo y gas, lo que conduce a una mayor comprensión de estos recursos.

Tormentas solares Los modelos innovadores y tridimensionales del Sol sentarán las bases para las predicciones del momento y la fuerza del ciclo de 11 años del Sol, así como para los pronósticos diarios de perturbaciones solares que pueden generar tormentas geomagnéticas en la atmósfera superior de la Tierra.

"La supercomputación es vital para las investigaciones y aplicaciones científicas del NCAR, dándonos un laboratorio virtual en el que ejecutamos experimentos que de otra manera serían poco prácticos o imposibles de hacer", dijo el director de NCAR, James Hurrell. "Cheyenne será un componente clave de la infraestructura de investigación de los Estados Unidos a través de su provisión de supercomputación diseñada específicamente para las ciencias atmosféricas, geoespaciales y relacionadas. Las capacidades de este nuevo sistema serán fundamentales para la mejora continua de nuestra capacidad de comprender y predecir los cambios en el tiempo, el clima, la calidad del aire y el tiempo espacial, así como sus impactos en las personas, los ecosistemas y la sociedad ".

Datos breves de Cheyenne

Principales características del nuevo sistema de supercomputadoras Cheyenne:

5.34-petaflop SGI ICE XA Cluster con un futuro procesador Intel Xeon, familia de productos

Más de 4K nodos de cálculo

20% de los nodos de computación tienen 128GB de memoria y theremaining ~ 80% tienen 64GB de memoria

313 terabytes (TB) de memoria total

Mellanox EDR InfiniBand de alta velocidad de interconexión

Topología de interconexión 9D de Hypercube mejorada parcial

Sistema operativo SUSE Linux Enterprise Server

Altair PBS Professional Carga de trabajo Manager

Conjunto de compiladores Intel Parallel Studio XE

SGI Management Center y SGI Development Suite

Mellanox Unified Fabric Manager

La nueva supercomputadora Cheyenne y el sistema de archivos existente se complementan con un nuevo sistema de archivos paralelo centralizado y componentes de almacenamiento de datos. Características clave del nuevo sistema de almacenamiento de datos:

Cuatro sistemas DDN SFA14KX

20 petabytes de espacio de sistema de archivos utilizable (se puede ampliar a 40 petabytes añadiendo unidades)

Ancho de banda de E / S agregada de 200 GB por segundo

3.360 & # 215; Unidades SAS de 8 TB NL

48 & # 215; Unidades SSD de 800 GB de uso mixto para metadatos

24 & # 215; Servidores NSD (Network Shared Disk)

Sistema operativo Red Hat Enterprise Linux

IBM GPFS (Sistema de archivos paralelo general)

La Corporación Universitaria de Investigación Atmosférica administra el Centro Nacional de Investigación Atmosférica bajo el patrocinio de la National Science Foundation. Cualquier opinión, conclusión o conclusión o recomendaciones expresadas en esta publicación son las del autor y no reflejan necesariamente las opiniones de la Fundación Nacional de Ciencias.

NASA analiza vientos de tormenta tropical Ula



NASA / Goddard Space Flight Center

IMAGEN: Esta imagen de la NOAA GOES-West satélite el 7 de enero 2016 a las 1200 UTC (7 am EST) muestra la tormenta tropical Ula en el Océano Pacífico Sur oeste-suroeste de Fiji .... Ver más

Crédito: Créditos: NASA / NOAA VA Proyecto

La tormenta tropical Ula continuó debilitándose a medida que sacó más lejos de Fiji en el Océano Pacífico Sur. RapidScat instrumento de la NASA encontró que los vientos más fuertes de la tormenta fueron al sur del centro. del satélite GOES-West NOAA capturó una imagen infrarroja de la tormenta que mostró fuertes tormentas eléctricas se había desarrollado recientemente alrededor de su centro.

El 7 de enero de 2016 instrumentos RapidScat vientos superficiales medidas de la NASA en la tormenta tropical Ula y vio los vientos más fuertes cerca de 29 metros por segundo // 64,4 mph / 104,4 kilómetros por hora al sur del centro. Los vientos máximos sostenidos no siempre se distribuyen por igual en un huracán o una tormenta tropical, los vientos en los otros cuadrantes no eran tan fuertes. RapidScat instrumento ayuda a los analistas a encontrar los cuadrantes más fuertes de una tormenta. RapidScat es un instrumento que vuela a bordo de la Estación Espacial Internacional.

NOAA GOES-West satélite capturó una imagen infrarroja de la tormenta tropical Ula a las 1200 UTC (7 am EST) el 7 de enero 2016. La imagen infrarroja mostró que las tormentas más fuertes volvieron a desarrollar en el centro de la circulación como la cizalladura del viento y la tormenta relajado movido más cálidas temperaturas de la superficie del mar.

En 0900 UTC (4 PM EST) el 6 de enero de 2016 vientos máximos sostenidos de Ula había caído a 45 nudos (51 mph / 83 kph). Ula continúa su trayectoria hacia el noroeste a 4 nudos (4,6 mph / 7,4 kph) y en el aumento de la cizalladura del viento vertical, que se espera que mantenga el debilitamiento de la tormenta. Ula estaba centrada cerca de 19.0 grados de latitud sur y 175,0 grados de longitud este, de 201 millas náuticas (231.3 millas / 372,3 km) al oeste-suroeste de Suva, Fiji.

La advertencia de previsión del tifón común Centro pide Ula moverse hacia el noroeste y se vuelve a reforzar durante un día o dos antes de la tormenta se convierte en el sudoeste, donde se encontrará con el aumento de la cizalladura del viento vertical y mover hacia atrás en aguas más frías. Se espera que estos dos factores para debilitar la tormenta y dar lugar a la disipación del 10 de enero 2016.

Centro de Vuelo Espacial Goddard de la NASA

NSF asigna $ 30 millones para ampliar las fronteras de la computación



Expediciones en Informática subvenciones abarcan la informática teórica, la biología sintética y la sostenibilidad computacional

National Science Foundation

IMAGEN: Una expedición estudiará la sostenibilidad computacional. Se muestra: la abundancia anual del árbol más swallow.view

Crédito: Daniel Fink, Cornell Lab. de Ornitología

anunció la National Science Foundation (NSF) de hoy $ 30 millones en fondos para tres expediciones en proyectos de computación. Cada donación proveerá $ 10 millones en cinco años a equipos de investigación, multi-investigador interdisciplinarios para apoyar la investigación de la computación y tecnología de la información transformadora. Los proyectos Expediciones constituyen las mayores inversiones en equipo y ciencias de la información de investigación NSF ha hecho.

Los tres proyectos son dirigidos por investigadores de la Universidad de Princeton, la Universidad de Boston y la Universidad de Cornell, e incluyen eruditos en 14 colegios, universidades y laboratorios de todo un amplio abanico de disciplinas. Los proyectos tienen como objetivo explorar las fronteras de la ciencia de la computación teórica, la biología sintética y la sostenibilidad de cálculo. Ellos buscarán nuevos métodos formales para el desarrollo de software, un novedoso conjunto de herramientas para la bio-diseño computacional y una amplia red nacional e internacional de investigadores de sostenibilidad computacionales.

Las Expediciones en el programa de Computadoras cataliza la investigación de largo alcance motived por cuestiones científicas profundas que tienen el potencial de beneficio social significativo. Los ejemplos incluyen el desarrollo de abejas robóticas, los avances en la creación de redes definidas por software y los nuevos modelos de programación que hacen análisis de datos más rápida. Las subvenciones permiten avances en la investigación concurrentes en múltiples disciplinas, lo cual es a menudo necesaria para estimular, resultados duraderos profundas.

"Las Expediciones en el programa de Computadoras permite a la comunidad de investigación de computación para perseguir problemas complejos mediante el apoyo a los equipos grandes proyectos durante un período de tiempo más largo", dijo Jim Kurose, la cabeza de la NSF para la Informática y Ciencias de la Información e Ingeniería. "Esto permite que estos investigadores para proseguir la investigación audaz, ambiciosa que se mueve la aguja, no sólo para las disciplinas de la informática, pero a menudo muchas otras disciplinas también."

Iniciado en 2008, el programa de Expediciones ha financiado 19 proyectos hasta la fecha, con una inversión total de aproximadamente $ 190 millones. El programa ha tenido un impacto de transformación en numerosos campos que van desde la robótica a la red de próxima generación en el diseño de circuitos de hardware. proyectos anteriores están comenzando a la transición de sus innovaciones a la práctica a través de fondos de seguimiento de la industria. (Más información sobre los proyectos de expediciones anteriores.)

Los nuevos proyectos Expediciones anunciados hoy son:

"La ciencia de la Especificación profundo" - Investigador Principal: Andrew Appel, la Universidad de Princeton; instituciones asociadas: Universidad de Pennsylvania, Yale University, Instituto de Tecnología de Massachusetts

Este nuevo subsidio de la NSF tiene como objetivo eliminar software '' errores que pueden conducir a vulnerabilidades de seguridad y errores de cómputo mediante la mejora de los métodos formales - o las técnicas de base matemática - por los que se desarrolla el software y verificado.

desafío inicial de los investigadores implicará la disección de la complejidad del hardware y el software moderno para descubrir los factores que determinan la forma en diversos componentes informáticos trabajan juntos. El siguiente paso implica el desarrollo de especificaciones 'profundas' - descripciones precisas del comportamiento de los elementos de software basados ??en la lógica formal. Estas especificaciones profundos permitirán a los ingenieros no sólo para construir programas libres de errores, pero para verificar que sus programas se comportan exactamente como se proponen.

"En nuestro mundo interconectado, los errores de software y vulnerabilidades de seguridad plantean enormes costos y riesgos", dijo Appel. "Cuando se presiona el pedal del acelerador o el freno en un coche moderno, por ejemplo, que estás realmente sólo lo que sugiere que un programa de ordenador que desea acelerar o frenar. El equipo tenía mejor hacer las cosas bien ".

El equipo también desarrollará nuevos cursos y materiales curriculares en sus universidades para formar a la próxima generación de desarrolladores de software para utilizar los nuevos métodos mejorados.

"Evolvable estar Computing - La comprensión y la cuantificación de los sistemas biológicos sintético de aplicabilidad, el rendimiento y Límites" - Investigador Principal: Douglas Densmore, de la Universidad de Boston; instituciones de asociación: Instituto de Tecnología de Massachusetts, Lincoln laboratorios

El campo de la biología sintética ha dado grandes pasos y dado enormes beneficios en los últimos años. Por ejemplo, los primeros esfuerzos de biología sintética condujeron a la producción de precursores de drogas antimaláricas en cantidades que no se ve en la naturaleza. El uso de bloques de construcción biológicos para diseñar sistemas biológicos, sin embargo, ha sido difícil sin una metodología de diseño claro y de apoyo métricas cuantitativas que los investigadores pueden utilizar para tomar decisiones.

Esta subvención NSF apoyará los esfuerzos para crear un conjunto sistemático de directrices para medir cuidadosamente y catalogar partes biológicas que se pueden utilizar para diseñar sistemas biológicos con resultados predecibles. Estas directrices permitirán a los investigadores a entender mejor cuáles son los principios de computación pueden aplicarse en varias ocasiones y de forma fiable a la biología sintética.

"Esto pone una estaca en el suelo para hacer más riguroso biología sintética", dijo Douglas Densmore, profesor asociado de la Universidad de Boston. "Queremos construir una base que es bien entendida y que puede servir como una fuente abierta lugar de partida para muchas aplicaciones avanzadas".

La donación marca la primera vez que los investigadores explorarán de manera explícita los principios de computación en múltiples organismos vivos y archivarán abiertamente los resultados.

"CompSustNet: La ampliación de los horizontes de la sostenibilidad computacional" - Investigador Principal: Carla Gomes, Universidad de Cornell; instituciones de asociación: Bowdoin College, Instituto de Tecnología de California, la Universidad Carnegie Mellon, Instituto de Tecnología de Georgia, la Universidad de Howard, Oregon State University, la Universidad de Princeton, la Universidad de Stanford, la Universidad de Massachusetts-Amherst, Universidad del Sur de California, Universidad de Vanderbilt

sostenibilidad computacional tiene como objetivo aplicar técnicas computacionales para equilibrar las necesidades ambientales, económicas y sociales para apoyar el desarrollo sostenible y un futuro sostenible.

CompSustNet actuará como una gran red de investigación y educación multi-institucional nacional e internacional, colaborando con las organizaciones gubernamentales y no gubernamentales clave en las áreas de conservación, la mitigación de la pobreza y las energías renovables. Los investigadores utilizarán técnicas y metodologías computacionales para aumentar la eficacia de la gestión y la asignación de los recursos naturales y sociales.

"Nuestra NSF Expedición reúne a científicos e ingenieros, científicos ambientales y sociales, físicos y científicos de los materiales cargados de crecimiento y expansión de los horizontes de la naciente campo de la sostenibilidad de cómputo", dijo Gomes. "Los avances en la sostenibilidad computacional conducirán, por ejemplo, a nuevas estrategias para ayudar a los ganaderos y agricultores de África a mejorar su forma de vida, salvar especies en peligro de extinción y la escala de las energías renovables para satisfacer la demanda energética del siglo 21".

Gomes dirigió un equipo que recibió una de las becas primeras expediciones en 2008. La financiación inicial de la NSF llevó a más de $ 80 millones en apoyo de otras agencias y organizaciones y ayudó a estimular el campo de la sostenibilidad computacional. Como resultado de los esfuerzos pioneros de la concesión Expediciones original, las universidades están empezando a enseñar a la sostenibilidad de cálculo como una disciplina por derecho propio.

NOAA GOES-S, T y U satélites se perfilan



NASA / Goddard Space Flight Center

IMAGEN: El IR-S módulo principal se encuentra en una habitación limpia en Littleton, Colorado, las instalaciones de Lockheed Martin. El "cuerpo" del satélite, el módulo de núcleo comprende una mayoría de la estructura y ... ver más

Crédito: Créditos: Lockheed Martin

Como NOAA GOES-R satélite pasa a través de pruebas mecánicas en preparación para su lanzamiento en octubre de 2016, los satélites restantes de la serie (Va-S, T y U) también están haciendo progresos significativos.

Seis nuevos instrumentos volarán a bordo de cada una de la serie de satélites GOES-R: avanzada línea de base Imager (ABI), ultravioleta extremo y sensores de rayos X de la irradiación solar (Exis), geoestacionario Rayo Mapper (GLM), magnetómetro, entorno espacial In Situ Suite (Seiss ), y Solar Ultraviolet Imager (SUVI). Además de estos instrumentos también se está completando la propia nave, conocido como el "autobús", antenas, el hardware y el software de vuelo, y otros componentes.

En conjunto, los instrumentos ofrecerán avanzada de imágenes con mayor resolución y una cobertura más rápida para las predicciones más exactas de los fenómenos ambientales como: tormentas, niebla, fuego, aerosoles y ceniza volcánica, así como mapas en tiempo real de la actividad de rayos. Los instrumentos también permitirán Centro de Predicción del Clima Espacial de la NOAA para mejorar significativamente las previsiones de los peligros del clima espacial.

GOES-S Progreso satélite

Todos los instrumentos del GOES-S han sido entregados para la integración con el satélite y SUVI y EXIS ya están instalados en la plataforma de sol apuntando. se ha hecho un progreso significativo en el propio VA-S nave espacial. Integración y pruebas del módulo del sistema, el "cerebro" del satélite, es completa. El "cuerpo" del satélite, el módulo de núcleo que comprende una mayoría de la estructura y de propulsión sistemas, fue entregado en octubre. Estos módulos se aparearon para formar la nave espacial a finales de diciembre.

GOES-S ha completado recientemente la parte técnica de su opinión integración de sistemas, en el que un equipo independiente, que abarca varias disciplinas de ingeniería, determinó que los componentes de vuelo y del segmento de tierra están listos para su integración con el sistema entra en general. El equipo de revisión también evaluó la disposición de las instalaciones, personal de apoyo, planes y procedimientos para la integración del satélite GOES-S.

VA T-Progreso satélite

Desarrollo de VA-T componentes también está en marcha. El instrumento EXIS completó su revisión previa al envío en septiembre, y el instrumento se mantendrá en depósito hasta que esté listo para su integración con la nave espacial GOES-T. El auge del magnetómetro es también completo.

Seiss y SUVI son sometidos a pruebas ambientales para asegurar que están preparados para soportar los rigores del lanzamiento y funcionamiento en el entorno extremo del espacio. ABI ha completado las pruebas del medio ambiente y se someterá a la revisión previa al envío a principios de 2016. El GOES-T GLM está en desarrollo.

GOES-T Progreso satélite

Muchos de los componentes va de la U están en fase de desarrollo, mientras que algunos se han completado y están en fase de pruebas. El instrumento EXIS completó pruebas de vacío térmico para asegurar que pueda soportar las temperaturas calientes y frías extremas del espacio, mientras que el GOES-U ABI está actualmente en pruebas de vacío térmico. Tres de los componentes del GOES-T Seiss están completas, así como el auge del magnetómetro. SUVI se está preparando para las pruebas ambientales y GLM se encuentra en fase de desarrollo.

GOES-R lanza este año

GOES-R está programado para su lanzamiento en octubre el 2016. Una vez puesto en marcha, el GOES-R satélite será colocado en una órbita para pagar en 89,5 grados. Después de una fase de validación extendida de aproximadamente un año, el satélite pasará inmediatamente en las operaciones. ubicación operacional del satélite (75 grados Oeste o 137 grados oeste) será determinado por la Oficina de satélite y operaciones de producto de la NOAA sobre la base de la salud y el rendimiento de la corriente va constelación.

NRL prueba el concepto de vuelo cooperativo para el vuelo sostenido de planeadores de UAV



Laboratorio de Investigación Naval

Los investigadores del Laboratorio de Investigación Naval de los Estados Unidos y del Laboratorio de Inteligencia y Autonomía de los Vehículos Aéreos de la Universidad Estatal de Pensilvania demuestran algoritmos autónomos de elevación utilizados para mantener los planeadores no tripulados en ... Ver más

Crédito: Universidad Estatal de Pensilvania - Laboratorio de Inteligencia y Autonomía de Vehículos Aéreos

El Laboratorio de Investigación Naval de los Estados Unidos (NRL), en colaboración con el Laboratorio de Inteligencia y Autonomía de Vehículos Aéreos (AVIA) de la Universidad Estatal de Pensilvania (PSU), completó las pruebas de los algoritmos autónomos cooperativos utilizados para mantener los veleros no tripulados en vuelo, - demostrar el concepto de datos compartidos de vuelo entre dos vehículos aéreos no tripulados (UAV) en vuelo.

Durante las semanas del 28 de septiembre y 26 de octubre, el equipo lanzó 23 vuelos durante un período de nueve días, resultando en más de 30 horas de vuelo combinado. Las pruebas, realizadas en el espacio aéreo restringido del campo de aviación de Phillips, Aberdeen Proving Grounds, culminaron con dos planetas "energizados" que comparten datos de telemetría y se elevan cooperativa y autónomamente a altitudes superiores a un kilómetro y con una duración de vuelo de más de cinco horas.

El algoritmo autónomo de elevación desarrollado por el NRL-Autonomous Locator of Thermals (ALOFT) guió los aviones de NRL. El avión PSU fue guiado a bordo por el algoritmo autónomo desarrollado por AVIA desarrollado AutoSOAR, que se inspiró en las técnicas ALOFT de NRL. La adición de AutoSOAR de una serie de mapas atmosféricos y algoritmos de evitación de colisiones demostró la cooperación en vuelo entre los dos aviones en vuelos múltiples.

"Los algoritmos de vuelo autónomos buscan áreas de origen natural que se llaman termales", dijo el Dr. Dan Edwards, ingeniero aeroespacial y principal investigador del programa solar. "El auge autónomo cooperativo combina los datos de múltiples aviones autónomos para hacer una medición más completa de las condiciones atmosféricas locales. Este mapa atmosférico se integra para guiar ambos aviones hacia una actividad de elevación más rápida que si fuera sólo un solo avión, una técnica muy similar a la utilizada por una bandada de pájaros altísimos ".

Ambos aviones demostraron una robusta capacidad de vuelo autónoma durante las dos semanas de pruebas. El avión de la PSU voló varios vuelos de 2,5 horas a pesar de llevar una batería con sólo la capacidad suficiente para cuatro minutos de tiempo de funcionamiento del motor. El mejor vuelo ascendente de NRL fue de 5,3 horas, mientras que solo funcionaba con una hélice motorizada durante 27 minutos. Ambos aviones viajaban a alturas superiores a los 1.400 metros, con varias subidas individuales de más de 1.000 metros, utilizando nada más que el poder de la atmósfera.

"Estas pruebas demostraron que tanto el NRL como los algoritmos autónomos de la PSU son exitosos en encontrar y usar térmicas por sí mismos", dijo Edwards. "Lo que es más importante, esta prueba mostró una prueba de concepto en múltiples ocasiones, con ambas aeronaves encontrando termales y 'llamando' a la otra aeronave para usar la misma área de elevación para aumentar la resistencia del enjambre".

Las pruebas futuras se enfocarán en reducir la distancia de separación de manera que ambas aeronaves puedan elevarse activamente en la misma temperatura a la misma altitud. El equipo también investigará la inclusión de la energía solar fotovoltaica en las técnicas cooperativas autónomas de elevación, permitiendo vuelos de larga duración de planeadores no tripulados utilizando el poder del sol.

Solar fotovoltaica permitirá la conversión de la radiación solar directamente a la electricidad para cargar las baterías o proporcionar energía para una mayor duración o cargas útiles. NRL está desarrollando electrónica de potencia "drop-in" y alas solares, lo que permitirá cargar las baterías y apuntar a vuelo nocturno.

El Programa de Proyectos de Energía Solar Fotovoltaica y Autónoma y el Programa Cooperativo-Soaring de la Oficina de Energía Expedicionaria de la US Marine Corps tienen como objetivo mejorar la disponibilidad de una misión 24-7 de Información, Vigilancia y Reconocimiento (ISR) sin utilizar combustible logístico, beneficiando al expedicionario Warfighter mejorando la resistencia de los activos UAV existentes y futuros.

Nueva fuente de enfermedad hepática en la obesidad causada por grasas saturadas, pero no grasas insaturadas



Universidad Médica de Carolina del Sur

En los resultados publicados el 19 de octubre de 2015 en el Journal of Lipid Research, un equipo de científicos de traslación en la Universidad Médica de Carolina del Sur (MUSC) informan una nueva razón por la cual la esteatohepatitis no alcohólica empeora en las personas obesas.

Los resultados pueden ayudar a prevenir la cirrosis y el cáncer de hígado, de acuerdo con los autores co-senior Kenneth D. Chavin, MD, PhD, un cirujano de trasplante en el Departamento de Salud MUSC de Cirugía, y Lauren Ashley Cowart, PhD Profesor Asociado de Bioquímica y Co- Director del Centro MUSC de Investigación Biomédica Excelencia en Lipidomics y Pathobiology.

La NASH (también llamada enfermedad hepática grasa no alcohólica) se ha convertido en una causa importante de enfermedad hepática que requiere un trasplante. "En mis 17 años de hacer trasplantes de hígado, ha pasado del 4% de los pacientes a alrededor del 20% de los pacientes que reciben trasplantes debido a NASH", dice Chavin. "En 10-15 años, debido a los avances con la hepatitis C, probablemente se convertirá en la razón número uno por la que los pacientes reciben trasplantes".

Cuando el exceso de grasas dietéticas se consumen con el tiempo, los depósitos de grasa se forman en el hígado y NASH puede desarrollar. Normalmente, la NASH en etapa temprana no está asociada con ningún síntoma físico; Casi el 30% de las personas en los EE.UU. lo tienen. Aunque la obesidad se correlaciona con el desarrollo de la NASH, el equipo quería saber exactamente por qué NASH empeora a una etapa que requiere el trasplante en ciertas personas obesas.

"La obesidad no causa la enfermedad en cada persona obesa y no entendemos por qué lo hace en algunos, pero no en otros", explica Cowart.

El equipo sospechaba que la inflamación proveniente de una molécula de lípidos llamada esfingosina-1-fosfato (S1P) podría ser responsable. Habían descubierto previamente en otros órganos que S1P se incrementa por el exceso de grasa saturada en la dieta.

Chavin tomó biopsias de hígados humanos durante la cirugía de trasplante y los suministró a Cowart, quienes determinaron los niveles de esfingosina quinasa 1, la enzima que produce S1P. Encontraron el doble de la cantidad normal de esfingosina quinasa 1 en hígados de personas obesas con esteatohepatitis no alcohólica.

El equipo quería más comprensión de por qué S1P causa inflamación, pero NASH ha sido previamente difícil imitar en el laboratorio. Ellos desarrollaron un nuevo y altamente mejorado modelo preclínico de NASH, en el que los ratones se alimentaron de dietas diseñadas a medida, ya sea de alta grasa saturada o alta grasa no saturada. Curiosamente, los ratones en cada tipo de dieta se convirtió en obesos, pero sólo ratones en la dieta de grasas saturadas desarrollado inflamación y NASH-como la patología derivada de S1P. Tomando los estudios humanos y pre-clínicos juntos, es probable que la grasa saturada, pero no la grasa insaturada, eleva los niveles de S1P en personas obesas, y es S1P que desencadena la inflamación que caracteriza NASH.

Realizar estudios de lípidos en el laboratorio no es fácil - la mayoría de la bioquímica es a base de agua, y la grasa y el agua no se mezclan fácilmente. El grupo se basó en el MUSC Sphingolipidomics Core laboratorio, uno de sólo un puñado de tales instalaciones en el país capaz de desarrollar los nuevos métodos necesarios para examinar S1P para su estudio. "Sin lipidomics, nunca habríamos entendido que las grasas saturadas activan este camino", dice Cowart. El equipo está trabajando para identificar los receptores S1P responsables de la inflamación en NASH, con el objetivo final de diseñar tratamientos para prevenir la necesidad de un trasplante de hígado en pacientes obesos con NASH.

¿Este trabajo apoya la idea de que es el tipo de grasa, pero no toda la grasa, que conduce a problemas de salud? Después de todo, los ratones alimentados con una dieta de grasa insaturada alta se volvieron obesos pero fueron metabolicamente sanos. "Debido a que la dieta de grasas insaturadas no causan NASH, puede proporcionar una pista en cuanto a lo que realmente vincula la obesidad a la enfermedad", dice Cowart. "Incluso si es difícil perder peso, las modificaciones dietéticas podrían prevenir alguna enfermedad asociada con la obesidad".

Nueva NSF informe especial: Let It Snow! La ciencia de invierno



Un informe revela mundos interiores de la nieve y el invierno, y su importancia para los seres humanos y los ecosistemas

National Science Foundation

IMAGEN: Me encanta, lo odio, todos dependemos de nieve. En muchas zonas, el suministro de agua durante todo el año depende de snow.view más

Crédito: Fundación Nacional de Ciencia

Nieve - ese icono de invierno - tapiza el terreno con un hermoso silencio. El amor o el odio, todos dependemos de nieve. Nuestro suministro de agua durante todo el año en gran parte proviene del deshielo.

Pero no somos los únicos que necesitan la nieve.

Especies de hongos microscópicos a 800 libras-alces lo requieren como mucho, si no más. Sobreviven el invierno viviendo en iglú de la naturaleza: la nieve.

Y la profusión de primavera de flores? Están fertilizados por nutrientes en la nieve.

Si usted está planeando para patinar en un lago o río congelado este invierno, esquiar en una pendiente de nieve, o, cuando llega la primavera, dependerá de deshielo para llenar su depósito, es posible que tenga que pensar dos veces.

Una vista del nuevo invierno

El invierno está cambiando, cada vez menos como las estaciones frías podemos recordar. El "nuevo invierno" tiene consecuencias mucho más allá de diciembre a marzo. Afecta a la primavera y el verano, también, incluyendo las fechas de floración de las plantas - y especies tales como colibríes que dependen de los tiempos de floración de precisión para el néctar.

En la celebración de la nieve y el invierno como la conocemos, y en una mirada a lo que el invierno puede ser en el futuro, la National Science Foundation (NSF) ha lanzado un nuevo informe especial: Let It Snow! La ciencia de invierno.

El informe se centra en los proyectos apoyados en gran medida por la Dirección de la NSF de Geociencias y Dirección de Ciencias Biológicas / División de Biología Ambiental.

Las subvenciones de estas investigaciones zonas fondo sobre temas tan diversos como la medición de nevadas; el seguimiento de la tempestad de nieve "bombas", como son conocidos en whiteouts la meteorología; el estudio de los animales y plantas que viven por debajo de la nieve en un ecosistema llamado el subnivian; la búsqueda de deshielo, o "oro blanco"; y la pesadilla de invierno - el polvo de la atmósfera que hace que la nieve se derrita antes de tiempo.

Ir tormenta de invierno-persecución, introduzca iglú de la naturaleza

En el informe, explora temas tales como la tormenta de invierno-persecución, la opinión de un árbol de coníferas de la nieve, la vida en iglú de la naturaleza, y donde los inviernos se han ido.

Ver un video de los copos de nieve fotografiado por una nueva cámara de alta velocidad, y otro en el agua que está encerrado en hielo y nieve: un juego de suma cero.

Al mirar por la ventana a un paisaje nevado, o tal vez una que ha sido así en el pasado - e incluso si usted vive por debajo de la línea de nieve - averiguar lo que los científicos están aprendiendo sobre el invierno.

Lo que importa, incluso si usted nunca ve un copo de nieve.

Océano Atlántico noroccidental puede calentarse, antes



El modelo climático global de alta resolución muestra un calentamiento mucho más rápido y una circulación oceánica cambiante

Centro de Ciencias de la Pesca del Noreste de la NOAA

Un nuevo estudio realizado por investigadores de la NOAA sugiere que el calentamiento futuro de las aguas oceánicas en el noreste de Estados Unidos puede ser mayor y ocurrir a un ritmo aún más rápido de lo que se había proyectado anteriormente.

Sus hallazgos, basados ??en la producción de cuatro modelos climáticos globales de diferentes resoluciones oceánicas y atmosféricas, indican que la temperatura del mar en el Estanque del Noreste de Estados Unidos se proyecta para calentarse dos veces más rápido de lo que se había proyectado anteriormente y casi tres veces más rápido que el promedio mundial. Los modelos fueron desarrollados en el Laboratorio de Dinámica de Fluidos Geofísicos de la NOAA (GFDL) en Princeton, New Jersey.

"Observamos cuatro modelos de GFDL y comparamos su producción con las observaciones oceánicas en la región. El modelo de mayor resolución GFDL, CM2.6, coincidió con la circulación del Atlántico Noroccidental y la distribución de la masa de agua con mayor precisión ", dijo Vincent Saba, científico pesquero de la NOAA y principal autor del estudio. conservador."

En los últimos diez años, el Golfo de Maine se ha calentado más rápido que el 99% del océano global. Estudios recientes indican que el aumento del calentamiento está asociado con un desplazamiento hacia el norte en la Corriente del Golfo. Los cambios en la distribución y composición de especies ya son evidentes, pero las proyecciones de cambio climático existentes se basan en escenarios de calentamiento a partir de modelos de resolución aproximada. El calentamiento de 3 a 4 grados C (hasta 5.4 a 7.2 grados F), proyectado por la CM2.6 de la NOAA GFDL, probablemente causará efectos más extremos en el ecosistema.

Los modelos climáticos globales utilizados para proyectar el cambio climático global y regional generalmente tienen una resolución oceánica y atmosférica de gran tamaño. El modelo de mayor resolución refleja mejor la circulación oceánica y la batimetría del fondo marino en áreas más pequeñas y complejas como el Golfo de Maine y el Estanque del Noreste de los Estados Unidos. Según el estudio, los modelos de proyecto que el calentamiento del océano será aún más pronunciada de lo sugerido por los modelos más gruesos bajo concentraciones crecientes de CO2 atmosférico.

El estudio aparece en el Journal of Geophysical Research - Oceans, publicado por la American Geophysical Union.

Los modelos climáticos globales evaluados por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que se utilizan para proyectar el cambio climático global y regional, son modelos de resolución aproximada basados ??en una cuadrícula de aproximadamente 100 kilómetros o 62 millas para simular la dinámica oceánica y atmosférica . CM2.6 de NOAA GFDL ofrece diez veces más resolución utilizando una rejilla oceánica de aproximadamente 10 kilómetros o 6,2 millas.

"Es como comparar una antigua pantalla de televisión de definición estándar con las pantallas de ultra alta definición de hoy", dijo Saba, miembro del Programa de Evaluación de Ecosistemas del Centro de Ciencias Pesqueras del Noreste, que trabaja en GFDL. "No hay muchos modelos climáticos globales de alta resolución disponibles debido a su costo prohibitivo. Para gran parte del océano global, la resolución más gruesa está bien, pero cuando se estudia una ubicación única como el Golfo de Maine, con su compleja batimetría de cuencas profundas, canales y bancos poco profundos combinados con su ubicación cerca de la intersección de dos grandes océanos Los sistemas actuales, la salida de los modelos más toscos puede ser engañosa ".

Un sesgo cálido en la temperatura de la superficie del mar en la mayoría de los modelos climáticos globales se debe a una tergiversación de la posición de separación costera de la Corriente del Golfo, que se extiende demasiado al norte de Cabo Hatteras, Carolina del Norte. El sesgo del modelo, conocido como el "problema de separación de la Corriente del Golfo", es el resultado de la resolución gruesa de los modelos. Como consecuencia de ese sesgo, las proyecciones de cambio climático existentes para la plataforma del Noreste de Estados Unidos y el Golfo de Maine se basan en patrones regionales poco realistas de circulación oceánica. El modelo de mayor resolución de la NOAA GFDL, CM2.6, reduce significativamente ese sesgo.

El estudio también encontró que el calentamiento de los 300 metros superiores del Atlántico Noroccidental aumenta la salinidad debido a un cambio en la distribución de la masa de agua relacionada con un retroceso de la corriente más fresca y fresca del Labrador y un cambio en el norte del calentador, Saltier Gulf Stream. Las observaciones y el modelo climático de alta resolución CM2.6 muestran una fuerte relación entre el debilitamiento de la Circulación Meridional Atlántica (AMOC, por sus siglas en inglés) y un aumento en la proporción de agua de pendiente templada templada que entra en la Plataforma Continental del Noreste, Canal Noreste.

"Estos resultados demuestran la necesidad de mejorar las simulaciones de la cuenca y la circulación oceánica a escala regional", dijo Saba, que utilizará los resultados del modelo CM2.6 para una variedad de estudios climáticos sobre los recursos marinos vivos en el ecosistema. Además de Saba y Jonathan Hare del Centro de Ciencias Pesqueras del Noreste de Pesquerías de NOAA, otros autores del estudio están afiliados al Laboratorio de Dinámica de Fluidos Geofísicos de NOAA y al Laboratorio de Investigación del Sistema Terrestre en Boulder, Colorado.

Primer estudio nacional lanzado evaluando el uso de TAVR en pacientes de bajo riesgo



Punto final: ¿Será TAVR seguro para la población de menor riesgo, también?

MedStar Washington Hospital Center

Washington, DC, 19 de enero de 2016 - MedStar Heart & Vascular Institute en MedStar Washington Hospital Center será el primero en la nación en lanzar un ensayo clínico, evaluando el uso de un procedimiento mínimamente invasivo para reemplazar válvulas cardíacas estrechadas en pacientes que son Considerado bajo riesgo de muerte por cirugía. La Administración de Alimentos y Medicamentos otorgó una Exención de Dispositivo de Investigación, que permite a MedStar Heart usar el dispositivo de investigación en un entorno de investigación, e inscribir a estos pacientes en el estudio, que comenzará este mes.

Durante décadas, la cirugía de corazón abierto tradicional ha sido el estándar de oro para el tratamiento de pacientes con estenosis aórtica grave, un estrechamiento anormal de la válvula aórtica en el corazón. El único tratamiento eficaz es reemplazar la válvula cardíaca. El procedimiento, llamado TAVR, para la sustitución de la válvula aórtica transcatéter, actualmente está aprobado por la FDA para los pacientes que son inoperables o demasiado alto riesgo para someterse a la intervención quirúrgica abierta.

Con TAVR, en lugar de abrir el pecho, los médicos insertar una nueva válvula con un catéter enroscado en el corazón a través de una pequeña incisión en la ingle o la pared torácica.

Actualmente se están llevando a cabo ensayos para investigar el uso de TAVR en pacientes con riesgo quirúrgico intermedio. Sin embargo, el nuevo estudio en MedStar Heart será el primero en los EE.UU. para investigar si los resultados de TAVR en estos pacientes son comparables a una población de menor riesgo.

"Apreciamos la confianza de la FDA en nuestra capacidad para llevar a cabo esta importante investigación de TAVR y su seguridad y eficacia en la población de bajo riesgo", dijo Ron Waksman, MD, investigador principal del estudio y director de Investigación Cardiovascular y Educación Avanzada en MedStar Instituto del Corazón y Vascular. "Vamos a ver los resultados de este estudio de cerca como nos esforzamos para hacer mínimamente procedimientos invasivos, como TAVR, seguro y eficaz para el mayor número posible de pacientes.

Se espera que el estudio registre hasta 200 pacientes en al menos cuatro centros a lo largo de los Estados Unidos. En el ensayo, los dispositivos TAVR comercialmente disponibles se implantarán en pacientes que de otro modo serían candidatos solamente para cirugía a corazón abierto. El estudio comparará estos datos de TAVR recién adquiridos con controles históricos de pacientes tratados quirúrgicamente en cada uno de los cuatro sitios en un combate de paciente a paciente.

Nuevos métodos ayudan a avanzar en la predicción de enfermedades infecciosas



Instituto Nacional de Síntesis Matemática y Biológica (NIMBioS)

KNOXVILLE - Si bien se han logrado enormes progresos para eliminar la malaria en todo el mundo, cerca de 3,2 mil millones de personas - casi la mitad de la población mundial - están en riesgo de la enfermedad, según la Organización Mundial de la Salud. Se necesitan nuevas herramientas para ayudar a avanzar en la predicción de enfermedades infecciosas.

Un estudio del Instituto Nacional de Síntesis Matemática y Biológica desarrolla nuevos métodos para detectar la aparición de transiciones críticas en epidemias de enfermedades infecciosas, como la malaria.

"Miles de millones de dólares se gastan anualmente en diversas intervenciones para detener enfermedades como la malaria, y las inversiones han marcado una diferencia. Sin embargo, las agencias gubernamentales y de salud pública necesitan la voluntad de continuar haciendo estas inversiones después de la reducción inicial de casos. La pregunta es: ¿en qué punto paga la inversión continuada?"Las herramientas de evaluación cuantitativa pueden ayudar mucho a los gobiernos ya las organizaciones filantrópicas a elegir el nivel óptimo de inversión en actividades de control y eliminación después de que el número de casos se ralentice", dijo la autora principal y compañera post-doctoral de NIMBioS, Suzanne O'Regan.

El método desarrollado en el estudio, que fue publicado en la revista Ecología teórica, identifica el período crítico de ralentización en los casos humanos del parásito transmitido por mosquitos que causa la malaria, lo que sugiere que la erradicación de la enfermedad podría ser anticipada incluso sin una comprensión completa de Los mecanismos subyacentes que están causando la desaceleración.

Los investigadores utilizaron un modelo matemático para estudiar la implementación gradual de cuatro tácticas comunes utilizadas para controlar y eliminar la malaria: el uso de mosquiteros para reducir el número de picaduras de mosquitos, rociar insecticidas en interiores para acortar la vida útil de los mosquitos, Y eliminar el hábitat de los mosquitos.

El análisis se centra en la malaria, pero los resultados son relevantes para otras infecciones transmitidas por mosquitos, como la fiebre amarilla, también endémica en algunas partes del mundo.

"Nuestro trabajo sugiere que los algoritmos en línea para detectar cambios en los principales indicadores pueden ser alcanzables y que eventualmente podrían desarrollarse, posiblemente ayudando a la sostenibilidad de los logros obtenidos por los programas de eliminación", dijo O'Regan.

poderosa técnica de aprendizaje automático destapa características desconocidas de patógenos



Técnica identificó robustamente característicos patrones de expresión génica en respuesta a los antibióticos, condiciones de bajo oxígeno

Universidad de Pennsylvania School of Medicine

FILADELFIA - Una técnica nueva y poderosa máquina de aprendizaje se puede aplicar a grandes conjuntos de datos en las ciencias biológicas para descubrir características hasta ahora desconocidas de los organismos y sus genes, según un equipo dirigido por investigadores de la Escuela de Medicina de Perelman en la Universidad de Pensilvania. Por ejemplo, la técnica aprendió los característicos patrones de expresión de genes que aparecen cuando una bacteria patógena se expone a condiciones de bajo oxígeno y los cambios robustamente identificados que se producen en respuesta a los antibióticos.

La técnica emplea un algoritmo desarrollado recientemente llamado "autoencoder eliminación de ruido", que aprende a identificar las características recurrentes o patrones en grandes conjuntos de datos sin ser dicho qué características específicas que debe buscar. En 2012, por ejemplo, cuando los investigadores patrocinados por Google aplicar un método similar al seleccionado de forma aleatoria imágenes de YouTube, su sistema aprendió con éxito para reconocer las características principales recurrentes de esas imágenes - incluyendo gatos.

En el nuevo estudio, publicado en la journalmSystemsthis semana en línea, Casey Greene, PhD, profesor asistente de Sistemas de Farmacología y traslacional Therapeutics, en colaboración con Deborah Hogan, PhD en el Dartmouth College, utiliza un sistema de eliminación de ruido autoencoders para analizar muchos grandes conjuntos de datos que medir cómo los genes en las bacterias se expresan en diferentes condiciones.

"El sistema aprendió los principios fundamentales de la genómica bacteriana sólo de estos datos", dijo Greene. "Esperamos que este enfoque será particularmente útil para los microbiólogos investigan especies bacterianas que carecen de una historia de décadas de estudio en el laboratorio. Los microbiólogos pueden utilizar estos modelos para identificar donde los datos están de acuerdo con sus propios conocimientos y donde los datos parecen apuntar en una dirección diferente." Greene cree que estos son los casos en que los datos pueden sugerir nuevos mecanismos biológicos.

El año pasado, Greene y su equipo publicaron la primera demostración del nuevo método en un contexto biológico: un análisis de dos conjuntos de datos de expresión genética de los cánceres de mama. El nuevo estudio era considerablemente más ambicioso - que cubría todas las 950 matrices de expresión de genes disponibles al público en el momento de la bacteria Pseudomonas aeruginosa, a partir de 109 conjuntos de datos distintos. Esta bacteria es un patógeno notorio en el hospital y en individuos con fibrosis quística y otras enfermedades pulmonares crónicas y es a menudo difícil de tratar debido a su alta resistencia a las terapias con antibióticos estándar.

Primer autor Jie Tan, un estudiante graduado en Dartmouth, donde Greene, hasta hace poco, tenía su laboratorio, ADAGE desarrollado (Análisis utilizando Denoising Autoencoders de la expresión génica) y lo aplicó a los conjuntos de datos aeruginosa P.. Los datos incluyeron sólo las identidades de los aproximadamente 5.000 genes de P. aeruginosa, sus niveles de expresión medidos en cada experimento publicado. El objetivo era demostrar que este sistema de aprendizaje "sin supervisión" podría descubrir patrones importantes en P. aeruginosa la expresión génica y aclarar cómo cambian los patrones cuando cambia el entorno de la bacteria, por ejemplo, cuando en presencia de un antibiótico.

A pesar de que el modelo construido con ADAGE era relativamente simple - más o menos equivalente a un cerebro con sólo unas pocas docenas de neuronas - que no tenía problemas de aprendizaje qué conjuntos de genes de P. aeruginosa tienden a trabajar juntos o en la oposición. Para sorpresa de los investigadores, el sistema ADAGE también detectó diferencias entre la cepa de laboratorio principal de P. aeruginosa y cepas aisladas de pacientes infectados. "Eso resultó ser uno de los rasgos más característicos de los datos", dijo Greene.

"Nos llamó la atención la similitud entre P. aeruginosa crecido en asociación con las células epiteliales de pulmón cultivadas y éstos bacteriataken directamente de los pulmones de las personas con fibrosis quística", dijo John H. Hammond, un estudiante graduado en el laboratorio de Hogan que colaboraron en este proyecto. "Estamos muy contentos de continuar utilizando ADAGE en combinación con los datos de las muestras de pacientes y experimentos con modelos de laboratorio para descubrir mejores formas de encontrar terapias para el tratamiento de infecciones pulmonar fibrosis quística."

"Creemos que la proliferación de 'Big Data' ofrece la oportunidad, a través del uso de la máquina sin supervisión-aprendizaje, para encontrar cosas completamente nuevas en la biología que ni siquiera conocemos a buscar", dijo Greene.

Nuevo informe encuentra la actualización a corto plazo del costo social del carbono injustificado



National Academy of Sciences

WASHINGTON - La actualización de las estimaciones del costo social del carbono (SCC) dentro de un año no sería suficiente, basándose sólo en la revisión de un parámetro específico del clima en el marco existente utilizado por el grupo interinstitucional del gobierno para medir el SCC, dice un Nuevo informe provisional de las Academias Nacionales de Ciencias, Ingeniería y Medicina. El comité que está realizando el estudio y redactó el informe recomendó maneras de cambiar los documentos federales de apoyo técnico en el SCC para mejorar la caracterización de las incertidumbres asociadas con las estimaciones, incluso cuando se usan en los análisis de impacto regulatorio.

El comité consideró si se justifica un cambio a corto plazo basado en la actualización de la distribución de probabilidad de la sensibilidad climática de equilibrio (ECS) -un parámetro que traduce las emisiones de dióxido de carbono al cambio de temperatura mundial- y que fue actualizado por el Panel Intergubernamental sobre el Cambio Climático En su quinto informe de evaluación más reciente (AR5). Debido a que ECS es sólo una entrada al marco detallado utilizado para estimar el SCC, actualizar el ECS solo no puede mejorar significativamente las estimaciones.

El SCC estima en dólares el daño a largo plazo a la sociedad causado por un aumento de 1 tonelada métrica en las emisiones de dióxido de carbono en un año dado. Se pretende que sea una estimación completa de los costos asociados con el cambio climático, como los cambios en la productividad agrícola neta, los riesgos para la salud humana y los daños a la propiedad causados ??por el aumento de los riesgos de inundación. El Grupo de Trabajo Interagencial Federal sobre el Coste Social del Carbono (IWG) desarrolló una metodología para estimar el SCC, que las agencias gubernamentales usan para valorar los impactos de dióxido de carbono de varias regulaciones, incluyendo estándares para emisiones de vehículos y economía de combustible, contaminantes atmosféricos Desde la fabricación industrial, y las emisiones de las centrales eléctricas y la incineración de residuos sólidos.

En lugar de simplemente actualizar el ECS dentro de los modelos utilizados en el marco actual, el IWG podría emprender esfuerzos para desarrollar una representación común de la relación entre las emisiones de dióxido de carbono y los cambios de temperatura, su incertidumbre y su perfil en el tiempo. El informe describe los criterios específicos que podrían utilizarse para evaluar si dicha representación es compatible con la mejor ciencia disponible.

La segunda fase de este estudio examinará los méritos y retos de los enfoques potenciales para una actualización más completa ya más largo plazo de las estimaciones de la CCA para asegurar que sigan reflejando la mejor ciencia disponible. El informe final se dará a conocer a principios de 2017.

El estudio fue patrocinado por el Grupo de Trabajo Interinstitucional sobre el coste social del carbono, que es co-presidida por el Consejo de Asesores Económicos y Oficina de Administración y Presupuesto; los otros miembros son el Consejo de Calidad Ambiental, Consejo de Política Interior, Departamento de Agricultura de EE.UU., Departamento de Comercio de Estados Unidos, el Departamento de Energía de Estados Unidos, el Departamento de Transporte de Estados Unidos, la Agencia de Protección Ambiental de Estados Unidos, Consejo Económico Nacional, Oficina de Ciencia y Tecnología Política, y el Departamento del Tesoro de Estados Unidos. La Academia Nacional de Ciencias, Ingeniería y Medicina son instituciones privadas, sin fines de lucro que proporcionan, análisis y asesoría objetiva independiente de la nación para resolver problemas complejos e informar decisiones de política pública relacionadas con la ciencia, la tecnología y la medicina. Las Academias operan bajo una carta del Congreso 1863 de la Academia Nacional de Ciencias, firmado por el presidente Lincoln. Para obtener más información, visithttp: //national-academies.org. Una lista comité sigue.

Contactos: Dana Korsen, de Medios de Comunicación

Emily Raschke, Medios AssociateOffice de Noticias e Información Pública

202-334-2138; e-mailnews@nas.edunational-academies.org/newsroom

Síguenos en Twitter en @theNASEM

Las copias de evaluación de los enfoques a la actualización del coste social del carbono: Fase 1 Informe sobre una actualización a Corto Plazo están disponibles en la Academia Nacional de Prensa en Internet enhttp: //www.nap.eduor llamando al 202-334-3313 o 1 -800-624-6242. Los reporteros pueden obtener una copia de la Oficina de Noticias e Información Pública (contactos mencionados anteriormente).

La Academia Nacional de Ciencias, ingeniería y medicina

División de Comportamiento y Ciencias Sociales y Educación

Junta sobre el Cambio Ambiental y Sociedad

Comité de Evaluación de los enfoques a la actualización del coste social del carbono

Maureen L. Cropper, Ph.D. * (co-presidente)

Distinguido profesor universitario y Presidente

Departamento de Economía

Universidad de Maryland

college Park

Richard G. Newell, MPA, Ph.D. (Co-presidente)

Profesor Gendell de Energía y Economía Ambiental

Nicholas School de Medio Ambiente, y

Directora de la Iniciativa de Energía Universidad de Duke

la Universidad de Duke

Durham, NC

Myles Allen, Ph.D.

Profesor de Ciencia Geosystem

Grupo dinámica del clima

Departamento de Física

© Universidad de Oxford 2017

Inglaterra

Maximillian Auffhammer, Ph.D.

Decano Asociado de Estudios Interdisciplinarios, y

Profesor de Desarrollo Sostenible Internacional

Departamento de Agricultura y Recursos Económicos

Universidad de California

Berkeley,

Chris E. Bosque, Ph.D.

Profesor Asociado de Climate Dynamics

Departamentos de la meteorología y de Ciencias de la Tierra;

Socio

Tierra y el Instituto de Sistemas del Medio Ambiente; y

Directora Asociada

Red de Gestión del Riesgo Climático Sostenible

Universidad Estatal de Pensilvania

Universidad estatal

Inez Y. Fung, Sc.D. *

Profesor de Ciencias de la Atmósfera

Departamentos de Earth and Planetary Science y de Ciencias Ambientales, Políticas y Gestión

Universidad de California

Berkeley,

James K. Hammitt, Ph.D.

Profesor de Economía y Ciencias de decisión, y

Director, Centro de Harvard para el Análisis de Riesgos

Harvard School TH Chan de Salud Pública; y

Afiliado

Escuela de Economía de Toulouse

Universidad de Harvard

Boston

Henry D. Jacoby, Ph.D.

William F. Libras Profesor de Gestión (emérito)

Sloan School of Management

Instituto de Tecnología de Massachusetts

Cambridge

Robert Kopp, Ph.D.

Directora Asociada

Instituto de Energía de Rutgers, y

Profesor Asociado

Departamento de Ciencias de la Tierra y Planetarias

Universidad Rutgers

New Brunswick, NJ

William Pizer, Ph.D.

Profesora

Sanford Facultad de orden público, y

Facultad Fellow

Instituto Nicholas de Soluciones de Política Ambiental

la Universidad de Duke

Durham, NC

Steven Rose, Ph.D.

Economista Senior de Investigación

Energía y Análisis del Grupo de Investigación del Medio Ambiente

Instituto de Investigación de Energía Eléctrica

Washington D.C.

Richard Schmalensee, Ph.D.

El profesor Howard W. Johnson de Gestión Emérito y Profesor Emérito de Economía

Sloan School of Management

Instituto de Tecnología de Massachusetts

Cambridge

John Weyant, Ph.D.

Profesora

Departamento de Ciencia e Ingeniería de Gestión,

Director del Foro de Modelado de Energía y

Directora Adjunta:

Instituto Precourt para la Eficiencia Energética

Stanford University

Stanford, Calif.

STAFFJennifer Heimberg, Ph.D.

Director de Estudio

* Miembro de la Academia Nacional de Ciencias

Perseguir la enfermedad de Alzheimer desde la periferia



Químico de Pitt recibe subvención para investigar el papel de otros órganos en el desarrollo de la enfermedad

Universidad de Pittsburgh

IMAGEN: El Ren & atilde de la Universidad de Pittsburgh; Recientemente, Robinson recibió una subvención de cinco años de los Institutos Nacionales de Salud para explorar formas novedosas de medir de manera eficiente y poderosa los efectos ... Ver más

Crédito: Universidad de Pittsburgh

PITTSBURGH - La enfermedad de Alzheimer es una amenaza. Un ladrón de memoria y vida. Se ha demostrado que la enfermedad se manifiesta después de depósitos anormales de proteínas, que causan placas y amilocoides-beta enredos que destruyen la función cerebral, la acumulación en el cerebro.

Dicho esto, las causas precisas de la enfermedad de Alzheimer no se han establecido plenamente. Más recientemente, algunos investigadores se han interesado por los órganos periféricos, como el hígado, que producen péptidos beta-amiloides tóxicos. Se ha demostrado que los fármacos que reducen la producción del hígado de estos péptidos disminuyen los niveles de péptido amiloide beta beta en ratones, aunque estos resultados son controvertidos.

La Universidad de Pittsburgh Ren & # 227; Robinson recibió recientemente una subvención de cinco años y $ 1.7 millones de los Institutos Nacionales de Salud para explorar nuevas formas de medir eficaz y poderosamente los efectos de la producción de proteína beta amiloide en los órganos fuera del sistema nervioso central, el foco de la mayoría de la investigación de la enfermedad de Alzheimer.

"Estamos buscando demostrar y establecer un enfoque que nos permita evaluar procesos como el metabolismo energético y el estrés oxidativo en los tejidos fuera del cerebro en diversas etapas de la enfermedad de Alzheimer", dice Robinson, profesor asistente de química en Kenneth Pitt Escuela P. Dietrich de Artes y Ciencias.

En esencia, Robinson y sus colegas planean mejorar y amplificar significativamente los métodos existentes de medir las diferencias entre las muestras de proteínas normales y enfermas, un campo llamado proteómica cuantitativa.

"Actualmente no es posible multiplexar hasta el grado necesario para responder a preguntas sobre el papel de los órganos periféricos en la enfermedad de Alzheimer", dice Robinson. "El examen de cinco órganos diferentes de un modelo de ratón de Alzheimer y controles de tres cohortes de edad genera 30 muestras que cada uno requeriría análisis por separado. Realizar este estudio en más de un animal para cada condición, para una mejor estadística, requiere un número aún mayor de experimentos ".

Robinson y su equipo han demostrado con éxito un método que puede multiplexar hasta 20 muestras en un solo análisis. Ella piensa que ese número puede ser aumentado. "Nos proponemos desarrollar innovadores métodos proteómicos cuantitativos para medir proteínas en mayor número de muestras de diferentes tejidos y condiciones al mismo tiempo", dice. "Estos métodos nos ayudarán a obtener información más rápidamente sobre el papel de los cambios en el tejido periférico y cómo se relacionan con los cambios en el cerebro utilizando un modelo de ratón de la enfermedad de Alzheimer".

Al final del período de la subvención, dice Robinson, espera proporcionar una herramienta que no sólo mejorará la comprensión de cómo el metabolismo energético y el estrés oxidativo en los órganos periféricos contribuyen a la progresión de la enfermedad de Alzheimer, sino que también proporcionará objetivos terapéuticos fuera de la Cerebro para esta enfermedad devastadora.

Nueva serie de videos NSF y NBC Learn muestra grandes descubrimientos de partículas diminutas



Aprender cómo los investigadores utilizan los átomos y moléculas para construir la tecnología del futuro

National Science Foundation

IMAGE: Quantum puntos (QD) son cristales de nanoescala que pueden emitir luz a diferentes longitudes de onda Creación de colores brillantes. Los científicos pueden controlar el tamaño de una vez al día con el fin de determinar qué color ... ver más

Crédito: NSF y NBC Learn

¿Por qué las cosas son tan pequeños, tan significativo? Una nueva serie de vídeo creado por la National Science Foundation (NSF) y NBC Learn, el brazo educativo de NBCUniversal Noticias, arroja luz sobre esta cuestión.

"La nanotecnología: Super Pequeño Ciencia" es una serie de seis partes y muestra a los televidentes cómo los átomos y moléculas que son miles de veces más pequeño que el ancho de un cabello humano pueden ser utilizados como bloques de construcción para crear la tecnología del futuro. La serie cuenta con una docena de clase mundial investigadores estadounidenses, incluyendo físico cuántico y la Medalla Nacional de Ciencia ganador Paul Alivisatos.

"Hoy en día estamos aprendiendo a reorganizar los bloques de construcción atómicos y moleculares básicos - la tecnología fundamental para la comprensión de la naturaleza y la creación de cosas que antes no eran posibles", dijo Mihail Roco, asesor de la ciencia e ingeniería en la NSF y un arquitecto clave de la Nacional Iniciativa de nanotecnología (NNI). "Estos videos, produce mientras la nanociencia está todavía en formación con tanto potencial, cuentan historias que inspiren a las generaciones más jóvenes y los resultados futuros."

Narrado por NBC News y MSNBC anclaje Kate Snow, "Nanotecnología: Super Pequeño Ciencia" estará disponible a través de estaciones afiliadas de NBC y también puede ser visto de forma gratuita en línea en NBCLearn.com, NSF.gov y Science360.gov.

"Estamos orgullosos de lanzar una serie original que muestra a los televidentes cómo los científicos e ingenieros manipulan sólo millonésimas materiales de un metro de tamaño, y el fuerte impacto que puede tener en el mundo que les rodea", dijo Soraya Gage, vicepresidente y gerente general Aprender de la NBC. "A través de nuestra asociación con la Fundación Nacional de Ciencia, estamos utilizando nuestra plataforma digital y experiencia periodística para explorar cómo avanza la innovación nanotecnología en campos como la medicina, la energía y la electrónica."

"Desde hace 15 años, más descubrimientos han venido de Nanotecnología que cualquier otro campo de la ciencia y la ingeniería. Ahora sus descubrimientos están penetrando en todos los aspectos de la sociedad - nuevas industrias, la medicina, la agricultura y la gestión de los recursos naturales ", agregó Roco.

En los videos, los espectadores aprenden cómo los científicos utilizan la nanotecnología para capturar la energía del sol, aumentar la potencia de los microchips más pequeños y computadoras, construir estructuras que son ligeros y resistentes y mucho más:

Nanotecnología: El aprovechamiento de la nanoescala - ¿Por qué es algo que sólo millonésimas de un metro de tamaño tan importante? Dawn Bonnell en la Universidad de Pensilvania muestra cómo la capacidad de controlar y manipular el material en esta escala extremadamente pequeña está teniendo un gran impacto en todo el mundo en la medicina, la energía y la electrónica.

Nanotecnología: Un potente solución - equipo de Paul Alivisatos' en la Universidad de California, Berkeley, está trabajando para desarrollar un nuevo tipo de célula solar usando cristales de tamaño nanométrico llamados puntos cuánticos. Los puntos cuánticos ya están ayudando a producir más brillante de color, más vivo en las pantallas. La capacidad de las células solares para procesar eficientemente la energía en forma de luz también en una solución ideal para nuestros problemas de energía hace.

Nanotecnología: La nanoelectrónica - Usted puede tener la nanotecnología en el bolsillo y ni siquiera lo saben. los teléfonos inteligentes de hoy en día son mucho más pequeños que los ordenadores del pasado y sin embargo, significativamente más potente, gracias a la nanotecnología. Tom Theis con la Semiconductor Research Corporation e IBM, y Ana Claudia Arias de la Universidad de California, Berkeley, explica cómo la nanotecnología ya ha cambiado nuestras vidas y las posibilidades muy interesantes para el futuro.

La nanotecnología en la superficie - ¿Cómo es posible que algo tan sólo mil millonésima parte de un metro de espesor defenderse de agua, suciedad, desgaste y ni siquiera las bacterias? Trabajando en la nanoescala, científicos e ingenieros, como Jay Guo de la Universidad de Michigan, están creando recubrimientos de protección a escala nanométrica y capas. Estas superficies tienen aplicaciones en energía, electrónica, medicina e incluso se podrían utilizar para hacer un plano invisible.

Nanotecnología: Nanoarchitech - Caltech Julia Greer está demostrando que el uso de materiales grandes y pesados ??no es la única manera de construir estructuras fuertes y robustos. Comenzando en la nanoescala, su grupo está construyendo materiales que son más del 99 por ciento de aire, pero fuerte y resistente. Estos nuevos materiales se están rompiendo las reglas al comportarse de maneras muy inesperadas.

Nanotecnología: Sensores Nano-Enabled y nanopartículas - Algunos de los mayores avances en la tecnología médica pronto puede venir de dispositivos construidos a escala nanométrica. Donglei Ventilador con la Universidad de Texas en Austin y Paula Hammond con Instituto Tecnológico de Massachusetts discutir cómo el uso de la nanotecnología podría algún día sentido, diagnosticar y tratar el cáncer incluso.

"Queremos difundir la emoción del mundo nano - especialmente a la generación más joven - porque ellos comenzarán a darse cuenta de su extraordinario potencial", dijo Roco.