Notícia

Norberto de Buenos Aires

Ciencia y Tecnología - N° 44

Publicado em 26 julho 2017

Índice

BIOLOGÍA - Desentrañando el misterio de la extraordinaria adaptación de los sherpas a la alta montaña

ZOOLOGÍA - Más de 1,5 millones de ballenas, delfines y marsopas habitan el Atlántico

PALEONTOLOGÍA - El caso más antiguo conocido de vida en tierra firme es de hace 3.480 millones de años

INGENIERÍA - La vela que se asemeja al ala de un avión para batir récords en la Copa América

NEUROLOGÍA - Cambios cerebrales delatadores de futuros problemas cognitivos o de memoria

CLIMATOLOGÍA - Cuantifican efectos del calentamiento global en glaciares del océano Ártico

SALUD - La ULE analiza el efecto del entrenamiento con el propio peso corporal en la condición física

ASTRONÁUTICA – Ha finalizado la investigación sobre el aterrizaje de Schiaparelli

CIENCIA DE LOS MATERIALES - Obtienen un bioplástico derivado de la proteína de soja capaz de absorber hasta cuarenta veces su peso

PALEONTOLOGÍA - El ADN antiguo revela la íntima relación entre cazadores y agricultores del Neolítico

COMPUTACIÓN - Dotar las células vivas de la capacidad de procesamiento digital de información

NEUROLOGÍA - Cambios profundos en el cerebro cuando una persona analfabeta aprende a leer

MEDICINA - Así se propaga el virus de la varicela por el cuerpo

FÍSICA - Miden por vez primera la desviación de ondas de luz provocada por un efecto cuántico

COMPUTACIÓN - Una aplicación emplea el ocio en la calle para enseñar geografía a la generación del milenio

VIROLOGÍA - Los virus pueden presentar un ‘componente social’ como estrategia para facilitar la propagación

PSICOLOGÍA - Los adolescentes con baja autoestima son más adictos al celular

ROBÓTICA - Universal Robots ofrece dos e-Books gratuitos sobre la robótica colaborativa

INGENIERÍA - Drones con reflejos más rápidos

ASTRONOMÍA - Ceremonia de la piedra basal del Extremely Large Telescope de ESO

ASTRONOMÍA - Primeros descubrimientos hechos en Júpiter por la sonda espacial Juno

PSICOLOGÍA - Una investigación profundiza en los patrones cognitivos anormales de los terroristas

MEDICINA - Un insecto directo al corazón

NEUROLOGÍA - La semejanza en una red de conexiones cerebrales predice el parecido psicológico

MEDICINA - Un nuevo software permite mejorar la caracterización de arritmias cardiacas

MEDICINA - Investigadores del CIMA y de la Clínica diseñan una molécula eficaz en el tratamiento de leucemias y linfomas

ASTROFÍSICA - Formación de un agujero negro sin supernova previa

ARQUEOLOGÍA - Civilización más avanzada de lo creído en el antiguo Perú

ANTROPOLOGÍA - Nueva metodología de reconstrucción dental aplicable al registro fósil y a las ciencias forenses

BIOLOGÍA - La técnica CRISPR es capaz de crear cientos de mutaciones fortuitas

INGENIERÍA - Grafeno y puntos cuánticos para crear una cámara que capta lo invisible

MEDICINA - Crean una herramienta para buscar variantes genéticas causantes de enfermedades

ROBÓTICA - Optoforce dota a los robots con el sentido del tacto

INGENIERÍA - Nueva tecnología que permitirá un aumento espectacular de calidad de imagen en pantallas de smartphones

MICROBIOLOGÍA - Usan bacterias como factorías para producir fármacos contra el cáncer

PALEONTOLOGÍA - El genoma de las momias egipcias al descubierto

MEDICINA - Modifican un virus para que estimule el sistema inmunológico para atacar células cancerosas

ASTRONÁUTICA - Cassini, el principio del fin

ASTRONOMÍA - ESO firma contrato para espejo primario gigante del ELT

COMPUTACIÓN - Un proyecto del ICMAT ayudará a prevenir ciberataques como el de WannaCry

INGENIERÍA - Sistema para desalinizar agua que aprovecha su casi totalidad

MICROBIOLOGÍA - Pintar cuadros mediante bacterias sensibles a colores

PSICOLOGÍA - Tecnoestrés, un desajuste físico y emocional por falta de habilidades en el uso de las TIC

FÍSICA - El LHC detecta una gran producción de partículas extrañas en colisiones de protones

MEDICINA - Injertos especiales de tejido muscular para ayudar a sentir y controlar prótesis robóticas

ASTROFÍSICA - Tercera detección de ondas gravitatorias emitidas por otro sistema binario de agujeros negros

INGENIERÍA - Sensores de fibra óptica detectan problemas estructurales en puentes y presas

CIENCIA DE LOS MATERIALES - Un tipo de material revolucionario que podría acelerar la llegada de la era de la espintrónica

MEDICINA – Se ha descripto el mecanismo de acción de un posible nuevo antitumoral

INGENIERÍA - Una chaqueta inteligente que ayuda a mejorar la seguridad vial de los ciclistas y un exoesqueleto que facilita la independencia de los discapacitados, ganadores de Pequeños Grandes Inventos de la UPV

PSICOLOGÍA - Utilizan técnicas de neuromarketing para analizar las respuestas emocionales a la publicidad televisiva

MICROBIOLOGÍA - Transmitir órdenes a las bacterias mediante superficies tratadas químicamente

MEDICINA - Cómo el sexo oral está contribuyendo a la aparición de un peligroso tipo de gonorrea resistente a los antibióticos

ROBÓTICA - Camareras robot causan furor en Pakistán

 

 

 

BIOLOGÍA - Desentrañando el misterio de la extraordinaria adaptación de los sherpas a la alta montaña

 

Cuando el oxígeno es escaso, el cuerpo se ve forzado a trabajar más duro para asegurar que el cerebro y los músculos reciban una cantidad suficiente de este gas esencial. Una de las formas más habitualmente observadas de las que dispone el cuerpo para compensar la falta de oxígeno es producir más glóbulos rojos, que son los responsables de transportarlo por todo el cuerpo hasta nuestros órganos. Sin embargo, esto hace que la sangre sea más espesa, así que fluye más lentamente y existe una mayor probabilidad de que obstruyan los vasos sanguíneos.

Los escaladores se ven a menudo expuestos a niveles bajos de oxígeno, en particular a grandes altitudes. Esta es la razón por la que frecuentemente deben de tomarse su tiempo durante las largas ascensiones para aclimatarse a su entorno, dando al cuerpo el suficiente para adaptarse y evitar lo que se conoce popularmente como mal de altura. Además, pueden tener que llevar suministros de oxígeno para cubrir la diferencia cuando el aire está muy enrarecido.

Se ha sabido desde hace tiempo que la reacción corporal a las grandes altitudes varía entre las personas. Si bien la mayoría de escaladores precisan de oxígeno suplementario para ascender al Monte Everest, cuya cima se halla a 8.848 metros por encima del nivel del mar, unos cuantos han conseguido hacerlo sin él. En particular, los sherpas, un grupo étnico de las regiones montañosas del Nepal, que pueden vivir a grandes altitudes sin consecuencias negativas aparentes para su salud, de tal modo que muchos actúan como guías para apoyar las expediciones por el Himalaya. Se sabe de dos sherpas que han alcanzado la cima del Everest la increíble cifra de 21 ocasiones.

Los resultados de investigaciones previas han sugerido la existencia de diferencias decisivas entre los sherpas y las poblaciones que tradicionalmente han vivido en áreas de baja altitud. Entre dichas diferencias, figura la de una menor cantidad de glóbulos rojos en los sherpas a gran altitud y mayores niveles de óxido nítrico, una sustancia química que ensancha los vasos sanguíneos y mantiene el flujo de la sangre.

Comparados con el resto de la humanidad, los sherpas pueden ser considerados como superhombres y supermujeres en algunos aspectos. (Foto: Goutam Dutta. CC BY-SA 4.0)

Las evidencias de la presencia más antigua de humanos en la meseta tibetana apuntan a hace 30.000 años y los primeros asentamientos humanos estables allí datan de hace entre 6.000 y 9.000 años. Esto plantea la posibilidad de que desde aquellos primeros habitantes hasta sus descendientes actuales en la región, se haya desarrollado un proceso evolutivo tendente a adaptarlos a este ambiente tan duro para la naturaleza humana. Hay estudios recientes de ADN que lo respaldan, al haber revelado la existencia de claras diferencias genéticas entre la población sherpa y la autóctona de las tierras bajas. Algunas de estas diferencias se hallan en el ADN mitocondrial, la parte del código genético que programa a las mitocondrias, las "baterías" que abastecen de energía a nuestro cuerpo.

En una nueva investigación, realizada por el equipo de Andrew Murray, James Horscroft y Aleks Kotwica, de la Universidad de Cambridge en el Reino Unido, se ha determinado que el mecanismo principal que hace de los sherpas unos escaladores calificables coloquialmente de sobrehumanos, es que gracias a la evolución, sus cuerpos se han vuelto extremadamente eficientes en producir la energía necesaria para mantenerse en marcha incluso cuando el oxígeno es escaso.

Los autores del nuevo estudio han comprobado que las mitocondrias de los sherpas son más eficientes que las de los habitantes de las tierras bajas en el uso del oxígeno para producir ATP. Toda forma de vida conocida, que pueda considerarse como tal, está energizada por un proceso donde un compuesto conocido como trifosfato de adenosina (ATP) se descompone y recompone durante la respiración a fin de suministrar la energía utilizada para impulsar las reacciones químicas propias de la vida, que constituyen el metabolismo de las especies.

Como se pronosticaba por las diferencias genéticas, los autores del nuevo estudio también hallaron niveles más bajos de oxidación de grasas en los sherpas. Los músculos tienen dos formas de conseguir energía: de azúcares, como la glucosa, o de quemar grasa (oxidación de la grasa). La mayor parte del tiempo conseguimos nuestra energía de esta última fuente; sin embargo, ello es ineficiente, así que en momentos de estrés físico, como cuando hacemos ejercicio físico intenso, tomamos nuestra energía de los azúcares. Los niveles bajos de oxidación de grasas en los sherpas sugieren de nuevo que estos son más eficientes a la hora de obtener la energía.

Las mediciones tomadas a gran altitud raramente cambiaron en los sherpas respecto a las realizadas como punto de referencia, lo que sugiere que ya nacieron con tales diferencias. Sin embargo, en las personas de poblaciones que tradicionalmente han vivido en zonas bajas, las mediciones tendieron a cambiar después de pasar un tiempo a gran altitud, lo que sugiere que sus cuerpos se estaban aclimatando y que empezaron a imitar a los de los sherpas.

Una de las diferencias clave, no obstante, estuvo en los niveles de fosfocreatina. Se trata de una reserva de energía que actúa como un búfer para ayudar a los músculos a contraerse cuando el ATP no está presente. En las personas que viven en zonas bajas, después de dos meses a gran altitud, los niveles de fosfocreatina caen en picada, mientras que en los sherpas se elevan.

Además, el equipo encontró que si bien los niveles de los radicales libres se incrementan rápidamente a gran altitud, al menos inicialmente, dichos niveles en los sherpas son muy bajos. Los radicales libres son sustancias creadas a raíz de una escasez de oxígeno que pueden ser potencialmente dañinas para las células y los tejidos.

Los descubrimientos hechos en el nuevo estudio podrían ayudar a los científicos a desarrollar nuevas formas de tratar pacientes con hipoxia (escasez de oxígeno en el cuerpo), una situación que produce como consecuencia de diversos problemas médicos graves, no solo por ascender a gran altitud.Al Índice.

ZOOLOGÍA - Más de 1,5 millones de ballenas, delfines y marsopas habitan el Atlántico

 

Instituciones de nueve países europeos, entre ellos el Instituto Español de Oceanografía (IEO), llevaron a cabo durante el mes de julio un extraordinario estudio para conocer la abundancia y distribución de cetáceos en Europa y, tras un exhaustivo análisis de los datos recabados, han estimado en más de 1,5 millones las ballenas, delfines y marsopas que habitan estas aguas.

La campaña SCANS-III es la tercera de una serie que comenzó en 1994 (SCANS) y continuó en 2005 (SCANS-II). En esta ocasión tres barcos y siete avionetas muestrearon un área de 1,8 millones de kilómetros cuadrados y más de 60.000 km lineales desde el estrecho de Gibraltar hasta Noruega durante 6 semanas en el verano de 2016. Varios equipos internacionales de observadores registraron miles de grupos de cetáceos de 19 especies diferentes.

La parte del estudio liderada por el IEO se llevó a cabo a bordo del buque Ángeles Alvariño en aguas oceánicas del golfo de Vizcaya y del oeste de la plataforma gallega. En ella participaron investigadores del Centro Oceanográfico de Vigo y de otras organizaciones españolas.

Los primeros resultados, presentados durante la última conferencia de la Sociedad Europea de Cetáceos (ECS), han estimado la presencia de más de 1,5 millones de ballenas, delfines y marsopas en el Atlántico europeo. Las especies más abundantes son el delfín común (468.000), la marsopa (467.000) y el delfín listado (372.000), con un total adicional de 158.000 delfines comunes o listados sin identificar. El número de individuos de otras especies de delfines fue de 28.000 delfines mulares, 36.000 delfines de hocico blanco y 16.000 delfines de flancos blancos.

El estudio ha identificado la presencia de unos 18.000 rorcuales comunes. (Foto: IEO)

También se estimaron las abundancias de otras especies capaces de realizar inmersiones a grandes profundidades para buscar sus presas, principalmente cefalópodos, tales como calderones (26.000), cachalotes (14.000) y zifios de varias especies (11.000). Además de unos 18.000 rorcuales comunes y 15.000 rorcuales aliblancos.

"SCANS-III es un buen ejemplo de cómo la colaboración internacional a nivel de la UE es necesaria para la evaluación de la situación actual y determinar las tendencias en la abundancia y distribución de estas especies de amplia distribución”, comenta Begoña Santos, jefa del Área de Pesquerías del IEO y responsable junto con Xulio Valeiras de la campaña a bordo del Ángeles Alvariño. “Esta información es necesaria para diseñar medidas de conservación adecuadas”, añade la investigadora.

Los resultados demuestran que el cambio en la distribución de la marsopa en el mar del Norte (del noroeste a la parte sur) que se apreció en 2005 en relación al 1994 se ha mantenido en 2016. Las estimas de abundancia muestran una tendencia estable de las poblaciones de marsopa, delfín de hocico blanco y rorcual aliblanco en el mar del Norte a lo largo de los 22 años de estudio.

En aguas españolas del Cantábrico y Galicia se han realizado más de 800 avistamientos de ocho especies de cetáceos distintas. Es necesario llevar a cabo al menos una campaña más en el futuro antes de que se pueda evaluar su estado de conservación.

Estas nuevas estimas de abundancia serán parte integrante de las evaluaciones de OSPAR sobre la calidad del medio ambiente marino del Atlántico Noreste y del buen estado ambiental en lo referente a las Estrategias Marinas europeas. Los resultados también permitirán determinar el impacto de las capturas accidentales y otras presiones humanas sobre las poblaciones de cetáceos, cumpliendo los requisitos de la Directiva Hábitats y del Acuerdo sobre la Conservación de Pequeños Cetáceos en el Mar Báltico, Atlántico Noreste, el Mar Céltico y el Mar del Norte (ASCOBANS).

"Los resultados de estas campañas internacionales a gran escala en las dos últimas décadas han ampliado nuestro conocimiento sobre la distribución y abundancia de especies de cetáceos en aguas atlánticas europeas, permitiendo que la captura accidental y otras amenazas antropogénicas sobre estas poblaciones se encuadren en un contexto poblacional, proporcionando una base sólida para poder evaluar su estado de conservación", explica el Prof. Philip Hammond, coordinador de SCANS-III.

La campaña, coordinada por la Universidad de St. Andrews, representa un esfuerzo internacional de científicos de nueve países europeos, apoyados por sus respectivos estados. Los socios colaboradores el Prof. Philip Hammond y Claire Lacey, de la Sea Mammal Research Unit (Universidad de St Andrews, Reino Unido); los investigadores Begoña Santos, Julio Valeiras y Camilo Saavedra, del Centro Oceanográfico de Vigo del IEO; el Prof. Vincent Ridoux de la Universidad de La Rochelle (Francia); el Dr. José Vingada, de la Sociedad Portuguesa de Vida Selvagem; la Dra. Helena Herr y Dra.

Anita Gilles, de la Universidad de Medicina Veterinaria Hannover (Alemania); el Dr. Jonas Teilmann, del Departamento de Biociencia de la Universidad de Aarhus (Dinamarca); el Dr. Meike Scheidat, del Wageningen Investigación Marina (Países Bajos); el Dr. Nils Øiendel Instituto de Investigaciones Marinas de Noruega; el Dr. Patrik Börjesson, de la Universidad Sueca de Ciencias Agrícolas; y el Dr. Kelly Macleod, del Comité Conjunto para la Conservación de la Naturaleza (Reino Unido). (Fuente: Instituto Español de Oceanografía)Al Índice.

PALEONTOLOGÍA - El caso más antiguo conocido de vida en tierra firme es de hace 3.480 millones de años

 

Unos científicos han descubierto evidencias fósiles de vida que existió en depósitos de sedimentos de fuentes termales de 3.480 millones de años de antigüedad, en la zona de Pilbara (Australia occidental), lo que retrasa en 3.000 millones de años la existencia más temprana conocida de fuentes termales terrestres habitadas en la Tierra.

Anteriormente, la evidencia más antigua de vida microbiana en tierra procedía de depósitos de 2.700 a 2.900 millones de años en Sudáfrica, que contenían suelos primitivos ricos en materia orgánica.

Burbujas esféricas preservadas en rocas de hace 3.480 millones de años en la Formación Dresser, que proporcionan evidencias de posible vida primitiva que habitó en antiguas fuentes termales en tierra firme. (Foto: UNSW)

Por tanto, lo descubierto por el equipo de Tara Djokic, de la Universidad de Nueva Gales del Sur en Australia, no solo extiende 3.000 millones de años hacia atrás el registro de vida viviendo en fuentes termales, sino que también indica que había vida desarrollándose fuera del mar, aposentada en tierra firme, mucho antes de lo que se suponía previamente, hasta unos 580 millones de años antes.

Esto podría aportar más credibilidad a la idea de que la vida comenzó en fuentes termales de agua dulce y en tierra, en vez de hacerlo en el mar y adaptarse luego a tierra firme como muchos científicos creen.

La comunidad científica debate dos hipótesis principales sobre el origen de la vida. Una es que se inició en las fumarolas hidrotermales del fondo del mar. La otra, que empezó en tierra firme, lo cual constituye una versión de la “pequeña laguna caliente” de Darwin.

El descubrimiento de firmas potencialmente biológicas en estas antiguas fuentes termales en Australia occidental proporciona una perspectiva geológica que podría aumentar la credibilidad de un origen de la vida en tierra.

Djokic destaca que esta investigación atañe también a la búsqueda de vida en Marte, porque el Planeta Rojo tiene depósitos de sedimentos de fuentes termales de edad similar a las de la Formación Dresse en Pilbara.

“De los tres posibles lugares de aterrizaje principales para el robot Mars 2020, Columbia Hills está señalado como un entorno de fuentes termales. Si la vida puede ser preservada en fuentes termales tan atrás en la historia de la Tierra, entonces hay una buena oportunidad que pueda haberse conservado también en las fuentes termales marcianas”, explica Djokic.

Al Índice.

INGENIERÍA - La vela que se asemeja al ala de un avión para batir récords en la Copa América

 

El 26 de mayo vuelve la Copa América, la regata más importante de este deporte de élite. Un auténtico desafío físico y mental para la tripulación y un verdadero reto tecnológico para los barcos, que requieren desarrollar la más avanzada ingeniería en tiempos muy ajustados; equipamientos al más alto nivel de rendimiento para mantener la competitividad en condiciones tan extremas. Hoy los barcos vuelan cuatro veces más rápido sobre el agua gracias a una vela en ala que sustituye a la vela tradicional. Un importante avance en el que la simulación de ingeniería de ANSYS desarrolla el mejor diseño posible en el mínimo tiempo y con el menor coste.

La Copa América, cuya próxima edición se celebrará a partir del 26 de junio en Bermuda, es uno de los eventos más esperados por los aficionados a la vela y una de las aventuras deportivas más extremas. En los últimos años, la tecnología aeroespacial, incluida la aerodinámica avanzada, los materiales ligeros, las pruebas en túneles de viento y la tecnología de simulación avanzada, han revolucionado este acontecimiento deportivo, que va más mucho allá del simple deporte. Uno de los avances definitivos es una revolucionaria vela que se asemeja más al ala o estabilizador de un avión que a una vela tradicional, y que convierte el viento en potente impulso hacia delante.

Pero convertir el viento en velocidad, a la vez que se invierte la menor energía posible, no es tarea fácil. Debido a que es impensable que puedan efectuarse las pruebas físicas para todas las mejoras de una embarcación de esta complejidad (que además sería económicamente insostenible), uno de los equipos favoritos para ganar este año ha recurrido al software de simulación de ingeniería para desarrollar un navío fiable, robusto y competitivo. Un proceso de desarrollo basado al 100% en la simulación para probar miles de alternativas a fin de lograr sus objetivos de diseño para el ala, lo que incluye un control rápido y exacto a la vez que se cumplen los objetivos en cuanto al peso. El conjunto integrado de herramientas multifísicas de ANSYS, que incluye la simulación de fluidos, estructuras y compuestos, facilita enormemente el trabajo de los ingenieros.

Estas revolucionarias alas son estabilizadores formados por dos componentes: un elemento principal, que es una estructura rígida, y un flap móvil unido mediante una bisagra en su parte posterior. El flap incorpora tres segmentos o secciones que pueden inclinarse para aumentar el levantamiento con tan solo modificar el ángulo entre el elemento principal y el flap. La simulación multifísica de interacción de fluidos y estructuras y la simulación de componentes de ANSYS, han permitido al equipo simular virtualmente miles de variaciones en los procesos iniciales con el objetivo de hallar el diseño óptimo antes de realizar cualquier prueba física. Las pruebas que se realizan utilizando el barco real requieren mucho tiempo y dinero y, sin la simulación, tampoco sería físicamente posible analizar todas las soluciones intermedias.

(Foto: ANSYS)

Para determinar la presión aerodinámica utilizando las simulaciones CFD de ANSYS, los ingenieros del equipo comenzaron con modelos del elemento principal y el flap obtenidos mediante diseño asistido por ordenador (CAD). Simularon el rendimiento de cada forma sometiéndolas a múltiples velocidades y ángulos del viento, así como con diferentes estados del barco. Los resultados se formularon en una matriz que se utilizó en un simulador de rendimiento para predecir el comportamiento del barco según las condiciones y la dirección del viento, el ajuste del ala y otros factores. El equipo realizó cientos de repeticiones para optimizar la geometría y la estructura laminada hasta lograr las formas deseadas y minimizar los impulsos de entrada en las condiciones de carga especificadas. Al mismo tiempo, se hizo un esfuerzo por minimizar el peso de la estructura, garantizando que era capaz de soportar las cargas esperadas durante una competición.

El análisis de simulación multifísica permitirá, por primera vez, investigar la respuesta dinámica del ala cuando es golpeada por una ráfaga de viento, cuando se está ajustando la vela o cuando el barco realiza maniobras como virar y trasluchar.

El diseño actual alcanzará velocidades cuatro veces mayores que los barcos que participaron en la Copa América hace diez años. Una de las razones fundamentales es la sustitución del monocasco por un catamarán, pero el cambio de velas a alas también supone una cuantiosa mejora en la velocidad.

El primer récord de velocidad que ha batido el equipo ha tenido lugar antes de la competición y no es mérito de su tripulación, sino de sus ingenieros, quienes, además, han diseñado estos sistemas para un nuevo yate de pruebas en tan solo cinco meses. (Fuente: Sheridan)

Al Índice.

NEUROLOGÍA - Cambios cerebrales delatadores de futuros problemas cognitivos o de memoria

 

Unos científicos de varias instituciones canadienses (incluyendo el Centro Baycrest de Cuidados Geriátricos en Toronto) han descubierto mediante visualización cerebral un posible indicador para la futura aparición de la demencia, lo cual ilustra que los cambios relacionados en la estructura del cerebro podrían suceder años antes del diagnóstico de la enfermedad, incluso antes de que los individuos noten sus problemas de memoria.

El equipo de Morgan Barense, de la Universidad de Toronto en Canadá, examinó personas de entre 59 y 81 años residentes en su domicilio solas o con su pareja y sin recibir asistencia geriátrica, de la zona de Toronto.

Estas personas no tenían constancia de problema alguno de memoria. Por otra parte, su puntuación en una prueba común para detectar demencias asociadas a la vejez estaba por debajo de lo normal.

En estas personas, los investigadores también encontraron evidencias de menos tejido cerebral en la misma subregión del cerebro donde se origina el Mal de Alzheimer (la corteza entorrinal anterolateral, situada en el lóbulo temporal del cerebro).

Se ha descubierto un posible indicador temprano de demencia asociada a la vejez que podría ayudar al uso de fármacos y otras terapias para tratar o enlentecer la enfermedad. (Foto: Baycrest Health Sciences)

Este estudio es el primero en medir esta subregión del cerebro en particular en personas mayores sin diagnóstico de demencia asociada a la vejez ni problemas de memoria que afecten a su rutina diaria.

La detección temprana de individuos de alto riesgo tiene el potencial de facilitar la actuación de fármacos u otras intervenciones terapéuticas para combatir al Mal de Alzheimer, tal como subraya Rosanna Olsen, del equipo de investigación.

El Mal de Alzheimer es una enfermedad neurodegenerativa devastadora con consecuencias personales y sociales graves. Actualmente, 564.000 canadienses viven con alguna demencia asociada a la vejez y 1,1 millones se hallan afectados por la enfermedad, según la Sociedad del Alzheimer de Canadá. Se diagnostican 25.000 nuevos casos de demencia asociada a la vejez cada año en el país. Las cifras en otras naciones también son altas.Al Índice.

CLIMATOLOGÍA - Cuantifican efectos del calentamiento global en glaciares del océano Ártico

 

Científicos de la Universidad Autónoma de Madrid (UAM) (España) y la Universidad de Oslo (Noruega) han cuantificado los efectos del cambio climático en el archipiélago de Svalbard, en el océano Glacial Ártico. Los resultados muestran una importante pérdida de hielo en este archipiélago desde la llamada Pequeña Edad del Hielo, hace apenas 100 años.

Además de trabajo de campo, los investigadores se valieron de imágenes terrestres y sensores aeroportados, logrando muestrear los frentes morrénicos y de hielo de los más de 3.000 glaciares del archipiélago. De este modo, el trabajo, publicado en la revista The Holocene, presenta una valoración regional de la extensión y retroceso de los glaciares en la totalidad del archipiélago desde el fin de la Pequeña Edad del Hielo.

Glaciar de tidewater en la Bahía de Nordfjorden; isla de Spitsbergen, archipiélago de Svalbard. (Autor: Raúl Martín Moreno)

“La influencia de la Pequeña Edad de Hielo en los glaciares del archipiélago de Svalbard en el alto ártico noruego está bien documentada. No obstante, faltaba una reflexión global de alcance regional que recogiese un análisis de su retroceso desde esta pulsación fría reciente”, aseguran Raúl Martín Moreno del Departamento de Didácticas Específicas y Fernando Allende Álvarez, del Departamento de Geografía de la UAM.

“El trabajo es importante porque ofrece una cartografía de gran detalle. Utilizando fotointerpretación, técnicas de teledetección y sistemas de información geográfica, esta cartografía consigue cuantificar la reducción de la superficie de hielo desde la Pequeña Edad del Hielo”, agregan los investigadores.

El área glaciada en el archipiélago se calculó, a finales del s. XX, en 33,775 km2. Desde la Pequeña Edad del Hielo los hielos de las principales islas del archipiélago han retrocedido un 12.8% (Spitsbergen), 16.7% (Barentsøya y Edgeøya) y un 13.4% (Nordaustlandet).

El análisis del máximo glaciar mediante el cartografiado de los frentes morrénicos ha permitido establecer diferencias a nivel regional en el propio archipiélago: más del 19% en el oeste y el centro, el 23% en el sur de Nordaustlandet, mientras que en el Noreste fue el 1%.

Los glaciares que han experimentado un mayor retroceso son los que vierten su frente helado directamente al mar (tidewaters). (Fuente: UAM)Al Índice.

SALUD - La ULE analiza el efecto del entrenamiento con el propio peso corporal en la condición física

 

Mario Sandúa Escribano y Javier de los Ríos Calonge, alumnos de la Facultad de Ciencias de la Actividad Física y del Deporte, han realizado un programa de entrenamiento en el que participan 34 estudiantes (17 mujeres y 17 hombres) procedentes de distintos grados universitarios, a través del cual tratan de hacer una valoración de los efectos de un método de entrenamiento de alta intensidad con el propio peso corporal en la condición física.

Aunque se trata de dos trabajos Fin de Grado, el planteamiento es la base de una investigación tutelada por el catedrático José Gerardo Villa Vicente y el becario FPU David Suárez, ambos miembros del Grupo de Investigación VALFIS, adscrito al Instituto de Biomedicina de la ULE (España).

Estudiantes de las facultades de Veterinaria, Ciencias Biológicas y Ambientales, Económicas y Empresariales, Educación, Ciencias de la Salud y de la propia Facultad de Ciencias de la Actividad Física y del Deporte (FCAFD) se interesaron por participar en un programa de entrenamiento de 9 semanas que han realizado cuatro días por semana, en instalaciones de la FCAFD y del Servicio de Deportes de la ULE. Mario Sandúa ha sido el encargado de valorar las adaptaciones producidas a nivel de fuerza muscular y Javier de los Ríos a nivel de resistencia cardiovascular.

La ULE analiza el efecto del entrenamiento con el propio peso corporal en la condición física. (Foto: ULE)

El objetivo de este trabajo se concreta en conocer las adaptaciones que concurren en el organismo al realizar un programa de entrenamiento con el propio peso corporal y de alta intensidad en diversos niveles de condición física. En este sentido, los participantes más entrenados obtienen menos mejoras mientras que aquellos que no han realizado ejercicio físico o no están entrenados, encuentran en este plan integral de entrenamiento la forma de adecuar la intensidad de esfuerzo a su condición física, maximizar así su rendimiento físico y obtener más mejoras en menos tiempo.

En el desarrollo del trabajo se incide en la importancia de la presencia de un graduado en Ciencias de la Actividad Física y del Deporte a la hora de supervisar el trabajo de este último grupo de participantes (menos entrenados). “La cohesión del grupo y el buen desarrollo de las sesiones corroboran la importancia de estos graduados a la hora de generar experiencias positivas en el ámbito del ejercicio físico y con ello promover el estilo de vida activo que demanda la sociedad actual”, señalan los autores del proyecto.

José Gerardo Villa, catedrático de Educación Física y Deportiva, subraya que este tipo de entrenamiento “valdría para cualquier tipo de deporte”, sin embargo en las personas no entrenadas puede ser apropiado “pero han de estar supervisadas por un licenciado que les enseñe, ya que el tipo de ejercicio requiere cierta complejidad y es muy importante que se haga bien, y que se ajuste la intensidad de esfuerzo a su condición física para maximizar los resultados”.

El método de entrenamiento elegido por Sandúa y De los Ríos es el conocido como Freeletics, un método que surgió en Alemania en 2013 y que podría catalogarse como ejercicios calisténicos en rutina de HIIT (high intensity interval training): al ser de alta intensidad implica menos volumen de trabajo, se trabaja con el peso del individuo, prescinde de instalaciones específicas, se puede compaginar con la vida social, familiar y laboral y se trabajan conjuntamente ejercicios cardiovasculares y de resistencia muscular.

Con el fin de sumar adeptos a este método de entrenamiento, los autores del proyecto han creado un grupo en Facebook denominado Freeletics León “para que todos aquellos que estén interesados en probarlo puedan realizarlo con el grupo generado de aquí en adelante, como una comunidad de atletas libres de la ciudad de León”, concluyen mientras ahora se encuentran inmersos en la valoración de los resultados recogidos en campo y en el laboratorio por el grupo VALFIS. (Fuente: ULE/DICYT)Al Índice.

ASTRONÁUTICA – Ha finalizado la investigación sobre el aterrizaje de Schiaparelli

 

La investigación sobre las causas del aterrizaje forzoso del módulo Schiaparelli de ExoMars ha determinado que fue un conflicto en la información del ordenador a bordo lo que provocó que la secuencia de descenso acabara prematuramente.

El módulo demostrador de entrada, descenso y aterrizaje Schiaparelli se separó del TGO (Orbitador para el estudio de Gases Traza) el 16 de octubre del año pasado, según lo planeado, iniciando un viaje de tres días hacia Marte.

El 19 de octubre, la mayor parte del descenso de seis minutos, se desarrolló según lo previsto: el módulo entró correctamente en la atmósfera, mientras el escudo térmico lo protegía en su bajada a velocidades supersónicas. A su vez, los sensores de los escudos delantero y trasero recopilaban valiosos datos científicos y técnicos sobre la atmósfera y escudo térmico.

Al mismo tiempo que entraba en la órbita del Planeta Rojo, la telemetría de Schiaparelli se iba enviando al TGO, marcando un hito en la historia de la exploración marciana. Esta transmisión en tiempo real ha resultado fundamental para reconstruir la secuencia de acontecimientos.

Mientras el TGO grababa las transmisiones de Schiaparelli, el orbitador Mars Express de la ESA monitorizaba la señal portadora del módulo de aterrizaje, al tiempo que, desde India, lo hacía el Giant Metrewave Radio Telescope (GMRT).

En los días y semanas siguientes, la sonda Mars Reconnaissance Orbiter de la NASA capturó una serie de imágenes que identificaban el módulo, el escudo frontal y el paracaídas todavía unido al escudo trasero, en una zona de Marte muy cercana al punto de aterrizaje previsto.

(Foto: ESA/ATG medialab)

Las imágenes sugerían que estos elementos se habían separado del módulo según lo esperado, aunque era evidente que Schiaparelli había descendido a gran velocidad, debido a los residuos esparcidos por la zona del impacto.

Ahora acaba de concluir una investigación externa independiente, dirigida por el Inspector General de la ESA.

En ella se identifican las circunstancias y las causas del aterrizaje forzoso, y se ofrecen recomendaciones generales para evitar este tipo de defectos y debilidades en el futuro.

Unos tres minutos tras la entrada en la atmósfera, el paracaídas se desplegó, pero el módulo experimentó unas velocidades de rotación inesperadamente altas. Esto causó una breve ‘saturación’ —es decir, se superó el intervalo de medición esperado — en la Unidad de Medición de Inercia, que medía la velocidad de rotación del módulo.

Esta saturación provocó un grave error en el cálculo de orientación por parte del software del sistema de guiado, navegación y control. La combinación de este cálculo de orientación incorrecto con las posteriores mediciones del radar hizo que el ordenador estimara que el módulo se encontraba por debajo del nivel del suelo.

Esto desencadenó el despliegue prematuro del paracaídas y del escudo trasero, el encendido de los propulsores durante tan solo 3 segundos en lugar de 30, y la activación del sistema sobre el terreno, como si Schiaparelli ya hubiera aterrizado. El paquete científico de superficie envió un paquete de datos de mantenimiento antes de que se perdiera la señal.

En realidad, el módulo permaneció en caída libre desde una altitud de unos 3,7 km, lo que resulta en una velocidad de impacto de unos 540 km/h.

El informe de la Comisión de Investigación de Schiaparelli indica que el módulo estuvo a punto de aterrizar con éxito en el lugar previsto y que se logró una parte muy importante de los objetivos de demostración. Los resultados de vuelo revelaron la necesidad de actualizaciones de software y ayudarán a mejorar los modelos informáticos de comportamiento del paracaídas.

“La retransmisión de datos en tiempo real durante el descenso fue crucial para lograr este análisis detallado del final de Schiaparelli”, señala David Parker, director de Vuelos Tripulados y Exploración Robótica de la ESA.

“Queremos mostrar todo nuestro agradecimiento a los equipos de científicos e ingenieros, que hicieron un enorme esfuerzo para proporcionar los instrumentos científicos y preparar las investigaciones sobre Schiaparelli, y sentimos enormemente que los resultados se vieran truncados por el final prematuro de la misión”.

“Es evidente que había que haber estudiado con más profundidad ciertas áreas durante la preparación, la validación y la verificación del sistema de entrada, descenso y aterrizaje”.

“Todo lo que hemos aprendido nos servirá para seguir preparando la misión ExoMars 2020, que incluirá un robot explorador y una plataforma de superficie. Aterrizar en Marte es un todo un desafío, pero un desafío que debemos superar para poder cumplir nuestros objetivos finales”.

“Resulta interesante pensar que, si no se hubiera producido la saturación y las fases finales hubieran concluido sin problemas, probablemente no habríamos identificado otros puntos débiles que también contribuyeron al incidente —apunta Jan Woerner, Director General de la ESA—. Gracias a esta investigación hemos descubierto aspectos que requieren de atención particular y que beneficiarán a la misión de 2020”.

Tras el incidente, ExoMars 2020 se ha sometido a una importante revisión que ha permitido confirmar que está en el buen camino para cumplir la ventana de lanzamiento. Tras recibir completa información sobre el estado del proyecto, los Estados miembros de la ESA que forman parte de la Comisión del Programa de Vuelos Tripulados, Microgravedad y Exploración reafirmaron su compromiso con la misión, que incluye el primer robot explorador de Marte dedicado a perforar la superficie en búsqueda de pruebas de vida en el Planeta Rojo.

Entretanto, el TGO ha comenzado su fase de aerofrenado en los límites de la atmósfera, que durará un año y que finalizará cuando llegue a su órbita científica a principios de 2018. En las oportunidades de observación de noviembre y junio, el satélite ya ha demostrado que sus instrumentos científicos están listos para empezar a trabajar.

Además de su objetivo principal de analizar la atmósfera en busca de gases que podrían estar relacionados con actividad biológica o geológica, el orbitador también funcionará como repetidor para el robot explorador y la plataforma de superficie de la misión de 2020.

El programa ExoMars es una misión conjunta de la ESA y Roscosmos. (Fuente: ESA)

Al Índice.

CIENCIA DE LOS MATERIALES - Obtienen un bioplástico derivado de la proteína de soja capaz de absorber hasta cuarenta veces su peso

 

Investigadores del grupo ‘Tecnología y diseño de productos multicomponentes’ de la Universidad de Sevilla, junto con expertos de la Universidad de Huelva (España), han obtenido un bioplástico natural a partir de la proteína de la soja capaz de absorber hasta cuarenta veces su peso.

Este nuevo producto, ecológico y biodegradable, es respetuoso con el medioambiente. Por ello, los expertos están explorando su aplicación en el campo de la horticultura, concretamente como materia prima a partir de la cual fabricar dispensadores de nutrientes agrícolas.

Para llegar al diseño del material que recogen en el artículo ‘Natural superabsorbent plastic materials based on a functionalized soy protein’, y han publicado en la revista Polymer Testing, los investigadores han realizado diferentes experimentos en el laboratorio alterando la composición de esta leguminosa.

Miembros del grupo de investigación ‘Tecnología y diseño de productos multicomponentes’ de la Universidad de Sevilla. (Foto: Fundación Descubre)

Concretamente, han modificado su afinidad por el agua y han conseguido que retenga un porcentaje mayor de agua. “La soja tiene por sí misma una gran capacidad de absorción, lo que la convierte en un material idóneo. Sin embargo, nos planteamos si encajaría dentro de los bioplásticos súper absorbentes, que son aquellos que tienen que absorber entre 10 y 1.000 veces su peso real en agua. Tras introducir algunas variantes, el resultado obtenido ha sido positivo”, afirma a la Fundación Descubre el investigador de la Universidad de Sevilla Antonio Guerrero, responsable de este estudio.

Durante los ensayos, los expertos han comprobado que según las variables de procesado y la combinación de la mezcla, las propiedades de absorción de la soja se alteran. “Sin interferir en su composición, esta legumbre es capaz de absorber doce veces su peso, mientras que si modificamos su estructura molecular para aumentar su afinidad por el agua, esta capacidad se multiplica por tres hasta alcanzar 36 veces su peso inicial, es decir, un aumento del 3.600% sobre su peso real”, especifica Guerrero.

Para desarrollar los experimentos, en primer lugar han procesado la soja con el fin de extraer la proteína. Con el objetivo de separar la parte líquida de los compuestos sólidos, los científicos han utilizado la técnica de la liofilización. “Este método es más suave y menos agresivo que la atomización, con lo que prácticamente no afecta a la proteína. Así conseguimos aislar la materia prima con la que vamos a trabajar”, aclara el Investigador.

Tras este proceso de deshidratación, los expertos han mezclado el compuesto aislado ya modificado de la proteína con un plastificante. “Conseguimos un concentrado sólido de proteínas y una vez preparada esa composición, la introducimos en una máquina inyectora y la depositamos en un molde. De ahí se obtiene la probeta con la que vamos a realizar los ensayos”, explica este investigador de la Universidad de Sevilla.

Además de presentar una capacidad de absorción superior a la de otros bioplásticos convencionales, los investigadores han avanzado que este compuesto reúne potencialmente cualidades para su uso en la horticultura, específicamente como dispositivos distribuidores de nutrientes agrícolas.

De hecho, la siguiente fase de este proyecto es estudiar la viabilidad de la liberación de estos compuestos en el campo a través de dispensadores naturales formados a partir de soja súper absorbente. Para ello, simularán un terreno en el laboratorio y colocarán las matrices cargadas de micronutrientes como sales minerales, hierro y zinc, a las que irán añadiendo agua.

De esta forma, comprobarán si tras la fase de drenaje y como consecuencia de la acción de estos dosificadores, el agua contiene nutrientes y en qué cantidad lo hace. “Queremos asegurarnos de que se produce un aporte controlado y ajustado a las necesidades del suelo. Además, al ser un plástico biodegradable elaborado a partir de proteínas de soja, los propios envases, una vez vacíos, servirían de sustrato para el suelo”, avanza Guerrero.

Siguiendo esta línea de estudio, los investigadores continuarán experimentando con otros productos como la colza o el algodón de los que se puedan obtener materiales súper absorbentes con aplicaciones en la industria de la higiene sanitaria y la agricultura.

Este proyecto de investigación aplicada está financiado por el Ministerio de Economía, Industria y Competitividad y cuenta además con fondos FEDER. (Fuente: Fundación Descubre)Al Índice.

PALEONTOLOGÍA - El ADN antiguo revela la íntima relación entre cazadores y agricultores del Neolítico

 

En la historia de la humanidad, la transición de la caza y la recolecta a la agricultura supuso profundos cambios culturales y tecnológicos. En el oeste y centro de Europa, esta transformación se produjo rápidamente y de manera simultánea tras la llegada de los primeros agricultores procedentes de Anatolia (en la actualidad la parte más asiática de Turquía). Más al este, en la región báltica, la transición fue más gradual, con poco o ninguna contribución genética por parte de los agricultores que llegaban.

Un equipo internacional de científicos, con participación de varios centros españoles, ha analizado las relaciones entre los cazadores-recolectores y agricultores en la cuenca baja del Danubio, un área intermedia en la que se produjo una rápida transición y en la que se han encontrado evidencias arqueológicas del intercambio culturas entre esas dos comunidades. Los resultados se publican en Current Biology.

“Los arqueólogos habían supuesto esas relaciones entre los grupos indígenas (cazadores-recolectores) y los de inmigrantes (agricultores-ganaderos), sobre bases de intercambios culturales, pero sin que se hubieran podido demostrar hasta ahora desde el punto de vista genético”, comenta a Sinc María Dolores Garralda, una de las autoras del trabajo e investigadora en el departamento de Zoología y Antropología Física de la Universidad Complutense de Madrid, en España.

Los investigadores recuperaron tres antiguos genomas humanos de Rumanía de hace entre 8.800 y 5.400 años. También analizaron los genomas de dos mujeres cazadoras-recolectoras del Mesolítico procedentes de España: la mujer de Chan do Lindeiro, en Galicia –fallecida posiblemente al caer por una sima–, y la otra de Los Canes en Arriondas, Asturias –hallada en una compleja sepultura–.

Los resultados del análisis de este ADN antiguo revelan que en el área que ahora conocemos como Rumanía, cazadores-recolectores y agricultores convivieron, mezclándose unos con otros y teniendo hijos.

Reconstrucción del rostro de la mujer hallada en Galicia (izquierda) y esqueleto de uno de los genomas rumanos analizados (derecha). (Foto: Serrulla, F., and Sanín, M. (2017) / Clive Bonsall)

“Esperábamos cierto nivel de mestizaje entre estos dos grupos, dadas las evidencias arqueológicas entre estas comunidades”, indica Michael Hofreiter, coautor del estudio y científico en la Universidad de Potsdam, en Alemania. “Pero nos sorprendieron los altos niveles de integración entre las dos comunidades cuando se reconstruyó el ADN antiguo”, añade.

Para Garralda, “la investigación confirma la relativa homogeneidad genética de los grupos de cazadores-recolectores, a la vez que, en el caso de Rumanía, demuestran el intercambio de genes que debió existir desde que fueron llegando los primeros agricultores. Son una base para seguir ampliando nuestros conocimientos sobre la evolución de las poblaciones del pasado”.

La pregunta sobre cómo se produjo esta transición ha sido un tema recurrente de debate entre científicos. El abandono de la caza y la recolección hacia la agricultura pudo ser impulsado por el movimiento de personas –como en Europa occidental– o de ideas –como ocurrió más al este en Letonia y Ucrania–.

Sin embargo, el trabajo demuestra que la relación entre cazadores y agricultores en la cuenca del Danubio pudo ser más compleja. El ADN analizado revela que los genomas rumanos de hace miles de años tenían ascendencia significativa de los cazadores-recolectores occidentales. Pero, también tuvieron una contribución menor aunque importante los agricultores de Anatolia, lo que sugiere múltiples mezclas entre cazadores-recolectores y agricultores. Un análisis de los huesos también confirmó que tenían una dieta variada.

“El estudio muestra que estos contactos entre cazadores-recolectores y agricultores fueron más allá del intercambio de alimentos y artefactos”, dice Hofreiter. “A medida que se recopilan los datos de diferentes regiones, vemos un gradiente en toda Europa, con una mezcla creciente de cazadores-recolectores y agricultores cuanto más se avanza hacia el este y el norte”, añade.

Los análisis de dos de los mesolíticos rumanos señalan que tenían cabello y ojos oscuros con haplogrupos de los cromosomas Y, comunes entre los europeos modernos. A nivel mitocondrial, tenían haplogrupos comunes entre los grupos europeos de cazadores-recolectores y otros identificados en individuos de similar cronología de Escandinavia y Letonia. El tercer genoma, cuyo individuo tenía pelo oscuro y ojos claros, corresponde al haplogrupo común entre los agricultores europeos más antiguos.

“Esos datos reflejan un complejo panorama de intercambios genéticos entre los pequeños grupos de esas diferentes sociedades, que, en comparación con datos europeos similares, reflejan diversos grados de mestizaje”, indica Garralda.

En el caso de los genomas españoles, los haplogrupos mitocondriales pertenecen a uno muy antiguo en Europa, común entre las muestras de cazadores-recolectores europeos. “Con respecto a datos fenotípicos, Chan debía ser morena y de ojos marrones, mientras que la mujer de Los Canes 1 parece haber tenido color de pelo castaño y ojos azules”, detalla la investigadora de la UCM.

Los científicos también estimaron la proporción de genes neandertales en todos estos fósiles españoles y rumanos, y sus valores se reparten de acuerdo con la mayor o menor antigüedad de cada uno de ellos. “Además, la intolerancia a la lactosa aparece claramente para todos los individuos de ambas regiones europeas, incluso en el rumano más reciente”, recalca Garralda. Ahora, el siguiente paso de los investigadores es entender por qué las interacciones entre estas diferentes personas llevaron a resultados tan variados. (Fuente: SINC)

Al Índice.

COMPUTACIÓN - Dotar las células vivas de la capacidad de procesamiento digital de información

 

Las células vivas deben procesar constantemente información para poder hacer un seguimiento del cambiante mundo a su alrededor y lograr así reaccionar de la manera apropiada.

A través de miles de millones de años de prueba y error, la evolución ha alcanzado un buen modo de procesamiento de información a nivel celular. En los microchips que actúan en nuestros ordenadores, las capacidades de procesamiento de información reducen los datos a los inequívocos ceros y unos. En las células, esto no es tan sencillo. El ADN, las proteínas, los lípidos y los azúcares están dispuestos en estructuras complejas y compartimentadas.

Ilustración de una parte de un circuito digital biológico. (Foto: University of Washington)

Pero si queremos aprovechar el potencial de las células como computadoras vivientes que puedan reaccionar del modo idóneo ante las enfermedades, o como productoras eficientes de biocombustibles o de otras sustancias químicas, no podemos aguardar a que la evolución haga por sí sola este trabajo de adaptación.

Un equipo de investigadores en biología sintética, incluyendo a Eric Klavins, de la Universidad de Washington en la ciudad estadounidense de Seattle, ha demostrado un nuevo método de procesamiento digital de información en células vivas, comparable al trabajo que hacen las puertas lógicas usadas en los circuitos electrónicos. Klavins y sus colegas han preparado una serie de genes sintéticos que funcionan en las células como puertas NOR, usadas habitualmente en electrónica digital, las cuales toman dos señales de entrada y solo pasan una señal positiva si las dos primeras de entrada son negativas. Las puertas NOR son funcionalmente completas, lo que quiere decir que se las puede instalar en diferentes disposiciones para producir cualquier tipo de circuito de procesamiento de información.

Los ingenieros de la Universidad de Washington hicieron todo esto usando ADN en vez de silicio y soldaduras, y dentro de células de levadura en vez de en una placa de circuitos electrónicos. Los circuitos que estos investigadores han fabricado son los mayores de los que se tenga conocimiento formal hasta la fecha en células eucariotas, el tipo de células que poseemos los humanos. Las células eucariotas se caracterizan por albergar un núcleo y otras estructuras que permiten comportamientos complejos.Al Índice.

NEUROLOGÍA - Cambios profundos en el cerebro cuando una persona analfabeta aprende a leer

 

El cerebro humano es capaz de transformarse notablemente, y no solo en la infancia y en la adolescencia, sino incluso a una edad adulta si se enfrenta a un reto mental lo bastante drástico y duradero, como por ejemplo aprender a leer y escribir con más de 30 años de edad. Además, leer es una capacidad tan nueva en la historia evolutiva humana que la existencia de un “área de lectura” en el cerebro no podría estar especificada en nuestros genes. Algún tipo de proceso de "reciclaje de herramientas" ha que tener lugar en el cerebro mientras aprendemos a leer: las áreas implicadas en el reconocimiento de objetos complejos, como caras, pasan a asumir también la función de traducir letras en lenguaje. Algunas regiones de nuestro sistema visual se convierten por tanto en puntos de contacto entre los sistemas visual y lingüístico.

En dos poblados del norte de la India, mujeres analfabetas aprendieron a leer y escribir durante seis meses su lengua materna, el Hindi. El nuevo estudio muestra que aprender a leer como adulto reconfigura áreas del cerebro hasta el momento asignadas en exclusiva a capacidades diferentes. (Foto: Max Planck Institute for Psycholinguistics)

Hasta ahora se suponía que estos cambios se limitaban a la capa externa del cerebro, la corteza, de la cual se sabe que se adapta rápidamente a los nuevos retos.

Sin embargo, el equipo internacional de Falk Huettig, del Instituto Max Planck para la Psicolingüística, en Nimega, Países Bajos, y Michael Skeide, del Instituto Max Planck de Ciencias Cognitivas y del Cerebro Humano en Leipzig, Alemania, ha descubierto ahora que también ocurren cambios en el cerebro adulto cuando personas completamente analfabetas aprenden a leer y escribir. Contrastando con suposiciones anteriores, los resultados del nuevo estudio indican que el proceso de aprendizaje lleva a una reorganización que se extiende hasta estructuras cerebrales profundas en el tálamo y el tronco encefálico. El fenómeno relativamente reciente de la escritura humana cambia por tanto regiones cerebrales que son muy antiguas desde el punto de vista evolutivo y que incluso son partes esenciales de cerebros de ratón y de otros mamíferos. Esto demuestra hasta qué punto llega la asombrosa plasticidad del cerebro humano.

El equipo de investigación interdisciplinar hizo los hallazgos analizando sujetos de estudio en la India, un país con una tasa de analfabetismo de alrededor del 39 por ciento. La pobreza aún limita el acceso a la educación en algunos sectores de la India, especialmente en el caso de las mujeres. Por tanto, en este estudio casi todas las personas participantes eran mujeres con más de 30 años. Al principio del adiestramiento, la mayoría de ellas no podía descifrar ni una sola palabra escrita de su lengua materna, el Hindi.Al Índice.

MEDICINA - Así se propaga el virus de la varicela por el cuerpo

 

El virus de la varicela zóster (VZV) posee una proteína que podría mejorar su capacidad de manipular a los glóbulos blancos y propagarse por todo el cuerpo, según un estudio liderado por el investigador español Víctor González-Motos de la Escuela de Medicina de Hannover. Los resultados del trabajo se han publicado en el último número de la revista PLOS Pathogens.

El hallazgo proporciona una nueva visión del hasta ahora poco entendido mecanismo por el cual el virus de la varicela se extiende, tras una infección inicial en el tracto respiratorio.

El VZV causa varicela en niños y puede reactivarse más tarde para producir herpes zóster en adultos. Después de infectar las vías respiratorias, el virus secuestra a los glóbulos blancos del sistema inmunológico, usándolos para esparcirse por el cuerpo –incluyendo la piel– para causar la varicela.

Para entender mejor este proceso, los autores investigaron si el VZV influye en la función de las quimiocinas, pequeña proteínas del sistema inmune que atraen a los glóbulos blancos a las zonas donde está la infección y guían su movimiento dentro del cuerpo.

El diagrama ilustra cómo el virus de la varicela zóster se sirve de una proteína para secuestrar a los glóbulos blancos y esparcirse por el cuerpo. (Foto: González-Motos et al)

Los científicos se centraron en una proteína del virus, conocida como glicoproteína C, ya que una investigación previa indicaba que podía desempeñar un papel importante en el ciclo de la infección.

En el laboratorio, realizaron experimentos de quimiotaxis –un proceso por el cual las bacterias y otras células dirigen sus movimientos de acuerdo con la concentración de ciertas sustancias químicas–. Los expertos encontraron que la adición de glicoproteína C mejoraba la capacidad de las quimiocinas para atraer los glóbulos blancos, incluyendo los de las amígdalas, que son un objetivo principal de VZV durante la infección inicial.

Los resultados indican que la glicoproteína C puede interactuar con las quimiocinas para atraer más glóbulos blancos al sitio de la infección por VZV, donde el virus puede manipularlos para extenderse a otras partes del cuerpo. Los autores señalan que se necesita más investigación para comprobar si esta hipótesis se mantiene en tejido humano.

(Fuente: SINC)Al Índice.

FÍSICA - Miden por vez primera la desviación de ondas de luz provocada por un efecto cuántico

 

Una onda luminosa enviada a través del espacio vacío siempre oscila en la misma dirección. Sin embargo, se pueden usar ciertos materiales para rotar la dirección en la que la luz está oscilando cuando está presente un campo magnético. A esto se le conoce como efecto magneto-óptico.

Después de muchas especulaciones que abarcaron un largo período de tiempo, una variante de este tipo de efecto ha sido ahora demostrada por primera vez.

El logro es obra del equipo de Andrei Pimenov, de la Universidad Tecnológica de Viena en Austria.

En vez de conmutar la dirección de la onda de luz de forma continua, los materiales especiales llamados “aislantes topológicos” lo hacen en pasos cuánticos en porciones claramente definidas. La magnitud de estos pasos cuánticos depende solo de parámetros físicos fundamentales, como la constante de estructura fina.

Hay materiales que pueden cambiar la dirección de oscilación de la luz de un modo que, por regla general, depende del grosor que tengan los objetos hechos con el material: cuanto más grande sea la distancia a recorrer por la luz en el material, mayor será el ángulo de rotación. Sin embargo, esto no es así para los materiales que el equipo de Pimenov ha investigado ahora más de cerca.

En ciertos materiales, las ondas luminosas pueden cambiar su dirección de polarización. (Imagen: TU Wien)

Pimenov y sus colegas se han centrado en los materiales conocidos como “aislantes topológicos”, para los cuales el parámetro crucial es la superficie en vez del grosor. Siendo aislantes en su interior, la electricidad en cambio puede normalmente ser conducida de forma muy efectiva por su superficie. Incluso cuando se envía radiación a través de uno de ellos, la superficie es lo que marca la diferencia. Cuando la luz se propaga en este material, la dirección de oscilación del rayo es girada dos veces por la superficie del material, una cuando entra y la otra cuando sale.

Lo que es muy notable aquí es que esta rotación tiene lugar en porciones particulares, en pasos cuánticos, en vez de ser continua. El intervalo entre estos puntos no está determinado por la geometría ni por las propiedades del material, sino que está definido solo por constantes naturales fundamentales. Por ejemplo, la especificación se puede hacer con arreglo a la constante de estructura fina, que se emplea para describir la fuerza de la interacción electromagnética. Esto podría abrir la posibilidad de medir constantes naturales con más precisión que lo que ha sido posible hasta ahora, y podría incluso llevar a que se identifiquen nuevas técnicas de medición.Al Índice.

COMPUTACIÓN - Una aplicación emplea el ocio en la calle para enseñar geografía a la generación del milenio

 

Existe una brecha entre los estudiantes de etapas preuniversitarias, nacidos ya en este milenio, y los métodos docentes convencionales. Para atraer el interés de esta generación, inclinada al mundo virtual de sus pantallas, un equipo investigador de la Universidad de Valladolid (UVa) ha ideado una aplicación móvil a medio camino entre el aprendizaje formal y la diversión. La efectividad del prototipo se prueba estos días entre estudiantes de ESO y Bachillerato de Soria y Valladolid (España).

La aplicación móvil se plantea como un juego serio, un sistema que emplea elementos de ocio para facilitar el conocimiento. El prototipo parte del planteamiento clásico de la resolución de pistas para encontrar la ubicación de "la caza del tesoro". En este caso, las pistas se ofrecen en una aplicación para dispositivos móviles. Junto al carácter competitivo y de diversión, se ofrecen contenidos que forman parte del currículo académico de los estudiantes.

El experimento implica a un total de 102 alumnos, de tercero de la ESO y segundo de Bachillerato, divididos en tres grupos experimentales y dos de control. El grupo investigador ha seleccionado estas edades porque su currículo académico contempla cuestiones de geografía e historia vinculadas al juego.

Por ello, a lo largo de la mañana, estudiantes del Instituto de Educación Secundaria Juan de Juni de Valladolid han recorrido las calles de la ciudad, desde la iglesia conventual de San Pablo al Museo de la Ciencia, probando el prototipo, adquiriendo nuevos conocimientos y buscando el tesoro virtual.

Investigadores de la Universidad de Valladolid ensayan una aplicación que emplea ocio en la calle con fines didácticos. (Foto: UVA)

“El objetivo es crear una nueva herramienta que aumente la motivación de los estudiantes en Secundaria y Bachillerato", explica el investigador Juan Pablo de Castro. Ideada en una asignatura de la Escuela Técnica y Superior de Ingeniería de Telecomunicaciones, el proyecto ha sido ampliado en el laboratorio de "e-learning" de la UVa. Con este "juego serio", o sistema de gamificación, se pretende además despertar la vocación por las tecnologías geográficas y la geografía en sí.

El desarrollo está en fase experimental. Se pretende conocer tanto la efectividad docente como aspectos técnicos, como la interacción de los usuarios con la aplicación móvil. Para ello, se han establecido dos grupos, uno que utiliza el sistema, y otro de control que permanece en el aula. A partir de la experiencia en la calle, las personas participantes son sometidas a una encuesta de opinión sobre su uso, el aprendizaje adquirido o su experiencia a la hora de usar la app. Todos los estudiantes, lo que permanecen en clase como los que juegan, son sometidos a un cuestionario académico previo para comprobar el nivel como posterior para evaluarlos. Este segundo examen es válido para la nota de la asignatura.

El prototipo ha sido desarrollado por parte de ingenieros del Departamento de Teoría de la Señal y Comunicaciones e Ingeniería Telemática de la UVa. El proyecto pertenece al plan de innovación docente de la institución académica. (Fuente: UVA/DICYT)Al Índice.

VIROLOGÍA - Los virus pueden presentar un ‘componente social’ como estrategia para facilitar la propagación

 

Un equipo del Instituto de Biología Integrativa de Sistemas (I2SysBio), centro mixto de la Universitat de València y del Consejo Superior de Investigaciones Científicas (CSIC), en España, ha planteado un ‘componente social’ no descripto hasta la fecha en virus y que consiste en que estos emplean un mecanismo de agregación para facilitar su propagación. El trabajo, publicado en ‘Nature Microbiology’, demuestra esta hipótesis en el virus de la estomatitis vesicular.

Con esta investigación, José Manuel Cuevas, María Durán Moreno y Rafael Sanjuán cuestionan la visión clásica de que las poblaciones de virus constan de partículas que actúan independientemente durante el proceso de infección, sin ningún tipo de interacción entre sí. A través de su análisis, han descripto que el virus de la estomatitis vesicular –una enfermedad de origen viral que afecta a las especies bovina, equina y porcina, y es transmisible al ser humano– puede emplear mecanismos de agregación como estrategia para facilitar su propagación.

Gran cantidad de virus animales están envueltos en una bicapa lipídica tomada de las membranas celulares. Debido a que las proteínas se unen a estas membranas para iniciar la infección, el trabajo realizado en el laboratorio de Rafael Sanjuán y dirigido por el mismo investigador, plantea que los viriones libres (partículas víricas morfológicamente completas e infecciosas) también pueden ser capaces de interactuar extracelularmente con la membrana de otros viriones.

“Nuestros hallazgos contrastan con la percepción comúnmente aceptada de viriones como propagadores pasivos y muestran la capacidad de los virus para establecer unidades infecciosas colectivas, hecho que podría facilitar la evolución de las interacciones entre virus”, destacan José Manuel Cuevas, María Durán Moreno y Rafael Sanjuán.

(Foto: U. València)

“También mostramos que, tras el establecimiento de estos contactos, diferentes variantes genéticas virales son cotransmitidas a la misma célula”, destacan la investigadora y los investigadores del I2SysBio. Los resultados del artículo «Multi-virion infectious units arise from free viral particles in an enveloped virus» permiten explicar observaciones previas en la literatura científica que muestran como algunos virus defectivos (aquellos incapaces de replicarse tras la infección que provocan en la célula que los acoge, salvo en presencia de otro virus viable), han podido transmitirse con éxito durante períodos prolongados de tiempo.

“El diseño de estrategias en la lucha contra las enfermedades virales cambia radicalmente cuando consideramos que los virus pueden presentar este componente social. Hablaríamos entonces de unidades infecciosas colectivas, que podrían facilitar la evolución de interacciones virus-virus”, destaca José Manuel Cuevas, investigador Ramón y Cajal de la Universitat de València y primer firmante del trabajo. El investigador también destaca que este nuevo escenario “presenta importantes implicaciones en las dinámicas de adaptación de los virus, como es la generación de multirresistencias”.

La investigación se ha desarrollado en el laboratorio de Rafael Sanjuán del Instituto de Biología Integrativa de Sistemas (I2SysBio), situado en el Parc Científic de la Universitat de València, empleando distintas muestras de origen biológico. Se trata de saliva procedente de vacas entre dos y seis años; saliva de cuatro personas, tres hombres y una mujer entre 25 y 41 años; y plasma sanguíneo de donantes voluntarios del Hospital General de Valencia.

Este trabajo se ha desarrollado en el marco del proyecto europeo Collective Infectious Units and the Social Evolution of Viruses (ERC Consolidator) que investiga el comportamiento social de los virus empleando distintos modelos, y ha contado también con financiación del Ministerio de Economía y Competitividad.

El grupo Evolución y Salud constituye una unidad mixta de investigación localizada en el I2SysBio y el centro FISABIO Salud Pública. El laboratorio de Rafael Sanjuán (I2SysBio) ha trabajado en el estudio de los mecanismos de mutación viral, aunque recientemente está desarrollando nuevas líneas de investigación dirigidas a la evolución experimental de virus oncolíticos, así como al estudio del comportamiento social de los virus, área en la que se engloba el presente trabajo de investigación. (Fuente: U. València)Al Índice.

PSICOLOGÍA - Los adolescentes con baja autoestima son más adictos al celular

 

El rápido desarrollo que ha experimentado la tecnología en los últimos años ha hecho variar los hábitos de las personas, especialmente en cuanto al uso de los teléfonos inteligentes. Algunos estudios muestran cómo en países como Estados Unidos, un 92% de los adolescentes se conectan al celular cada día y un 24% de estos dicen que están en línea casi de forma constante.

De hecho, el número de celulares ha superado por primera vez la población mundial, y España se ha colocado como líder en Europa en el mercado de smartphones.

En este contexto, los investigadores Joan Boada, Lídia Argumosa y Andreu Vigil, del grupo del departamento de Psicología de la Universidad Rovira i Virgili (URV) (Catalunya, España), han llevado a cabo un estudio entre alumnos de bachillerato y universitarios que indica que existen variables de la personalidad que predisponen a padecer adicción a los smartphones.

El trabajo, el primero que se lleva a cabo en población latina y de habla castellana, muestra que hay cuatro rasgos fundamentales para que aparezca esta adicción: el que más destaca por encima de todos es la baja autoestima, seguido de un grado elevado extraversión y poco nivel de responsabilidad y de estabilidad emocional.

España se ha colocado como líder en Europa en el mercado de smartphones. (Foto: URV)

Para llegar a estas conclusiones, los investigadores realizaron encuestas de evaluación a cerca de 250 estudiantes, que incluían un test de autoestima y otro de personalidad. Estas características de la personalidad, además, tienen carácter acumulativo, por lo que personas con baja autoestima y poca estabilidad emocional tendrán más predisposición a padecer esta adicción que otras que sean extrovertidas, por ejemplo.

Una vez evaluados a los estudiantes, ahora los investigadores quieren ampliar la investigación sobre esta adicción al ámbito laboral. (Fuente: URV)Al Índice.

ROBÓTICA - Universal Robots ofrece dos e-Books gratuitos sobre la robótica colaborativa

 

Universal Robots, fabricante danés de robots ligeros y pionero global de la robótica colaborativa, refuerza su compromiso de fomentar la adquisición de conocimientos sobre la automatización industrial y ha puesto a la disposición de su comunidad de usuarios dos nuevos e-Books sobre la robótica colaborativa. Disponibles para descargar gratuitamente desde su página web, los dos libros electrónicos están diseñados para ofrecer una completa información sobre el desarrollo de proyectos con cobots, tanto para aquellas Pymes que se están planteando la automatización por primera vez, como para las más iniciadas que necesitan pautas sobre cómo explicar los beneficios de los cobots a las partes interesadas en su empresa.

El primer e-Book, titulado “Get Started with Cobots” (Como empezar a trabajar con Cobots), detalla los 10 pasos a seguir para iniciar un proyecto de robótica colaborativa. Dirigido a las PYMEs que están contemplando el uso de robots por primera vez en sus procesos de producción, el libro demuestra que la automatización es más fácil, segura y accesible que nunca y explica con claridad todo lo que uno necesita saber sobre que cobot elegir en función de la carga y alcance requerido, las funciones básicas de un cobot, como conectarlo, programarlo e integrarlo en un proceso y cuáles son las opciones de efectores finales disponibles.

Por otro lado, el segundo libro va dirigido a integradores e ingenieros de automatización industrial con buenos conocimientos de robótica industrial que buscan material de apoyo en el proceso de exponer y explicar los beneficios del uso de cobots a las partes interesadas en la empresa. Titulado “Get Your Team Onboard with Cobots” (Como integrar tu equipo en el uso de Cobots), este e-Book ayuda al lector identificar y afrontar las principales preocupaciones de los tres principales grupos de personas implicadas en la decisión de automatizar procesos – ingenieros y personal técnico, directores de planta y operarios, propietarios de empresa y directores de operaciones. Mediante casos prácticos y comentarios de usuarios, el libro permite desarrollar un argumento con ejemplos a favor de la integración de cobots en procesos de fabricación y como los mismos puedan cumplir las necesidades de la empresa.

(Fuente: U. Robots)

Junto con la puesta en marcha de la Universal Robots Academy hace unos meses, el lanzamiento de estos dos e-Books forman una parte importante de la estrategia de Universal Robots de comprometerse con su comunidad de socios, usuarios y clientes para proporcionarles servicios de apoyo y divulgación de alto valor que les ayuda aprovechar la tecnología de robótica colaborativa de la mejor forma posible.

 

“En Universal Robots lo tenemos claro que no es solamente una cuestión de vender más brazos robóticos, si no que debemos ejercer un importante labor de educación y compartir nuestro ‘know-how’ con nuestra comunidad de socios y usuarios”, dice Jordi Pelegrí, Director del Desarrollo de Negocio para Universal Robots en España. “Queremos fomentar la adquisición de conocimientos sobre la robótica colaborativa y acelerar la entrada de los cobots en procesos y entornos donde la automatización industrial ha sido impensable hasta ahora. Para nosotros, estos dos nuevos e-Books gratuitos nos permiten facilitar la difusión de conocimientos y acceso a nuestros robots y es un gran paso en esa dirección”. (Fuente: U. Robots)

 

Los e-Books están disponibles en inglés y se pueden descargar gratis desde las siguientes links:

 

"Get started with Cobots" - https://info.universal-robots.com/benefits-of-automation-robotics-ebook

 

“Get Your Team on Board with Cobots” - https://info.universal-robots.com/lp-mf-onboardwithcobotsAl Índice.

INGENIERÍA - Drones con reflejos más rápidos

 

Existe un límite para la rapidez con la que pueden volar los vehículos autónomos de forma segura, evitando obstáculos. Eso se debe a que las cámaras que se usan hoy en día en los drones solo permiten procesar las imágenes fotograma a fotograma. Más allá de unos 50 km/h, un dron que vuele entre obstáculos tiene un alto riesgo de colisión simplemente porque sus cámaras no le permiten un procesamiento lo bastante rápido.

Hace poco, unos investigadores en Zúrich (Suiza) inventaron un nuevo tipo de cámara, conocida como Sensor de Visión Dinámica (DVS, por sus siglas en inglés), que visualiza continuamente una escena en cuanto a cambios de brillo, a intervalos extremadamente cortos, de microsegundos. Pero este torrente de información puede abrumar a un sistema de procesamiento de datos, dificultando a un dron distinguir un obstáculo próximo a través del "ruido".

Ahora, el equipo de Prince Singh, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, ha ideado un algoritmo capaz de ajustar una cámara DVS para que detecte solo cambios específicos de brillo que importen a un sistema en particular, simplificando enormemente la captación y procesamiento de imágenes, al dejar en ellas solo sus elementos visuales más importantes.

Gracias a un nuevo algoritmo del MIT, con las cámaras DVS será posible analizar más rápidamente una escena, y que los drones equipados con tales cámaras puedan así moverse más deprisa sin que ello conlleve la merma de seguridad que ahora se da. (Imagen: Jose-Luis Olivares/MIT)

Los resultados se pueden aplicar a cualquier sistema lineal que dirija a un robot para que se mueva del punto A al punto B como respuesta a datos visuales de alta velocidad. A la larga, los resultados podrían también ayudar a incrementar las velocidades de robots más complejos.

En el trabajo de investigación y desarrollo han participado asimismo Emilio Frazzoli, del Instituto Federal Suizo de Tecnología en Zúrich (también conocido como Escuela Politécnica Federal de Zúrich), y Sze Zheng Yong, de la Universidad Estatal de Arizona en Estados Unidos.Al Índice.

ASTRONOMÍA - Ceremonia de la piedra basal del Extremely Large Telescope de ESO

 

La Presidente de la República de Chile, Michelle Bachelet Jeria, asistió hoy a la ceremonia de la piedra basal del Extremely Large Telescope de ESO (ELT). El evento tuvo lugar en el cercano Observatorio Paranal de ESO, en el norte de Chile. Este hito marca el comienzo de la construcción de la cúpula y estructura del telescopio óptico más grande del mundo, dando inicio a una nueva era en la astronomía. Asimismo, el evento celebró la conexión del observatorio a la red de suministro eléctrico de Chile.

La Presidente Bachelet fue recibida por el Director General de ESO, Tim de Zeeuw, el Representante de ESO en Chile, Fernando Comerón, el Director del Programa ELT, Roberto Tamai y el Director del Observatorio La Silla Paranal, Andreas Kaufer.  El acto contó con la presencia de destacadas personalidades chilenas y extranjeras tanto del ámbito gubernamental como de la industria, junto con científicos e ingenieros de ESO y representantes de los medios de comunicación locales e internacionales.

Los momentos culminantes de la ceremonia incluyeron el sellado de una cápsula del tiempo preparada por ESO que contiene fotografías del personal de ESO, y otros objetos de valor histórico. La cubierta de la cápsula del tiempo consiste en un hexágono grabado fabricado con Zerodur©, el mismo material que se utiliza en muchos de los espejos gigantes del ELT.

En su discurso, la Presidente enfatizó: "Con el inicio simbólico de esta construcción, construimos aquí más que un telescopio: es una de las mayores expresiones de las capacidades científicas, tecnológicas y del extraordinario potencial de la cooperación internacional".

En esta ilustración vemos al ELT (Extremely Large Telescope, telescopio extremadamente grande) en funcionamiento en el Cerro Armazones, en el norte de Chile. El telescopio se muestra utilizando láseres para crear estrellas artificiales en las capas superiores de la atmósfera. La Presidente de Chile, Michelle Bachelet Jeria, asistió a la ceremonia de colocación de la primera piedra del ELT el 26 de mayo de 2017. (Crédito: ESO/L. Calçada)

Tim de Zeeuw agradeció a la Presidente y a su Gobierno por el constante apoyo a ESO en Chile y por su compromiso con la protección de los inigualables cielos del país: “El ELT permitirá realizar descubrimientos que hoy en día simplemente no podemos imaginar y, sin duda, inspirará a muchas personas en todo el mundo a reflexionar acerca de las ciencias, la tecnología y nuestro lugar en el Universo. Conllevará grandes beneficios para los Estados Miembros de ESO, para Chile y el resto del mundo.”

Con un espejo principal de 39 metros de diámetro, el Extremely Large Telescope (ELT) será el mayor telescopio óptico-infrarrojo del mundo y llevará la ingeniería de telescopios a nuevos territorios. Se instalará en una enorme cúpula giratoria de casi 80 metros de altura y 85 metros de diámetro, comparables al área de un campo de fútbol.

Hace un año, ESO firmó un contrato con el Consorcio Ace, formado por Astaldi, Cimolai y el Grupo EIE, como subcontratista seleccionado, para la construcción de la estructura y la cúpula del ELT (eso1617). Se trató del contrato más grande jamás adjudicado por ESO y también del más grande jamás firmado en el campo de la astronomía basada en Tierra. Con la colocación de la primera piedra se ha dado inicio, oficialmente, a la construcción de la cúpula y la estructura del telescopio.

La ceremonia también marcó la conexión de Cerro Paranal y Cerro Armazones a la red de suministro eléctrico de Chile. Dicha conexión se hizo posible gracias al decidido apoyo del Gobierno de Chile, y es gestionada por el Grupo SAESA en Chile.  Esta nueva conexión reducirá costos y brindará mayor confiabilidad y estabilidad, además de reducir la huella de carbono del observatorio.

El ELT es el más reciente de los diversos proyectos de ESO que han contado con el pleno apoyo del Gobierno del estado anfitrión, Chile, por más de medio siglo. El firme apoyo del Ministerio de Relaciones Exteriores, del Ministerio de Energía y la Comisión Nacional de Energía (CNE) han sido cruciales para establecer una conexión exitosa con la red de suministro eléctrico.

El lugar donde se emplazará el ELT fue donado por el Gobierno de Chile y se encuentra rodeado por otra gran extensión de terrenos entregados en concesión, a fin de proteger las futuras operaciones del telescopio de cualquier interferencia, contribuyendo así a conservar la posición de Chile como la capital de la astronomía mundial.

El ELT será el “ojo” más grande que jamás haya mirado el cielo y podría revolucionar nuestra percepción del Universo.  Abordará una amplia gama de desafíos científicos, incluyendo el sondaje de exoplanetas similares a la Tierra en búsqueda de vida, analizará la naturaleza de la materia y energía oscuras y observará las etapas tempranas del Universo, explorando nuestros orígenes.  Asimismo, planteará nuevas interrogantes que hoy en día ni siquiera podemos concebir, mejorando la vida en la Tierra mediante nuevos avances en el ámbito de la ingeniería y tecnología.

Se prevé que el ELT verá su primera luz en 2024. La colocación de la primera piedra inaugura una nueva era para la astronomía. (Fuente: ESO)Al Índice.

https://www.youtube.com/watch?v=dq7QJEsrAGI

ASTRONOMÍA - Primeros descubrimientos hechos en Júpiter por la sonda espacial Juno

 

Los primeros resultados científicos de la misión Juno de la NASA en Júpiter presentan al mayor planeta de nuestro sistema solar como un mundo complejo y turbulento, con ciclones polares del tamaño de la Tierra, sistemas tormentosos profundos que se introducen hasta muy abajo en el gigante gaseoso, y un campo magnético enorme que podría indicar que se genera más cerca de la superficie del planeta de lo que se creía hasta ahora.

“Llegar a Júpiter fue un largo viaje, pero estos primeros resultados ya demuestran que valió mucho la pena”, destaca Diane Brown, directiva del programa Juno en la central de la NASA en Washington.

Lanzada el 5 de agosto de 2011, la Juno entró en órbita alrededor de Júpiter el 4 de julio de 2016.

Entre los hallazgos que desafían algunas suposiciones muy aceptadas, se hallan imágenes que muestran los dos polos de Júpiter cubiertos con tormentas arremolinadas del tamaño de la Tierra y que están agrupadas de forma densa, rozándose entre ellas.

“Estamos desconcertados sobre cómo podrían formarse, cuán estable es la configuración, y por qué el polo norte de Júpiter no se parece al del sur”, confiesa Scott Bolton, del Instituto de Investigación del Sudoeste (SwRI) en Estados Unidos y miembro del equipo de científicos de la Juno. La gran pregunta sobre esto es si se trata de un sistema dinámico, y lo observado corresponde tan solo a una etapa que dentro de por ejemplo un año terminará, o si estamos ante una configuración estable y estas tormentas están circulando una alrededor de la otra de manera cotidiana.

Otro hallazgo indica que las bandas y otras zonas son realmente misteriosas, con la banda próxima al ecuador penetrando muy abajo, mientras que las de otras latitudes parecen evolucionar hacia otras estructuras.

Proyección ortográfica de imágenes captadas por la cámara JunoCam en las regiones polares norte y sur de Júpiter. (Foto: J.E.P. Connerney et al., Science (2017))

Antes de la misión Juno, se sabía que Júpiter tiene el campo magnético más intenso de nuestro sistema planetario. Las mediciones de la masiva magnetosfera del planeta, tomadas desde la Juno, indican que el campo magnético de Júpiter es incluso más intenso que lo que preveían los modelos, y con una forma más irregular. Las mediciones indican que el campo magnético superó ampliamente las expectativas con unos 7,766 Gauss, una intensidad 10 veces superior a la máxima del campo magnético terrestre en la superficie de nuestro planeta.

Juno sigue una órbita polar alrededor de Júpiter, y la mayor parte de cada órbita transcurre muy alejada del gigante de gas. Pero, una vez cada 53 días, su trayectoria la acerca a Júpiter por encima del polo norte, donde empieza un tránsito de dos horas (de polo a polo), volando de norte a sur, mientras toma fotos y efectúa mediciones de muchas clases.

La comunicación con la lejana nave tiene sus limitaciones; la descarga de los seis megabytes de datos recogidos durante cada tránsito puede llevar un día y medio. Pero ciertamente vale la pena aguardar a que lleguen.Al Índice.

PSICOLOGÍA - Una investigación profundiza en los patrones cognitivos anormales de los terroristas

 

Un estudio desarrollado por un equipo internacional de investigadores de Argentina, Colombia, Chile, Estados Unidos y Australia que acaba de ser publicado en ‘Nature Human Behavior’ ha revelado que los terroristas extremos juzgan las acciones de los demás enfocándose en los resultados de una acción en lugar de en sus intenciones subyacentes, sugiriendo que su código moral prioriza los fines sobre los medios.

Este patrón anormal de la cognición moral puede ser uno de los factores clave detrás de los actos crueles cometidos por los grupos terroristas. Por ello, el trabajo destaca la importancia de evaluar el juicio moral para caracterizar a los grupos terroristas y comprender los procesos socio-cognitivos implicados en sus actos brutales.

La capacidad de razonar sobre las intenciones es crucial para juzgar si las acciones de otros son correctas o incorrectas, inofensivas o nocivas, aceptables o punibles. En el caso de los actos terroristas, ampliamente considerados por la sociedad como moralmente inadmisibles, sus actores justifican sus acciones por la lógica de que los fines justifican los medios. Sin embargo, la forma en que los terroristas perciben este compromiso y hacen juicios morales no se entiende completamente.

Como explica a DiCYT Agustín Ibáñez de la Universidad Favaloro de Argentina, quien ha liderado el estudio, “nuestro mundo actual se caracteriza por fuertes escaladas de prácticas terroristas que anulan la libertad y la integridad física de las víctimas, desestabilizan a los gobiernos, socavan la armonía civil y amenazan el desarrollo económico”, por lo que comprender los procesos mentales subyacentes -como la cognición moral, la cognición social o las funciones cognitivas de los terroristas-, “podría contribuir a comprender y, eventualmente manejar, ese comportamiento pernicioso”.

Atentado terrorista en Colombia. (Foto: David Maiolo)

Los investigadores realizaron pruebas cognitivas y psicológicas a 66 paramilitares colombianos encarcelados por cometer actos terroristas - todos fueron condenados por asesinato, con un promedio de 33 víctimas por sujeto aunque alguno llegó a ejecutar a 600 víctimas-, 66 sujetos control no delincuentes socio demográficamente equiparados y 13 asesinos encarcelados.

Encontraron que los terroristas exhiben niveles mayores de agresividad y niveles más bajos de reconocimiento emocional que los no criminales. Sin embargo, las diferencias más significativas se registraron en la cognición moral, que permitía distinguir más fuertemente a los terroristas de los otros grupos.

“Los resultados son especialmente relevantes por el hecho que las pruebas de moral permitieron clasificar de forma ciega a los sujetos con un alto desempeño, ya que más del 90% fue clasificado como terrorista o control de forma adecuada solo en base al juicio moral”, subraya el investigador principal.

En este marco, comprobaron que los terroristas extremos juzgan moralmente las acciones de los demás centrándose en los resultados de una acción en lugar de sus intenciones subyacentes. Que su código moral prioriza los fines sobre los medios había sido hipotetizado por muchas teorías sociológicas sobre el terrorismo, pero nunca antes había sido demostrado de esta manera.

Mientras que múltiples disciplinas intentan comprender las atrocidades del terrorismo, hasta ahora la contribución de las ciencias cognitivas había sido prácticamente nula. “Creo que la importancia y relevancia del artículo reside en que a menudo las separaciones interdisciplinares nos juegan en contra”, asegura Ibáñez.

Este estudio muestra que herramientas relativamente sencillas provenientes de las ciencias cognitivas, como son las tareas de juicio moral, “podrían tener un potencial enorme para avanzar en la de la cognición en la vida real, en este caso en la compresión de los perfiles cognitivos de individuos que provienen de entornos socioculturales con alto niveles de agresión y conductas de deshumanización, como el caso de los terroristas”, concluye.

En el estudio han participado, concretamente, la Universidad Favaloro, el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) y Universidad Nacional de Cuyo (Argentina), la Universidad de los Andes, la Universidad ICESI y Universidad Autónoma del Caribe (Colombia), Universidad Adolfo Ibáñez (Chile), el Boston College (Estados Unidos) y la Macquarie University (Australia). (Fuente: Cristina G. Pedraz/DICYT)Al Índice.

MEDICINA - Un insecto directo al corazón

 

Un equipo de investigación de la UNNOBA espera conocer un posible mecanismo responsable del envejecimiento cardíaco. En base a esto, estudian si es factible modificar la actividad de determinados genes para mejorar la función cardíaca. También investigan sobre los efectos benéficos y adversos del cannabis para uso medicinal.

La clave para tratar enfermedades cardiovasculares podría encontrarse en la mosca de la fruta o mosca del vinagre, denominada Drosophila melanogaster. En latín, significa “amante del rocío de vientre negro”, ya que se alimenta de frutas en proceso de fermentación.

Este insecto consiguió una especie de "cariño" de la comunidad científica como resultado de la cantidad de trabajos especializados e hitos científicos logrados. Como su genoma está totalmente secuenciado, es posible criarlo y manipularlo en el laboratorio con facilidad. A la vez, tiene gran homología con los genes humanos. Todo ello permite acelerar los procesos de estudio.

La doctora en Ciencias Biológicas Paola Ferrero, profesora asociada de la UNNOBA e investigadora del CONICET, no estuvo ajena a la seducción de esta mosca silenciosa y pequeña. Tal es así que desde hace cuatro años dirige el equipo de investigación formado por egresados y estudiantes de la UNNOBA y de la Facultad de Ciencias Médicas de la UNLP, y junto a Investigadores del Centro de Investigaciones Cardiovasculares “Dr. Horacio E. Cingolani” y colaboradores internacionales, llevan adelante los estudios sobre el corazón del insecto, con el fin de conocer nuevos métodos para evitar enfermedades cardíacas en humanos.

(Foto: Argentina Investiga)

“Se han reproducido y estudiado patologías cardíacas humanas en otros mamíferos. En cambio, genes que forman parte del corazón de las moscas y que son muy similares al de los humanos, son nuestro objeto de estudio. Lo que nosotros hacemos es caracterizar la función cardíaca de Drosophila y analizar los cambios en su expresión génica frente al envejecimiento y a la exposición a distintos estímulos ambientales como cafeína, tabaco y cannabinoides. Además, estudiamos la incidencia de la expresión desregulada de genes de la vía TOR que intervienen en el manejo del calcio intracelular", afirma la investigadora quien lleva adelante el primer grupo en el país que estudia la fisiología cardiovascular usando este modelo.

Pocos grupos científicos en el mundo se centran en esta línea de investigación. A diferencia de los otros equipos, la doctora Ferrero utilizó las herramientas genéticas y moleculares que provee este organismo para estudiar profundamente la fisiopatología cardíaca, área en la que tiene experiencia por haber trabajado previamente en mamíferos. En este sentido además, desarrolló una técnica innovadora y única con el modelo de “moscas fumadoras”.

Uno de sus proyectos consiste en el estudio de cambios en el calcio intracelular, un elemento muy importante que mantiene al corazón funcionando. Para ello se enfoca en el rol de la “Vía TOR” dentro del corazón, parte esencial de la experimentación. “La vía TOR participa en la síntesis de proteínas. Forma parte de mecanismos celulares relacionados con el desarrollo de la hipertrofia cardíaca, que es el aumento del tamaño de las células del miocardio o músculo cardíaco. La contracción de estas células se debe a un aumento de la concentración del calcio intracelular. En los atletas y en las personas con ciertas enfermedades cardíacas se produce hipertrofia, pero el modo en que sucede y el tipo de hipertrofia es diferente en cada uno. Nosotros no nos enfocamos en estudiar la hipertrofia en sí, sino en ver qué ocurre con el calcio en el interior de la célula, algo esencial para la contracción cardíaca. Hasta ahora lo único que se sabía sobre el rol de la vía TOR estaba asociado a hipertrofia. Nosotros estudiamos el rol de esta vía en otras condiciones”.

El equipo de investigación espera conocer un posible mecanismo responsable del envejecimiento cardíaco. En base a esto, estudian si es factible modificar la actividad de estos genes para mejorar la función cardíaca a medida que la edad va avanzando.

Por otra parte, mediante una metodología nueva, el grupo de la doctora Ferrero ha abordado a estudios sobre la cafeína, el tabaco y los cannabinoides para saber cómo estas sustancias afectan el corazón. “Tanto el café como el tabaco son sustancias de consumo masivo y legal, que generan una clara dependencia. Nuestro interés en el caso de los cannabinoides, presentes en la planta de marihuana, está centrado en el estudio de efectos beneficiosos y adversos como sustancia de uso medicinal. En enfermedades como la esclerosis múltiple, cáncer, HIV, epilepsia refractaria para las cuales los tratamientos convencionales son insuficientes o han fallado, podría ser adecuado el uso de extractos purificados de la planta. En este marco, nuestro proyecto de investigación apunta a estudiar el patrón de expresión génica, en la mosca de la fruta, sobre todo en relación a genes homólogos con el humano, asociado al consumo de cannabis”.

El grupo de investigación dirigido por Paola Ferrero cuenta con egresados y estudiantes de la UNNOBA: Lorenzo Morro, Belén Brugo, Manuela Santalla, Victoria Regge, Alexis Villegas, Rocío Fernandes, Antonella Icardi, Noelia Beltrame. De la Facultad de Ciencias Médicas de la UNLP: Nadia Paronzini Hernández. Investigadores del Centro de Investigaciones Cardiovasculares “Dr Horacio E Cingolani” y Facultad de Ciencias Médicas: Dra. Alicia Mattiazzi, Dr. Carlos Valverde y Dr. Marcelo Morante. Colaboradores internacionales: Dr. Greco Hernández, Dr. Javier Aguilar Fuentes, Dr. Heiko Harten y Dr. Achim Paululat. (Fuente: Argentina Investiga)Al Índice.

NEUROLOGÍA - La semejanza en una red de conexiones cerebrales predice el parecido psicológico

 

¿Las semejanzas que caracterizan a los individuos humanos en una extensa red de conexiones cerebrales se reflejan en su mayor parecido psicológico?

Para responder a esta pregunta un equipo internacional de científicos parceló el cerebro en 82 regiones y analizó sus más de 3 mil conexiones posibles. De este modo, se propusieron averiguar cuáles de estas conexiones permiten pronosticar una mayor semejanza entre los individuos según su rendimiento cognitivo.

Este rendimiento se valoró con instrumentos estandarizados que analizan formalmente los niveles de razonamiento abstracto, razonamiento verbal, razonamiento espacial, memoria operativa, control atencional y velocidad mental. Así, los análisis estadísticos permitieron identificar treinta y seis conexiones regionales clave.

De acuerdo con los resultados, publicados en Human Brain Mapping, las regiones que componen esa red cerebral contribuyen a la captura de la información relevante (Stage 1, input), su integración (Stage 2), valoración (Stage 3) y preparación de la respuesta (Stage 4, output).

Según el investigador, “la sofisticada aproximación metodológica que fue aplicada, llamada Multivariate Distance Matrix Regression Analysis, ayudó a superar una serie de limitaciones que impedían relacionar sustantivamente las variaciones estructurales del cerebro con las diferencias de rendimiento cognitivo. Se trata de una técnica que permite explorar simultáneamente las semejanzas biológicas y psicológicas”.

(Foto: UAM)

Como parte de la investigación, un grupo de jóvenes completó una batería de 18 pruebas psicológicas. También se obtuvieron registros de resonancia magnética. Las imágenes de los cerebros de los jóvenes se dividieron en 82 regiones para estudiar, seguidamente, sus niveles de conectividad estructural.

El número total de conexiones (3.321) entre estas regiones pudo reducirse a 36, según su relevancia estadística para explicar las semejanzas psicológicas. Por tanto, los resultados subrayan que una abrumadora mayoría de esas conexiones no son relevantes para dar cuenta de las semejanzas en los factores cognitivos considerados.

Aún así, los investigadores subrayan que esas treinta y seis regiones se encuentran distribuidas por todo el cerebro, conectando zonas distantes, tanto dentro de cada hemisferio cerebral como entre hemisferios. “No hay ninguna región que sea necesaria y suficiente para comprender las diferencias de rendimiento cognitivo. Por el contrario, la clave para avanzar en nuestro estado de conocimientos pasa por comprender la naturaleza de las conexiones entre regiones extensamente distribuidas”, señala Colom.

“En una reciente investigación del equipo de mi colega de la Universidad de Harvard, el Dr. Emiliano Santarnecchi, se observó que los individuos con mayor rendimiento cognitivo se caracterizaban por poseer redes cerebrales más distribuidas, mientras que esas redes eran más locales en los individuos con un menor nivel cognitivo –detalla el investigador–. Los primeros soportaban mejor que los segundos el efecto negativo de, por ejemplo, las lesiones cerebrales, hecho que nos invita a los científicos a pensar en la existencia de mejores y peores redes en el cerebro humano, y si es así, en modos de mejorar la resistencia de los cerebros más susceptibles al deterioro biológico y cognitivo”.

En el trabajo también participaron científicos del Beckman Institute (Universidad de Illinois, EE UU). (Fuente: UAM)Al Índice.

https://www.youtube.com/watch?v=xkQsQG2k3YI

MEDICINA - Un nuevo software permite mejorar la caracterización de arritmias cardiacas

 

Un equipo de investigadores de la Universitat Politècnica de Valencia y la Universidad de Castilla La Mancha, en España, ha desarrollado un nuevo software que mejora la caracterización de arritmias cardiacas. Su incorporación a los equipos clínicos de electrofisiología cardiaca actuales permitiría obtener una señal más nítida, definida y sin distorsiones de todo tipo de arritmias, fundamentalmente de fibrilación auricular, la más común en la actualidad.

De este modo, la implantación de este software mejorado podría ofrecer al cardiólogo información desconocida hasta el momento, lo que redundaría en una mejora de la práctica clínica y, en último término, del tratamiento de la arritmia. El estudio ha sido publicado en la revista Annals of Biomedical Engineering.

“Al permitir obtener señales más realistas y fidedignas posibilita que cualquier otro método para la evaluación del estado arrítmico del paciente que tome como base dichas señales, pueda afinar mucho más y, en consecuencia, obtener información completamente personalizada del estado de la arritmia y de las posibles estrategias terapéuticas que pueden adoptarse”, apunta José Joaquín Rieta, investigador participante en el desarrollo y coordinador del grupo Biosignals & Minimally Invasive Technologies de la Universitat Politècnica de València.

En su trabajo, los investigadores realizaron un estudio en el que demostraron cómo los sistemas actuales de electrofisiología cardiaca realizan un tratamiento de la señal que puede alterar sustancialmente la morfología de los registros obtenidos.

“El problema reside en que las técnicas de filtrado que utilizan pueden ser inadecuadas, por lo que si dichos registros son empleados posteriormente como base para la caracterización electrofisiológica del paciente, esto puede producir errores significativos en la estimación de parámetros esenciales sobre su estado arrítmico”, explica Rieta.

José Joaquín Rieta. (Foto: UPV)

El software desarrollado por los investigadores de la UPV y la UCLM evita esos errores. De hecho, permite reducir hasta en un 40% la distorsión introducida por los sistemas convencionales de adquisición electrofisiológica.

“El método que hemos desarrollado facilitará la realización de análisis más precisos de la arritmia, lo que redundará en una mejor caracterización de su dinámica compleja y, en último término, en un mejor tratamiento posterior. Se trata de un paso más hacia la evaluación y atención personalizada del estado de la arritmia de cada paciente”, concluye José Joaquín Rieta.

Actualmente, se estima que alrededor de 6 millones de europeos y 700.000 españoles padecen Fibrilación Auricular y se estima que su prevalencia se duplicará en los próximos 50 años por el envejecimiento de la población. El riesgo actual de padecer fibrilación auricular para una persona mayor de 40 años a lo largo de su vida es del 25%.

 

Además, el manejo de pacientes con fibrilación auricular supone más del 15% del gasto sanitario en enfermedades cardiovasculares. Por eso, la fibrilación auricular se está convirtiendo en un reto social, médico y de salud pública y se considera una enfermedad de atención prioritaria en los sistemas sanitarios del mundo desarrollado. (Fuente: UPV)Al Índice.

MEDICINA - Investigadores del CIMA y de la Clínica diseñan una molécula eficaz en el tratamiento de leucemias y linfomas

 

Científicos del Centro de Investigación Médica Aplicada (CIMA) y de la Clínica Universidad de Navarra (España) han identificado una molécula que mejora la supervivencia de modelos animales con leucemias agudas y linfomas. Los resultados, publicados en el último número de la revista científica Nature Communications, abren una vía terapéutica a enfermos con tumores hematológicos de peor pronóstico.

El tratamiento de los tumores hematológicos ha adquirido un enfoque novedoso gracias a la administración de fármacos epigenéticos. Se basan en modificaciones moleculares que alteran la actividad de los genes en el desarrollo del cáncer. “En este contexto, hemos diseñado una molécula, CM-272, que bloquea de forma simultánea la actividad de dos enzimas epigenéticas implicadas en el desarrollo de distintos tipos de tumores, la histona metiltrasferasa (G9a) y la DNA metiltrasferasa (DNMT1). Como consecuencia, induce la muerte célular de la leucemia mieloide aguda, leucemia linfoblástica aguda y linfoma no Hodgking. Los estudios realizados demuestran que el CM-272 es capaz de aumentar la supervivencia en modelos in vivo de estos tumores”, explican los doctores Julen Oyarzabal, director del Programa de Terapias Moleculares del CIMA, y Felipe Prósper, codirector del Servicio de Hematología de la Clínica Universidad de Navarra.

A la izquierda, los doctores Felipe Prósper y Julen Oyarzabal con investigadores del CIMA y de la Clínica Universidad de Navarra que participan en el estudio. (Foto: Manuel Castells)

Los resultados de este estudio, confirmados en animales, son un primer paso fundamental para el desarrollo de nuevos compuestos como posible tratamiento en pacientes con estos tumores, que actuarían por estrategia complementaria a los tratamientos actuales. Según los investigadores, “CM-272 se presenta como un fármaco selectivo y representa un nuevo enfoque terapéutico más seguro y eficaz para tumores hematológicos que actualmente tienen un mal pronóstico”.

A partir de ahora, la investigación se va a centrar en optimizar los compuestos de cara a su desarrollo clínico, y examinar la posibilidad de combinarlo con otros tratamientos asi como en identificar otros tumores susceptibles de ser tratados mediante esta terapia. (Fuente: U. Navarra)Al Índice.

ASTROFÍSICA - Formación de un agujero negro sin supernova previa

 

Unos astrónomos estaban observando una estrella masiva y moribunda, que se apagó de pronto, sin ningún aumento previo de brillo que denotase una explosión. La estrella, con 25 veces la masa de nuestro Sol, debería haber explotado en forma de una supernova muy brillante. En cambio, se extinguió sin más, aunque dejando un agujero negro en su lugar.

 

Acontecimientos como este, ocurrido en una galaxia cercana, podrían explicar por qué los astrónomos raramente ven aparecer supernovas de las estrellas más masivas. Así lo cree Christopher Kochanek, profesor de astronomía en la Universidad Estatal de Ohio, en EE.UU., y miembro de un equipo que ha investigado la intrigante desaparición de esta estrella. Si la sospecha es cierta, hasta el 30 por ciento de tales estrellas podrían derrumbarse sobre sí mismas, formando agujeros negros, sin necesidad de estallar en supernova.

La creencia común es que una estrella puede formar un agujero negro solo después de convertirse en supernova. Pero en los últimos tiempos han ido surgiendo dudas crecientes acerca de la infalibilidad de esta regla.

NGC 6946 es una galaxia espiral situada a 22 millones de años-luz de distancia, y los astrónomos a menudo la apodan “Galaxia de los Fuegos Artificiales” porque en ella aparecen con gran frecuencia supernovas.

Este par de fotos en luz visible y en luz de la banda infrarroja cercana (la más cerca a la luz visible en el espectro electromagnético), tomadas por el Telescopio Espacial Hubble de la NASA, muestran a la estrella gigante N6946-BH1 antes y después de desaparecer de la vista al implosionar para formar un agujero negro. (Fotos: NASA/ESA/C. Kochanek (OSU))

La estrella que ha formado un agujero negro sin estallar en supernova, llamada N6946-BH1, sí experimentó lo que parece ser un aumento de brillo relacionado con su destrucción, pero insuficiente para corresponder a una supernova. Después de esa etapa, que fue observada desde 2009, se apagó. Esto último ocurrió en 2015.

Los astrónomos dirigieron los telescopios espaciales Hubble y Spitzer a su ubicación para ver si aún existía y simplemente brillaba menos. También usaron el Spitzer para buscar cualquier radiación infrarroja que emanase del punto. Eso habría sido una señal de que la estrella estaba todavía presente aunque oculta tras una nube de polvo.

Todas las pruebas resultaron negativas. La estrella ya no existe.

A través de un cuidadoso proceso de eliminación de posibilidades, los investigadores han acabado llegando a la conclusión de que la estrella debe haberse convertido en un agujero negro.Al Índice.

ARQUEOLOGÍA - Civilización más avanzada de lo creído en el antiguo Perú

 

Durante décadas, los arqueólogos que exploran el pasado de Perú han discutido sobre los orígenes y el surgimiento de la primera sociedad compleja en el país. ¿Apareció en las sierras con grupos que dependían de la agricultura o ello sucedió a lo largo de la costa con grupos que dependían de la pesca? Análisis recientes sobre artefactos hallados en el yacimiento arqueológico de Huaca Prieta indican un desarrollo más rápido de la complejidad cultural en el litoral peruano del Pacífico de lo que se pensaba previamente. Los primeros humanos en la región estaban mucho más avanzados de lo que se suponía con anterioridad y tenían redes sociales muy complejas.

Los objetos encontrados en Huaca Prieta incluyen restos de comida, herramientas de piedra y otros artefactos con rasgos culturales, como cestos ornamentados y telas, que invitan a replantearse las creencias hasta ahora aceptadas sobre el ritmo del desarrollo cultural de los primeros humanos en la región, así como su nivel de conocimientos y la tecnología que usaban para explotar los recursos tanto de la tierra como del mar, tal como argumenta el arqueólogo James M. Adovasio, de la Universidad Atlántica de Florida en Estados Unidos.

Algunos de los cestos de uso práctico descubiertos podrían remontarse a hasta 11.000 años atrás, mientras que las cestos más elaborados, hechos a partir de algodón de cultivo agrícola, usando los tintes más antiguos conocidos en América, tienen aproximadamente 4.000 años.

James M. Adovasio. (Foto: Florida Atlantic University's Harbor Branch Oceanographic Institute)

Entre los objetos desenterrados también hay herramientas para capturar peces a gran profundidad. La amplia gama de anzuelos que utilizaron indica la diversidad de la pesca que se llevaba a cabo en esa época y casi con certeza el uso de embarcaciones que pudieran soportar las aguas agitadas del mar. Estos pueblos antiguos consiguieron desarrollar medios muy eficientes para extraer recursos del mar. También combinaron su explotación de recursos marinos con el cultivo agrícola de pimiento picante, calabaza, aguacate y otros, incluyendo algunas plantas medicinales, de una forma que producía un excedente económico.Al Índice.

ANTROPOLOGÍA - Nueva metodología de reconstrucción dental aplicable al registro fósil y a las ciencias forenses

 

El equipo de Antropología Dental del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH) (España) acaba de publicar en la revista American Journal of Physical Anthropology un artículo que propone una nueva metodología para reconstruir dientes desgastados que se puede aplicar tanto a poblaciones humanas modernas, como al registro fósil y las ciencias forenses, y mejora la precisión de las medidas respecto metodologías anteriores.

En este artículo, liderado por Mario Modesto-Mata, se propone un nuevo procedimiento basado en ecuaciones de regresión polinomial para reconstruir el esmalte desgastado de los molares inferiores, a partir de planos obtenidos empleando la técnica de microtomografía computarizada ubicada en el CENIEH. Además, se explica en detalle el protocolo de reconstrucción, permitiendo exportarlo a otros dientes o elementos anatómicos.

Esta metodología se ha validado a partir de dos variables dentales diferentes fundamentales en la determinación del tiempo de formación del esmalte y de sus tasas de extensión: el grosor del esmalte de una cúspide específica de los molares inferiores (conocida como protocónido) y la altura de la corona de esta misma cúspide, o esmalte cuspal. Para realizar el proceso de validación se han usado simulaciones de dientes desgastados.

La reconstrucción de estas variables también se ha realizado siguiendo metodologías descritas previamente en la literatura científica, que no fueron sometidas a un proceso de validación, con el fin de comparar los resultados entre todos los métodos disponibles.

Mario Modesto-Mata. (Foto: CENIEH)

Los resultados más destacables indican que el porcentaje medio de error de nuestra metodología es de un -2,17% para el grosor del esmalte cuspal y de un -3,18% para la altura de la corona, valores que mejoran significativamente los resultados de los demás procedimientos.

“Por lo tanto, esta metodología no solo debe aplicarse a la reconstrucción del esmalte cuspal de los molares inferiores, ya que mejora la precisión de las medidas respecto al resto de metodologías, sino que es fácilmente exportable a otros dientes y lo que es más importante, permite conocer los errores e intervalos estadísticos asociados”, afirma Mario Modesto-Mata. (Fuente: CENIEH/DICYT)Al Índice.

BIOLOGÍA - La técnica CRISPR es capaz de crear cientos de mutaciones fortuitas

 

La técnica CRISPR-Cas9 ha revolucionado la edición genética. Estas tijeras moleculares, uno de los descubrimientos del año según Science en 2015 y premio Princesa de Asturias el mismo año, permiten modificar, introducir o corregir mutaciones controladas en el ADN con aplicaciones que van desde la lucha contra enfermedades hasta mejorar cultivos transgénicos.

Los primeros ensayos clínicos en humanos ya se están llevando a cabo en China y está previsto que comiencen en Estados Unidos el año que viene. Sin embargo, a medida que se trabaja con esta herramienta, los científicos deben considerar los riesgos ante posibles mutaciones causada por esta tecnología, a pesar de su precisión sin precedentes.

El uso de CRISPR puede provocar mutaciones no controladas. (Foto: Universidad de Berkeley)

Un estudio, publicado esta semana en la revista Nature Methods, revela que CRISPR podría provocar la aparición de cientos de mutaciones involuntarias en el genoma.

"Incluyendo mutaciones simples nucleotídicas y mutaciones en regiones no codificantes”, destaca uno de los autores del trabajo, Steven Tsang, del Instituto de Medicina Genómica de la Universidad de Columbia (EE UU).

La técnica CRISPR se centra en cadenas específicas de ADN, pero algunas veces puede llegar a otras partes del genoma. En la mayoría de trabajos con esta herramienta, los científicos usan algoritmos informáticos que predicen o identifican las áreas que tienen más posibilidades de ser afectadas por mutaciones. Pero, según los autores, esto no sería suficiente.

“Los algoritmos predictivos hacen un buen trabajo cuando CRISPR se usa en células o en tejidos en el laboratorio, pero no se utiliza la secuenciación completa del genoma para buscar mutaciones inesperadas en animales vivos”, apunta el coautor del trabajo Alexander Bassuk, de la Universidad de Iowa.

El equipo secuenció el genoma completo de ratones sometidos con anterioridad a edición genética y buscó todas las mutaciones posibles, incluidas aquellas que solo alteraban a un único nucleótido. Los resultados mostraron que la herramienta había corregido con éxito un gen que causaba ceguera a los roedores, pero también que los genomas de dos sujetos distintos habían sido afectados por unas 1.500 mutaciones nucleótidas simples y más de 100 bloqueos e inserciones de genes, que los algoritmos no habían predicho.

“Los científicos que no secuencian todo el genoma para encontrar estos efectos inesperados pueden estar pasando por alto mutaciones potencialmente importantes”, advierte Tsang. “Incluso un único cambio nucleótido puede causar un gran impacto”, añade.

Aun así, los expertos continúan siendo muy optimistas sobre el CRISPR. “Somos médicos y sabemos que cualquier terapia nueva tiene efectos colaterales potenciales, pero necesitamos estar alerta de cuáles son”, explica Vinit Mahajan, de la Universidad de Stanford y coautor del trabajo.

Ahora el objetivo del equipo es mejorar los componentes del sistema con el que funciona este ‘corta-pega’ genético –la enzima que le permite cortar los genes y el ARN que guía a la enzima hacia el gen correcto– para mejorar así la eficiencia de la edición.

“Esperamos que estos resultados animen a otros a secuenciar completamente el genoma como método para determinar todos los efectos que pueden causar las técnicas CRISPR y estudiar distintas versiones para conseguir que la edición sea más precisa y segura”, concluye Tsang. (Fuente: SINC)Al Índice.

INGENIERÍA - Grafeno y puntos cuánticos para crear una cámara que capta lo invisible

 

En los últimos 40 años, la microelectrónica ha avanzado increíblemente gracias a las tecnologías del silicio y del denominado CMOS (semiconductor de óxido de metal complementario), dando lugar al desarrollo de la informática, los teléfonos inteligentes, las cámaras digitales compactas y de bajo coste, así como la mayoría de los aparatos electrónicos de los que dependemos hoy en día.

Sin embargo, la diversificación de esta plataforma en aplicaciones que pueden ir más allá del mundo de los microcircuitos y las cámaras de luz visible se ha visto imposibilitada principalmente por la dificultad de combinar semiconductores diferentes al silicio con la tecnología CMOS.

Pero ahora este obstáculo ha logrado ser superado. Investigadores del ICFO (España) han demostrado por primera vez que se puede integrar de forma monolítica un circuito CMOS con el grafeno. El resultado es un sensor de imagen de alta resolución compuesto por cientos de miles de fotodetectores basados en grafeno y puntos cuánticos (quantum dots).

La cámara digital creada con el sensor se ha desarrollado de tal manera que es simultáneamente muy sensible a la luz ultravioleta, visible e infrarroja, un logro nunca conseguido hasta ahora con los sensores de imagen existentes. Esta demostración de integración monolítica de grafeno con tecnología CMOS permite su utilización para una amplia gama de aplicaciones optoelectrónicas, tales como comunicaciones de datos ópticos de baja potencia así como sistemas de detección compactos y ultra sensibles.

El estudio ha sido publicado en la revista científica Nature Photonics, y ha sido seleccionado como imagen de portada. El trabajo fue llevado a cabo por investigadores del ICFO dirigidos por los profesores ICREA Frank Koppens y Gerasimos Konstantatos, en colaboración con la empresa Graphenea.

Sensor de grafeno y puntos cuánticos con tecnología CMOS para visión en el ultravioleta, visible e infrarojo. (Foto: ICFO/D. Bartolome)

Los científicos fabricaron el sensor de imagen colocando puntos cuánticos coloidales de sulfuro de plomo (PbS) sobre grafeno de tipo CVD y, posteriormente, depositando este sistema híbrido encima de una oblea CMOS con las unidades o píxeles del sensor de imagen y el circuito de lectura integrado.

Uno de los autores, Stijn Goossens, explica: "Producir este sensor de imagen, basado en grafeno-puntos cuánticos y tecnología CMOS, no supuso llevar a cabo ningún procesado complejo de materiales ni implementar procesos de crecimiento laboriosos. Resultó fácil y barato fabricarlo a temperatura ambiente y bajo condiciones ambientales, lo que significa una disminución considerable de los costes de producción. Aún más, debido a sus propiedades, se puede integrar fácilmente en sustratos flexibles, así como en circuitos integrados de tipo CMOS".

A su vez, el profesor Konstantatos, experto en grafeno y puntos cuánticos, señala "hemos diseñado los puntos cuánticos para extender al espectro infrarrojo cercano (1100-1900nm), a tal punto que pudimos detectar el resplandor nocturno de la atmósfera en un cielo oscuro y claro, lo cual permite visión nocturna pasiva.

Este trabajo demuestra que esta clase de fototransistores puede ser el camino a seguir para sensores infrarrojos de bajo coste, pero de alta sensibilidad, que pueden operar a temperatura ambiente, y por tanto puede ser de enrome interés para un mercado de tecnologías en el infrarrojo que actualmente está sediento de tecnologías baratas".

"El desarrollo de este sensor de imagen monolítico basado en tecnología CMOS representa un hito para los sistemas de imágenes de banda ancha y hiperespectrales de bajo coste y alta resolución" destaca el profesor Koppens. Asegura que, en general, "la tecnología grafeno+CMOS permitirá el desarrollo de una gran cantidad de aplicaciones, desde la seguridad y vigilancia, las cámaras de bolsillo y los smartphone de bajo coste, los sistemas de control de incendios, la visión nocturna pasiva así como las cámaras de vigilancia nocturna, los sistemas de sensores para automoción, los sistemas de imagen para medicina, la inspección de alimentos y productos farmacéuticos o incluso la vigilancia ambiental, por nombrar algunos".

Este proyecto está actualmente en periodo de incubación en el Launchpad del ICFO. El equipo está trabajando con el equipo de transferencia de tecnología del instituto para llevar este descubrimiento, junto con su cartera completa de patentes de imágenes y tecnologías de detección, al mercado.

Esta investigación ha sido apoyada parcialmente por la iniciativa europea Graphene Flagship, el Consejo Europeo de Investigación, la Generalidad de Cataluña, la Fundación Cellex y el programa de Excelencia Severo Ochoa del Gobierno de España. (Fuente: ICFO)Al Índice.

MEDICINA - Crean una herramienta para buscar variantes genéticas causantes de enfermedades

 

Integrantes de la Brazilian Initiative on Precision Medicine (BIPMed) están trabajando en colaboración con la empresa multinacional Seven Bridges –especializada en análisis de datos biomédicos– en la construcción de una nueva herramienta que podrá facilitar la detección de variantes genéticas causantes de enfermedades.

Esta novedad se dio a conocer durante un workshop realizado en la Universidad de Campinas (Unicamp), con sede en el interior del estado de São Paulo, el pasado 25 de marzo. El evento formó parte de la programación del 4th BRAINN Congress, organizado por el Instituto Brasileño de Neurociencia y Neurotecnología (BRAINN), uno de los Centros de Investigación, Innovación y Difusión (CEPIDs) que la FAPESP apoya.

Conocida como The Graph Genome Suite, la metodología en desarrollo permite crear genomas de referencia en forma de grafos (diagramas), teniendo en cuenta datos genéticos de una población entera.

“Actualmente, cuando analizamos fragmentos de ADN, el secuenciador nos da un rompecabezas con millones de piezas que deben ponerse en el orden correcto. Para ello usamos un genoma de referencia. El problema reside en que ese mapa en el cual nos basamos se elaboró con datos de unos pocos individuos y, por ende, no refleja la complejidad genética de la población brasileña”, explicó Benilton Carvalho, investigador del Instituto de Matemática, Estadística y Computación Científica (IMECC) de la Unicamp y miembro del comité gestor de BIPMed.

Tal como explicó Iscia Lopes-Lopes-Cendes, docente de la Facultad de Ciencias Médicas (FCM) de la Unicamp e integrante del BRAINN y de BIPMed, el genoma humano es altamente variable. “Es posible encontrar tramos enormes duplicados o ausentes cuando comparamos entre diferentes individuos. Y esto no constituye necesariamente un problema, sino que es una variación normal”, afirmó.

Sin embargo, cuando en el laboratorio el investigador se depara con un fragmento del genoma inexistente en el mapa de referencia, la tendencia indica que ese tramo de información no es tenido en cuenta. “Si la variante genética causante de una enfermedad que estamos buscando estuviera en ese tramo descartado, pasaría desapercibida”, dijo Lopes-Cendes.

Crean una herramienta para buscar variantes genéticas causantes de enfermedades. (Foto: Wikimedia Commons)

Tal como explicó Carvalho, la propuesta de la nueva herramienta consiste en no montar más el rompecabezas en forma lineal, sino en forma de diagrama. De este modo, a los tramos discordantes, en lugar de desconsiderárselos, se los añade al camino principal como puentes alternativos. Así se crean versiones ligeramente distintas de un mismo genoma de referencia.

“Estamos trabajando con Seven Bridges en dos frentes: en el desarrollo de la metodología en sí misma y también aportando información sobre lo que observamos y que es distinto en la población brasileña en comparación con el genoma de referencia. Esta participación resulta fundamental para que la herramienta, cuando esté lista, también funcione en las investigaciones que se realizan en Brasil”, afirmó Lopes-Cendes, una de las mentoras de BIPMed.

Otra novedad que creó el equipo de bioinformática de BIPMed y que se dio a conocer durante el workshop realizado en Campinas es una herramienta de búsqueda destinada a su uso en bancos de datos genómicos.

“En la actualidad, cuando un usuario ingresa al banco de datos de BIPMed, logra consultar una o dos variantes, con suerte diez. Pero, para consultar veinte mil, por ejemplo, tardaría tanto tiempo que se le haría inviable. La nueva herramienta ayuda en este tipo de búsqueda programática. Es una especie de Google de uso en bancos de datos genómicos”, explicó Carvalho.

El software es de dominio público y ya se encuentra disponible en el sitio web de Bioconductor, una comunidad creada para compartir programas de bioinformática de tipo open source (de código abierto).

“Es importante hacer hincapié en que esta herramienta no sirve únicamente para los datos de BIPMed. También es capaz de conectarse a cualquier base de datos federada que emplee los estándares establecidos por el consorcio Global Alliance for Genomics and Health (GA4GH): basta con informar la dirección del servidor”, comentó Carvalho.

El banco de datos genómicos de BIPMed es la primera iniciativa de esta índole en Latinoamérica, y reúne actualmente información relativa a 254 individuos de la zona de Campinas, en el interior de São Paulo. Los voluntarios –que representan a una población de referencia (no son pacientes)– pasaron por la secuenciación completa del exoma (la parte del genoma donde se ubican los genes codificadores de proteínas y, por ende, donde existen mayores posibilidades de que ocurran mutaciones causantes de enfermedades) o su material genético se analizó mediante el empleo de una tecnología denominada chips de ADN o microarrays.

Según Lopes-Cendes, recientemente empezó a incluirse en la base de datos también información referente a pacientes con epilepsia, atendidos en el servicio de salud de la Unicamp. “Entraron 17 mutaciones distintas en el gen SCN1A, uno de los más asociados con esta enfermedad. Se espera que esta cifra crezca rápidamente”, dijo Lopes-Cendes.

En breve se incluirán datos de pacientes con fisuras labiopalatinas sindrómicas y no sindrómicas y de mutaciones relacionadas con el cáncer de mama.

Con el objetivo de establecer las condiciones necesarias como para implementar la medicina de precisión en Brasil, científicos del BRAINN y de otros cuatros CEPIDs de la FAPESP –el Centro de Investigación en Ingeniería y Ciencias Computacionales (CCES), el Centro de Investigación en Terapia Celular (CTC), el Centro de Investigación en Obesidad y Comorbilidades (OCRC) y el Centro de Investigación en Enfermedades Inflamatorias (CRID)– crearon BIPMed en 2015.

Esta iniciativa ha adquirido protagonismo internacional y representa a Brasil en consorcios importantes del área, tales como el GA4GH y el The Human Variome Project, vinculado a la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco).

“Al final de 2016, participamos en un encuentro de iniciativas nacionales de medicina genómica organizado por el GA4GH en Vancouver, en Canadá. La idea consistía en que cada grupo presentase el trabajo que viene llevando adelante individualmente, para que la experiencia de cada uno pueda servirles de ayuda a los demás”, comentó Lopes-Cendes.

También estaban presentes representantes de Australian Genomics Health Alliance (Australia), France Genomic Medicine Plan 2025 (Francia), Genomics England (Inglaterra), Genome Canada (Canadá), H3Africa (continente africano), Japan Agency for Medical Research and Development (Japón), US Precision Medicine Initiative (Estados Unidos) y The US Cancer Moonshot (Estados Unidos).

“Todos los grupos presentes estaban ligados a los sistemas de salud de sus países de origen. En muchos casos, se trataba de sistemas públicos de salud. BIPMed era la única iniciativa financiada por una agencia de fomento de la investigación científica. Y esto con el tiempo ha de cambiar, pues llegará un momento en que dejaremos de producir artículos científicos y empezaremos a producir servicios de asistencia de la salud. Llegado ese momento, tendremos que contar con otras fuentes de financiación”, afirmó Lopes-Cendes.

A juicio de la investigadora, los gestores del Sistema Único de Salud (SUS), el sistema público de salud brasileño, aún se resisten a reconocer que la medicina genómica puede aplicarse en la red pública, o que es algo que posee utilidad práctica; es una visión a la que considera desfasada.

“Existe la idea de que los datos genómicos sólo son útiles para diagnosticar y tratar enfermedades raras. Sin embargo, en centros particulares de punta, la medicina genómica ha sido utilizada en la estadificación y en la definición del tratamiento de enfermedades comunes como el cáncer. Esto evita que el paciente reciba un tratamiento más agresivo que lo necesario y ahorra recursos”, argumentó.

Para Peter Goodhand, director ejecutivo del GA4GH, BIPMed dio un primer gran paso para traer a Brasil y a toda América Latina “el poder y la promesa de la medicina genómica”. “Es importante que siga creciendo en términos de participación y alcance, y esto requerirá contar con un fuerte liderazgo, y con financiación mediante múltiples alianzas, tanto a nivel regional como también a nivel nacional”, sostuvo. (Fuente: AGENCIA FAPESP/DICYT)

Al Índice.

ROBÓTICA - Optoforce dota a los robots con el sentido del tacto

 

La empresa de robótica OptoForce presenta hoy cuatro nuevos módulos de aplicación para sus sensores de fuerza/par multi-axiales que permiten a las empresas de la industria, embalaje, productos electrónicos o sanidad entre otros sectores equipar sus robots colaborativos con el sentido del tacto para automatizar más tareas y ahorrar tiempo. La empresa también aprovecha el lanzamiento de estos módulos para reforzar sus operaciones en el sur de Europa, donde la demanda de soluciones de robótica colaborativa está creciendo.

Fáciles de instalar, ligeros y robustos, los sensores OptoForce de 6 ejes consiguen dotar con el sentido del tacto a los robots para que puedan realizar trabajos de alta precisión que tradicionalmente han requerido la destreza humana, tales como el pulido, la inserción de productos en cajas y otras tareas de montaje más finas. Actualmente compatible con los robots de Universal Robots y KUKA - y pronto con los de ABB y Yaskawa también, los sensores OptoForce automatizan estas tareas, aumentando la eficiencia, acelerando el desarrollo del proyecto y disminuyendo los costes generales de producción.

Los cuatro nuevos módulos de aplicación que funcionan con el sensor de fuerza de par OptoForce son:

Aplicación OptoForce para la Inserción en Cajas

Con esta solución, los procesos de inserción precisos pueden ser automatizados con pequeñas fuerzas contrarias, incluso con fuerzas inferiores a 10 Newtons. Por ejemplo, se puede utilizar para insertar una batería en un teléfono o para insertar tarros u otros objetos delicados en un lugar designado.

Aplicación OptoForce de Apilado/Desapilado

Esta solución automatiza rápida y fácilmente las tareas de apilamiento que requieren el sentido del tacto humano. Funciona con materiales blandos, incluso con fuerzas inferiores a 10 Newtons. Una vez que la tarea está programada y en ejecución, el robot encontrará el siguiente elemento en el stock, incluso si algunos objetos se quitan. Esto proporciona un proceso de trabajo seguro y colaborativo durante la fabricación.

Aplicación OptoForce de Paletizado

Con una configuración fácil y rápida, la solución de paletización de OptoForce ofrece una forma rápida de paletizar piezas sin importar su dureza. Combinando el comando de paletizado de Universal Robots con la función OptoForce Search se pueden realizar correcciones durante la paletización.

Aplicación OptoForce para la Inserción de Clavijas

Esta solución ayuda a insertar cualquier pasador o clavija en un agujero apretado. Esta es una solución rápida y robusta para un ajuste de precisión incluso hasta tolerancias H7.

(Fuente: Optoforce)

"Con los robots trabajando cada vez más estrechamente con operarios humanos, necesitan ‘sentir’ con precisión su entorno y realizar muchas tareas que requieren la destreza y la sensibilidad de la mano humana", dice Ákos Dömötör, CEO de OptoForce. "Equipados con los sensores de alta precisión OptoForce, estos robots colaborativos ahora pueden sentir si están colocando un objeto en el lugar correcto o si necesitan ajustarlo, y pueden corregir automáticamente el rumbo. Esto acelera el proceso de producción y, en última instancia, ayuda a reducir costes, un escenario ideal para muchos fabricantes europeos que tradicionalmente han tenido su producción localizada ‘offshore’ debido a los altos costes de la mano de obra y de la automatización tradicional”.

El auge de la demanda en el sur de Europa

Entre las regiones donde la empresa ofrece sus soluciones, el sur de Europa (Francia, Italia, España y Portugal) es una zona muy prometedora donde OptoForce prevé que sus ventas aumentarán rápidamente. La compañía está en pleno proceso de fortalecer su red de distribución en la región y está buscando crear acuerdos con nuevos socios en el próximo mes para apoyar sus ventas.

La historia detrás de los sensores OptoForce

Los fundadores de OptoForce, entonces estudiantes universitarios, trabajaron juntos en un robot ambulante, donde enfrentaron problemas constantes con el peso, la rigidez y el coste de los sensores de fuerza multi-eje disponibles en el mercado en ese momento. Para abordar estos desafíos, acabaron desarrollando su propio prototipo de los actuales sensores que ahora ofrecen y que utilizan la luz infrarroja para detectar deformaciones en la estructura del sensor de silicona. Este enfoque radicalmente nuevo y único forma la base de la solución OptoForce actual y garantiza mediciones precisas incluso hasta un 200 por ciento de sobrecarga. (Fuente: Optoforce)Al Índice.

INGENIERÍA - Nueva tecnología que permitirá un aumento espectacular de calidad de imagen en pantallas de smartphones

 

Unos investigadores han desarrollado una superficie capaz de cambiar de color, ajustable a través de voltaje eléctrico, un avance que podría llevar a triplicar la resolución de las pantallas de smartphones, televisores y otros dispositivos.

Las pantallas de video están hechas de cientos de miles de píxeles que muestran diferentes colores para formar las imágenes. Con la tecnología actual, cada uno de estos píxeles contiene tres subpíxeles: uno rojo, uno verde y uno azul.

Pero un avance científico en un laboratorio del Centro de Tecnología para las Nanociencias, adscrito a la Universidad de Florida Central en Estados Unidos, podría acabar dejando obsoleto ese modelo. El equipo de Debashis Chanda y Daniel Franklin ha ideado una forma de ajustar el color de estos subpíxeles. Aplicando diferentes voltajes, estos científicos consiguen cambiar el color de los subpíxeles individuales para que sean rojos, verdes o azules (la escala RGB), o gradaciones entre ellos.

Aparte del valor inherente de un diseño mejorado para las pantallas basadas en píxeles, que se encuentran en todo el mundo, su hallazgo posee otras ventajas.

Debashis Chanda (izquierda) y Daniel Franklin. (Foto: University of Central Florida)

Eliminando los tres subpíxeles estáticos que en la actualidad forman cada píxel, el tamaño de los píxeles individuales puede ser dividido por tres. Y ello permite tres veces más píxeles, lo cual significa triplicar la resolución. Eso tendría repercusiones importantes no solo para los televisores y otros dispositivos de uso general con pantalla, sino también para las gafas de realidad virtual o de realidad aumentada, que necesitan una resolución muy alta debido a que se colocan muy cerca de los ojos.

El equipo de Chanda y Franklin trabaja ahora en ampliar sus pantallas más allá del pequeño tamaño de los prototipos de laboratorio, en preparación para su incorporación al mercado.Al Índice.

MICROBIOLOGÍA - Usan bacterias como factorías para producir fármacos contra el cáncer

 

P450 es el nombre de un tipo de enzimas especializadas llamadas citocromos. Las plantas las usan para sintetizar compuestos químicos con diversas funciones, pero su misión principal es la defensa contra herbívoros, insectos y microbios.

“Estos potentes compuestos pueden ser utilizados como principios activos en fármacos contra enfermedades como el cáncer y la psoriasis”, explica a Sinc el español Darío Vázquez-Albacete, autor principal de un estudio que describe un nuevo método para producir estas enzimas en factorías de células bacterianas.

Los resultados del trabajo, desarrollado en la Novo Nordisk Foundation Center for Biosustainability –una fundación dependiente de la Universidad Técnica de Dimamarca– se han publicado en la revista Biotechnology and Bioengineering.

En opinión de Vázquez-Albacete, “la nueva técnica supone un gran avance, debido a que las enzimas  P450 se producen en muy bajas cantidades en las plantas, su extracción resulta muy compleja y a veces hay que utilizar síntesis químicas contaminantes, que implican la utilización de derivados del petróleo. Además, algunas especies vegetales, como el tejo (Taxus baccata) –de donde se obtiene el fármaco anticancerígeno taxol– están en peligro de extinción".

“Hemos desarrollado herramientas que permiten utilizar la maquinaría molecular de las plantas, que generan estos compuestos, en bacterias que son capaces de crecer de forma rápida y controlada en fermentadores, lo que nos permite producirlos en altas cantidades”, dice el investigador.

Factoría de bacterias E. coli, produciendo P450, unidas a la proteina fluorescente verde. (Foto: DTU)

Para ello, los autores transfirieron los genes P450 de las plantas a bacterias E. coli y los modificaron para probar si los microorganismos podrían producir estas enzimas en mayor cantidad que con los métodos actuales.

Según señala el experto, “para que las bacterias puedan expresar las enzimas apropiadamente, la secuencia de ADN correspondiente debe modificarse frecuentemente con el fin facilitar su ‘descodificación’ por el sistema bacteriano”.

En el estudio el equipo desarrolló una caja de herramientas de secuencias de ADN ‘auxiliares’, y así pudo expresar en E. coli alrededor de 50 enzimas P450 de plantas diferentes.

Algunas de estas enzimas están implicadas en la síntesis del compuesto natural llamado ingenol, con el que se trata la psoriasis y que actualmente se fabrica mediante técnicas químicas tradicionales. Otras de las P450 se utilizan para producir el anticancerígeno taxol.

El investigador recalca que las plantas generan una variedad de compuestos interesantes que les protegen del sol, los depredadores, la deshidratación, etc. “Muchos de ellos son sintetizados por los P450, cuya función es hasta ahora muy desconocida, así que el potencial de descubrir nuevas propiedades es enorme".

Aparte del equipo de la Novo Nordisk Foundation ya hay varios grupos en el mundo –pocos todavía– siguiendo esta línea de investigación. Algunas firmas farmacéuticas ya han mostrado su interés por la nueva técnica. (Fuente: SINC/Ana Hernando)Al Índice.

PALEONTOLOGÍA - El genoma de las momias egipcias al descubierto

 

Un equipo internacional de científicos, dirigido por investigadores de la Universidad de Tübingen y el Instituto Max Planck, ambos en Alemania, ha recuperado y analizado ADN antiguo de momias egipcias a partir de tres individuos que datan de entre el año 1400 a.C y el 400 aproximadamente.

El trabajo, publicado hoy en la revista Nature Communications, revela que los antiguos egipcios estaban más estrechamente relacionados con las poblaciones de Oriente Próximo, mientras que los egipcios modernos comparten más ancestros con los africanos subsaharianos.

Los recientes avances en el estudio del ADN antiguo presentan una buena oportunidad de probar los conocimientos existentes sobre la historia egipcia usando datos genéticos antiguos. Sin embargo, los análisis genéticos de estas momias son raros debido a problemas metodológicos y de contaminación.

"La preservación potencial del ADN tiene que ser considerada con escepticismo", afirma Johannes Krause, director del Instituto Max Planck para la Ciencia de la Historia Humana y coautor del estudio. "El caluroso clima egipcio, los altos niveles de humedad en muchas tumbas y algunos de los químicos utilizados en las técnicas de momificación, contribuyen a la degradación del ADN y se cree que hacen que su supervivencia a largo plazo sea poco probable", añade.

Aunque algunas de las primeras extracciones de ADN antiguo fueron de restos momificados, los científicos han planteado dudas sobre si los datos genéticos –especialmente los del genoma nuclear de las momias– serían fiables, incluso que pudieran ser recuperados.

La capacidad de los autores para extraer el ADN nuclear de estas momias y para demostrar su fiabilidad, usando métodos robustos de la autentificación, abre la puerta al estudio directo adicional de restos momificados.

Sarcófago de Tadja, Abusir el-Meleq. (Foto: bpk/Aegyptisches Museum und Papyrussammlung, SMB/Sandra Steiss)

Egipto es un lugar prometedor para el estudio de poblaciones antiguas. Tiene una historia rica y bien documentada, y su ubicación geográfica y así como muchas de sus interacciones con poblaciones de áreas circundantes, en África, Asia y Europa, la convierten en una región dinámica.

El equipo tomó muestras de 151 momias del yacimiento arqueológico de Abusir el-Meleq, situado a lo largo del río Nilo. Estos restos pertenecen a dos colecciones antropológicas de la Universidad de Tuebingen y a la Colección de Cráneos Felix von Luschan del Museo de Prehistoria de la Staatliche Museen zu de Berlin.

En total, los autores recuperaron los genomas mitocondriales de 90 individuos y los conjuntos de datos del genoma de tres individuos. Los científicos fueron capaces de utilizar los datos reunidos para probar hipótesis anteriores extraídas de datos arqueológicos e históricos, y de estudios de ADN moderno.

"En particular, estábamos interesados ​​en ver cambios y continuidades en la composición genética de los antiguos habitantes de Abusir el-Meleq", explica Alexander Peltzer, uno de los autores principales del estudio de la Universidad de Tuebingen.

El equipo quería determinar si las poblaciones antiguas investigadas tuvieron influencia genética por la conquista o dominación durante el período estudiado, y comparar estas poblaciones con otras modernas. "Queríamos probar si la conquista de Alejandro Magno y otras potencias extranjeras dejaron una huella genética en la población egipcia antigua", explica Verena Schuenemann, líder del grupo en la Universidad de Tuebingen.

El estudio halló que los antiguos egipcios estaban más estrechamente relacionados con las antiguas poblaciones del Levante mediterráneo, y con las poblaciones neolíticas de la península de Anatolia y Europa.

"La genética de la comunidad de Abusir el-Meleq no sufrió ningún cambio importante durante los 1.300 años que estudiamos, lo que sugiere que la población permaneció relativamente poco afectada genéticamente por la conquista y el dominio de extranjeros", dice Wolfgang Haak, del Instituto Max Planck y coautor del trabajo.

Los datos muestran que los egipcios modernos comparten aproximadamente un 8% más de ancestros en el nivel nuclear con las poblaciones africanas subsaharianas que los antiguos egipcios. "Esto sugiere que el aumento en el flujo del gen subsahariano de las poblaciones de Egipto sucedió en los últimos 1.500 años", explica Stephan Schiffels, otro de los autores de la investigación en el Instituto Max Planck.

Este estudio contrarresta el escepticismo previo sobre la posibilidad de recuperar ADN antiguo fiable de momias egipcias. A pesar de los posibles problemas de degradación y contaminación causados ​​por el clima y los métodos de momificación, los autores fueron capaces de modernas técnicas de secuenciación y sólidos métodos de autenticidad para garantizar el origen y la fiabilidad de los datos.

Por tanto, aunque este no es el primer análisis del ADN de momias egipcias antiguas, los autores exponen que sus resultados son el primer conjunto de datos fidedignos para asegurar el origen antiguo de las conclusiones obtenidas. Estos descubrimientos allanan el camino hacia una comprensión directa de la compleja historia de la población de Egipto.

(Fuente: SINC)Al Índice.

MEDICINA - Modifican un virus para que estimule el sistema inmunológicopara atacar células cancerosas

 

Unos investigadores suizos han conseguido modificar virus para que inciten al sistema inmunológico a combatir, de manera específica y sin reservas, células cancerosas. Estos virus alertan al sistema inmunológico y hacen que este envíe células asesinas para ayudar a luchar contra el tumor. Los resultados de esta nueva línea de investigación proporcionan un sólido punto de partida para preparar tratamientos innovadores contra el cáncer.

La mayoría de las células cancerosas solo provocan una reacción limitada del sistema inmunológico, el mecanismo de defensa del cuerpo, y por tanto pueden crecer sin resistencia apreciable. En cambio, las infecciones víricas ocasionan que el cuerpo libere señales de alarma total, estimulando al sistema inmunológico a usar todos los medios disponibles para luchar contra el invasor.

Aunque las inmunoterapias ya se han usado para combatir al cáncer, su éxito es modesto. Aunque “desinhiben” el sistema de defensa del cuerpo y por tanto también fortalecen su lucha contra las células cancerosas, no ha sido posible estimular el sistema inmunológico del modo idóneo para que ataque, de manera específica y con la máxima violencia, las células cancerosas.

La situación puede que comience a cambiar a partir de ahora, gracias a los autores de la nueva investigación, científicos de la Universidad de Ginebra (UNIGE) y la de Basilea, ambas en Suiza.

Un virus LCMV modificado. (Foto: © UNIGE / Doron Merkler)

El equipo de Doron Merkler y Daniel Pinschewer, respectivamente de la primera y la segunda universidad citadas, obtuvo los virus modificados a partir del LCMV (por las siglas de Lymphocytic ChorioMeningitis Virus), que puede infectar tanto a roedores como a humanos.

En los experimentos, aunque esos virus modificados no eran dañinos para los ratones, sí provocaban las señales de alarma típicas de las infecciones víricas. Los virólogos integraron también en el virus ciertas proteínas que normalmente solo se encuentran en las células cancerosas. La infección con el virus modificado permitió que el sistema inmunológico reconociese estas proteínas cancerosas como peligrosas y obrase en consecuencia.Al Índice.

ASTRONÁUTICA - Cassini, el principio del fin

 

"Hemos visitado el Laboratorio de Ciencia Espacial Mullard en el sur de Inglaterra donde hemos hablado con el grupo de científicos que trabaja para la misión Cassini-Huygens. Entre sus logros: el lanzamiento de una sonda sobre Titán, la mayor de las lunas de Saturno, y el descubrimiento de un océano de hielo en Encélado, el sexto satélite saturniano. Justo ahora, la nave Cassini orbita entre el planeta y el anillo D", comenta Jeremy Wilks, reportero de Euronews.

La bucólica Holmbury House alberga el principal laboratorio de investigación espacial inglés en Surrey Hills en el sudeste de Inglaterra.

Jugamos al críquet con los científicos del Laboratorio Mullard. Su director, Geraint Jones, nos explica cómo el equipo que pilota Cassini ha orientado la nave hacia su órbita final para conseguir la vista más cercana posible de Saturno.

"Cassini ha estado orbitando alrededor del planeta durante muchos años y se ha servido de Titán para cambiar de órbita. A finales de abril, volvió a cambiar de órbita rozando Titán. Ahora, se encuentra entre el planeta y el anillo D y, tras realizar 22 de esas órbitas, Cassini se precipitará contra Saturno en septiembre. Al orbitar entre los anillos, podemos medir la distribución de masa dentro del planeta para averiguar cuánto material hay en el sistema de anillos orbitando alrededor del planeta mismo", explica Geraint Jones, director del Laboratorio de Ciencia Espacial Mullard.

Uno de los hallazgos más importantes hasta ahora ha sido comprobar que, entre los 2 000 kilómetros de distancia que hay entre los anillos de hielo y las nubes de Saturno, no hay polvo.

La profesora de Física Espacial del Imperial College de Londres, Michele Dougherty, piensa que el magnetómetro de Cassini va a desvelar aún más secretos sobre Saturno:

"Aún no comprendemos cómo es el interior del planeta. Creemos que hay un núcleo sólido, probablemente, hay una región líquida por encima de ese núcleo que, de alguna manera, está generando un campo magnético. Otro asunto, bastante embarazoso, es admitir que pese a que la misión lleva ya 13 años, todavía no sabemos cuánto tiempo dura un día en Saturno."

Saturno es descripto como un gigante de gas, un planeta compuesto en un 75% de hidrógeno, con algunos componentes interesantes en sus nubes que Cassini debería ayudar a explicar.

"Una de las mejores imágenes de Saturno es la vista del polo norte donde observamos esa estructura hexagonal girando en torno a la atmósfera. Podemos ver la atmósfera aunque de manera remota y percibir cómo la estructura cambia con el tiempo. Esta visión nos permite entender la dinámica de la atmósfera, si el material sube desde abajo. Los diferentes instrumentos son capaces de mostrarnos qué tipos de moléculas y materiales hay en la atmósfera, es casi como estar dentro de ella sin estarlo" explica la profesora de Física Espacial del Imperial College de Londres, Michele Dougherty.

Las lunas de Saturno son tan diversas e intrigantes como el planeta. En 2005, Cassini dejó caer la sonda Huygens de la ESA en Titán y descubrió una superficie impregnada de una lluvia que se parece más a la gasolina que al agua.

"La temperatura de la superficie de Titán es de unos 180 grados bajo cero, muy fría. Los paisajes de Titán se parecen mucho a los de la Tierra: hay ríos, lagos, mares, océanos de metano. Llueve, llueve metano o una mezcla entre metano y etano. La actividad meteorológica y geofísica en Titán es muy abundante y eso nos lleva a hacer paralelismos con lo que ocurre en el Tierra aunque los ingredientes sean muy diferentes", explica Jean-Pierre Lebreton, científico de la misión Huygens de la ESA.

Otra de las lunas que ha fascinado a los científicos es Encélado. El sexto satélite saturniano solo tiene unos 500 kilómetros de diámetro y despierta gran interés al existir, sobre su superficie, las condiciones necesarias para la vida.

"Nos dimos cuenta con la misión de Cassini que Encélado está cubierto de hielo. En el polo sur hay grietas en el hielo, de esas grietas surgen géiseres que expulsan chorros de material. Cassini voló a través de esas emanaciones en 2008 y detectó agua salada, amoníaco, silicatos e hidrocarburos, lo que haría factible la posibilidad de vida", explica Sheila Kanani.

La odisea de Cassini, tras 13 años alrededor del sistema Saturno, llega a su fin el 15 de septiembre.

Para evitar que la nave espacial caiga en Titán o Encélado, dos lunas que podrían albergar vida, Cassini está siendo, deliberadamente, orientado hacia las nubes de Saturno.

"Se acerca el final de la misión, es muy triste aunque nos permitirá seguir obteniendo datos hasta su desaparición. La órbita será cada vez más baja y empezaremos a rozar la parte superior de la atmósfera. Pocos instrumentos en la nave Cassini pueden analizar la atmósfera directamente lo que nos permitirá saber, en el instante mismo, los materiales que componen la atmósfera", explica Geraint Jones, director del Planetario del Laboratorio de ciencia espacial Mullard.

"En la última etapa a través de la atmósfera, la nave espacial comenzará a caer y se quemará. Eventualmente, se convertirá en parte de Saturno. Desgraciadamente, será el final de esta misión tan exitosa de Cassini", finaliza Jones.

A través de una antena orientada hacia la Tierra, Cassini, durante su última inmersión en la atmósfera de Saturno, seguirá enviando datos hasta el momento de su desintegración. (Fuente: ESA)Al Índice.

http://es.euronews.com/2017/04/27/fotos-desde-saturno-imagenes-historicas-de-la-sonda-cassini

ASTRONOMÍA - ESO firma contrato para espejo primario gigante del ELT

 

El 30 de mayo se firmaron los contratos para la fabricación del espejo primario de 39 metros del telescopio ELT (Extremely Large Telescope) de ESO, en una ceremonia en la oficina central de ESO, cerca de Múnich. La compañía alemana SCHOTT producirá los bloques de los segmentos del espejo, y la compañía francesa Safran Reosc pulirá, montará y probará los segmentos. El contrato para pulir los bloques del espejo es el segundo más importante en la construcción del ELT, y el tercero más importante que ESO ha adjudicado hasta ahora.

El sistema óptico único del Extremely Large Telescope de ESO está compuesto de cinco espejos, cada uno de los cuales supondrán un enorme desafío para la ingeniería. El espejo primario de 39 metros de diámetro, el cual estará compuesto de 798 segmentos hexagonales individuales de alrededor de 1,4 metros de ancho, será por lejos el espejo más grande que se haya construido para un telescopio óptico. Juntos, los segmentos captarán decenas de millones de veces la luz que capta el ojo humano.

(Foto: ESO/L. Calçada)

Los contratos para fabricar y pulir los segmentos del espejo primario del ELT fueron firmados hoy por el Director General de ESO, Tim de Zeeuw, y los altos representantes de SCHOTT y Safran Reosc, filial de Safran Electronics & Defense, en presencia de miembros clave del personal de ESO. El primer contrato se firmó con Christoph Fark, Vicepresidente Ejecutivo de Óptica Avanzada en SCHOTT, y Thomas Westerhoff , Director de Marketing Estratégico de ZERODUR®. El segundo contrato se firmó con Philippe Rioufreyt, Director General de Safran Reosc.

Tim de Zeeuw expresó su satisfacción por el actual progreso del ELT: “¡Estas han sido dos semanas extraordinarias! Fuimos testigos de la fabricación del espejo secundario del ELT, y posteriormente, el viernes pasado, tuvimos el privilegio de que la Presidenta de Chile, Michelle Bachelet asistiera a la ceremonia de la primera piedra del ELT. Y ahora, dos compañías europeas líderes a nivel mundial están comenzando a trabajar en el enorme espejo primario del telescopio, el cual es quizás el desafío más grande de todos”.

Los 798 segmentos hexagonales que juntos componen el espejo primario del ELT serán producidos con el material cerámico de baja expansión Zerodur® de SCHOTT. Previamente, a SCHOTT también se le adjudicaron los contratos para la producción de los los gigantescos espejos secundario y terciario, y el material Zerodur® también se está usando para el espejo cuaternario deformable del ELT que está actualmente en construcción.

Una vez que los bloques del espejo estén listos, serán facilitados a Safran Reosc, para el diseño del sistema de montaje, delineado y pulido de los segmentos, integración de estos en sus sistemas de apoyo, y ejecución de pruebas ópticas antes de su entrega. Durante el proceso de pulido, cada segmento será pulido hasta que la irregularidad de su superficie no sea mayor a 10 nanómetros – ¡no más grande que una chinita si cada segmento fuera tan grande como Francia!

Para cumplir el desafío de proporcionar tan elevado número de segmentos pulidos dentro de siete años, Safran Reosc lo hará a una tasa de producción máxima de un espejo por día. Safran Reosc establecerá una nueva instalación especializada en su planta de Poitiers, dedicada a la producción de equipos ópticos y optrónicos (óptico-electrónicos) de alta tecnología.

El nuevo contrato con Safran Reosc es el segundo contrato más importante para la construcción del ELT, y el tercer contrato más importante que ESO ha firmado hasta ahora. Safran Reosc también diseñará, pulirá y probará el espejo secundario y terciario del ELT, y actualmente está fabricando espejos delgados deformables de 2-mm de ancho, que compondrán el espejo cuaternario de ELT.

Tanto SCHOTT como Safran Reosc tienen una relación larga y exitosa con ESO. Juntos fabricaron muchos componentes ópticos, incluyendo los espejos primarios de 8,2 metros de las cuatro Unidades de Telescopio del Very Large Telescope de ESO.

El ELT está actualmente en construcción en el Cerro Armazones, cerca del Observatorio Paranal de ESO en el norte de Chile, y está programado que vea su primera luz el año 2024. (Fuente: ESO)Al Índice.

COMPUTACIÓN - Un proyecto del ICMAT ayudará a prevenir ciberataques como el de WannaCry

 

La ciberseguridad es cada vez más uno de los asuntos clave, y aún sin resolver, para muchas empresas, instituciones y administraciones, cada vez más interconectadas, que manejan grandes cantidades de información. Una prueba de ello es lo ocurrido con el reciente ransomware (en inglés, ransom, ‘rescate’, y ware, de software) WannaCry, con el que sus creadores ‘secuestraron’ más de 360.000 equipos infectados de 180 países, pidiendo posteriormente un rescate por ellos, según datos del Instituto Nacional de Ciberseguridad (Incibe). Con el objetivo de prevenir este tipo de ataques, surge CYBECO (Supporting Cyberinsurance from a Behavioural Choice Perspective), un proyecto de investigación europeo en el que participa como director científico David Ríos, investigador del Instituto de Ciencias Matemáticas (ICMAT) y titular de la Cátedra AXA (España).

“El principal objetivo es desarrollar nuevos modelos matemáticos que proporcionen herramientas y productos, en particular pólizas de seguros, que ayuden a construir una red y sistemas de comunicaciones más seguros”, señala Ríos. La necesidad de implementar soluciones innovadoras responde a una realidad cada vez más preocupante: las ofensivas cibernéticas contra infraestructuras críticas –hospitales, centrales eléctricas y nucleares, aeropuertos, etc.- cada vez son más frecuentes, según Incibe. Se ha pasado de 63 ataques en 2014 a 479 en 2016; y solo en el primer cuatrimestre de 2017 ya se han registrado 247 incidentes.

“Queremos trasladar los modelos matemáticos que se están aplicando con éxito en el campo de la seguridad física al mundo de la ciberseguridad”. Para ello, la Unión Europea, a través de su programa Horizonte 2020, les ha concedido dos millones de euros para dos años.

“Ataques como WannaCry pueden dejar a las empresas fuera del mercado durante un tiempo más o menos largo, puesto que muchas de sus actividades dependen de sistemas informáticos; además les pueden robar información comprometida y, como consecuencia, pueden perder reputación y con ello clientes u oportunidades de negocio”, enumera David Ríos. “Por otro lado, si los sistemas afectan a infraestructuras críticas, puede producirse la caída de electricidad en una parte del país, pueden contaminarse las aguas de una determinada zona… Toda una serie de consecuencias de tipo catastrófico, asociadas a que los sistemas que controlan esas infraestructuras tienen un fuerte componente cibernético”, asegura el investigador.

Ciberseguridad. (Imagen: Agencia ID)

Las matemáticas permiten construir modelos de análisis de riesgos y análisis de riesgos adversarios, que permiten anticipar el tipo de ataques y sus consecuencias del mundo virtual, explica Ríos. En concreto, “los modelos permiten determinar las mejores medidas de protección que ha de emplear cada organización para enfrentarse a los ataques”, explica Ríos. Para ello, en este proyecto se emplean técnicas para anticipar el comportamiento en las decisiones de los individuos, tanto de los ciberatacantes, para poder determinar los posibles riesgos, como de los dueños de las infraestructuras informáticas y de las de seguros, para mejorar su elección y oferta de servicios.

CYBECO se pone en marcha hoy, 30 de mayo. Junto al ICMAT participan otras instituciones como Intrasoft International S.A. (Luxemburgo), Devstat Servicios de Consultoría Estadística S.L. (Valencia), AXA Technology Services (Francia), Technische Universiteit Delft (Países Bajos) y la Universidad de Northumbria de Newcastle (Reino Unido). Está coordinado por Trek Consulting Anonymos Etairia Management Consultants (Grecia).

Cada una de las entidades tendrá un papel diferenciado. Intrasoft se especializará en el desarrollo del software correspondiente; Devstat, junto con la Universidad de Northumbria, se encargará de hacer los experimentos económicos y de comportamiento; AXA aportará toda su experiencia en seguros; la Universidad de Delflt se encargará de acoplar la parte ‘ciber’ al modelo de análisis de riesgos; el ICMAT hará modelos de análisis de riesgos y Trek se encargará de la gestión, coordinación y difusión del proyecto. Además de esta interdisciplinariedad, la internacionalización es uno de los rasgos clave del proyecto. “En los experimentos económicos, una de las variables que puede explicar las distintas actitudes frente a la ciberseguridad puede ser de ámbito nacional, por ello es bueno probarlo en varios países”, afirma Ríos.

Este proyecto está financiado por Retos Sociales, el tercer pilar de Horizonte 2020, actual programa marco de la Unión Europea a través del que se financian actividades de investigación e innovación. Este plan trata dar respuesta a siete retos de la sociedad europea que han sido identificados como prioritarios, entre los que se encuentra el área de seguridad digital, y más concretamente la línea de la economía de la ciberseguridad. Con esta sección, se pretende impulsar proyectos que tengan en cuenta la ciberseguridad y su relación coste-beneficio, así como nuevos modelos de negocio e incentivos.

Actualmente, bajo este apartado hay financiados tres proyectos: CYBECO, SAINT (Systemic Analyzer in Network Threats) y HERMENEUT (Enterprises intangible Risks Management via Economic models based on Simulation of Modern Cyberattacks). (Fuente: ICMAT/DICYT)Al Índice.

INGENIERÍA - Sistema para desalinizar agua que aprovecha su casi totalidad

 

Unos ingenieros han desarrollado una nueva forma de recuperar casi el 100 por cien del agua procedente de soluciones salinas altamente concentradas. El sistema aliviará la falta de agua en algunas regiones áridas y reducirá los problemas relacionados con la eliminación de las aguas muy saladas, como las residuales dejadas por las operaciones de fracturación hidráulica (fracking).

La investigación, que incluye el desarrollo de un elemento calentador basado en nanotubos de carbono que mejorará enormemente la recuperación de agua dulce durante los procesos de destilación mediante membranas, es obra del equipo de David Jassby, de la Universidad de California en la ciudad estadounidense de Riverside.

Si bien la ósmosis inversa es el método más habitual de eliminar la sal del agua marina, las aguas residuales y las aguas salobres, esa técnica no es capaz de tratar soluciones salinas altamente concentradas. Tales soluciones son generadas en cantidades masivas durante la ósmosis inversa (como productos de desecho) y en la fracturación hidráulica, y hay que deshacerse de ellas con el máximo cuidado, siguiendo los procedimientos adecuados, para evitar daños medioambientales. En el caso de la fracturación hidráulica, el personal se deshace a menudo del agua residual resultante inyectándola en pozos subterráneos. Sin embargo, algunos estudios sugieren que esta práctica podría suponer un incremento de los terremotos locales.

Los sistemas tradicionales de destilación por membrana trabajan con agua salada muy caliente, que en estas circunstancias resulta muy corrosiva, algo que aumenta el costo económico y además limita la recuperación del agua (a). Para mejorar esto, el equipo de David Jassby ha desarrollado una membrana basada en nanotubos de carbono y generadora de calor, que solo calienta el agua salada en la superficie de la membrana (b), donde la capa porosa de nanotubos de carbono genera calor al pasar una corriente eléctrica por ella (c). (Imágenes: UC Riverside)

Una forma de tratar el agua salada es la destilación mediante membrana, una tecnología de desalinización térmica en la que el calor hace pasar vapor de agua a través de ella, permitiendo una recuperación mayor del agua, mientras la sal se queda atrás. Sin embargo, las aguas saladas calientes son muy corrosivas, lo que encarece a los intercambiadores de calor y otros elementos en los sistemas de destilación por membrana tradicionales. Además, dado que el proceso depende de la capacidad calorífica del agua, las recuperaciones de un único paso son bastante limitadas (menos del 10 por ciento), lo que lleva a requerimientos de gestión del calor complicados.

Para mejorar esto, los investigadores desarrollaron una membrana basada en nanotubos de carbono que solo calienta el agua salada en la superficie de la membrana. En los experimentos realizados hasta ahora, el nuevo sistema ha reducido el calor necesario en el proceso y ha incrementado la cantidad de agua recuperada hasta casi el 100 por cien.

En este trabajo de investigación y desarrollo también han participado Alexander Dudchenko, Chuxiao Chen, Alexis Cardenas y Julianne Rolf.Al Índice.

MICROBIOLOGÍA - Pintar cuadros mediante bacterias sensibles a colores

 

Unos investigadores han modificado bacterias de la especie E. coli para que posean algo así como “visión multicolor”. Ahora reconocen la luz roja, verde o azul (los tres colores del sistema RGB) y reaccionan a cada una expresando diferentes genes que realizan funciones biológicas distintas.

Para demostrar la tecnología, estos investigadores, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, han creado varias imágenes coloreadas en placas de cultivo (cajas de Petri) usando luces RGB para controlar el pigmento producido por las bacterias de cada punto de la superficie.

Fuera del laboratorio, la tecnología podría también resultar útil para aplicaciones farmacéuticas y de otro tipo.

Este trabajo de investigación y desarrollo es obra del equipo de Chris Voigt, Jesús Fernández Rodríguez, Felix Moser y Miryoung Song.

La E. coli modificada está programada con un sistema basado en proteínas y enzimas, análogo a un chip de ordenador, con varios módulos diferentes para procesar la luz entrante y producir una salida biológica. Hablando en términos de computación, un “conjunto de sensores” se ve activado primero en presencia de luz roja, verde o azul, y un “circuito” procesa la señal. Después, un “asignador de recursos” conecta la información procesada con los “actuadores” que ponen en práctica la correspondiente función biológica.

Dibujo obtenido incitando a las bacterias de cada punto a producir el pigmento deseado. La foto ha sido procesada con Photoshop para mejorar el contraste y permitir apreciar mejor el dibujo. (Foto: Felix Moser)

Podemos pensar en las nuevas E. coli como en marionetas microbianas (el ejemplo que Voigt pone), con luz coloreada en vez de hilos como el método de control mediante el cual se las hace actuar de una determinada manera.

En 2005, Voigt y otros investigadores fueron los primeros en producir algo análogo a una “cámara fotográfica bacteriana”. Lo hicieron programando un sensor de luz en una cepa de E. coli, junto con un gen que producía pigmento negro. Cuando la luz iluminaba, a través de un patrón con el dibujo que se deseaba retratar, sobre una placa recubierta de bacterias, los microbios formaban imágenes en blanco y negro de dicho dibujo. En ese momento, este logro precisaba solo cuatro genes y tres promotores (regiones de ADN que inician la transcripción genética) para que se produjera el fenómeno.

Nuevas herramientas de biología sintética, como el sistema CRISPR de edición de genomas, han surgido desde entonces, abriendo posibilidades más amplias para los investigadores. A diferencia del sistema de 2005, el nuevo sistema RGB, el primero en utilizar tres colores, consta de 18 genes y 14 promotores, entre otros componentes, así como 46.000 pares de bases de ADN.Al Índice.

PSICOLOGÍA - Tecnoestrés, un desajuste físico y emocional por falta de habilidades en el uso de las TIC

 

Cada vez más personas presentan tecnoestrés, entendido como un estado psicológico negativo y una respuesta adaptativa ocasionada por el uso excesivo de las tecnologías de la información y la comunicación (TIC) y por la falta de habilidad para manejar o trabajar con ellas de manera saludable, afirmó Juana Patlán, profesora de la Facultad de Psicología (FP) de la UNAM (México).

El trastorno se presenta en todas las personas que por su trabajo o actividades cotidianas están en contacto con el uso de las TIC, sobre todo en los jóvenes.

Estas herramientas han facilitado ciertas actividades, pero también han traído alteraciones como el tecnoestrés, que algunos autores definen como “el impacto negativo que tienen las TIC en las actitudes, pensamientos y conductas, y que generan un alto nivel de activación psicofisiológica del organismo”, apuntó.

El tecnoestrés, abundó, se deriva de un desajuste entre las demandas laborales (tecnoestresores o tecnodemandas) y los recursos personales (tecno recursos).

Su aparición depende de las habilidades de las personas para el manejo de las tecnologías (características individuales), del contenido y los cambios en los puestos de trabajo, y de las estrategias utilizadas por las empresas para la implementación de las TIC; si no cuenta con buenas bases, entonces generan un desajuste que puede provocar ansiedad, cansancio, dolores de cabeza, fatiga mental y física, dolores musculares, temor, aburrimiento, aislamiento y conductas agresivas o negativas hacia los demás.

El tecnoestrés se presenta en todas las personas que por su trabajo o actividades cotidianas están en contacto con el uso de las TIC, sobre todo en los jóvenes. (Foto: UNAM)

La situación cobra importancia si se consideran los datos que indican qué tan extendido es el uso de las TIC. “De acuerdo con la Encuesta sobre las Tecnologías de la Información y las Comunicaciones del INEGI (2013), 88.7 por ciento de las empresas usan computadoras, 84.6 tienen Internet y 93.7 emplean Internet de banda ancha”, refirió la universitaria.

En cuanto a la disponibilidad y uso de las TIC en los hogares, la Encuesta Nacional sobre Disponibilidad y Uso de TIC en Hogares realizada por el INEGI (2015-2016) arrojó un dato importante: en 2016, 45.6 por ciento de los hogares contaban con computadora y 47 por ciento con conexión a Internet.

Asimismo, 47 por ciento de usuarios de computadora tiene seis años o más, y en ese mismo rango de edad, 59.5 por ciento emplean Internet.

La especialista en conducta y comportamiento organizacional señaló que del uso de las TIC se han derivado otros padecimientos, como el síndrome de fatiga informativa, provocado por la sobrecarga informática y el manejo excesivo de información, y la tecnofobia, que se caracteriza por tener miedo o ansiedad hacia las tecnologías, resistencia a su uso y pensamientos hostiles y agresivos hacia las mismas.

De igual manera, hay quienes quieren estar al día en cuanto a los avances tecnológicos y presentan tecnoadicción: compulsión incontrolable para utilizar las TIC, generando la necesidad de estar conectados, a través de dispositivos móviles o computadoras, a cualquier hora del día.

Ante esta situación, Juana Patlán consideró necesario trabajar las habilidades de organización y administración del tiempo. “El autocontrol también es importante para que una persona conozca sus habilidades en el manejo de las TIC y las emplee adecuadamente sin generar resistencias o adicciones”.

Por su parte, las empresas deben capacitar adecuadamente a sus empleados en el manejo de estas tecnologías y aprovechar las habilidades de cada uno en el uso de las mismas; además, debe evitarse el trabajo rutinario y fomentarse la realización de actividades en equipo para evitar el aislamiento de los trabajadores, concluyó. (Fuente: UNAM/DICYT)Al Índice.

FÍSICA - El LHC detecta una gran producción de partículas extrañas en colisiones de protones

 

En un artículo publicado en Nature Physics, la colaboración internacional ALICE (A Large Ion Collider Experiment) informó sobre la producción abundante de hadrones dotados de cuarks extraños en colisiones protón-protón realizadas en el LHC (Large Hadron Collider), el gran colisionador de partículas ubicado en la frontera franco-suiza. Fue la primera vez que estos objetos, observados con creciente frecuencia en las colisiones de núcleos pesados (plomo-plomo, oro-oro), se detectaron con tamaña abundancia también en el choque de partículas tan livianas como el protón.

El estudio que resultó en el artículo publicado, intitulado “Enhanced production of multi-strange hadrons in high-multiplicity proton–proton collisions”, contó con la participación decisiva de científicos brasileños, especialmente en el caso de David Dobrigkeit Chinellato, del Instituto de Física Gleb Wataghin de la Universidad de Campinas (en el estado de São Paulo), quien actuó como coordinador internacional de uno de los grupos de trabajo de física del ALICE, el grupo “Light Flavour”. Dobrigkeit Chinellato cuenta con el apoyo de la FAPESP en el marco del proyecto intitulado “Producción de extrañeza en colisiones Pb-Pb en la energía de 5.02 TEV del ALICE”.

Se considera que la producción abundante de hadrones con cuarks extraños constituye una especie de firma del plasma de cuarks y gluones, un estado extremadamente caliente y denso de la materia que habría existido durante una diminuta fracción de segundo luego del Big Bang y que ahora está recreándose en los dos grandes colisionadores de partículas de la actualidad, el Large Hadron Collider (LHC), en Europa, y el Relativistic Heavy Ion Collider (RHIC), en Estados Unidos.

“La gran novedad consistió en observar esa producción abundante de hadrones con cuarks extraños en la colisión de sistemas tan pequeños como los protones”, comentó el físico Alexandre Alarcon do Passo Suaide, del Instituto de Física de la Universidad de São Paulo, investigador principal del proyecto temático intitulado “Física nuclear de altas energías en el RHIC y LHC”, en cuyo marco la FAPESP suministra apoyo a la participación de los científicos que trabajan en instituciones paulistas en la colaboración ALICE.

Partículas formadas en la colisión de núcleos de plomo y registradas por el detector ALICE, en el LHC/ALICE. (Foto: CERN)

“Los fenómenos que caracterizan al plasma de cuarks y gluones están observándose en colisiones de sistemas cada vez menores. Y esto es algo de lo cual hace algunos años no teníamos ni idea que podría suceder”, continuó.

La existencia de hadrones con cuarks extraños en las colisiones protón-protón, comunicada ahora por la colaboración ALICE, sugiere que el plasma de cuarks y gluones puede producirse también en el choque de estas partículas sumamente pequeñas y no solamente en la colisión de núcleos pesados plomo-plomo (en el LHC), u oro-oro (en el RHIC), tal como se admitía hasta ahora. Pero los científicos consideran prematuro afirmar esto de manera taxativa. “Es necesario hacer mediciones más detalladas, relacionando los hadrones dotados de cuarks extraños con otros observables y resultantes de la colisión. De este modo podremos añadirles nuevas piezas al rompecabezas hasta llegar eventualmente a la figura completa”, ponderó Alarcon do Passo Suaide.

Esta cautela se justifica, entre otros motivos, debido al hecho de que el plasma de cuarks y gluones no puede observarse directamente, dado que es extremadamente efímero. Y en los experimentos realizados en el LHC y en el RHIC, su supuesto tiempo de duración es del orden de 10-23 s, lo cual impide cualquier observación directa. Lo que los investigadores observan efectivamente son los objetos que se forman después de que los cuarks y los gluones dejan de moverse libremente en el plasma y vuelve a ser encapsulados en hadrones.

Los resultados ahora divulgados por el ALICE le deben mucho a la actuación del joven científico brasileño David Dobrigkeit Chinellato. “Empecé a pensar en estas mediciones en 2010, cuando cursaba aún mi cuarto año de doctorado. En 2012, 2013 y 2014, varios colegas y yo pasamos un largo tiempo estudiando cómo efectuar las mediciones, qué procedimientos técnicos adoptar para evitar vicios de detección que pudieran ir en detrimento de los resultados. En 2015, el análisis de datos quedó concluido finalmente. E inmediatamente después nos abocamos al proceso de publicación. El resultado fue un artículo de cuatro páginas, pero que requirió mucho tiempo, el trabajo de mucha gente y mucho esfuerzo en su elaboración”, declaró Dobrigkeit Chinellato a Agência FAPESP.

“Entre la obtención de los datos y la publicación existe una larga cadena que requiere la participación de mucha gente. Por eso el ALICE reúne a un equipo internacional tan grande, integrado por alrededor de 1.500 personas”, afirmó el investigador. Dobrigkeit Chinellato recordó que este experimento se opera desde una sala de control informatizada situada sobre de la superficie, en tanto que el colisionador propiamente dicho, con sus 27 kilómetros de circunferencia y sus cuatro detectores (ATLAS, CMS, ALICE y LHCb), se ubica bajo tierra: está a 175 metros debajo del nivel del suelo. El investigador participó tanto en la etapa experimental, en la captación de datos, como en el análisis de los datos obtenidos y en la redacción final del artículo.

El concepto de “extrañeza” [strangeness, en inglés] fue propuesto en la década de 1950 por Murray Gell-Mann, Abrahan Pais y Kazuhiko Nishijima, para caracterizar a la propiedad que hacía que ciertas partículas sobreviviesen más tiempo que lo esperable. La extrañeza, simbolizada por la letra “S” mayúscula es una propiedad física expresada mediante un número cuántico.

El concepto de cuark surgió más tarde, en la década de 1960, postulado independientemente por Murray Gell-Mann y George Zweig. Y en el transcurso de los años, se fueron descubriendo varios tipos de cuarks. Uno de ellos recibió el nombre de “extraño” [strange, en inglés], debido a que su existencia suministra una explicación para la propiedad de la extrañeza. Pasó entonces a simbolizárselo con la letra “s”, minúscula. Éste es uno de los seis cuarks reconocidos en el Modelo Estándar de la Física de Partículas: up [u], down [d], charm [c], strange [s], top [t] y bottom [b]. Su masa es varias veces mayor que la del up y la del down, que componen los protones y los neutrones.

Los “hadrones extraños” son partículas mayores que reciben este nombre porque contienen al menos un cuark extraño. Son objetos fugaces tales como el kaón, el lambda, el xi [se pronuncia csi] y el omega, que se volvieron “familiares”, por decirlo de algún modo, en los experimentos con colisiones de núcleos pesados plomo-plomo y oro-oro. Lo que se informó en el estudio publicado en Nature Physics fue que esos hadrones extraños fueron hallados en abundancia inesperada en colisiones protón-protón en las cuales se produjo una elevada cantidad de partículas.

“Desde la década de 1980, la abundancia relativa de hadrones extraños ha sido apuntada como una posible firma de la formación del plasma de cuarks y gluones en colisiones centrales de núcleos pesados. Lo que este nuevo estudio demostró fue que estos objetos también se producen en gran abundancia en colisiones protón-protón cuando existe una gran multiplicidad de partículas formadas. La gran multiplicidad de partículas formadas es un indicador del alto nivel de energía que se ha alcanzado en el choque, que se acerca a aquello que se observa en las colisiones centrales núcleo-núcleo”, detalló el físico Marcelo Gameiro Munhoz, coordinador del proyecto temático intitulado “Física nuclear de altas energías en el RHIC y LHC”.

“La formación del plasma de cuarks y gluones genera mecanismos que facilitan la producción subsiguiente de hadrones extraños, mecanismos que no estarían presentes de no haber plasma”, explicó Gameiro Munhoz. “Por eso puede considerarse a la detección de hadrones extraños como un indicio, una firma de la formación previa del plasma de cuarks y gluones. Pero podría existir otra explicación no relacionada con el plasma para este aumento de partículas extrañas. En tal caso, deberíamos incluso reinterpretar lo que sucede en las colisiones núcleo-núcleo”, ponderó el coordinador. (Fuente: AGÊNCIA FAPESP/DICYT)Al Índice.

MEDICINA - Injertos especiales de tejido muscular para ayudar a sentir y controlar prótesis robóticas

 

Una nueva técnica quirúrgica podría permitir que los usuarios de extremidades protésicas las sintieran de manera muy parecida a las naturales. A través de la coordinación entre la extremidad protésica, los nervios existentes y los injertos musculares en el paciente, este podría notar cómo está posicionada su extremidad artificial a cada momento sin necesidad de mirarla, y también cuánta fuerza se está aplicando sobre ella. Un sistema de este tipo podría además ayudar a reducir la tasa de rechazo de las extremidades protésicas, que se encuentra en alrededor del 20 por ciento.

La nueva técnica es obra del equipo de Hugh Herr y Shriya Srinivasan, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos.

En el reciente estudio sobre la validez de esta técnica, los investigadores han demostrado en ratas que esta posibilita reacciones sensoriales, cuyas señales, procedentes de músculos y tendones, se reciben en el sistema nervioso. Ello debería transmitir información suficiente sobre el posicionamiento de la extremidad protésica y las fuerzas aplicadas sobre ella.

El siguiente paso en esta línea de investigación y desarrollo será empezar a poner en práctica la técnica en humanos que sufrieron amputaciones, incluyendo al propio Herr, que perdió las dos piernas por debajo de la rodilla cuando tenía 17 años, tras quedar atrapado durante una tormenta de nieve tres días en una montaña que estaba escalando.

La nueva técnica quirúrgica permitiría a las personas con amputación de miembros recibir señales sensoriales de sus extremidades protésicas y mejorar su capacidad de controlarlas. (Foto: Jose-Luis Olivares/MIT)

La historia personal de Hugh Herr es digna de una película. Con una capacidad de superación admirable, tras la amputación se convirtió en científico especializado en prótesis, fue uno de los pioneros de las prótesis robóticas, diseñó las suyas propias, volvió a caminar gracias a ellas y volvió a escalar montañas, superando incluso la altitud máxima de escalada a la que había llegado antes del accidente.Al Índice.

ASTROFÍSICA - Tercera detección de ondas gravitatorias emitidas por otro sistema binario de agujeros negros

 

El Observatorio de Ondas Gravitatorias por Interferometría Láser (LIGO) ha hecho la tercera detección de ondas gravitatorias, ondulaciones en el espacio-tiempo. Como ocurrió con las dos primeras detecciones, las ondas se generaron al fusionarse dos agujeros negros para formar un agujero negro más grande. El nuevo agujero negro, localizado a unos 3 mil millones de años luz de distancia (dos veces más lejos que los dos sistemas previamente descubiertos), tiene una masa de unas 49 veces la del Sol, un valor intermedio entre las masas de los detectados previamente en 2015 (62 y 21 masas solares para la primera y segunda detección, respectivamente).

El descubrimiento se describe en un nuevo artículo aceptado para su publicación en la revista Physical Review Letters. El evento ocurrió durante el actual periodo de observación de los detectores gemelos LIGO en Hanford, Washington, y Livingston, Louisiana, que comenzó el 30 de noviembre de 2016 y continuará durante el verano, cuando el detector Virgo en Europa se unirá para mejorar la capacidad de apunte de toda la red de detectores.

"Con esta tercera detección confirmamos la existencia de una población inesperada de agujeros negros de masa estelar con masas por encima de 20 masas solares", dice Jo van den Brand de Nikhef y VU University Amsterdam, el recién elegido portavoz de la Colaboración Virgo, organismo de más de 280 científicos internacionales que realizan investigación en ondas gravitatorias junto con la Colaboración Científica LIGO. "Las colaboraciones científicas LIGO y Virgo al completo trabajaron juntas para hacer estas sorprendentes detecciones de eventos tan extremos que tuvieron lugar hace miles de millones de años".

La tercera detección, llamada GW170104 y realizada el 4 de enero de 2017, fue cuidadosamente analizada por la Colaboración Científica LIGO (LSC) y la Colaboración Virgo, esta última con base en Europa. Este es un grupo de más de 1200 investigadores de más de 100 instituciones científicas, repartidas en cuatro continentes diferentes. Anteriormente, este esfuerzo mundial condujo con éxito a la primera observación directa de ondas gravitatorias en septiembre de 2015, durante el primer periodo de observación de los detectores LIGO. Más tarde, se realizó una segunda detección en diciembre de 2015. En los tres casos, las ondas gravitatorias detectadas fueron generadas por colisiones extremadamente energéticas de pares de agujeros negros - eventos que producen más energía durante el instante previo a la fusión de los agujeros negros que la que se emite en forma de luz por todas las estrellas y galaxias en el Universo observable en un momento dado.

(Foto: LIGO/Caltech/MIT/Sonoma State/Aurore Simonnet)

La observación más reciente también proporciona pistas sobre las direcciones en las que giran los agujeros negros. A medida que los pares de agujeros negros hacen espirales uno alrededor del otro, también giran sobre sus propios ejes. Esto es similar al movimiento de un par de patinadores sobre hielo que giran individualmente mientras dan vueltas uno alrededor del otro. Los agujeros negros pueden girar en cualquier dirección. A veces, el giro de los agujeros negros es en la misma dirección orbital en la que gira la pareja - lo que los astrónomos conocen como giros alineados – y a veces giran en la dirección opuesta al movimiento orbital. Además, los agujeros negros también pueden inclinarse fuera del plano orbital. El análisis de los nuevos datos proporciona evidencia de que al menos uno de los agujeros negros puede no haber estado alineado con el movimiento orbital, ofreciendo pistas sobre cómo se formó el par.

Virgo ha sufrido un gran programa de actualización denominado Advanced Virgo. Un primer periodo de ejecución de prueba con todos los sistemas operativos se completó con éxito en la primera semana de mayo. La sensibilidad está mejorando rápidamente y se espera que Virgo pronto se una a los detectores LIGO en nuestra búsqueda para obtener una comprensión más profunda del origen y la evolución de nuestro universo.

LIGO es financiado por la NSF y operado por Caltech y MIT, que concibieron y construyeron el proyecto. Más de 1.000 científicos de todo el mundo participan en el esfuerzo a través de la Colaboración Científica LIGO, que incluye la Colaboración GEO. Otros socios se incluyen en la siguiente lista: http://ligo.org/partners.php.

La investigación en Virgo está a cargo de la Colaboración Virgo, compuesta por más de 280 científicos e ingenieros pertenecientes a 20 grupos de investigación europeos diferentes: 6 del Centre National de la Recherche Scientifique (CNRS) en Francia; 8 del Instituto Nazionale di Fisica Nucleare (INFN) en Italia; 2 en Holanda con Nikhef; el MTA Wigner RCP en Hungría; el grupo POLGRAW en Polonia; y el European Gravitational Observatory (EGO), el laboratorio que aloja el detector Virgo cerca de Pisa en Italia. Recientemente, también España se unió a la Colaboración Virgo, con un nuevo grupo en la Universidad de Valencia.

El grupo de la Universidad de Valencia, único grupo español de la Colaboración Virgo desde Julio de 2016, está formado por investigadores del Departamento de Astronomía y Astrofísica y del Departamento de Matemáticas de dicha universidad. Desde 2002, España también cuenta con la presencia en la Colaboración Científica LIGO del Grupo de Relatividad y Gravitación de la Universitat de les Illes Balears, grupo que ha participado en las tres detecciones de ondas gravitatorias.

El grupo de la Colaboración Virgo de la Universidad de Valencia cuenta con el apoyo del Ministerio de Economía y Competitividad (AYA2015-66899-C2-1-P), la Generalitat Valenciana (PROMETEOII-2014-069), la Red Española de Supercomputación, y el Partnership for Advanced Computing in Europe (PRACE). Además, participa en la Red Temática de Ondas Gravitatorias “REDONGRA” financiada por el MINECO (FPA2015-69815-REDT). (Fuente: U. València)Al Índice.

INGENIERÍA - Sensores de fibra óptica detectan problemas estructurales en puentes y presas

 

El grupo de Ingeniería Fotónica (GRIFO) de la Universidad de Alcalá (España), en colaboración con la Escuela Politécnica Federal de Lausana (Suiza), ha diseñado unos sensores de fibra óptica capaces de monitorizar de manera continua grandes infraestructuras, permitiendo detectar con gran precisión y, lo más importante, con antelación, erosión o fisuras en puentes, presas o vías férreas. Los resultados de este trabajo se acaban de publicar en la revista Optic Letters.

El nuevo sensor es capaz de 'auscultar' un millón de puntos sensores a lo largo de 10 kilómetros de fibra estándar, lo que posibilita que la detección de cualquier problema estructural sea mucho más rápida que en la actualidad, pudiendo detectar cambios de temperatura y/o deformación en menos de 20 minutos. Estos sensores son particularmente interesantes para aplicaciones de cierta complejidad técnica, ya que pueden ser instalados en entornos hostiles, así como en áreas remotas carentes de fuente de alimentación cercana como desiertos o el fondo marino.

“Aunque la popularidad de los sensores distribuidos de fibra óptica está creciendo, actualmente se utilizan principalmente para detectar fugas en oleoductos y gasoductos, así como para prevenir deslizamientos de tierra que afecten a carreteras o vías férreas. Pero si una sola de estas fibras se coloca a lo largo de la longitud de un puente, por ejemplo, los cambios en la estructura en cualquiera de los puntos sensores a lo largo de la fibra provocarán cambios detectables en la luz que se desplaza por la fibra, lo cual permitiría actuar preventivamente en la estructura, aumentando la seguridad y reduciendo los costes de mantenimiento’, señala Alejandro Domínguez, miembro del grupo de investigación GRIFO.

El nuevo sensor es capaz de 'auscultar' un millón de puntos sensores a lo largo de 10 kilómetros de fibra estándar, lo que posibilita que la detección de cualquier problema estructural sea mucho más rápida que en la actualidad. (Foto: UAH)

Domínguez destaca que este tipo de sensores también podría ser utilizado para ámbitos como el aeroespacial, “donde es importante saber lo que está sucediendo en cada centímetro del ala de un avión, por ejemplo”.

 

Asimismo, GRIFO trabaja en aumentar el número de puntos sensores en la fibra, lo que podría permitir que la tecnología se expandiera hacia áreas completamente nuevas, como las aplicaciones biomédicas. En este sentido, Domínguez señala que “las fibras ópticas también podrían ser adaptadas para conformar tejidos inteligentes, donde los sensores podrían usarse para monitorizar la salud de una persona, ayudando en la detección temprana de enfermedades”.  Por ejemplo, los investigadores vislumbran que podría ser posible utilizar dichos sensores de fibra óptica para detectar las desviaciones de temperatura que están presentes en el cáncer de mama. (Fuente: Universidad de Alcalá)Al Índice.

CIENCIA DE LOS MATERIALES - Un tipo de material revolucionario que podría acelerar la llegada de la era de la espintrónica

 

Unos científicos han descubierto que una clase de “materiales milagrosos” llamados perovskitas híbridas orgánicas-inorgánicas podrían ser la clave para lograr en un futuro quizá no muy lejano dispositivos espintrónicos de uso práctico.

A la espintrónica se la puede definir como una electrónica basada en el espín, el cual es una manifestación de la mecánica cuántica que podría describirse como apuntando hacia "arriba" o hacia "abajo". El espín es una propiedad fundamental del electrón y es responsable de la mayoría de los fenómenos magnéticos.

La espintrónica utiliza la dirección del espín (ya sea hacia arriba o hacia abajo) para transportar información en forma de unos y ceros. Un dispositivo espintrónico puede procesar muchos más datos que uno basado en la electrónica tradicional, la cual usa la circulación de la corriente eléctrica para generar instrucciones digitales. Sin embargo, los físicos se han venido enfrentando a grandes dificultades al intentar hacer realidad los dispositivos espintrónicos. La situación podría comenzar a cambiar drásticamente a partir de ahora.

Yan (Sarah) Li (izquierda) y Z. Valy Vardeny. (Foto: University of Utah)

El nuevo estudio, llevado a cabo por el equipo de Yan (Sarah) Li y Z. Valy Vardeny, de la Universidad de Utah en Estados Unidos, es el primero que muestra que la gama de materiales conocidos como perovskitas híbridas orgánicas-inorgánicas constituye una clase prometedora para la espintrónica. Los investigadores descubrieron que las perovskitas poseen dos propiedades contradictorias necesarias para hacer que funcionen los dispositivos espintrónicos: que el espín de los electrones se pueda controlar fácilmente, y que también se pueda mantener la dirección del espín durante suficiente tiempo como para transportar información, una propiedad conocida como tiempo de vida del espín.

El mineral denominado perovskita, que es el ejemplo estructural en el cual se basan los materiales que llevan su nombre, fue descubierto por el mineralogista ruso Lev Perovski. La estructura de la perovskita ha dado pie incluso a la creación de una clase de células solares.

Al Índice.

MEDICINA–Se ha descripto el mecanismo de acción de un posible nuevo antitumoral

 

Un equipo internacional liderado por el Consejo Superior de Investigaciones Científicas (CSIC) (España) ha descripto el mecanismo de acción de un nuevo compuesto candidato a luchar contra los tumores más resistentes. El fármaco, con propiedades y un mecanismo de acción diferentes a lo conocido hasta ahora, actúa sobre los microtúbulos, unas estructuras fundamentales de las células que se encargan de la separación de los cromosomas durante la división celular. Los resultados aparecen publicados en el último número de la revista Cell Chemical Biology.

Los microtúbulos son dianas terapéuticas esenciales en el tratamiento del cáncer. Estos organelos celulares actúan como filamentos que crecen para atrapar a los cromosomas. Posteriormente, decrecen, tirando de ellos y separándolos. “Dado que este proceso es necesario para la proliferación celular y uno de los problemas causados por los tumores es una proliferación celular desregulada e invasiva, cualquier compuesto que interfiera en este proceso es de utilidad antitumoral”, explica el investigador del CSIC en el Centro de Investigaciones Biologías Fernando Díaz.

Actualmente, se han detectado resistencias a los fármacos empleados en quimioterapia. El descubrimiento de nuevos compuestos con distintos mecanismos de acción y propiedades físicoquímicas permite disponer de alternativas terapéuticas para los tumores sólidos, como el de mama, páncreas o colon.

Microtúbulos. (Foto: DICYT)

La investigadora del CSIC Isabel Barasoaín destaca: “En concreto, hemos descubierto en ensayos in vitro que, además de tener un sitio de unión distinto al de los antitumorales empleados comúnmente contra los tumores sólidos, manteniendo su actividad, este compuesto es activo en células tumorales multiresistentes a la quimoterapia por la sobreexpresión de determinadas proteínas, como la glicoproteína P”.

Entre los compuestos antitumorales que actúan sobre los microtúbulos destacan, por un lado, los agentes estabilizantes (aquellos que impiden que estas estructuras se encojan separando los cromosomas) y, por otro, los desestabilizantes, empleados normalmente para tipos de cáncer menos sólidos, como las leucemias. Cada uno de estos agentes se une de forma distinta a la proteína principal de los microtúbulos, denominada tubulina.

El nuevo fármaco funciona de la misma manera que los agentes estabilizantes de microtúbulos, pero su unión es la misma que la empleada por los agentes desestabilizantes, como la vinblastina y eribulina. “En colaboración con los investigadores del Paul Scherrer Institut de Villingen (Suiza), estamos trabajando en un método de cribado que permita encontrar compuestos con esta actividad”, concluye Díaz. (Fuente: CSIC/DICYT)Al Índice.

INGENIERÍA - Una chaqueta inteligente que ayuda a mejorar la seguridad vial de los ciclistas y un exoesqueleto que facilita la independencia de los discapacitados, ganadores de Pequeños Grandes Inventos de la UPV

 

MaIOT, una chaqueta inteligente que ayuda a mejorar la seguridad vial de los ciclistas; y un exoesqueleto motorizado impulsado por baterías para que los discapacitados logren tener más independencia y libertad. Estos han sido los dos ganadores de la séptima edición de Pequeños Grandes Inventos, el Concurso de Proyectos Científicos organizado por la Universitat Politècnica de València con la colaboración del Colegio Oficial de Ingenieros Industriales de la Comunitat Valenciana - Demarcación de Valencia –y el apoyo de la Fundación Española para la Ciencia y la Tecnología (FECYT)- y dirigido a alumnos de ESO, Bachillerato y ciclos formativos de la Comunidad Valenciana (España). Cada proyecto ha sido galardonado con 1000 euros.

El proyecto “MaIOT”, presentado por los alumnos del colegio Salesianos Juan XXIII de Alcoi, Mark Andrés Sanegre y Aníbal Oreja Expósito, coordinados por su tutor Juan José López Almendros, ha recibido el premio de la UPV. Se trata de una chaqueta inteligente, en la que las indicaciones que el ciclista realiza con el brazo y que señalan cambios de dirección, son transformadas en señales luminosas en la espalda del ciclista para facilitar el visionado al resto de usuarios de la vía y poder evitar accidentes. “El sistema, además, incorpora distintos sensores que permiten conocer en tiempo real (a través del dispositivo móvil) distintas condiciones ambientales: posición, velocidad y detección de caídas con aviso a emergencias”, han añadido sus creadores.

Mientras, el proyecto Levanta- Independencia accesible para personas discapacitadas, ha obtenido el premio concedido por el Colegio Oficial de Ingenieros Industriales de la Comunitat Valenciana - Demarcación de Valencia. El proyecto ha sido desarrollado por los alumnos del British School de Alzira, Álvaro Pérez Guardiola, Juan Medeiros Ávila, Rafael Pérez Guardiola y Nuria Alberola Cotaina, bajo la coordinación del profesor Raúl Lacomba Perales. En él, han presentado un exoesqueleto motorizado impulsado por baterías para que los discapacitados logren tener más independencia y libertad. “El proyecto trata de utilizar la revolución de la tecnología y la información para crear un exoesqueleto mucho más accesible gracias a funciones reducidas, simplificación del diseño, reducción de la duración de la batería, uso de electrónica de precio reducido y software de fuente abierta”, han destacado los alumnos.

(Foto: UPV)

Además de los dos primeros premios, el jurado de esta séptima edición de Pequeños Grandes Inventos ha decidido conceder también dos accésits, dotados cada uno de ellos con 200 euros, a los proyectos “Vortex” y “Esocracia”.

El primero de ellos ha sido presentado por los alumnos del IES Escultor en Francesc Badia, Antonio Poveda Serrano, Ariadna Aranda Serrano, Pedro Sánchez Fernández y Adela Alsina, coordinados por el profesor José Antonio Ramírez Sánchez. Vortex es un prototipo de vehículo eléctrico de alta velocidad, más eficiente y cómodo que un vehículo convencional; mantiene su facilidad de manejo y mejora sus prestaciones, alargando la autonomía de sus baterías (aumentando las distancias de recarga) y optimizándolo para el transporte de larga distancia a alta velocidad..

Mientras, Esocracia fue ideado por un equipo de las Escuelas San José Jesuitas de Valencia, formado por Francisco Javier López López, Jorge Pagés Máñez, Blanca Rodríguez Villar y Sandra Casademunt Gillot, bajo la coordinación del profesor Alberto Gilsanz Mir,. Esocracia es una máquina para voto electrónico, que persigue la consecución de unas votaciones automatizadas y libres de fraude. Se ha diseñado tanto la estética exterior del elemento como la programación interna. La máquina consta también de un portátil, un emulador de teclado y un software de acceso multipuesto alojado en la nube. (Fuente: UPV)Al Índice.

PSICOLOGÍA - Utilizan técnicas de neuromarketing para analizar las respuestas emocionales a la publicidad televisiva

 

Investigadores de los departamentos de Comunicación y de Teoría de la Señal y Comunicaciones de la Universidad Rey Juan Carlos (URJC) de Madrid y del departamento de Neuromarketing de la Universidad Internacional de La Rioja (UNIR) (España) han realizado un experimento con ocho mensajes publicitarios audiovisuales en el que han utilizado técnicas de Neuromarketing. “Hemos analizado seis mensajes representativos de seis emociones básicas: alegría, sorpresa, ira, asco, miedo y tristeza; y dos racionales”, explican los investigadores de la URJC en el estudio publicado en la revista 'Comunicar'.

El objetivo del trabajo, titulado ‘Evaluación de las respuestas emocionales a la publicidad televisiva desde el Neuromarketing’, ha sido estudiar la relación entre las emociones inducidas en los mensajes publicitarios audiovisuales y su impacto en el recuerdo de los sujetos.

Por un lado, han estudiado señales fisiológicas como la actividad eléctrica cardíaca (ECG) y la actividad eléctrica de la dermis (AED) de los sujetos mientras visionaban los ocho mensajes emitidos sin interrupciones, procurando simular las características de un corte publicitario en televisión. Además, los investigadores han empleado una técnica de investigación convencional, un cuestionario aplicado a los sujetos que han participado en el experimento para medir tanto el recuerdo espontáneo como el sugerido de las marcas, los mensajes y las situaciones.

(Foto: DICYT)

Los resultados obtenidos ponen de manifiesto variaciones en las medidas realizadas en los mensajes correspondientes a la alegría, la sorpresa y la ira. Para el recuerdo sugerido del mensaje trasmitido como para la actividad del anunciante, el anuncio con mejores resultados ha sido el de la tristeza, anuncio que también ha sido considerado el más atractivo para los sujetos participantes.

Este estudio ha utilizado como recurso estratégico la Neurociencia, una disciplina que aporta una nueva perspectiva al permitir explorar aquellos motivos difíciles de verbalizar o inconscientes que hay detrás de los comportamientos de los consumidores. (Fuente: URJC/DICYT)Al Índice.

MICROBIOLOGÍA - Transmitir órdenes a las bacterias mediante superficies tratadas químicamente

 

Unos investigadores han desarrollado una forma de colocar sobre superficies recubrimientos especiales que “se comunican” químicamente con bacterias, diciéndoles lo que deben hacer. Los recubrimientos, que podrían ser útiles a la hora de inhibir o promover el crecimiento bacteriano en función de las necesidades de los humanos, poseen el poder de dar órdenes a las bacterias porque “hablan” el propio lenguaje del microbio.

La nueva tecnología, inventada por el equipo de Minyoung Kevin Kim y Aishan Zhao, de la Universidad de Princeton en Estados Unidos, dota a las superficies tratadas de exactamente los mismos tipos de biomoléculas que liberan las bacterias de modo natural para comunicarse y para coordinar el comportamiento en grupo, un proceso llamado detección de quórum.

Apropiarse de este lenguaje bacteriano de detección de quórum podría abrir paso a una serie de aplicaciones antes impensables, tal como vislumbran los investigadores.

Por ejemplo, recubrir superficies en hospitales podría combatir la formación de las comunidades acorazadas de bacterias llamadas biopelículas. Eso dejaría vulnerables a los gérmenes ante los antibióticos en humanos o ante los productos de limpieza desinfectantes sobre las superficies de habitaciones y equipamientos hospitalarios.

Alternativamente, si las bacterias proporcionan beneficios (como en las plantas de tratamiento de aguas residuales o en la elaboración de ciertos productos), entonces recubrir las superficies del equipamiento industrial podría mejorar las actividades útiles de los microbios.

Minyoung Kevin Kim observando la actividad bacteriana a través de un microscopio. (Foto: Princeton University)

En definitiva, esta línea de investigación y desarrollo plantea la fascinante y ahora plausible posibilidad de que ciertas superficies equipadas con los "letreros bioquímicos" adecuados para que las bacterias los "lean" y siguen las instrucciones indicadas, puedan ejercer un efecto antiinfeccioso o promover el crecimiento de esos microorganismos, a conveniencia de los usuarios humanos.

El equipo de Kim y Zhao llevó a cabo sus experimentos empleando como sujetos de estudio a bacterias de la especie Staphylococcus aureus. Se trata de uno de los azotes de los pabellones hospitalarios, donde puede sobrevivir e infectar a los pacientes, especialmente a aquellos a quienes se les implantan dispositivos médicos. Además de causar alteraciones potencialmente mortales, como la bacteriemia (intoxicación sanguínea) y el síndrome del shock tóxico, esta bacteria es habitualmente resistente a los antibióticos, lo que la coloca muy arriba en la lista de los patógenos sobre los que los médicos quieren desesperadamente mejores métodos de lucha.Al Índice.

MEDICINA - Cómo el sexo oral está contribuyendo a la aparición de un peligroso tipo de gonorrea resistente a los antibióticos

 

El sexo oral está contribuyendo a la aparición de un peligroso tipo de gonorrea resistente a los antibióticos, pero además, una caída en el uso del condón está contribuyendo a su contagio, según advirtió la OMS.

El sexo oral está contribuyendo a la aparición de un peligroso tipo de gonorrea resistente a los antibióticos, pero además, una caída en el uso del condón está contribuyendo a su contagio, según una advertencia de la Organización Mundial de la Salud (OMS).

Si alguien contrae gonorrea ahora es mucho más difícil de tratar, y en algunos casos hasta imposible.

Esta enfermedad de transmisión sexual está desarrollando rápidamente resistencia a los antibióticos y según los expertos de la OMS la situación es "bastante desalentadora", ya que hay muy pocos tratamientos nuevos en el horizonte.

Alrededor de 78 millones de personas se contagian de gonorrea en el mundo cada año.

Esta enfermedad, cuyos síntomas a veces son difíciles de identificar, puede causar infertilidad y facilitar el contagio del virus del VIH/Sida.

Tres casos "completamente intratables"

La doctora Theodora Wi, de la OMS, dijo que ya se registraron tres casos en los que la infección es totalmente intratable: uno era en Japón, otro en Francia y otro en España.

Pero las evidencias de resistencia están más extendidas, según el análisis que la organización hizo en 77 países.

"La gonorrea es una bacteria muy inteligente; cada vez que introducimos un nuevo tipo de antibióticos para tratarla, se vuelve resistente", dijo la doctora Wi.

Los expertos temen que los tres casos intratables identificados son solo la punta del iceberg, porque la mayoría de las infecciones de gonorrea se contagian en los países más pobres, donde los casos son más difíciles de detectar.

¿Por qué el sexo oral contribuye a su resistencia a los tratamientos?

La gonorrea está causada por la bacteria Neisseria gonorrhoea, que puede infectar los genitales, el recto y la garganta, pero es esta última la que causa más preocupación entre los profesionales de la salud.

La de la gonorrea es una bacteria muy inteligente, dicen los expertos. Cavallini James/Science Photo Library

Según explicó la doctora Wi, los antibióticos pueden hacer que las bacterias que están en la parte de atrás de la garganta, incluidas algunas que son neisseria "parientes" de la gonorrea, desarrollen resistencia a los medicamentos.

"Cuando usas antibióticos para tratar problemas como una infección de garganta típica, estos se mezclan con la especie Neisseria", un gran género de bacterias que agrupa a distintos tipos y que pueden estar en la garganta. "Y esto resulta en el desarrollo de resistencia".

Si además añades la bacteria específica de la gonorrea a ese ambiente a través del sexo oral, entonces puede surgir una especie de súper-gonorrea.

A veces es difícil de identificar

La gonorrea se contagia a través del sexo vaginal, oral o anal sin protección.

Algunos de los síntomas frecuentes son una secreción genital espesa de color verde o amarillo, dolor al orinar y sangrado entre los periodos en el caso de las mujeres.

Sin embargo, se estima que uno de cada 10 hombres hetereosexuales contagiados y tres cuartos de las mujeres infectadas no presentan síntomas fácilmente reconocibles.

Una infección de gonorrea que no se trata puede causar infertilidad y enfermedades de inflamación pélvica. También se le puede contagiar al bebé durante el embarazo.

El desafío de supervisar la resistencia

La OMS instó a los países a monitorear el contagio de la gonorrea resistente a los medicamentos y a invertir en nuevos tratamientos.

"Ahora mismo solo hay tres fármacos candidatos en desarrollo, y no hay garantía alguna de que funcionen", dijo la doctora Manica Balasegaram, de la Sociedad Global para la Investigación y el Desarrollo de Antibióticos.

Pero la OMS dijo que haría falta una vacuna para detener los contagios.

"Desde la introducción de la penicilina, que se consideró una cura rápida y confiable, la gonorrea ha desarrollado resistencia a todos los antibióticos terapéuticos", le dijo a la BBC el doctor Richard Stabler, de la Escuela de Higiene y Medicina Tropical de Londres.

"Durante los últimos 15 años la terapia ha tenido que cambiar tres veces a causa de los crecientes niveles de resistencia en todo el mundo", añadió.

"Ahora estamos en un punto en el que estamos usando los fármacos de último recurso, pero las señales son preocupantes, porque ya se han documentado fracasos en el tratamiento de ciertas variedades", dijo.Al Índice.

ROBÓTICA - Camareras robot causan furor en Pakistán

 

Una pizzería de una conservadora ciudad tiene tres empleados cibernéticos que son un éxito entre los comensales

Una pizzería pakistaní causa furor porque cuenta entre su personal a tres camareras robot.

"Es un nuevo tipo de servicio, es moderno", explicó Hamid Bashir, un cliente de la pizzería de Multán, al ver llegar a uno de estos autómatas, un robot blanco con pequeñas pantallas en los ojos y un vistoso fular en el cuello. "Vemos esto bien, es divertido para los niños", añadió.

Las camareras fueron pensadas por el propietario de Pizza.com, Osama Jafari, un joven ingeniero, que asegura que estos humanoides traen a muchos clientes al restaurante.

Jafari, que estudió en la National University of Science and Technology, una conocida universidad de Islamabad, explica que tras descubrir los videos de camareros robot en China, se lanzó a construir un prototipo con el apoyo de sus padres.

"La reacción fue increíble. A la gente le encanta", señaló el propietario.

Aseguró que fabricó y compró todos los componentes locales por un coste de 600,000 rupias (aproximadamente 5,500 dólares).

 

Jafari ya está preparando una nueva generación de robots, más interactivos para que puedan contestar a las preguntas de los clientes, y espera poder llevarlos a otro restaurante de la familia, un poco más al sur, en Hyderabad.Al Índice.