Notícia

Norberto de Buenos Aires (Argentina)

Ciencia y tecnología - N°45

Publicado em 27 julho 2017

Índice

ZOOLOGÍA - Las parejas de aves cooperan para resistir el cambio climático

QUÍMICA - Hacia un proceso práctico para descomponer plástico

SALUD - La soledad: un riesgo para la salud

INGENIERÍA - Realidad virtual con sensaciones táctiles más realistas

MEDICINA - Un nuevo antibiótico para una vieja enfermedad

BIOLOGÍA - Nuevo estudio sobre la integración entre cráneo y cerebro

PSICOLOGÍA - Mejor lo dejo para mañana’: la tendencia a la procrastinación crece con las nuevas tecnologías

ROBÓTICA - Investigadores sanjuaninos diseñan un dispositivo robótico para rehabilitar la marcha humana

BOTÁNICA - Hacia una fertilización de hierro más racional de los cultivos

NANOTECNOLOGÍA - La UPV/EHU desarrolla la primera aleación superelástica de dimensiones nanométricas

ASTROFÍSICA - Apenas se ha descubierto el 5% de la materia existente en el Universo

CLIMATOLOGÍA - La vegetación cambia el clima en un 30 por ciento

ASTRONOMÍA - Descubren un exoplaneta gigante casi tan caliente como el Sol

MICROBIOLOGÍA - ¿Qué necesita una bacteria para infectar otro organismo?

BIOLOGÍA - Producción y cultivo de hongos comestibles a partir de desechos orgánicos

MEDICINA - Imágenes 3D de embriones son un nuevo paso para la regeneración de lesiones de la médula

ASTRONOMÍA - Nueva información sobre la sorprendente baja temperatura de la Nebulosa del Búmeran

ANTROPOLOGÍA - Las manos del neandertal limitaban sus trabajos artesanales

MEDICINA - Nueva técnica para medir la actividad del tejido adiposo marrón, un órgano clave en el desarrollo de la obesidad

MEDICINA - Saltan las alarmas por el mal cumplimiento en el tratamiento de la vejiga neurógena

QUÍMICA - Detección de arsénico y reducción en aguas subterráneas

SALUD - Confirman que cenar tarde aumenta el riesgo de engordar

MEDICINA – Se ha obtenido los epigenomas completos de los tumores más frecuentes

INGENIERÍA - Producen un transistor capaz de simular el funcionamiento de las neuronas

SALUD - El pan integral no es más ‘saludable’ que el blanco

PSICOLOGÍA - La ULE investiga las diferencias culturales y generacionales en el comportamiento de compra

INGENIERÍA - Nariz, lengua y ojo electrónicos para distinguir los tipos de whisky

FÍSICA - Un nuevo modelo ayuda a entender la dinámica del plasma de cuarks y gluones

ZOOLOGÍA - Científicos del Smithsonian liberan ranas que portan mini transmisores de radio en Panamá

CLIMATOLOGÍA - Cuantificando los efectos del cambio climático

BOTÁNICA - Cómo decide la planta si crecer o entrar en modo ahorro

ROBÓTICA - Haciendo realidad cotidiana los robots con destreza humana en sus dedos

PALEONTOLOGÍA - El oído de las primeras ballenas era similar al de los animales terrestres

MEDICINA - Marcapasos sin batería

BIOLOGÍA - Desarrollan un yogur que ayuda a proteger de la Salmonella

GEOLOGÍA - Carreteras costeras amenazadas desde el subsuelo por el aumento del nivel del mar

MEDICINA - Un software de fácil uso y gratuito para ayudar a los médicos a diagnosticar enfermedades genéticas

ASTRONOMÍA - El futuro de la constelación de Orión

ARQUEOLOGÍA - Encuentran el objeto de cobre más antiguo hecho en Sudamérica

ECOLOGÍA - El calentamiento local en ciudades es mayor al calentamiento global

PSICOLOGÍA - Las redes sociales no reducen las desigualdades en la participación política

BIOLOGÍA - Fetos en desarrollo reaccionan al ver formas de caras dentro del útero

BIOLOGÍA - La Fecundación In Vitro cumple 40 años

ASTRONOMÍA - Estimación de cuánta agua fue necesaria para excavar valles marcianos

BOTÁNICA - Utilizan levaduras en limones como alternativa a los agroquímicos

COMPUTACIÓN - Inteligencia artificial prediciendo cuánto vivirá un paciente

COMPUTACIÓN - El "arte" de la Inteligencia Artificial

SALUD - El insomnio, el gran mal del siglo XXI

MEDICINA - Analizan la dinámica de la respuesta inmunitaria celular frente al crecimiento de tumores

PSICOLOGÍA - Los malos hábitos de las personas se reflejan en sus mascotas

MEDICINA - Eliminar las células más viejas de un individuo podría prolongar su vida

NANOTECNOLOGÍA - El grafeno, clave para descubrir los secretos de las proteínas

SALUD - Una de cada tres personas en el mundo tiene obesidad o sobrepeso

MEDICINA - Agregados de nanopartículas destruyen células cancerosas

MICROBIOLOGÍA - La madera del laurel impide la proliferación de bacterias perjudiciales en alimentos

QUÍMICA - Una nueva técnica permite estudiar con más precisión la interacción entre sistemas moleculares

BIOLOGÍA - Un nuevo compuesto activa la pigmentación de la piel sin radiación UV

ECOLOGÍA - El SOS de las abejas ante el cambio climático

MEDICINA - Un estudio con moscas Drosophila y células humanas identifica potenciales compuestos terapéuticos para el Parkinson

INGENIERÍA - En dos años será posible producir hueso y cartílago en impresoras 3D/4D para su posterior implantación en las personas

MEDICINA - Desarrollan un modelo matemático para identificar genes resistentes a fármacos contra el cáncer

ZOOLOGÍA - Las parejas de aves cooperan para resistir el cambio climático

El cambio climático modifica la ecología y la vida de los animales. Las primaveras cada vez más tempranas o los otoños más tardíos debido al aumento de las temperaturas provocan cambios en su fisiología, sus periodos de reproducción e incluso en sus rangos poblacionales. Sin embargo, poco se sabe aún sobre cómo se comportan ante estas perturbaciones.

Un equipo de científicos, que ha contado con la participación de la Estación Biológica de Doñana (EBD-CSIC) (España), ha analizado la influencia del cambio climático en el momento de la incubación de los chorlitejos (Charadrius spp.), un género de ave zancuda conocida también como chorlos o frailecillos en Hispanoamérica, que se encuentra en los seis continentes y que engloba a 33 especies.

Muchas de ellas anidan en el suelo en sitios sin cobertura vegetal para evitar a los depredadores, pero donde los nidos reciben radiación solar directa. “Esto puede resultar un desafío considerable”, señala a Sinc Juan A. Amat, investigador en la EBD y uno de los autores del estudio que se ha publicado recientemente en la revista Global Ecology and Biogeography.

Según el científico, la situación se complica para las aves durante los periodos centrales del día, “en los que los adultos que incuban podrían no soportar las altas cargas de calor”, añade. De manera general, la temperatura óptima proporcionada por los adultos para el desarrollo embrionario de los huevos es de 35-39 ºC.

“En muchas especies de aves en las que ambos miembros de la pareja participan en la incubación, un sexo, generalmente las hembras, incuba de día, en tanto que el otro (machos) lo hace de noche”, subraya Amat. Sin embargo, si las condiciones favorables se alteran, como por ejemplo con el aumento de las temperaturas, sería necesaria una mayor cooperación entre machos y hembras.

Para afrontar las variaciones climáticas, una solución sería acortar la duración de los turnos de incubación de cada sexo. Tras analizar el comportamiento de 36 poblaciones de 12 especies diferentes de chorlos, los resultados del trabajo, liderado por la Universidad de Bath (Reino Unido), revelan así que los machos de chorlitejos ayudan a las hembras durante la incubación diurna.

“La participación de los machos en la incubación diurna aumenta tanto con la temperatura ambiental como con lo variables que son las temperaturas máximas durante las temporadas de cría”, recalca el experto.

La investigación demuestra que un aumento de las temperaturas cambia el comportamiento y la rutina diaria en la atención a los nidos de estas parejas de aves. “Esta flexibilidad en la cooperación parental permitiría afrontar los impactos del cambio climático en la biología de reproducción de las poblaciones”, asevera el investigador, para quien la ayuda del macho se debe a la necesidad de proteger mejor al embrión ante eventos extremos.

Estudios anteriores habían confirmado que la incertidumbre ambiental influía en el inicio de la reproducción y la historia vital de las aves, y las variaciones impredecibles del entorno también afectaban a la cooperación de la pareja en el cuidado de las crías. El nuevo estudio concluye que la cooperación parental está fuertemente influida por las variaciones climáticas. (Fuente: SINC/Adeline Marcos)Al Índice.

QUÍMICA - Hacia un proceso práctico para descomponer plástico

Se ha inventado un catalizador nuevo y altamente eficiente para romper enlaces químicos resistentes, abriendo paso a la posibilidad de un más fácil reciclaje de los desechos de plástico.

¿Qué tienen en común las proteínas y el kevlar? Ambos presentan moléculas de cadena larga que se hallan engarzadas mediante enlaces de amida. Estos fuertes enlaces químicos son también habituales en muchas otras moléculas naturales, así como en fármacos y plásticos producidos por el Ser Humano. Aunque los enlaces de amida pueden proporcionar una gran fortaleza a los plásticos, cuando se trata de reciclarlos posteriormente, la dificultad de romperlos evita normalmente la recuperación de productos útiles. Los catalizadores se usan ampliamente en química para ayudar a acelerar reacciones, pero romper el tipo de enlaces de amida en plásticos como el nilón y otros materiales precisa de condiciones bastante extremas y de grandes cantidades de energía.

Siguiendo por una línea de investigación iniciada anteriormente, unos científicos de la Universidad de Nagoya en Japón han desarrollado una serie de catalizadores de rutenio organometálicos para descomponer de forma efectiva y bajo condiciones moderadas incluso los enlaces de amida más fuertes.

El equipo de Miura y Saito ha conseguido desarrollar una serie de catalizadores de rutenio organometálicos para descomponer incluso los enlaces más fuertes, sin requerir condiciones extremas. (Imagen: Nagoya University)

Los catalizadores anteriores desarrollados por este equipo, encabezado por Takashi Miura y Susumu Saito, podían hidrogenar la mayoría de enlaces de amida, pero las reacciones necesitaban mucho tiempo y altas temperaturas y presiones. Este nuevo catalizador de rutenio, en cambio, puede hidrogenar sustratos difíciles bajo condiciones mucho más moderadas.

La hidrogenación es un paso clave para alcanzar la rotura de los enlaces de amida. El catalizador presenta un átomo de rutenio sostenido en una estructura orgánica. Dicho átomo puede adsorber el hidrógeno y suministrarlo al enlace de amida para iniciar la descomposición.Al Índice.

SALUD - La soledad: un riesgo para la salud

Diferentes investigaciones ponen de manifiesto la relación entre genes y soledad, al tiempo que corroboran el mayor riesgo que tienen las personas aisladas socialmente de padecer una muerte prematura

La soledad es un riesgo para la salud de las personas que la sufren. Lo que muchos ya sabíamos sobre los problemas que acarrea estar solo en la vida se está confirmando científicamente en los últimos años gracias a la realización de diferentes estudios en los que se confirman los riesgos que padecen las personas que viven en soledad. En concreto, uno de estos estudios revela que “la expresión genética de los leucocitos y la soledad tienen una relación recíproca, lo que apunta a que cada una puede ayudar a incrementar la otra a medida que pasa el tiempo”, concluyeron los investigadores.

En concreto, esta conclusión confirmaba la correspondencia existente en la expresión genética de los glóbulos blancos de personas que vivían solas y en aislamiento social y, tras realizar un estudio con monos “aislados” concluyeron que “éstos aumentaron la expresión genética relacionada con la inflamación, disminuyendo la expresión genética de las defensas antivirales”.

“Tanto los humanos como los macacos solitarios presentaron niveles más altos de monocitos en la sangre”, afirmaron los investigadores de esta investigación publicada en las Proceedings of the National Academy of Science/PNAS. Asimismo, otra investigación reflejaba que el nivel de soledad de una persona puede impactar directamente en la gravedad y en la respuesta del organismo a una enfermedad.

¿Cómo podemos evitar la soledad de las personas?

Con la finalidad de evitar estos síntomas es necesario ser consciente del impacto negativo que tiene la soledad en nuestra salud y aprender algunas claves para dejar de sentirse solo. Y es que, como señalaba el informe publicado en Proceedings of the National Academy of Science/PNAS, “las ‘señales de alerta’ activadas en el cerebro por la soledad terminan afectando en última instancia a la producción de glóbulos blancos y de monocitos, pudiendo contribuir a los riesgos asociados para la salud”.

En definitiva, el estudio muestra una relación entre genes y soledad, al tiempo que corroboraba otras investigaciones anteriores en las que ya se indicaba que la soledad es reconocida como un factor de riesgo para la salud. De hecho, las personas que se sienten solitarias tienen un riesgo mucho mayor de un 14% de sufrir una muerte prematura.Al Índice.

INGENIERÍA - Realidad virtual con sensaciones táctiles más realistas

Unos ingenieros han usado tecnología de robótica blanda para producir guantes ligeros y flexibles que permitan a los usuarios tener sensaciones táctiles, mucho más realistas que lo logrado hasta ahora, cuando interactúan con entornos de realidad virtual. En las pruebas iniciales, estos investigadores han utilizado los guantes para simular de forma realista la sensación táctil de tocar un teclado de piano.

Actualmente, las interfaces de usuario para la percepción táctil en la realidad virtual consisten en simples dispositivos que vibran cuando quien los utiliza toca una superficie u objeto virtuales. No son realistas. No podemos notar resistencia cuando apretamos un botón, ni sentir otras cosas. En cambio, el equipo de Jurgen Schulze, del Instituto Qualcomm de la Universidad de California en San Diego, Estados Unidos, y Michael Tolley, de la Escuela Jacobs de Ingeniería en la misma universidad, está trabajando en hacer que el usuario sienta como si estuviera en el entorno real desde el punto de vista táctil.

Otros equipos de investigación, incluyendo los de importantes empresas del sector han trabajado en el desarrollo de guantes capaces de transmitir sensaciones táctiles de realidad virtual. Pero estos son voluminosos y están hechos de materiales pesados, como metales. El nuevo guante del equipo de Schulze y Tolley tiene un exoesqueleto blando equipado con músculos robóticos blandos que lo hacen mucho más ligero y fácil de usar.

Aunque los guantes fabricados por el equipo de Schulze y Tolley constituyen tan solo un primer prototipo, este ya es sorprendentemente efectivo.

Los músculos robóticos blandos son uno de los componentes esenciales del guante.

El sistema cuenta con tres componentes principales: un sensor de movimiento por pasos que detecta la posición y el movimiento de las manos del usuario; una unidad a medida de control fluídico que monitoriza los movimientos de los guantes; y componentes robóticos blandos en el guante que se inflan o desinflan individualmente para imitar las fuerzas que el usuario encontraría en un escenario físico real. En la versión actual de pruebas, el sistema interactúa con un ordenador que se encarga de mostrar un teclado de piano, con un río y árboles al fondo.

Un elemento clave en el diseño de los guantes es un tipo de componente robótico blando llamado músculo de McKibben, en esencia cámaras de látex recubiertas con fibras trenzadas. La unidad controla los músculos hinchándolos y deshinchándolos.Al Índice.

https://www.youtube.com/watch?v=gCka1qsD4q8

MEDICINA - Un nuevo antibiótico para una vieja enfermedad

Según la Organización Mundial de la Salud (OMS), los casos de tuberculosis que no responden a los tratamientos actualmente disponibles se están propagando. En ese marco, investigadores de Exactas UBA, junto con un laboratorio farmacéutico nacional, obtuvieron patentes internacionales para desarrollar compuestos novedosos que actúan de manera selectiva contra la bacteria causante de esa enfermedad.

El descubrimiento de los antibióticos, a comienzos del siglo XX, llevó a la humanidad a ilusionarse con que llegaría el día en el que se acabarían las muertes por infecciones. Sin embargo, por el uso irracional de antimicrobianos, las bacterias comenzaron a adaptarse y a hacerse resistentes a los tratamientos.

Hoy, numerosas especies bacterianas patógenas son inmunes a muchos antibióticos (cepas multirresistentes) y, algunas, sobreviven a todos los antimicrobianos conocidos (cepas panresistentes). Al mismo tiempo, las empresas farmacéuticas invierten poco y nada en investigación y desarrollo de nuevos antibióticos porque, debido a la rápida aparición de resistencia bacteriana, no es un área tan rentable como la de otro tipo de drogas, como las oncológicas o las cardiovasculares.

La gravedad de la situación en cuanto a la disponibilidad de estos medicamentos la evidencia un Comunicado de la Organización Mundial de la Salud (OMS) del año 2011, en uno de cuyos párrafos se afirma que “el mundo se encamina a una era pos-antibiótica en la que muchas infecciones comunes no tendrán cura y volverán a matar con toda su furia”.

En particular, la tuberculosis, una enfermedad infecciosa causada por la bacteria Mycobacterium tuberculosis es, actualmente, según la OMS, una de las principales causas de mortalidad a nivel mundial. La afección es curable y se puede prevenir. Pero, según el mismo informe, “los medicamentos antituberculosos corrientes se han venido usando por décadas y la resistencia a ellos se ha propagado”. De hecho, el organismo informa que “en todos los países estudiados se ha comprobado la existencia de cepas del bacilo que presentan resistencia a por lo menos un medicamento antituberculoso”.

En este contexto, y tras varios años de trabajo, un equipo de investigadores de la Facultad de Ciencias Exactas y Naturales de la UBA (Exactas UBA), en Argentina, ha dado un paso significativo en elcamino que conduce al desarrollo de nuevos antibióticos.

“Logramos crear compuestos nuevos con actividad selectiva contra las micobacterias”, revela Gerardo Burton, director del UMYMFOR, un Instituto perteneciente al CONICET y a la UBA. “Acabamos de obtener patentes en Estados Unidos y en la Unión Europea para esta invención”, anuncia.

La propiedad de esas patentes está repartida en partes iguales entre el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) y Laboratorios Richmond, una empresa farmacéutica argentina que está invirtiendo en el original desarrollo.

Para la invención de un nuevo medicamento suele elegirse un compuesto “base” al que se le efectúan modificaciones. De esta manera, se obtienen derivados distintos de la molécula original que luego son testeados para determinar si poseen la actividad biológica buscada.

En este caso, los investigadores se inspiraron en la estructura del ácido cafeico, una sustancia que abunda en el reino vegetal, para obtener una gran variedad de nuevos compuestos, algunos de los cuales poseen una potente actividad antibiótica contra las micobacterias.

“Las patentes también incluyen la descripción del método de preparación, que es novedoso”, afirma Burton. “O sea, la invención no consiste solamente en haber creado compuestos que son activos contra micobacterias sino, también, en inventar cómo hacer ese compuesto”, subraya.

En este punto, Burton resalta el trabajo llevado a cabo por Mario Martínez, recientemente doctorado en el UMYMFOR. “Logró diseñar y poner a punto un método que permite crear una amplia variedad de moléculas en prácticamente un solo paso”.

Un aspecto singular del descubrimiento es que, según los investigadores, el mecanismo de acción antibiótica de estos compuestos sería diferente al de las drogas antituberculosas actualmente en uso: “Si bien todavía no conocemos el mecanismo de acción de las moléculas que sintetizamos, los estudios iniciales indican que actuarían inhibiendo a la bacteria en una etapa de su ciclo vital sobre la que no actúan los otros antibióticos”, señala Fernando Durán, investigador del CONICET en el UMYMFOR. “Esto es algo muy importante, porque posibilitaría utilizar nuestras drogas en conjunto con otros medicamentos antituberculosos de tal manera de lograr una acción sinérgica”, explica, y resalta: “Cuando uno combina drogas, la probabilidad de que un microorganismo desarrolle nuevas formas de resistencia es muy reducida”.

El desarrollo también despertó el interés de científicos del Instituto Malbrán, donde se realizarán algunos de los ensayos con las nuevas drogas en cepas resistentes: “Quieren probar también si son efectivas contra el Mycobacterium abscessus, una bacteria que aparece cada vez más en las infecciones intrahospitalarias y que es muy complicada de combatir”, acota Burton.

Si bien faltan algunos años –y mucho dinero- para que los nuevos compuestos puedan ser testeados en seres humanos –“estamos por comenzar las pruebas en animales de laboratorio”-, los investigadores se muestran muy optimistas: “Los ensayos de actividad biológica son muy promisorios”.

Pero más allá del interés por los aspectos puramente científicos, los inventores dejan entrever otro aliciente: “Estamos devolviendo al Estado lo que está pagando con los impuestos”, comenta Durán. “Esto es algo que puede llegar a servirle a la gente para resolverle un problema”, reflexiona, y se pregunta: “¿El origen de la ciencia era eso, no?”. (Fuente: Argentina Investiga)Al Índice.

BIOLOGÍA - Nuevo estudio sobre la integración entre cráneo y cerebro

Emiliano Bruner y Sofia Pedro, del grupo de Paleoneurobiología del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), acaban de publicar un artículo en la revista Journal of Morphology donde se concluye que el aumento de las áreas parietales asociado a la evolución de nuestra especie y de nuestra redondeada bóveda ha introducido un cambio importante en la orientación funcional de toda la cabeza, con posibles efectos sobre postura y orientación de la cara.

Se trata de un estudio sobre la integración anatómica entre cráneo y cerebro en los humanos modernos, que analiza la correlación entre la forma del hueso parietal, que protege y cubre sobre todo el lóbulo parietal del cerebro, y la forma de la base del cráneo, que en sus fosas medias aloja parte de los lóbulos temporales.

Tanto cráneo como cerebro presentan cambios anatómicos evolutivos importantes en Homo sapiens, por lo que se había planteado la posibilidad de que estos rasgos estuvieran relacionados, y unos fueran consecuencia física de los otros. De ser así, los cambios en la forma de los lóbulos temporales podrían haber sido variaciones debidas a la geometría del cráneo y de su abultada bóveda, y no cambios anatómicos del cerebro.

Un nuevo trabajo profundiza en la integración anatómica entre cráneo y cerebro en los humanos modernos.

Pero como explica Emiliano Bruner, “nuestro trabajo ha demostrado que no es este el caso, las dos áreas de la cavidad craneal varían de forma independiente y es entonces probable que, en el registro fósil, nos estén indicando efectos distintos de nuestra evolución cerebral”.

El estudio, que ha sido llevado a cabo con la colaboración de Markus Bastir, del Museo de Ciencias Naturales de Madrid, experto en la morfología de la base del cráneo y en integración anatómica, proporciona además una perspectiva general de las relaciones entre cerebro y cráneo, y constituye un trabajo de síntesis sobre craneología funcional y neuroanatomía evolutiva. (Fuente: CENIEH/DICYT)Al Índice.

PSICOLOGÍA - Mejor lo dejo para mañana’: la tendencia a la procrastinación crece con las nuevas tecnologías

Aplazar el inicio o la culminación de una labor que debe realizarse es algo que le pasa la mayoría de las personas en algún momento de su vida. Postergar rendir un examen universitario, entregar un trabajo importante, realizar un chequeo médico o hacer un llamado telefónico puede producir cierto alivio temporal, pero a la larga – si la obligación no se enfrenta – genera malestar. Aunque posponer tareas puede tener que ver con encontrarlas tediosas o demasiado difíciles, otro motivo muy frecuente es el temor a fallar al hacerlas, tal vez por partir de parámetros de exigencia demasiado altos.

Marina Galarregui formó parte, durante su beca doctoral del CONICET en la Facultad de Psicología de la Universidad de Buenos Aires, de un equipo de trabajo que estudió el perfeccionismo – estilo de personalidad caracterizado por establecer altos estándares de desempeño asociado a una elevada autocrítica y al temor a cometer errores – en estudiantes universitarios argentinos. Ella particularmente trata de observar el vínculo entre esta variable y la procrastinación, tendencia a posponer el inicio o la culminación de una tarea que usualmente deviene en un estado de insatisfacción o malestar.

Aplazar quehaceres en función de actividades que son más gratificantes en lo inmediato –como dormir un rato más, mirar la televisión o leer una novela – no es algo fuera de lo común. “Hay estudios transculturales que revelan que un 60 o 70 por ciento de las personas reconocen haber pasado por situaciones de procrastinación. Lo que pasa es que no siempre se trata de un fenómeno generalizado. Tenemos que diferenciar entonces entre la procrastinación situacional (ocasional) y la crónica, donde la postergación vinculada a un malestar se generaliza a un montón de áreas. Esto ya no es algo tan común”, explica Galarregui.

Sin embargo, existen estudios que muestran que el número de procrastinadores crónicos aumentó en los últimos años. Una explicación posible para este fenómeno sería que el surgimiento de nuevas tecnologías aumenta la posibilidad de obtener una gratificación instantánea. “Las personas elegirían cada vez más hacer búsquedas en internet, chatear con el celular o seguir redes sociales en vez de actividades cuya compensación se produciría a más largo plazo”, argumenta la psicóloga.

Pero al alivio temporal que causa evitar una labor que se presenta aversiva y al disfrute momentáneo de suplantarla por otra más atractiva sobrevienen el reproche y la angustia. “Se encontró que a mayor procrastinación suele haber más síntomas de ansiedad y depresión”, afirma Galarregui.

Más allá de esta contraposición entre la tarea que se posterga y la que la reemplaza, y los diferentes tipos de recompensas que ofrece cada una –a largo plazo o inmediata- lo cierto es que pueden haber otras razones de fondo para que una persona procrastine. Evitar preparar un examen que debe rendirse o terminar un trabajo que tiene que entregarse –al igual que otros aplazamientos- puede derivar de acuerdo a la psicóloga del miedo a fracasar: “Puede haber un temor a no hacer suficientemente bien una tarea, no alcanzar el estándar o ser evaluado negativamente por ello. Es aquí donde aparece el vínculo con el perfeccionismo”.

Aunque el perfeccionismo fue tradicionalmente considerado un rasgo negativo, Galarregui adhiere a teorías actuales que prefieren distinguir un perfeccionismo desadaptativo de otro adaptativo.

“Ambos tipos de perfeccionistas se imponen estándares de desempeño altos – esto es lo que los diferencia de las personas que no lo son- pero los adaptativos suelen ser más flexibles, realistas y se sienten satisfechos con sus logros. Los desaptativos, en cambio, tienen una exigencia poco realista e inflexible que deriva en una gran brecha entre el rendimiento deseado y el alcanzado”, explica Galarregui.

De acuerdo a la psicóloga, el vínculo entre ambos tipos de perfeccionismo con la procrastinación es muy distinto, mientras la tendencia al aplazamiento crónico es baja entre los perfeccionistas adaptativos (menor incluso a su prevalencia entre los no perfeccionistas) es alta entre los desaptativos.

“El perfeccionista desadaptativo es aquel que por ejemplo chequea, corrige, agrega y quita cosas a un trabajo sin ponerle fin. Estos sujetos suelen tener un gran temor al fracaso y por no exponerse a esa posibilidad la postergan. Por eso es que algunos autores plantean que la aspiración a estándares demasiado elevados podría ser precursora de la procrastinación”, concluye Galarregui. (Fuente: CONICET/DICYT)Al Índice.

ROBÓTICA - Investigadores sanjuaninos diseñan un dispositivo robótico para rehabilitar la marcha human

En Argentina se estima que cada 10.000 recién nacidos, un niño nace con mielomeningocele (MMC), siendo San Juan la tercera provincia en prevalencia a nivel país. Un grupo de científicos diseñó una órtesis activa o exoesqueleto que se acopla a la pierna y permite recuperar la marcha humana.

Desde el año 2005, un equipo de trabajo, dirigido por Silvia Rodrigo, doctora en Ingeniería, e integrado por Dora Christian como codirectora, Carina Herrera, Claudia Lescano y Carlos Riveros, miembros del Gabinete de Tecnología Médica de la Facultad de Ingeniería de la Universidad Nacional de San Juan (UNSJ), estudia la problemática de la locomoción o marcha humana en pacientes con neuropatologías, tales como el Parkinson, accidente cerebro-vascular y lesión de la médula espinal, con vistas a su rehabilitación a través de dispositivos ortoprotésicos.

Dada la complejidad y amplitud de la temática, la investigación se centró, en los últimos años, en la rehabilitación de marcha de pacientes con Mielomeningocele, a partir de una solución tecnológica de características biomecatrónicas, tal como es una órtesis activa o robótica. Se entiende por órtesis activa o robótica (también denominado exoesqueleto) de rehabilitación de marcha a un dispositivo, conformado por una estructura que se acopla en paralelo con la extremidad inferior para asistir activamente durante el entrenamiento de marcha el movimiento articular deficiente por efecto de la parálisis o paresis muscular que ocasiona la lesión neurológica.

Tal asistencia activa se logra mediante actuadores articulares, acoplados a la estructura y controlados de acuerdo a un protocolo que propicie la recuperación funcional de la musculatura afectada, para lo cual el paciente entrena su marcha en una cinta caminadora, combinada con un sistema de soporte parcial del peso corporal.

El Mielomeningocele (MMC) es un desorden congénito que afecta a las funciones sensoriales y motoras del sistema nervioso del cuerpo humano y determina, entre otros trastornos, parálisis muscular parcial (paresis) o total, proporcionalmente, al nivel de lesión medular de MMC. En Argentina se estima una incidencia anual de 1.3 casos de MMC por cada 10.000 recién nacidos, siendo San Juan la tercera provincia en prevalencia a nivel país (RENAC-Ar, 2014).

En particular, una lesión lumbosacra incompleta de MMC ocasiona una paresis del grupo muscular de los flexores plantares del tobillo (ubicados en la parte posterior de la pierna), que generan por sí solos más potencia que la musculatura de cadera y rodilla juntas para el adecuado desarrollo de la marcha. Tal condición coloca a estos pacientes MMC en una fase de transición entre lograr o no la autoambulación, lo cual muestra la importancia de intentar restablecer su marcha.

Para la construcción de este tipo de dispositivos robóticos, el equipo implementó una plataforma de estudio, análisis y experimentación para diseñar y desarrollar un prototipo de órtesis activa de tobillo-pie (en inglés, Active Ankle-Foot Orthosis, AAFO). En particular, se estudió un caso de una paciente con lesión lumbosacra incompleta de Mielomeningocele (mayor de edad, residente en la provincia de San Juan), a partir de cuyos patrones de ambulación (registrados en el Laboratorio de Marcha de FLENI, Buenos Aires) se desarrolló esta investigación.

La plataforma implementada comprende el diseño, desarrollo, modelación y validación del sistema de actuación y de la estructura del prototipo de AAFO, permitiendo, además, evaluar experimentalmente el desempeño del prototipo, bajo un esquema de control adecuado para la primera fase del protocolo de rehabilitación de marcha en pacientes con esta neuropatología. Asimismo, a partir de los patrones de marcha de la paciente, se obtuvieron descriptores característicos de su modo de ambulación, que se prevé emplear para elaborar estrategias de control específicas, con el fin de propiciar la recuperación funcional de marcha en estos pacientes.

Esta propuesta demuestra un fuerte impacto, tanto desde el punto de vista del avance tecnológico posibilitando la inclusión social de personas con discapacidad, así como la consolidación de un equipo de trabajo interdisciplinario, pionero en Argentina en esta área del conocimiento de la Bioingeniería. (Fuente: Argentina Investiga)Al Índice.

BOTÁNICA - Hacia una fertilización de hierro más racional de los cultivos

El hierro (Fe) es un micronutriente esencial para las plantas, ya que participa en la síntesis de la clorofila, molécula clave en la fotosíntesis. A pesar de ser uno de los elementos más abundantes de la corteza terrestre, su deficiencia en los cultivos es común en regiones de suelos alcalinos y calizos (por ejemplo, en la Cuenca del Mediterráneo y el Valle del Ebro), lo que provoca baja productividad en los cultivos y baja calidad nutricional de la cosecha. El alto nivel de basicidad (elevado pH) de este tipo de suelos provoca que el hierro se presente en formas no disponibles para ser asimiladas por las plantas.

Las plantas deficientes en hierro presentan un amarilleamiento intervenal en las hojas, denominado clorosis férrica, especialmente en las jóvenes, debido a la falta de clorofilas. Actualmente, la forma más eficaz de remediar este desorden nutricional en cultivos sobre suelo calizo es la aplicación de quelatos sintéticos. Sin embargo, su alto coste limita su aplicación a cultivos de alto valor añadido. Optimizar el uso de estos quelatos y encontrar alternativas de similar eficacia resulta así primordial para reducir costes tanto económicos como ambientales.

Los agentes quelantes HBED y EDDHA son dos moléculas orgánicas sintéticas que forman quelatos muy estables con el hierro, y se ha probado que son altamente efectivos proporcionando este nutriente a las plantas cuando son cultivadas en suelos de pH neutro y alcalino.

Tras resultados positivos sobre la eficacia como fertilizante del HBED, un equipo del Departamento de Química Agrícola y Bromatología de la Facultad de Ciencias de la Universidad Autónoma de Madrid (UAM) (España) realizó una serie de ensayos con el objetivo principal de determinar el estado de desarrollo de las plantas óptimo para una aplicación más racional del quelato HBED con hierro, en comparación con productos basados en EDDHA.

Los productos basados en EDDHA son ampliamente utilizados a nivel mundial. Estas formulaciones comerciales contienen alrededor del 6% de hierro quelado en diferentes isómeros de diferente estabilidad y eficacia (o,oEDDHA, o,pEDDHA, p,pEDDHA y otros productos derivados), lo que tiene una influencia en el comportamiento final del producto según el medio de cultivo.

El HBED es similar estructuralmente al isómero o,oEDDHA y forma un quelato de hierro altamente estable. Su producto comercial es más puro (9% hierro quelado), por lo que la dosis de aplicación puede ser más baja con respecto a los productos basados en EDDHA.

Estudios recientes revelaron que el HBED era tan efectivo como el o,oEDDHA manteniendo hierro en solución tras 3 días. Además, proporciona hierro de forma adecuada a las plantas tanto en hidroponía como en cultivo en suelo, observándose un efecto a largo plazo cuando es aplicado a soja cultivada en suelo calizo. Bajo condiciones de campo también se observó una alta movilización de hierro hacia las flores en melocotoneros. Debido a estos estudios, en el año 2012 el HBED fue incluido en la normativa europea (UE 223/2012, que modifica la Directiva 2003/2003) como fertilizante autorizado de micronutrientes.

Como parte del trabajo de los investigadores de la UAM, publicado en Journal of the Science of Food and Agriculture, se llevó a cabo un experimento de retención en diferentes suelos y materiales del suelo, en el que se estudió el comportamiento de los diferentes isómeros del EDDHA en comparación con el HBED; además de dos ensayos biológicos en cámara de cultivo, en soja cultivada sobre suelo calizo. Utilizando el isótopo estable 57Fe, los investigadores cuantificaron el hierro aportado por los fertilizantes, y determinaron la distribución de este hierro y el originario del suelo de cultivo en los tejidos de las plantas y las fracciones del suelo.

Las pruebas de retención de los quelatos en materiales del suelo hasta 70 días mostraron la alta estabilidad del HBED a largo plazo, recuperándose en todos los materiales entre el 80 y 100% del Fe aplicado en esta forma. La retención del EDDHA fue mayor, debida al diferente comportamiento de sus isómeros en función del pH del medio y la naturaleza del material.

Los resultados obtenidos a partir de los cultivos de soja bajo condiciones controladas muestran una mayor eficacia del HBED proporcionando hierro que el producto comercial de EDDHA. Además, se comprobó el efecto a largo plazo del HBED.

Al variar los tiempos de aplicación de HBED y o,oEDDHA (inicio del cultivo, floración y fructificación), los investigadores observaron diferencias en la distribución del hierro aportado (tanto del fertilizante como del suelo de cultivo) en los tejidos de las plantas de soja. Así, basados principalmente en el contenido en hierro en frutos y la recuperación de las hojas con clorosis, pudieron determinar que la aplicación recomendada para HBED sería al inicio del cultivo, mientras que para o,oEDDHA sería durante la etapa de floración.

El trabajo, financiado por el Ministerio de Ciencia e Innovación, fue realizado por Clara Martín Fernández durante la realización de su Tesis Doctoral y la Dra. Sandra López Rayo, en colaboración con la Dra. Lourdes Hernández Apaolaza, y bajo la dirección del Dr. Juan José Lucena, del Departamento de Química Agrícola y Bromatología de la Facultad de Ciencias de la Universidad Autónoma de Madrid. (Fuente: UAM)Al Índice.

NANOTECNOLOGÍA - La UPV/EHU desarrolla la primera aleación superelástica de dimensiones nanométricas

Investigadores de la UPV/EHU (España) han estudiado las propiedades de superelasticidad a escala nanométrica a base de tallar pilares de una aleación hasta dimensiones nanométricas. En el artículo publicado por la prestigiosa revista científica Nature Nanotechnology los investigadores han constatado que por debajo de una micra de diámetro el material se comporta de manera diferente y requiere una tensión mucho más elevada para conseguir deformarlo. Este comportamiento superelástico abre nuevas vías en la aplicación de microsistemas de electrónica flexible y microsistemas implantables en el cuerpo humano.

La superelasticidad es una propiedad física por la que se puede deformar un material en gran medida, hasta un 10% —un porcentaje muchísimo mayor que en la elasticidad—, de forma que aplicando una tensión a una varilla recta, esta puede formar una U, y al eliminar la tensión aplicada, la varilla recupera completamente su forma inicial. Aunque está más que probada en materiales macroscópicos, “hasta ahora nadie había podido estudiar estas propiedades de superelasticidad en dimensiones micrométricas y nanométricas”, explica José María San Juan, investigador principal del artículo publicado por Nature Nanotechnology y catedrático de la UPV/EHU.

Investigadores del Departamento de Física de la Materia Condensada y de Física Aplicada II de la UPV/EHU han conseguido ver que “el efecto superelástico se mantiene en dispositivos realmente pequeños de una aleación de cobre-aluminio-niquel”. Se trata de una aleación con memoria de forma en la que el equipo de investigación lleva más de 20 años trabajando a nivel macroscópico: Cu-14Al-4Ni, una aleación que muestra superelasticidad a temperatura ambiente.

Utilizando un equipo denominado Focused Ion Beam, “un cañón de iones que actúa como una especie de cuchillo atómico que talla el material”,  explica San Juan, han construido micropilares y nanopilares de esta aleación de diámetros comprendidos entre 2 µm y 260 nm —un micrómetro es una millonésima parte de un metro y un nanómetro es una mil millonésima parte de un metro— a los que han aplicado una tensión con un sofisticado equipo llamado nanoindentador, que “permite aplicar fuerzas extremadamente pequeñas” y han medido su comportamiento.

Los investigadores han constatado y cuantificado por primera vez que en diámetros menores de un micrómetro hay un cambio notable de las propiedades relacionadas con la tensión crítica para la superelasticidad: “El material se empieza a comportar de manera diferente y requiere una tensión mucho más elevada para que se produzca. La aleación sigue presentando superelasticidad pero para tensiones más elevadas”. San Juan remarca la novedad de ese incremento de la tensión crítica con el tamaño, y subraya, además, que han podido explicar la razón de dicho cambio de comportamiento: “Hemos propuesto un modelo atómico que permite entender por qué y cómo cambia la estructura atómica de estos pilares cuando se les aplica una tensión”.

El catedrático de la UPV/EHU destaca la importancia de este descubrimiento, “un comportamiento superelástico espectacular a pequeña escala”, que abre nuevas vías en el diseño de estrategias de aplicación de aleaciones con memoria de forma para el desarrollo de microsistemas y nanosistemas electromecánicos flexibles. “La electrónica flexible está muy presente en el mercado actual, se utiliza cada vez más en prendas de vestir, zapatillas de deporte, en diversos displays…”. Asimismo, afirma que todo ello es de suma importancia para el desarrollo de dispositivos inteligentes médico-sanitarios implantables en el cuerpo humano, del tipo Lab on a chip o laboratorio en un chip: “Se podrán construir pequeñas microbombas o microactuadores que se puedan implantar en un chip, que permitan liberar y regular una sustancia dentro del cuerpo humano para diversos tratamientos médicos”.

Se trata de un descubrimiento que “se espera que tenga una gran repercusión científica y tecnológica y que pueda revolucionar ciertos aspectos en campos afines”, concluye San Juan, y se congratula de que “hemos sido capaces de transferir todo el conocimiento necesario y de conseguir las herramientas de trabajo que tienen los centros más avanzados para abrir una nueva línea de investigación con la capacidad de desarrollarla íntegramente en la UPV/EHU”.

El catedrático de la UPV/EHU José María San Juan Nuñez es responsable del grupo Metalurgia Física del Departamento de Física de la Materia Condensada de la Facultad de Ciencia y Tecnología de la UPV/EHU. Esta investigación ha contado con la colaboración del Departamento de Física Aplicada II de la UPV/EHU, del Departamento de Ciencia de los Materiales de la Universidad de Cádiz y del CIC nanoGUNE. (Fuente: UPV/EHU)Al Índice.

ASTROFÍSICA - Apenas se ha descubierto el 5% de la materia existente en el Universo

Desde la antigüedad, el ser humano de distintas civilizaciones ha mirado al cielo para responder a las preguntas fundamentales de cómo se originó el Universo, de qué está formado y cómo ha evolucionado hasta nuestros días.

Observatorios antiguos y modernos, telescopios, radioscopios, satélites y sondas espaciales han ayudado a los astrónomos a observar para avanzar con sus miradas tecnológicas el conocimiento de esta área medular de la ciencia.

“Apenas se ha descubierto el cinco por ciento de la materia, la que es visible porque irradia luz y constituye a galaxias, planetas, estrellas y todos los seres vivos”, dijo Carlos Frenk Mora, egresado de la Facultad de Ciencias de la UNAM (México), y fundador y director del Instituto de Cosmología Computacional, dependiente del Departamento de Física de la Universidad de Durham, Reino Unido.

El 25 por ciento del Universo está formado de materia oscura, cuya presencia se ha comprobado desde la teoría, pero no se ha podido ver experimentalmente, pues no emite ninguna radiación. “Y el 70 por ciento está formado por algo aún más extraño, que no sabemos a detalle qué es y por eso le llamamos energía oscura”, indicó el astrónomo mexicano.

En el auditorio Paris Pishmish del Instituto de Astronomía, en ocasión de su ingreso como miembro correspondiente a la Academia Mexicana de Ciencias (AMC), Frenk Mora ofreció la conferencia Todo de la nada: cómo se formó nuestro Universo, en la que dijo que “todo es el Universo, y nada se refiere al vacío”.

La energía oscura es invisible a nuestros ojos, produce una fuerza repulsiva y participa en la expansión del Universo. Por su parte, la materia oscura se conoce con evidencia científica desde la década de 1970, y hoy se sabe que produce halos que rodean a las galaxias. “La materia oscura ha esculpido al Universo”, expuso.

Carlos Frenk Mora, egresado de la Facultad de Ciencias de la UNAM. (Fuente: UNAM)

Frenk Mora indaga el misterio de la materia oscura. Para lograrlo ha creado una herramienta potente, rigurosamente científica y estética de la evolución del Universo: una gigantesca simulación cosmológica.

Nutrida con datos científicos que aportan resultados visuales a partir de un enjambre matemático, el astrónomo mexicano creó, junto con su colega Simon White, director del Instituto Max Planck de Astrofísica de Alemania, el modelo de Materia Oscura Fría con Constante Cosmológica, con el cual recrean en una supercomputadora la formación y evolución de las estructuras cósmicas.

En su simulación, introdujeron las condiciones iniciales del cosmos y su hipótesis sobre su contenido. Incluyeron ecuaciones sobre la relatividad general, mecánica, hidrodinámica radiativa y física atómica, entre otras. Después, corrieron los programas de cómputo y obtuvieron la formación gradual de hilos que, poco a poco, se van engrosando hasta formar ovillos que concluyen en galaxias.

Formada la gran simulación, la impresión es la de una enorme telaraña cósmica, constituida por hilos y filamentos que unen hasta a mil millones de galaxias. Éstas llegan a esa formación por la acción de la gravedad, luego del calmo y en apariencia “vacío” estado inicial.

Por este trabajo, realizado dentro del proyecto The Millennium Simulation, Frenk Mora es uno de los líderes mundiales en cosmología.

Estudió física en la Facultad de Ciencias y completó estudios de maestría y doctorado en la Universidad de Cambridge, en Reino Unido.

En 2014 recibió la Medalla de Oro de la Real Sociedad Astronómica del Reino Unido, un honor que han merecido mentes brillantes como las de Albert Einstein, Edwin Hubble y Stephen Hawking.

“Soy universitario, la UNAM es mi primera alma máter”, dijo orgulloso. “Aquí aprendí a ser crítico, algo que caracteriza a la ciencia”.

A distancia, en Reino Unido apoya a los estudiantes mexicanos que viajan a aquel país y mantiene un contacto cercano con científicos mexicanos de su disciplina. Desde hoy, por solicitud de destacados integrantes del gremio astronómico del país, es miembro correspondiente de la Academia Mexicana de Ciencias. (Fuente: UNAM/DICYT)Al Índice.

CLIMATOLOGÍA - La vegetación cambia el clima en un 30 por ciento

Unos científicos han encontrado fuertes retroalimentaciones entre la atmósfera y la vegetación que, según las conclusiones de la investigación, explican hasta el 30 por ciento de la variación en las precipitaciones y en la incidencia de la radiación en la superficie. El estudio abre una vía que podría mejorar de las predicciones meteorológicas estacionales.

El equipo de Pierre Gentine y Julia Green, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, ha analizado observaciones globales por satélite y todo parece indicar que la vegetación altera el clima y los patrones del tiempo meteorológico hasta en un 30 por ciento. Usando un nuevo enfoque, los investigadores encontraron que las retroalimentaciones entre la atmósfera y la vegetación (la biosfera terrestre) pueden ser bastante fuertes, explicando hasta ese 30 por ciento de variabilidad en la precipitación y la radiación en la superficie.

Este estudio es, hasta donde saben sus autores, el primero en examinar las interacciones entre biosfera y atmósfera usando datos puramente de observación, y podría mejorar mucho las predicciones meteorológicas y climáticas esenciales para la gestión de cultivos agrícolas, la seguridad alimentaria, los suministros de agua, las sequías y las olas de calor.

La vegetación puede afectar al clima y a los patrones meteorológicos debido a la liberación de vapor de agua durante la fotosíntesis. Dicha liberación de vapor en el aire altera los flujos de energía en la superficie y promueve la formación de nubes. Las nubes alteran a su vez la cantidad de luz solar, o radiación, que puede alcanzar la superficie de la Tierra, afectando al equilibrio energético del planeta, y en ciertas áreas ello puede llevar a precipitaciones. Pero, hasta el nuevo estudio, la comunidad científica no había conseguido cuantificar con suficiente exactitud mediante observaciones cuánto puede afectar la fotosíntesis, y la biosfera más en general, al tiempo meteorológico y al clima.Al Índice.

ASTRONOMÍA - Descubren un exoplaneta gigante casi tan caliente como el Sol

Un planeta del tamaño de Júpiter que rodea a su estrella cada día y medio, con temperaturas más altas que la mayoría de las estrellas y con una gigantesta y brillante cola de gas, como un cometa. Esto es lo que ha encontrado un equipo internacional de astrónomos liderado por las universidades Ohio State y Vanderbilt (Estados Unidos) en órbita alrededor de una estrella masiva a la que han denominado KELT-9, ubicada a 650 años luz de la Tierra en la constelación Cygnus. El trabajo, en el que participa una entidad portuguesa, el Crow Observatory de Portoalegre, acaba de publicarse en la revista Nature.

Con una temperatura que durante el día alcanza un máximo de 4.600 grados Kelvin (unos 4.326 grados Celsius), el recién descubierto exoplaneta es tan sólo 1.200 grados Kelvin (unos 926 grados Celsius) más frío que nuestro propio Sol. Se trata de una temperatura tan alta que podría causar que las moléculas se separaran y su atmósfera se evaporara.

La razón por la que este exoplaneta es tan caliente es que la estrella que orbita es más del doble de grande y casi el doble de caliente que el Sol. "KELT-9 emite tanta radiación ultravioleta que puede evaporar completamente el planeta”, apunta Keivan Stassun, profesor de la Universidad de Vanderbilt, quien ha dirigido el trabajo junto con Scott Gaudí.

El exoplaneta tiene otras características igual de inusuales. Por ejemplo, es un gigante gaseoso 2’8 veces más masivo que Júpiter pero sólo la mitad de denso, porque la radiación extrema de su estrella ha causado que su atmósfera se hinche como un globo. Debido a la cercanía entre ambas –están tan cerca como está la Luna de la Tierra-, el planeta por el día está perpetuamente bombardeado por radiación estelar y, como resultado, es tan caliente que moléculas como el agua, el dióxido de carbono y el metano no pueden formarse allí.

De este modo, si la estrella empieza a expandirse, engullirá al planeta. "KELT-9 se hinchará para convertirse en una estrella gigante roja en alrededor de mil millones de años", asegura Stassun. Este hallazgo, -realizado también por investigadores de Dinamarca, Italia, Japón, Hawai, Suiza, Australia, Alemania y Sudáfrica-, ayuda a mejorar la comprensión de los planetas que orbitan alrededor de estrellas masivas y muy calientes, que hasta la fecha ha sido limitado debido al pequeño número de observaciones disponibles.

Se sabe que existen miles de exoplanetas en tránsito, pero sólo seis se han encontrado en órbita alrededor de estrellas calientes de tipo A (que tienen temperaturas de 7.300-10.000 kelvin), y ninguna se ha encontrado alrededor de estrellas más calientes de tipo B. Anteriormente, el planeta más caliente conocido (alrededor de 3.300 kelvin) se encontró orbitando una estrella con una temperatura de alrededor de 7.430 kelvin. La estrella que orbita el exoplaneta gigante hallado tiene una temperatura estimada de alrededor de 10.170 kelvin, colocándose en la línea divisoria entre las estrellas de tipo A y B. (CGP/DICYT)Al Índice.

MICROBIOLOGÍA - ¿Qué necesita una bacteria para infectar otro organismo?

Científicos del Centro de Biotecnología y Genómica de Plantas, centro mixto de la Universidad Politécnica de Madrid (UPM) y el Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA), en España, han creado una herramienta informática capaz de identificar de forma automática factores de patogenicidad conocidos.

Dicha herramienta puede utilizarse on line y proporciona un catálogo instantáneo de las ‘armas’ de las que dispone la bacteria. Con estos datos, el equipo de investigadores construyó un predictor que puede distinguir los genomas de las bacterias patógenas de las no-patógenas con una precisión superior al 90%.

La aparición de nuevas enfermedades bacterianas asociadas al consumo de plantas, como la epidemia de Escherichia coli en Alemania en 2011, hace necesario un método que permita predecir el origen de la bacteria a partir de los datos de su genoma.

Para bien o para mal, las bacterias dominan el mundo. La inmensa mayoría son inocuas o beneficiosas y sin ellas sería imposible la vida en la Tierra. Pero un pequeño número de especies bacterianas son capaces de infectar a otros organismos produciendo enfermedades.

Las bacterias patógenas de plantas producen pérdidas importantes en cosechas y, más importante aún, algunos patógenos humanos se asocian a las plantas en algunas fases de su ciclo vital.

Pero, ¿qué necesita una bacteria para infectar a otro organismo? Tradicionalmente los microbiólogos intentaban contestar a esta pregunta desactivando un gen particular de la bacteria y midiendo después su capacidad infectiva.

Esta estrategia ha resultado muy efectiva pero tiene limitaciones, ya que ha permitido identificar muchos de los mecanismos importantes pero no nos proporciona una perspectiva global.

Desde hace poco tiempo están disponibles los genomas secuenciados de un gran número de bacterias –patógenas y no patógenas–, lo que facilita abordar la cuestión desde un nuevo punto de vista, qué genes debe contener un genoma bacteriano para que pueda infectar a una planta.

Así, los autores han desarrollado una herramienta denominada PIFAR (Plant-bacteria Interaction Factors Resource) que consiste en un repositorio público de determinantes genéticos bacterianos implicados en la interacción planta-bacteria.

El uso de esta herramienta ha permitido predecir posibles interacciones entre bacterias y plantas, algunas de las cuales eran ya conocidas y otras no. Por ejemplo, el género Cronobacter incluye algunos patógenos oportunistas, transmitidos por alimentos, que causan enfermedades graves en bebés y neonatos y que pueden colonizar también vegetales.

De manera consistente con estos resultados, los índices de asociación con plantas que arroja el clasificador son altos, destacando la cepa Cronobacter turicencis, que da un valor más alto y que es particularmente perniciosa.

Como explica Pablo Rodríguez Palenzuela, uno de los investigadores que ha llevado a cabo este trabajo, “los avances en genómica permiten obtener la secuencia completa de cualquier especie bacteriana con facilidad. Por tanto, esta herramienta puede predecir si una bacteria implicada en una epidemia de nueva aparición tiene posiblemente un origen vegetal o no, lo cual proporcionaría una pista importante a los epidemiólogos para el control de dicha epidemia”. (Fuente: Universidad Politécnica de Madrid)Al Índice.

BIOLOGÍA - Producción y cultivo de hongos comestibles a partir de desechos orgánicos

Un trabajo científico desarrollado por investigadores del Instituto de Ambiente, Montaña y Regiones Aridas (IAMRA) de la Universidad Nacional de Chilecito (Argentina) comprobó que de la cáscara de nuez se puede obtener un hongo apto para el consumo humano. Es conocido científicamente como Pleurotus o gírgola, según los especialistas, es el más fácil de producir debido a su gran adaptabilidad a distintos tipos de sustratos y condiciones ambientales, también a su alta resistencia a pestes y microorganismos competidores y a su alto rendimiento económico. En la región del Valle Antinaco, en Los Colorados, La Rioja, estos desechos orgánicos se producen en grandes toneladas y en la mayoría de los casos se desechan.

Norma Canton, investigadora del IAMRA explicó a Argentina Investiga el procedimiento para la obtención de la gírgola: “Nosotros estudiamos cuáles eran los residuos orgánicos donde podríamos producir el hongo Pleurotus con el propósito de darle una aplicación social. Es decir, no tan solo enseñar cómo se produce ese hongo. Probamos con diferentes sustratos como el orujo de vid, el olivo y la cáscara de nuez, y observamos que tenían muy buenos resultados con esta última. La prueba de aceptabilidad también la hicimos con orujo de la vid, pero no obtuvimos resultados favorables, es decir, el gírgola no crecía en ese sustrato”.

La investigadora aseguró que “la cáscara de nuez y su pulpa aportan nutrientes, proteínas, nitrógeno y la materia orgánica de la cual se alimenta el hongo, es decir, es un alimento propicio para su crecimiento”.

Según indicó Canton, la producción del hongo gírgola se realiza en dos fases: incubación y fructificación. En la primera se procede a la asepsia del sustrato “porque como está sucio, puesto que lo traemos del campo, donde se arroja, y puede tener organismos patógenos que afectan el cultivo. Se coloca ese sustrato (cáscara de nuez) en una bolsa de polietileno y agua suficiente porque necesita de mucha humedad. Seguidamente se cierra esa bolsa y se lo lleva a esterilizar”.

La esterilización se realiza “poniendo la bolsa en una cacerola, la calentamos hasta que alcanza los 90 grados y lo mantenemos durante dos horas para que pueda matar a todos los organismos que puedan afectar nuestro cultivo. En esta etapa es donde se agregan a ese sustrato las semillas o micelio del hongo girgola”.

La cáscara de nuez debe estar triturada, con mucha humedad. La preparación se lleva a una habitación debidamente acondicionada (a oscuras y a una temperatura de 25ºC.), en la sala de incubación allí debe permanecer durante un mes, es decir, hasta que el micelio pueda desarrollarse por todo el sustrato. Cumplido el plazo, pasa a la siguiente fase: la fructificación. Ese sustrato con el micelio maduro se lleva a otra habitación acondicionada, en este caso debe tener mucha iluminación y ventilación y a una temperatura ambiental de 15 ºC., “es importante en esta etapa que la preparación reciba mucha humedad, por lo tanto lo que hacemos es regarlo por lo menos tres veces al día. Al cabo de 7 a 10 días comienzan a formarse las primeras setas, que es la parte comestible. Ya están en condiciones de ser consumidos”.

Norma Canton remarcó que “no hay antecedentes de la producción de este hongo en la cáscara de nuez. Estas setas tienen la capacidad de que una vez que se cosechan vuelven otra vez a producir dos a tres veces, hasta que se agotan los nutrientes que tiene el sustrato”.

Para la producción y cultivo del hongo Pleurotus se destacan las condiciones climáticas y orográficas de la zona y la disponibilidad de mano de obra y recursos de los desechos orgánicos.

El trabajo es ejecutado en forma conjunta con la Dirección de la Mujer/ Género de la Municipalidad de Chilecito (La Rioja). Sus destinatarias son mujeres que asisten al área que las representa y que se encuentran en situaciones de vulnerabilidad familiar y a través de la capacitación en producción y cultivo de gírgola intentan contribuir con la economía familiar. (Fuente: Argentina Investiga)Al Índice.

MEDICINA - Imágenes 3D de embriones son un nuevo paso para la regeneración de lesiones de la médula

Investigadores argentinos lograron visualizar, en ratones, el rol de una proteína en el desarrollo neuronal. “Nuestra meta es probar en el futuro terapias experimentales” para recuperar la movilidad de pacientes, avisaron.

La primera aplicación en el país de una técnica que transparenta embriones completos de ratón y permite visualizar el desarrollo de sus neuronas podría ser el punto de inflexión para impulsar la aparición de tratamientos que posibiliten recuperar el movimiento en pacientes con lesiones medulares.

Así lo informó un grupo de investigadores argentinos liderado por el doctor Ramiro Quintá, del Instituto de Química y Fisicoquímica Biológicas (IQUIFIB), dependiente de la UBA y del CONICET. “Nuestra meta es desarrollar terapias experimentales con la esperanza de poder contribuir al diseño futuro de tratamientos que estén disponibles para los pacientes humanos con esa patología”, dijo a la Agencia CyTA-Leloir.

En el estudio, Quintá y sus colegas pudieron observar en ratones la “película” detallada del desarrollo embrionario de las neuronas: una proeza que había conseguido y publicado este año un equipo francés en la revista Cell, pero usando un tipo de microscopio (llamado “ligth sheet”) inexistente en el país.

Ahora, los científicos aplicaron una serie ingeniosa de procedimientos para obtener los mismos resultados. Primero, volvieron transparentes a los embriones de ratón mediante la remoción química completa de las grasas de las paredes celulares. Luego, colorearon las estructuras neuronales con anticuerpos específicos y, usando otro tipo avanzado de microscopio (“confocal de 1-fotón”), tomaron en promedio 800 imágenes en distintos planos para crear imágenes 3D. Por último, irradiaron a los embriones con una luz LED de alta energía, a fin de obtener imágenes en alta resolución de axones únicos (porciones de las neuronas que transportan información). Para este último paso, recurrieron a un microscopio STORM ubicado en la UCA.

Pero los investigadores no se limitaron a observar: también examinaron el rol que juega en el proceso una proteína, llamada galectina, cuya administración en ratones había permitido en estudios previos recobrar el movimiento después de una lesión completa de la médula espinal. Para su sorpresa, comprobaron que la galectina producida por el propio organismo no participa del desarrollo ni del crecimiento normal de las neuronas, como se pensaba. “Su ausencia no produce ninguna alteración neuroanatómica en el ratón, ni una posterior alteración en la coordinación motora”, resumió Quintá.

En cambio, la galectina “tiene un efecto protector y regenerador en las neuronas si se aplica en lesiones medulares”, añadió. El hallazgo tiene una aplicación potencial inequívoca. El próximo paso, dijo, sería diseñar ensayos clínicos que apunten a tratar de emergencia aquellas lesiones agudas de la médula espinal.

El trabajo fue publicado en el Journal of Comparative Neurology. Y también participaron el doctor Francisco Barrantes, director del Laboratorio de Neurobiología Molecular del Instituto de Investigación Biomédica, que depende de la UCA y del CONICET, y la doctora Juana María Pasquini, directora del laboratorio de mielina del IQUIFIB. (Fuente: AGENCIA CYTA-INSTITUTO LELOIR/DICYT)Al Índice.

ASTRONOMÍA - Nueva información sobre la sorprendente baja temperatura de la Nebulosa del Búmeran

Una antigua estrella roja gigante que se encuentra en los estertores de una muerte glacial produjo uno de los objetos más fríos que se conocen en el cosmos: la nebulosa del Bumerán. Durante más de dos decenios, fue un misterio total cómo esta estrella pudo crear un ambiente con temperaturas sorprendentemente más bajas que la temperatura natural del espacio profundo.

Según un equipo de astrónomos que usó el Atacama Large Millimeter/submillimeter Array (ALMA), la respuesta podría estar en una pequeña estrella vecina que se habría zambullido en el centro de la gigante roja y eyectado la mayor parte de su materia en un chorro de polvo y gas ultrafrío.

El chorro se expande a una velocidad tal (cerca de 10 veces más rápido de lo que podría lograr una estrella por sí sola) que su temperatura ha bajado a menos de medio grado Kelvin (272,65 ºC). Cero grados Kelvin es la medida conocida como cero absoluto, donde todo movimiento termodinámico se detiene.

Las observaciones de ALMA permitieron a los investigadores dilucidar este misterio proporcionándoles los primeros cálculos precisos de la extensión, la edad, la masa y la energía cinética de la nebulosa.

“Estos nuevos datos nos muestran que la mayor parte del envoltorio estelar de la gigante roja ha sido arrojado al espacio a velocidades mucho mayores de las que alcanzaría una gigante roja por sí sola”, sostiene Raghvendra Sahai, astrónomo del Jet Propulsion Laboratory de la NASA en Pasadena (California, EE. UU.) y autor principal de un artículo que se publicará en The Astrophysical Journal. “La única forma de eyectar tanta masa a velocidades tan extremas es por efecto de la energía gravitacional de dos estrellas en interacción, lo cual explicaría las intrigantes características del chorro ultrafrío”, agrega. Según Sahai, estos vecinos cercanos podrían explicar la extinción precoz y violenta de la mayoría de las estrellas del Universo.

“Las propiedades extremas de la nebulosa del Bumerán ponen a prueba las ideas convencionales sobre estas interacciones y representa una de las mejores oportunidades que tenemos para explorar las características físicas de los sistemas binarios que contienen una estrella gigante”, agrega Wouter Vlemmings, astrónomo de la Chalmers University of Technology, ubicada en Suecia, y coautor del estudio.

Imagen compuesta de la nebulosa del Bumerán, una nebulosa preplanetaria generada por una estrella moribunda. (Créditos: ALMA (ESO/NAOJ/NRAO); NASA/ESA Hubble; NRAO/AUI/NSF)

La nebulosa del Bumerán se encuentra a unos 5.000 años luz de la Tierra, en la constelación del Centauro. La estrella gigante roja situada en su centro debería encogerse y calentarse, para finalmente ionizar el gas que la rodea y producir una nebulosa planetaria. Las nebulosas planetarias son objetos muy brillantes que se forman cuando las estrellas como nuestro Sol (o un poco más grandes) crecen y se despojan de sus capas superficiales hacia el final de su fusión nuclear. La nebulosa del Bumerán, en este caso, representa las primeras etapas de este proceso, con lo cual es una nebulosa preplanetaria.

Cuando la observaron por primera vez en 1995, los astrónomos se percataron de que estaba absorbiendo la luz del fondo cósmico de microondas, la radiación remanente del Big Bang. Esta radiación es la que determina la temperatura natural del espacio, de apenas 2,725 grados sobre el cero absoluto. Para que absorba dicha radiación, la nebulosa del Bumerán tiene que haber sido más fría que esta débil energía remanente, que lleva más de 13.000 millones de años enfriándose.

Las nuevas observaciones de ALMA también permitieron generar una imagen muy representativa de esta nebulosa preplanetaria, donde se aprecia un chorro con forma de reloj de arena dentro de otro chorro ultrafrío redondeado. El reloj de arena se extiende por más de 3 billones de kilómetros de un extremo a otro (cerca de 21.000 veces la distancia entre el Sol y la Tierra), y es el resultado de una erupción provocada por la estrella central, que barre la parte interna del chorro ultrafrío.

Este último es más de 10 veces más grande. A 164 kilómetros por segundo, el material presente en sus extremidades tardó aproximadamente 3.500 años para alcanzar estas distancias tras ser eyectado por la estrella moribunda.

Sin embargo, estas condiciones no durarán mucho, puesto que la nebulosa del Bumerán se está calentando lentamente.

“Vemos este particular objeto en un momento muy especial y breve de su vida”, señala Lars-Åke Nyman, astrónomo del Joint ALMA Observatory, en Santiago de Chile, quien también firma el artículo. “Es posible que estos supercongeladores cósmicos sean bastante comunes en el Universo, pero que solo puedan mantener estas temperaturas extremas durante un período relativamente corto”. (Fuente: OBSERVATORIO ALMA/DICYT)Al Índice.

ANTROPOLOGÍA - Las manos del neandertal limitaban sus trabajos artesanales

Unas falanges más cortas y unas manos menos habilidosas son las responsables de la ausencia de pequeñas herramientas de piedra en época neandertal, y no las deficiencias cognitivas ni simbólicas de los homínidos, como se pensaba. Así lo revela una investigación del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humano (España) tras la recreación de estas extremidades a partir de hallazgos arqueológicos.

“Las manos de alguno de nuestros ancestros o coetáneos, como el Neandertal, fueron tan parecidas a las nuestras que nadie había sospechado que ahí podía encontrarse una diferencia crucial”, justifica Manuel Martín-Loeches, investigador del departamento de Psicobiología de la UCM.

Mediante una reconstrucción de la mano del Neandertal, basada en diversos hallazgos arqueológicos, se determinó el grado de esfuerzo que para esta especie hubiera supuesto la fabricación de este tipo de industria.

Los resultados, publicados en Journal of Anthropolological Sciences, revelaron que de las ocho posiciones manuales necesarias, seis suponían un tremendo estrés mecánico para la mano del Neandertal.

Según Martín-Loeches, muchos autores habían atribuido esta escasez de microlitos previa al Homo sapiens a las menores capacidades cognitivas o “simbólicas” de homínidos anteriores. Sin embargo, “fabricarlo no es nada fácil, exige una gran habilidad por parte de ambas manos, con movimientos muy definidos y precisos durante su fabricación”, añade.

“Las falanges de los dedos Neandertales no eran lo suficientemente largas durante la fabricación de microlitos”, apunta una de las coautoras.

Este tipo de tecnología en piedra –conocida como microlitos y de entre uno y tres centímetros– apenas figura en el registro fósil antes de la aparición de nuestra especie. Comienza a ser abundante desde hace 40 mil años, y ya se hacía de manera sistemática hace al menos 70 mil, en Sudáfrica.

En la investigación, los científicos filmaron las manos y brazos de dos expertos talladores de piedra con diferentes grados de experiencia mientras fabricaban microlitos, desde la extracción de lascas de un núcleo hasta el detalle y retoque de las minúsculas piezas microlíticas.

El posterior análisis biomecánico de los movimientos necesarios para la fabricación de esta industria, mediante software especializado, reveló una serie de posiciones de la mano fundamentales para la obtención de un microlito.

“Las falanges de los dedos Neandertales no eran lo suficientemente largas como para que el reparto de fuerzas necesario no hubiera sido eficiente durante la fabricación de microlitos”, apunta  Francia Patiño, coautora y en ese momento alumna del Máster de Neurociencia de la UCM.

Los resultados apoyan recientes propuestas sobre el origen del arte en nuestra especie basadas en modelos de la psicología que establecen que la principal razón por la que otros homínidos no dejaron muestras de arte se encuentra en sus menores habilidades manuales, más que en la ausencia o presencia de una capacidad mental.

Además de la UCM, en el estudio participan miembros de Paleorama y la Universidad Isabel I de Burgos. (Fuente: Universidad Complutense de Madrid)Al Índice.

MEDICINA - Nueva técnica para medir la actividad del tejido adiposo marrón, un órgano clave en el desarrollo de la obesidad

Expertos del Instituto de Biomedicina de la Universidad de Barcelona (IBUB) (Catalunya, España) han desarrollado una técnica nueva para medir la producción y la utilización de la energía en el tejido adiposo marrón, un órgano clave en la obesidad por su capacidad para oxidar la grasa y disipar la energía en forma de calor. Este método, publicado en la revista científica Advanced Science, mejora la precisión de las técnicas anteriores para estudiar la funcionalidad del tejido adiposo, y además, se puede utilizar para testar fármacos que podrían combatir la obesidad. Esta enfermedad ha doblado su prevalencia entre 1980 y 2014, según datos de la Organización Mundial de la Salud (OMS), y es un importante factor de riesgo para el desarrollo de diferentes problemas de salud, como enfermedades cardiovasculares, diabetes, alzhéimer o varios tipos de cáncer.

El trabajo ha sido liderado por Dolors Serra, Laura Herrero y María Calderon Dominguez, de la Facultad de Farmacia, el IBUB, y el CIBER de Fisiopatología de la Obesidad y la Nutrición (CIBERobn). También han participado David Sebastián y Antonio Zorzano, de la Facultad de Biología de la Universidad de Barcelona, el Instituto de Investigación Biomédica (IRB Barcelona) y el CIBER de Diabetes y Enfermedades Metabólicas Asociadas (CIBERDEM), así como Martín Alcalá y Marta Viana, de la Universidad CEU San Pablo (Madrid).

La nueva técnica se basa en la tecnología Seahorse y permite estudiar parámetros de la bioenergética mitocondrial del tejido adiposo, como la cantidad de oxígeno dedicada a producir energía y la capacidad respiratoria máxima del tejido. Además, lo hace directamente en explantes, es decir, con tejidos vivos aislados de ratón. «Hasta ahora, la respiración celular se había analizado en células de cultivo o mitocondrias aisladas que eran propensas a romperse durante el proceso de separación. El hecho de tener en cuenta todo el tejido y no solo las poblaciones celulares es un enfoque directo que proporciona una visión más realista de la respiración fisiológica», explica Dolors Serra, investigadora principal del Grupo de Regulación del Metabolismo Lipídico en la Obesidad y la Diabetes de la UB.

Comprender la actividad del tejido adiposo es importante por la implicación de este órgano en la fisiopatología de la obesidad. Mientras el tejido adiposo blanco es el órgano principal encargado de almacenar energía en forma de triglicéridos, el tejido adiposo marrón es rico en mitocondrias, el orgánulo de la célula responsable de producir energía. Las mitocondrias queman combustibles tales como ácidos grasos y glucosa para transformarlos en energía útil, consumiendo oxígeno en el proceso. Además, el tejido adiposo marrón tiene una alta concentración de la proteína UCP1 (proteína desacoplante 1). Esta proteína no pasa por la cadena respiratoria, así que en vez de generar energía útil, disipa energía en forma de calor. Esta función, conocida como termogénesis sin temblor, es crucial en los bebés para mantener la temperatura corporal.

«La capacidad del tejido adiposo marrón para oxidar la grasa y disipar la energía en forma de calor ha centrado la atención de los investigadores en su potencial como diana terapéutica para tratar diversas condiciones metabólicas, incluidas la obesidad y la diabetes», explica Laura Herrero, directora del trabajo de investigación.

Tradicionalmente, la presencia de tejido adiposo marrón se consideraba residual en los seres humanos adultos, y se pensaba que solo estaba en los bebés. Sin embargo, en 2009 varios grupos de investigación independientes detectaron la presencia de tejido adiposo marrón en humanos adultos, y constataron que disminuye con el envejecimiento, la obesidad y la diabetes.

Según los investigadores, las aplicaciones de este método incluyen el análisis de cómo diferentes factores -la dieta, el envejecimiento o los genotipos, por ejemplo- pueden afectar la funcionalidad del tejido adiposo marrón. Asimismo, es posible adaptar este método para probar fármacos que podrían activar la termogénesis como estrategia antiobesidad. (Fuente: U. Barcelona)Al Índice.

QUÍMICA - Detección de arsénico y reducción en aguas subterráneas

Estudios realizados en algunas localidades de la provincia de Santa Fe (Argentina) mostraron que el contenido de arsénico en agua subterránea superaba el límite permitido por la legislación provincial (50 µg/L). “Las especies inorgánicas de este metaloide son cancerígenas para humanos, por lo tanto, aguas con niveles superiores a los permitidos no son aptas para el consumo humano. Tampoco lo son para el riego de cultivos ni para agua de bebida de ganados, ya que las plantas y los animales incorporan arsénico, que luego ingresa a la cadena alimenticia”, afirma el director del grupo de investigación de la Facultad de Ciencias Bioquímicas de la Universidad Nacional de Rosario y del Instituto de Química de Rosario, Juan Carlos González.

La contaminación de aguas por este elemento químico es un problema a nivel mundial y afecta, particularmente, a India y Latinoamérica. En nuestra región el problema es endémico y cambia de acuerdo a la temperatura y las lluvias, por lo que hay que medirlo de forma continua.

Para tener una caracterización más completa de las muestras, los investigadores estudiaron durante dos meses la composición de las aguas de pozo en nitrito, nitrato, pH, conductividad, materia orgánica soluble, oxígeno disuelto, amonio, sulfato. “Estos resultados permitieron, en algunos casos, descartar la utilización de pozos, cuyas aguas mostraron un alto contenido en nitrito, directamente relacionado con la contaminación por materia fecal debido a la cercanía de pozos ciegos”, cuentan.

Para depurar estas aguas, “una técnica ampliamente usada es la ósmosis inversa, que si bien genera agua potable libre o con una concentración muy baja de arsénico, también genera agua de rechazo más concentrada en contaminantes”, afirman. Por esta razón, es necesario monitorear periódicamente el agua a la entrada, salida y también en las aguas de rechazo del equipo de ósmosis inversa.

La detección y cuantificación periódica de arsénico es realizada en muchos centros urbanos, utilizando absorción atómica. Sin embargo, esta tecnología presenta algunos inconvenientes: no es accesible para las pequeñas comunas y municipios, por lo que requiere un traslado de las muestras que pueden sufrir modificaciones.

En este contexto, los investigadores buscaron un método más económico y fácil de utilizar en pequeñas poblaciones del campo que detecte hasta 20 microgramos de arsénico por litro. El equipo buscó remozar la técnica antigua y darle características superadoras al momento de detectar bajas cantidades de arsénico. “Poder desarrollar un método más simple y adaptar un equipo para que pueda llevarse al campo permite hacer las mediciones en el lugar y asegura una mayor continuidad de esos controles”, afirman.

El proyecto posee dos aspectos a destacar: la determinación espectrofotométrica de arsénico mediante el “método del azul de molibdeno modificado”, y el estudio de los posibles interferentes presentes en las aguas de pozo. De esta manera, se pueden realizar ensayos periódicos a muy bajo costo y sin necesidad de remitir las muestras a los centros urbanos donde se encuentran instalados los equipos de alta complejidad para la determinación de este contaminante.

Los beneficiados, en principio, serían las empresas que se dedican al tratamiento de agua mediante la utilización de equipos de filtración y potabilización de agua por ósmosis inversa. Los destinatarios indirectos de este proyecto son las comunas y municipios de zonas rurales. “El monitoreo periódico de la concentración de arsénico conduce a optimizar las variables operacionales de los equipos de ósmosis inversa, con el fin de obtener suficiente cantidad de agua libre de arsénico y, a su vez, bajos volúmenes de agua de rechazo”, expresan los investigadores.

La segunda parte del proyecto aborda un problema que, hasta el momento, no se resolvió convenientemente: la disposición de las aguas de rechazo, que después del proceso de ósmosis contienen los contaminantes concentrados y, por lo tanto, no pueden regresar a las napas ni tampoco utilizarse como agua de riego, sin tratamiento previo, ya que originaría un problema de contaminación a futuro.

En el marco de este proyecto, el grupo se dedica a la depuración de estas aguas con biopolímeros naturales mediante procesos continuos. Actualmente está focalizado en la optimización de esta metodología y recibió el apoyo financiero de la Secretaría de Vinculación Tecnológica y Desarrollo Productivo de la UNR y del Ministerio de Ciencia, Tecnología e Innovación Productiva de la Provincia de Santa Fe. (Fuente. Argentina Investiga)Al Índice.

SALUD - Confirman que cenar tarde aumenta el riesgo de engordar

Una investigación proporciona las primeras evidencias experimentales sobre las diferencias entre cenar temprano o hacerlo tarde, incluyendo en el último caso una elevación de los niveles de insulina, de glucosa en ayunas, de colesterol y de triglicéridos.

En efecto, se ha descubierto que comer a altas horas de la noche puede ser más peligroso de lo que pensamos. En comparación con cenar más temprano, retrasar nuestra cena puede conducirnos a un aumento del peso, de los niveles de insulina y del colesterol, así como afectar negativamente al metabolismo de la grasa y a los marcadores hormonales implicados en enfermedades cardiacas, diabetes y otros problemas de salud, según los resultados obtenidos por investigadores de la Escuela de Medicina Perelman, en la Universidad de Pensilvania en Estados Unidos.

Lo descubierto por el equipo de Namni Goel ofrece la primera evidencia experimental sobre las consecuencias metabólicas de cenar tarde de forma continuada, en comparación con lo que ocurre cuando se suele cenar temprano.

En el estudio, se sometió a nueve adultos con un peso saludable a dos situaciones, una de alimentación diurna (por ejemplo, tres comidas principales y dos refrigerios, entre las 8 de la mañana y las 7 de la tarde) durante ocho semanas, y otra de alimentación en horario más desplazado (por ejemplo, tres comidas principales y dos refrigerios, entre el mediodía y las 11 de la noche) también durante ocho semanas. Hubo un periodo de recuperación de dos semanas entre las dos situaciones para asegurar que no se arrastraba ningún efecto de una a la otra. El periodo de sueño se mantuvo constante, entre las 11 de la noche y las 8 de la mañana aproximadamente.

Se sometió a los participantes a un análisis al principio, después de la primera situación, después de las dos semanas de recuperación y después de la segunda situación. Esto permitió al equipo de investigación medir cambios en el peso, el metabolismo y la energía usada, y aseguró que las dos semanas de recuperación permitían que todas las medidas regresaran al punto de partida antes de la siguiente situación.

El equipo halló que cuando los participantes comían tarde, en comparación con la situación diurna, se incrementaba el peso. El cociente de respiración, es decir, la proporción entre el dióxido de carbono producido por el cuerpo y el oxígeno consumido por este, que indica qué macronutrientes están siendo metabolizados, también se elevó durante el periodo en el que los sujetos de estudio comieron tarde. Esto indica que comer tarde llevaba a metabolizar menos lípidos y más carbohidratos. Los investigadores hallaron que en dicho periodo de comidas tardías también se incrementaron, de un modo que denotaba perfiles metabólicos negativos, varias otras medidas, incluyendo los niveles de insulina, de glucosa en ayunas, de colesterol y de triglicéridos.

Examinando el perfil hormonal de 24 horas, encontraron asimismo que durante la situación en que se cenaba temprano, la hormona grelina, que estimula el apetito, alcanzó su punto máximo durante el día, mientras que la leptina, que nos mantiene saciados, lo hacía más tarde. Este ciclo hormonal parece ser el más adecuado para evitar el sobrepeso por mala gestión de la alimentación.

Dado que los ciclos de sueño y vigilia eran constantes, los niveles de melatonina también permanecieron constantes en ambos grupos.Al Índice.

MEDICINA - Saltan las alarmas por el mal cumplimiento en el tratamiento de la vejiga neurógena

Médicos, enfermeras y formadores presentan en Valencia (España) sus estrategias para combatir este grave problema de salud que afecta a miles de personas con lesión medular u otras enfermedades neurológicas.

El cumplimiento en España del cateterismo intermitente -el tratamiento Gold estándar en el manejo de la vejiga neurógena- está muy por debajo de la media europea, prácticamente la mitad.

Coloplast coordina estudios en 12 hospitales españoles, programas enfermeros de educación sanitaria dirigida el paciente y una ambiciosa propuesta formativa en la que consultores especializados trabajarán con los profesionales sanitarios implicados, tanto hospitalarios como de Atención Primaria.

La vejiga neurógena supone hoy por hoy un drama oculto que afecta a miles de personas en España que carecen de control vesical, o lo que es lo mismo, que sufren incontinencia urinaria. Existen tratamientos eficaces, pero su escasa adherencia está provocando graves problemas de salud, lo que ha hecho saltar todas las alarmas entre los profesionales sanitarios. Nadie duda ya de que los cateterismos intermitentes son el método más seguro y recomendado para el vaciado vesical en este tipo de pacientes, entre otros motivos porque previene infecciones, hematuria, lesiones uretrales y renales. Pero el cumplimiento es muy deficiente.

Las propias asociaciones de pacientes son conscientes también de la gravedad del problema. Así, el presidente de ASPAYM en la Comunidad Valenciana, José Balaguer, pidió a todos los presentes redoblar esfuerzos, insistiendo especialmente en una mayor y mejor Comunicación médico-enfermera-paciente.

Por todo ello, más de 200 urólogos, rehabilitadores y enfermería especializada han sido convocados en Valencia con el fin de conocer todos los proyectos en marcha para revertir la situación. En este sentido, Ana Alcocer, directora de Marketing de Coloplast, señaló que a finales de año se conocerán los resultados definitivos de un estudio que se está realizando en doce hospitales españoles por el grupo FIC (Foro de Incontinencia de Coloplast). Dicho estudio medirá, por un lado, el cumplimiento del cateterismo intermitente por parte de las personas con lesión medular y, por otro, se desarrollarán herramientas para motivar la adherencia. Lo que sí pudo adelantar es que los estudios preliminares señalan que mientras en España se realizan 2,8 sondajes vesicales de media al día por paciente, en Europa se realizan 5, en línea con las recomendaciones de los expertos que sugieren entre 4 y 6. "Tenemos que dedicar todos los esfuerzos para llegar a las cifras del resto de Europa -dijo Ana Alcocer-. Sólo así podremos evitar las graves complicaciones que tanto preocupan en la actualidad".

La directora de Marketing señaló también que "con las propuestas presentadas en Valencia se profundizará en los conocimientos clave que urólogos y enfermeras especializadas deberán transmitir a otros profesionales sanitarios y a los pacientes para mejorar la adherencia. Para ello -continuó- vamos a elaborar una ambiciosa propuesta formativa, coordinada por expertos en Comunicación".

Los responsables de la Consultoría pudieron avanzar a continuación los planes formativos que llevarán a cabo con los profesionales sanitarios y que contemplarán las distintas maneras de comunicar en función de los diferentes perfiles del paciente.

"Está claro que nos dirigimos a pacientes poco dispuestos al sondaje, pero necesitamos convencerlos de su importancia, del riesgo que supone no hacerlo las veces adecuadas", afirmó la enfermera especializada en Incontinencia Isabel Serrano, del Hospital Sant Joan de Déu, de Barcelona. Serrano presentó el programa de educación sanitaria que han puesto en marcha en su hospital y que, mediante una atención individualizada y siguiendo un protocolo de actuación, se está avanzando de manera importante en el correcto manejo del cateterismo intermitente.

En esta misma línea, otra enfermera especializada del Hospital Regional Universitario de Málaga, Isabel Jiménez, presentó "Una perspectiva enfermera para el cateterismo intermitente limpio" con lo que se pretende que el paciente sea autónomo, que sepa la importancia de este sondaje y lo realice con normalidad en su día a día las veces que sea necesario. Todo ello para que se minimicen las posibles complicaciones y obtengamos los mejores resultados en salud", puntualizó.

Los doctores Arlandis Guzmán, urólogo del Hospital la Fe de Valencia, y Marta Allué, del Vall d´Hebron, en Barcelona, insistieron en la necesidad de realizar "entre 4 y 6 sondajes al día para prevenir infecciones y otros problemas graves de salud" y pusieron especial énfasis en "evitar que los pacientes tengan una mala experiencia inicial en el sondaje, puesto que puede suponer la primera razón de una mala adherencia". Por ello, "debemos colaborar estrechamente con Atención Primaria, primer eslabón en el cuidado de este tipo de pacientes, elaborando folletos explicativos, charlas o talleres. La Comunicación vuelve a ser fundamental en este momento", afirmaron.

Las responsables de Continencia de Coloplast, Verónica Vivas, por España, y Rikke Waabengaard, por Dinamarca, expusieron los avances que se están realizando en este campo. Verónica Vivas habló de los beneficios que aporta SpeediCath®, la primera elección para el cateterismo intestinal intermitente; y Rikke, por su parte, de los estudios que la empresa sigue haciendo a nivel internacional para desarrollar las mejores soluciones en función de las necesidades del paciente y teniendo siempre en cuenta cómo evitar las infecciones del tracto urinario (ITU,s). Las dos expertas coincidieron en que SpeediCath® es en este momento la primera elección del urólogo, que hay evidencia científica sobre la reducción de las infecciones, que reduce igualmente el riesgo de trauma uretral por su lubricación  y que proporciona la mayor seguridad y calidad de vida al usuario.

Soluciones terapéuticas que aplaudieron los pacientes presentes en la reunión. Como José Balaguer Soriano, presidente de ASPAYM de la Comunidad Valenciana, colectivo que en un 80 por ciento desarrollan vejiga o intestino neurógeno, y que aplaudió los proyectos presentados. O como Bruno Merlo, un joven valenciano que contó su experiencia tras un accidente de tráfico. Con lesión medular, Bruno explicó como gracias a SpeediCath® ha conseguido disminuir las infecciones y tener  la sensación de "limpieza, seguridad y total normalidad. Lo importante -dijo- es saber qué tienes, qué riesgos corres y cómo afrontarlo" e invitó a todos a contemplar el cateterismo intermitente como algo normal que evita graves riesgos para la salud. (Fuente: Coloplast)Al Índice.

MEDICINA – Se ha obtenido los epigenomas completos de los tumores más frecuentes

Un equipo de investigadores del Instituto de Investigación Biomédica de Bellvitge (IDIBELL) (Catalunya, España) ha caracterizado los epigenomas completos de los tumores más frecuentes, entre ellos, cáncer de colon, pulmón y mama. Su trabajo, publicado en Oncogene, ha sido dirigido por Manel Esteller, director del Programa de Epigenética y Biología del centro catalán, y supone un avance en el estudio del origen y la progresión de estos tumores.

"El análisis realizado permite obtener una primera mirada sin sesgos de todo el metiloma de las células tumorales en tumores sólidos”, explica Esteller, investigador ICREA y profesor de Genética de la Universidad de Barcelona.

"No solo hemos comprobado que muchos genes anticáncer ven frenada su actividad de forma específica en los órganos afectados, sino que también hemos demostrado que existen otras alteraciones en regiones cromosómicas lejanas que afectan a dichos órganos, ya que en el mundo tridimensional de las células estas secuencias se encuentran en posiciones relativas muy cercanas”, añade.

Los genes inhibidores de tumores pierden su función protectora si se les añade una determinada modificación química (epi-genética, es decir, por encima del gen). La principal modificación suele ser una señal de stop, denominada metilación del ADN.

Ejemplo de tres epigenomas completos en cáncer de colon de un paciente. El círculo concéntrico más interno representa el tejido del colon normal, el intermedio el tumor primario de colon y el más externo la metástasis derivada de ese tumor de colon. A medida que el tumor progresa la representación cambia del color azul oscuro al claro, indicando la perdida de las señales epigenéticas correctas. En la periferia con distintos colores vemos representados los 23 cromosomas humanos.

El genoma humano posee 28 millones de puntos candidatos a ser regulados por esta modificación, pero las técnicas más usadas solo permiten estudiar un millón de puntos. El estudio liderado por Esteller supera esta barrera.

De forma paralela, la nueva investigación muestra que a veces existen fragmentos de ADN largos en los que todos los genes vecinos sufren alteraciones de la señal química, como si fueran bloques afectados al unísono de forma epigenética.

“Solo hemos abierto la primera tapa de esta caja”, apunta Esteller. “Todos los datos obtenidos son ahora accesibles de forma pública y permitirán nuevos análisis bioinformáticos que seguro nos proporcionarán más pistas sobre el origen y progresión de estos tumores”, concluye. (Fuente: IDIBELL)Al Índice.

INGENIERÍA - Producen un transistor capaz de simular el funcionamiento de las neuronas

Partiendo de experimentos y modelados, investigadores de la Universidad Federal de São Carlos (UFSCar), en São Paulo, Brasil, de la Universidad de Wurzburgo, en Alemania, y de la Universidad de Carolina del Sur, en Estados Unidos, crearon un transistor capaz de simular algunas funcionalidades de las neuronas. El dispositivo, que posee partes micrométricas y partes nanométricas, logra ver la luz, contar y almacenar información en su propia estructura, prescindiendo de una unidad complementaria de memoria.

Su descripción aparece en el artículo intitulado “Nanoscale Tipping Bucket Effect in a Cuantum Dot Transistor-Based Counter”, publicado en la revista Nano Letters. La investigación contó con el apoyo de la FAPESP en el marco de los proyectos intitulado “Propiedades de transporte y computación cuántica en nanoestructuras”, “Network for nano-optics and nano-electronics” y “Fenómenos ópticos y de transporte en nanodispositivos”.

“En este trabajo demostramos la capacidad de los transistores basados en puntos cuánticos [quantum dots] de ejecutar operaciones complejas directamente en la memoria. Esto puede derivar en el desarrollo de nuevos tipos de dispositivos y circuitos computacionales, en los cuales las unidades de memoria estén combinadas con las unidades de procesamiento lógico, ahorrando espacio, tiempo y consumo de energía”, dijo Victor Lopez Richard, docente del Departamento de Física de la UFSCar y uno de los coordinadores del estudio.

Este transistor se elaboró empleando técnicas de crecimiento epitaxial, es decir, por sedimentación de capas ultradelgadas sobre un sustrato cristalino. En esta base microscópica, gotas nanoscópicas de arseniuro de indio funcionan como puntos cuánticos, confinando electrones en estados cuantizados. Las funcionalidades de memoria son producto de la dinámica de carga y descarga eléctrica de los puntos cuánticos, que engendra niveles de corriente con una periodicidad modulable a través del voltaje aplicado en las puertas [gates] del transistor o de la luz absorbida por los puntos.

“La gran virtud de nuestro dispositivo consiste en que posee una memoria intrínseca, almacenada como carga eléctrica en el interior de los puntos cuánticos. El quid de la cuestión radica en controlar la dinámica de esas cargas, de manera tal que el transistor pueda manifestar distintos estados. Sus funcionalidades abarcan las capacidades de contar, recordar y realizar las operaciones aritméticas sencillas que normalmente realizan las calculadoras. Pero a escalas de espacio, tiempo y energía incomparablemente menores”, informó Lopez Richard.

Según el investigador, no se espera que este transistor se utilice en computación cuántica, pues ésta se basa en otros efectos cuánticos, como el “entrelazamiento”. El entrelazamiento se produce cuando se generan o interactúan pares o grupos de partículas de modo tal que el estado cuántico de cada partícula no puede describirse independientemente, sino que depende del conjunto, por más alejadas que se encuentren dichas partículas unas con relación a las otras.

Pero sí puede llevar a la elaboración de una plataforma utilizable en aparatos tales como contadores o calculadoras, con la memoria intrínsecamente vinculada al propio transistor, y todas las funcionalidades disponibles dentro del mismo sistema a escala nanométrica, sin necesidad de contar con otro espacio del almacenamiento.

“Asimismo, como los puntos cuánticos son sensibles a los fotones, podemos decir que el transistor es capaz de ver la luz. Y al igual que el voltaje eléctrico, la absorción fotónica permite controlar la dinámica de carga y descarga de los puntos cuánticos, simulando las respuestas sinápticas y algunas funcionalidades neurales”, añadió.

Pero será necesario realizar nuevas investigaciones antes de que este transistor pueda utilizarse como recurso tecnológico. Sucede que, por ahora, sólo funciona a temperaturas extremadamente bajas, del orden de los 4 kelvin, correspondientes a la temperatura del helio líquido.

“Nuestra meta apunta a que sea funcional a otros niveles, incluso a temperatura ambiente. Para ello los espacios electrónicos del sistema deberán estar lo suficientemente espaciados, de manera tal de que no se vean afectados por la temperatura. Habrá que controlar mejor también las técnicas de síntesis y crecimiento del material, a los efectos de sintonizar los canales de carga y descarga. Y también la cuantización de los estados almacenados en los puntos cuánticos”, acotó Lopez Richard. (Fuente: AGENCIA FAPESP/DICYT)Al Índice

SALUD - El pan integral no es más ‘saludable’ que el blanco

El pan forma parte de nuestra dieta, si bien desde algunos años se cuestionan los ingredientes seleccionados para su elaboración y el aporte nutricional que supone para el consumidor. Con el fin de valorar el tipo de pan más saludable para la población, científicos del Instituto Weizman, en Israel, han comparado los efectos sobre la salud humana del alimento blanco e integral.

A pesar de los múltiples trabajos existentes sobre qué tipo de producto es más sano, este es el primero que analiza ─bajo criterios clínicamente relevantes─ cuál es más beneficioso en función de sus efectos sobre el microbioma, es decir, sobre el conjunto de microbios que viven en el intestino humano.

Para realizar el experimento, publicado esta semana en Cell Metabolism, los investigadores separaron a los sujetos participantes en dos grupos: uno de ellos aumentó el consumo de pan blanco durante una semana ─alrededor del 25% de sus calorías─ y el otro hizo lo mismo con el trigo integral. Después de un periodo de dos semanas sin pan, repitieron el proceso invirtiendo sus dietas.

Antes del estudio y a lo largo del tiempo que duró, los expertos midieron diversos parámetros, como los niveles de glucosa, minerales esenciales, colesterol, enzimas renales y hepáticas y varios marcadores de inflamación y daño tisular.

Asimismo, analizaron la composición de los microbiomas de los participantes. En los resultados obtenidos, los autores han concluido que ninguno de los criterios valorados permite asegurar que haya un pan más saludable.

"En contra de nuestras expectativas, no hubo diferencias clínicamente significativas en los efectos de estos dos tipos de pan en cualquiera de los parámetros que medimos", asegura Eran Segal, uno de los investigadores principales de la investigación.

Sin embargo, basándose en algunos de sus trabajos anteriores ─en los que descubrieron que cada persona tiene una respuesta glucémica diferente para una misma dieta─, los expertos sospecharon que algo más complicado podría estar ocurriendo.

Al analizar los niveles de azúcar en sangre, observaron que aproximadamente la mitad de los participantes respondían mejor al pan de harina blanca procesado y la otra mitad al pan de trigo entero. Con los datos obtenidos, el grupo de investigadores ha ideado además un algoritmo capaz de predecir cómo puede afectar variar el tipo de pan en la dieta.

Hasta ahora, los valores nutricionales de los alimentos se aplicaban por igual a todas las personas.

De ahí que los autores destacan las conclusiones de este trabajo como “potencialmente muy importantes”.

Según Eran Elinay, otro de los científicos principales del estudio, “los resultados apuntan hacia un nuevo paradigma: diferentes personas reaccionan de manera distinta al ingerir los mismos alimentos”.

Elinay destaca que este estudio podría permitir “dar consejo a las personas sobre qué alimentos le serán más apropiados según su microbioma”.

A raíz de los recientes hallazgos, el equipo israelí no descarta profundizar en nuevas líneas de investigación, como incluir la cantidad de cada tipo de pan que es necesario consumir para estar saciado. (Fuente: SINC)Al Índice.

PSICOLOGÍA - La ULE investiga las diferencias culturales y generacionales en el comportamiento de compra

El doctor Ricardo Villarreal se incorporó el pasado 15 de mayo al al Grupo de Investigación en Marketing e Investigación Operativa del Departamento de Dirección y Economía de la Empresa de la Universidad de León (ULE) (España) como investigador visitante, con el objetivo de colaborar en el desarrollo de la investigación que estudia la importancia de las diferencias culturales y generacionales en el comportamiento de compra de los consumidores.

Villareal procede del Marketing School of Management de la University of San Francisco (EEUU) y su incorporación para un periodo de un mes ha sido posible gracias al programa de ayudas para investigadores visitantes del Campus de Excelencia Triangular E3 (se trata de la quinta persona que ha llegado a la ULE gracias a este procedimiento). La solicitud fue realizada por Pablo Gutiérrez Rodríguez, del Departamento de Dirección y Economía de la Empresa, y ha venido avalado por José Luis Vázquez Burguete, director del Grupo de Investigación en Marketing e Investigación Operativa.

La presencia de un experto procedente de Estados Unidos se justifica por el mayor desarrollo del marketing para mayores en dicho país, frente a la situación que nos encontramos en Europa o España.

"En un futuro muy cercano, nos encontraremos que el mayor mercado potencial para cualquier organización o empresa se encontrará en el segmento de las personas mayores”. Por ese motivo, “las empresas privadas deben encontrar, de manera responsable, la forma de conseguir para ellos una vida más satisfactoria, obteniendo su objetivo lucrativo y vendiendo felicidad”, apunta Pablo Gutiérrez.

Sobre estas bases, se desarrolla la investigación que trata de identificar las relaciones existentes entre la marca, la satisfacción y la lealtad con el envejecimiento de las personas. Frente a otros segmentos, como los adolescentes, que son más proclives a dejarse llevar por las cambiantes modas o la presión del grupo social. Se trata de demostrar si las personas mayores, a día de hoy, son compradores más cautelosos y ponderados. Además, es muy importante identificar qué aspectos del proceso de compra valoran especialmente este segmento.

Otro aspecto, motivo de la investigación, es identificar la forma de comunicarse con este segmento centro de la investigación para poder potenciar vías de comunicación específicas. Algunos de las más novedosas formas de comunicación, como todas las estrategias de ‘Inbound Marketing’ basadas en nuevas tecnologías, no parecen ser las más adecuadas para ellos.

Esa situación actual puede ser susceptible de cambio y es necesario, poco a poco, conocer las tendencias futuras y guiar a las agencias de publicidad y a las empresas para producir publicidad y comunicación donde los protagonistas o reclamo sean personas mayores, alejados de los estereotipos publicitarios con jóvenes envejecidos vendiendo productos para persona mayores.

Por todo ello, es indispensable, de manera responsable, ayudar con esta investigación a diseñar experiencias y estrategias de compra gratificantes para los más mayores, gracias al mejor conocimiento de la relación entre la marca, la satisfacción, la lealtad y el comportamiento de compra de las personas mayores. (Fuente: ULE/DICYT)Al Índice.

INGENIERÍA - Nariz, lengua y ojo electrónicos para distinguir los tipos de whisky

Espectrometría de masas para los aromas, espectroscopia ultravioleta-visible para el color y espectroscopia infrarroja para el gusto son las tres técnicas analíticas que han utilizado los investigadores de la Universidad Rovira i Virgili (Catalunya, España) para diferenciar grupos de whisky con distintos orígenes y formas de producción: irlandés, español, escocés, bourbon y Tennessee.

Aunque la aplicación de las diversas técnicas ha mostrado diferencias entre los tipos, los mejores resultados se han obtenido con la espectrometría de masas, que es la que determina el contenido en volátiles y, por lo tanto, la que puede proporcionar información sobre su aroma.

Gracias a los análisis también se han encontrado diferencias dentro de cada grupo de whiskies, lo que pone de manifiesto que estas no se deben únicamente a la materia prima, sino también a la forma de producción.

El whisky se obtiene principalmente de la destilación de cereales —cebada, centeno y avena básicamente— malteados y desecados sobre fuego de turba. Debe madurar al menos tres años en botas de madera y hay de muchos tipos, en función del país donde se produce.

En Europa se elabora principalmente a partir de cebada de malta, agua y aditivos como el trigo y el centeno, pero los métodos de producción cambian dependiendo de la zona. Por ejemplo, los de Irlanda y Escocia se producen con cereales similares, pero, en el caso del irlandés, se da una triple destilación. El español, por ejemplo, contiene un destilado de maíz que lo hace más parecido al americano, el bourbon.

Precisamente debido a la gran variedad de whiskies existente, estos pueden ser objeto de adulteración. Esa es la razón por la que los investigadores quisieron dar con métodos sencillos y rápidos para autenticarlos, no solo por su método de producción y la región, sino por su origen botánico.

Si bien hasta ahora había diferentes estudios elaborados mediante cromatografía de gases, es poco usual emplear los métodos que se han seguido en este trabajo con esta finalidad.

Todas las técnicas utilizadas muestran diferencias dentro de los grupos, lo que pone de manifiesto que la metodología se podría utilizar no solo para discriminar entre diferentes tipos de whisky (irlandés, escocés, español, bourbon, Tennessee), sino también entre distintos whiskies dentro de cada grupo.

Los investigadores no han pretendido buscar la técnica más útil para la autenticación de los whiskies, sino intentar emular, también con este tipo de muestras, el trabajo de los paneles de cata en sus valoraciones.

De este modo, el espectrómetro de masas (HSMS) actuaría como lo hace la nariz humana, la espectroscopia infrarroja (FTIR) lo haría como lo hace la lengua, mientras que la espectroscopia ultravioleta visible (UV-Vis) haría de ojo.

Se configura de este modo un panel electrónico de cata que proporciona, en pocos minutos, una huella digital (y con información química) de cada producto. El estudio puede resultar útil para llevar a cabo un control de calidad basado en medidas químicas y, también, para ayudar a los paneles tradicionales en su trabajo rutinario. (Fuente: URV)Al Índice.

FÍSICA - Un nuevo modelo ayuda a entender la dinámica del plasma de cuarks y gluones

El plasma de cuarks y gluones es uno de los objetos de estudio más investigados por los físicos en los últimos tiempos. Gracias a los dos mayores colisionadores de partículas existentes en la actualidad -el Large Hadron Collider (LHC), con sede en Europa, y el Relativistic Heavy Ion Collider (RHIC), en Estados Unidos-, este estado de la materia, que habría predominado en el universo durante una fracción de segundo después del Big Bang, se ha vuelto reproducible en laboratorio.

De acuerdo con el modelo cosmológico estándar, la duración del plasma de cuarks y gluones en el universo primordial no excedió la millonésima de segundo, pues alrededor de 10-6 s después del Big Bang el universo ya se habría enfriado a punto tal que los cuarks y los gluones ya no podían desplazarse libremente y quedaban encapsulados en los hadrones (protones, neutrones, mesones, etc.). En las colisiones nucleares de alta energía del LHC y del RHIC, debido a los elevados gradientes de presión, el plasma de cuarks y gluones dura menos tiempo aún, aproximadamente 10-23s. Pero a pesar de ser tan efímero y de ocupar un volumen exiguo, apenas mayor que el del protón (el diámetro del protón es de una dimensión de 10-15 metro), el plasma de cuarks y gluones exhibe una intensa y compleja actividad interior.

Dicha actividad ha venido siendo paulatinamente develada en los experimentos del LHC y del RHIC. Y nuevos aportes teóricos han sido elaborados para explicar o prever resultados experimentales. Éste es el caso, entre otros tantos, del estudio intitulado "Hydrodynamic Predictions for Mixed Harmonic Correlations in 200 GeV Au+Au Collisions", publicado en Physical Review C y destacado por sus editores.

El estudio estuvo a cargo de Fernando Gardim, del Instituto de Ciencia y Tecnología de la Universidad Federal de Alfenas (Minas Gerais, Brasil), Frédérique Grassi y Matthew Luzum, del Instituto de Física de la Universidad de São Paulo (USP), y Jacquelyn Noronha-Hostler, del Department of Physics de la University of Houston.

"Debido a que dura muy poco tiempo, el plasma de cuarks y gluones no puede observarse directamente. Lo que en los experimentos se logra detectar son los hadrones que se forman cuando los cuarks y los gluones vuelven a aglutinarse. Esos hadrones se propagan en diversas direcciones y su distribución angular alrededor del eje de la colisión suministra información sumamente relevante referente a la estructura y la dinámica del plasma. Como consecuencia de ello, también informa sobre la naturaleza de las interacciones fundamentales de la materia. Nuestro trabajo, de carácter teórico, consistió en prever patrones específicos de la distribución angular de los hadrones", declaró Frédérique Grassi.

Para ello, los investigadores utilizaron un modelo hidrodinámico denominado NeXSPheRIO, que reprodujo de manera precisa una amplia gama de datos antes obtenidos experimentalmente en el RHIC. Las simulaciones computacionales realizadas a partir de allí permitieran efectuar previsiones que podrán ponerse a prueba en nuevos experimentos, lo cual permitirá validar o corregir el modelo.

"La distribución angular observada en los experimentos se descompone en términos, precisamente en una secuencia conocida en el lenguaje matemático como serie de Fourier. Cada término de esta serie corresponde a una característica específica de la distribución. Y la serie entera permite saber cuántas partículas se desplazan de acuerdo con cada patrón. La expresión mixed harmonic correlations [correlaciones armónicas mixtas], que aparece en el título del trabajo, es la forma técnica de nombrar a esa relación entre distintos coeficientes de Fourier", explicó Grassi.

"Si el plasma de cuarks y gluones fuese rigurosamente homogéneo y tuviese la naturaleza de un gas [es decir, si sus partículas interactuasen muy poco unas con otras], el flujo de hadrones resultantes sería isotrópico [es decir, igual en todas las direcciones]. Pero no es eso lo que ocurre. Los flujos reales, detectados experimentalmente, son anisotrópicos, y la distribución angular exhibe coeficientes de Fourier no nulos, lo cual informa sobre la ausencia de homogeneidades en el plasma y sobre la fuerte interacción entre sus partículas constituyentes", prosiguió la investigadora.

De acuerdo con sus características geométricas, se clasifica a los coeficientes de la distribución como elíptico, triangular, cuadrangular, pentagonal, etc. Entre todos ellos, predomina el flujo elíptico, porque el chorro de hadrones es mucho mayor en una de las direcciones ortogonales al eje de la colisión. Dicha distribución, que es el resultado de la fuerte interacción existente entre los cuarks y los gluones, indica que el plasma posee la naturaleza de un líquido y no de un gas. Pero no se trata de un líquido cualquiera, pues el hecho de que el flujo elíptico no se vea atenuado muestra que la viscosidad de ese líquido es sumamente baja. En efecto, el plasma de cuarks y gluones es el líquido menos viscoso, el más perfecto que se haya descubierto.

"Esa naturaleza de líquido cuasi perfecto del plasma de cuarks y gluones ya se había demostrado en trabajos anteriores. Lo que nuestro estudio aportó fue una mejor comprensión acerca de la no homogeneidad de la distribución de la energía en el interior del plasma", subrayó Grassi. En el cortísimo lapso de tiempo de su duración y en el diminuto espacio de su extensión, el plasma de cuarks y gluones muestra una intensa dinámica. Fluctuaciones hacen que la densidad de energía varíe de una región a otra. El estudio en pauta apunta hacia una mejor comprensión del nexo existente entre esa dinámica y las fluctuaciones.

"Como el NeXSPheRIO mostró hasta ahora una gran concordancia con todas las observaciones realizadas en el RHIC, creemos que sus previsiones podrán utilizarse como términos de comparación para realizar nuevas mediciones que se efectúen en el colisionador estadounidense. Cualquier desvío con relación a estas previsiones aportará información valiosa y para nada trivial, ya sea sobre la fase inicial de la colisión que da origen al plasma como sobre las propiedades intrínsecas de ese medio", finalizó la investigadora. (Fuente: Fundação de Amparo à Pesquisa do Estado de São Paulo)Al Índice.

ZOOLOGÍA - Científicos del Smithsonian liberan ranas que portan mini transmisores de radio en Panamá

Noventa ranas arlequín Limosa (Atelopus limosus) criadas bajo el cuidado humano están enfrentándose a los elementos de la naturaleza luego que científicos del Smithsonian las enviaran a la selva panameña como parte del primer ensayo de liberación. El estudio, liderado por el Proyecto de Rescate y Conservación de Anfibios de Panamá, tiene como objetivo determinar los factores que influyen no sólo en si las ranas sobreviven a la transición del cuidado humano al entorno salvaje, sino, si persisten y continúan reproduciéndose.

"Sólo al comprender las pruebas y tribulaciones de la transición de una rana, de la atención humana al entorno salvaje, tendremos la información que necesitamos para desarrollar e implementar programas de reintroducción exitosos", comentó Brian Gratwicke, coordinador internacional del programa de rescate y biólogo de conservación de anfibios en el Smithsonian Conservation Biology Institute (SCBI). "Aunque no estamos seguros si algunas de estas ranas sobrevivirán, este ensayo de liberación nos dará el conocimiento que necesitamos para inclinar la balanza a su favor".

Las ranas arlequín Limosa liberadas en la Reserva Valle del Mamoní, tienen pequeñas etiquetas numeradas insertadas bajo su piel para que los investigadores las puedan distinguir. El equipo científico también dio a cada rana una marca de punta de elastómero que brilla bajo luz UV para fácilmente separar a este grupo de ranas de cualquier futura liberación. El estudiante de doctorado del Smithsonian-Mason School of Conservation, Blake Klocke, diariamente monitorea las ranas en el sitio colectando información sobre supervivencia, dispersión, comportamiento. También evalúa si el cálido microclima del área provee algún tipo de protección contra la enfermedad.

El estudio también busca averiguar si un "ensayo de liberación" aumenta la capacidad de sobrevivencia las ranas. Treinta de las ranas recién liberadas pasaron un mes en el sitio en jaulas, aclimatándose a su entorno y alimentándose de invertebrados de la hojarasca. Ocho de estas ranas, además de ocho que fueron liberadas sin pasar por el ensayo de liberación, están usando transmisores de radio en miniatura que le darán a Klocke y el equipo una oportunidad de observar las diferencias en la supervivencia y la persistencia entre los dos grupos. Los investigadores también colectaron muestras de bacterias de la piel de las ranas liberadas para medir los cambios durante su transición de cautiverio a la naturaleza.

"El estudio de ensayo de liberación nos permitió exponer de manera segura a las ranas criadas en cautiverio a una dieta más equilibrada y variada, cambiando las condiciones ambientales y diversas bacterias cutáneas que potencialmente pueden aumentar su supervivencia en la naturaleza", comentó Angie Estrada, estudiante de doctorado en Virginia Tech y miembro del equipo que dirigió este ensayo de liberación, que fue financiado a través de una subvención del Instituto Smithsonian de Investigaciones Tropicales (STRI) y el apoyo de los Amigos del Zoológico Nacional de los EE.UU. "Nos permitió monitorear la salud y la condición corporal general de los animales sin el riesgo de perder inmediatamente alguna rana debido a una serpiente hambrienta".

Las ranas arlequín Limosa son especialmente sensibles al hongo quítrido que afecta los anfibios, el cual ha llevado las especies de ranas al borde de la extinción, principalmente en América Central, Australia y el oeste de los Estados Unidos. El Proyecto de Rescate y Conservación de Anfibios de Panamá llevó a un número de individuos al centro de cría entre el 2008 y el 2010 mientras que el hongo quítrido arrasaba con su hábitat. Las ranas arlequín de Limosa en este ensayo de liberación son la primera generación de la especie criadas en cautiverio y son sólo una parte de la población de aseguranza total del proyecto de rescate para la especie.

"Después de todo el trabajo de colecta de individuos fundadores, aprendiendo a criarlos, criando sus renacuajos, produciendo toda su alimentación y manteniendo sanas a estas ranas, el ensayo de liberación marca una nueva y emocionante etapa en este proyecto", comentó Roberto Ibáñez, Director del proyecto de rescate y científico de STRI. "Estas ranas criadas en cautiverio ahora estarán expuestas a su mundo, donde los depredadores y los patógenos están siempre presentes en el ambiente. Su viaje ayudará a proporcionar la llave para salvar no sólo a su propia especie, sino también a otras especies de anfibios de Panamá en peligro crítico".

El Proyecto de Rescate y Conservación de Anfibios de Panamá es una asociación de proyectos entre el Zoológico de Cheyenne Mountain, el Zoológico de Houston, el New England Zoo, el SCBI y STRI.

El Smithsonian Conservation Biology Institute (SCBI) juega un papel de liderazgo en los esfuerzos globales del Smithsonian para salvar especies de extinción y entrenar futuras generaciones de conservacionistas. SCBI encabeza los programas de investigación en su sede en Front Royal, Virginia, el zoológico nacional del Smithsonian en Washington, D.C., y en las estaciones de investigación de campo y sitios de entrenamiento en todo el mundo. Los científicos del SCBI abordan algunos de los desafíos de conservación más complejos del presente al aplicar y compartir lo que aprenden sobre el comportamiento y la reproducción de los animales, la ecología, la genética, la migración y la sostenibilidad de la conservación. (Fuente: Smithsonian Tropical Research Institute)Al Índice.

CLIMATOLOGÍA - Cuantificando los efectos del cambio climático

El año pasado fue el más cálido de los registrados, el hielo del Ártico está desapareciendo y el nivel de los mares continúa aumentando. En este contexto, los satélites nos proporcionan una visión objetiva de cómo el clima cambia y cuáles son sus efectos sobre el planeta.

Las estimaciones muestran que, a nivel mundial, el nivel del mar está subiendo unos 3 mm al año. Esta es una de las mayores amenazas del calentamiento global, especialmente para las zonas costeras a baja altitud.

En climatología, identificar qué elementos contribuyen en mayor medida a este aumento del nivel del mar es un reto complejo. Los satélites de observación de la Tierra cartografían los cambios en el nivel del mar, que pueden variar a lo largo del planeta. Además, sus datos pueden emplearse para cuantificar la cantidad de agua procedente de distintas fuentes, como la fusión de glaciares y mantos de hielo, o la expansión térmica del agua oceánica debido al aumento de las temperaturas.

Pero el papel del espacio en la vigilancia de nuestro planeta no acaba ahí: desde las emisiones de gas de efecto invernadero hasta el ozono, el hielo marino, la humedad del suelo, etc., los instrumentos espaciales nos muestran los hechos científicos e independientes que prueban que nuestro clima está cambiando.

“La climatología y las ciencias de los sistemas terrestres son clave para colocar a los países en la vanguardia de la revolución verde”, explica Josef Aschbacher, director de Programas de Observación de la Tierra de la ESA.

“La observación de la Tierra desde el espacio tiene un papel cada vez más importante, dado que los mismos instrumentos de vigilancia consiguen un alcance global a bordo de satélites. Europa tiene el compromiso de contribuir a comprender mejor el planeta Tierra y de preservarlo”.

La cobertura global y uniforme que ofrecen los datos satelitales es ideal para el tipo de investigación que llevan a cabo los climatólogos. No obstante, necesitan series de datos a largo plazo, de 30 años o más, que superan con mucho la vida útil de las misiones con satélites.

Comparar los datos adquiridos por satélites diferentes es complicado, ya que la tecnología mejora constantemente y a menudo se producen vacíos de datos entre misiones satelitales. Para resolver este problema, la ESA creó la Iniciativa sobre el Cambio Climático (CCI), que integra conjuntos de datos de distintas misiones de observación de la Tierra para producir los registros globales y a largo plazo más completos posibles con relación a los principales factores que influyen en la Tierra: las llamadas variables climáticas esenciales.

Estos conjuntos de datos muestran pruebas claras de cambios en nuestro clima. (Fuente: ESA)Al Índice.

BOTÁNICA - Cómo decide la planta si crecer o entrar en modo ahorro

En las plantas superiores, las ramas se forman a partir de unas pequeñas estructuras conocidas como yemas axilares y localizadas en la base de las hojas. Las yemas axilares contienen una versión comprimida de la rama, y solo se activan y elongan ante condiciones ambientales e internas favorables. En caso contrario permanecen durmientes.

Una investigación realizada por científicos del Centro Nacional de Biotecnología del CSIC (CNB-CSIC) (España) desvela que los genes activados por la falta de nutrientes (conocidos como genes del ayuno de carbono) están relacionados con la toma de esta decisión en la yema: crecer, o esperar hasta que las condiciones sean más adecuadas. El trabajo ha sido publicado en la revista Frontiers in Plant Science.

Según los investigadores, esta respuesta se parece mucho a la de cualquier otra célula animal, vegetal o de levadura que tenga poco azúcar disponible. Si hay pocos nutrientes, la célula detiene su crecimiento.

“En yemas axilares, esta respuesta genética ocurre incluso antes de que el azúcar sea escaso -explica Pilar Cubas, investigadora del CNB-CSIC y autora principal del trabajo-. Es suficiente que la planta anticipe una situación en la que sufrirá un ayuno de azúcar (días cortos, mucha luz infrarroja, etc.) para que las yemas entren en modo ahorro y traten de no gastar más de lo estrictamente necesario”.

Al Índice.

ROBÓTICA - Haciendo realidad cotidiana los robots con destreza humana en sus dedos

Agarrar objetos con formas muy diversas y desprovistos de asas, como los que manejamos en nuestra vida cotidiana, no suele entrañar dificultades para nosotros pero en cambio resulta todo un reto para los robots. Objetos tales como zapatos, botes de espray, cajas abiertas e incluso patitos de goma, son fáciles de coger y llevar para nosotros los humanos, pero los robots tienen problemas al intentar determinar por dónde deben agarrarlos.

En un paso notable hacia la superación de este problema, unos robotistas de la Universidad de California en Berkeley, Estados Unidos, han construido un robot que puede coger y mover objetos cotidianos con los que no esté familiarizado con una tasa de éxito del 99 por ciento.

El robot construido por el equipo de Ken Goldberg, Jeff Mahler y sus colegas del Laboratorio para la Ciencia de la Automatización y la Ingeniería (AUTOLAB), es el llamado DexNet 2.0. Su alto grado de éxito a la hora de agarrar cosas implica que esta tecnología podría ser pronto aplicada en la industria, con un buen potencial para revolucionar la fabricación así como la cadena de producción y distribución.

DexNet 2.0 obtuvo su destreza de alta precisión a través de un proceso llamado aprendizaje profundo. Los investigadores prepararon una base de datos enorme de formas tridimensionales (6,7 millones de puntos de datos en total) que utiliza una red neural para aprender las mejores maneras de agarrar y mover objetos con formas irregulares. La red neural fue después conectada a un sensor tridimensional y a un brazo robótico.

Cuando un objeto es colocado frente al DexNet 2.0, este estudia la forma y selecciona el tipo de agarre que conseguirá recogerlo y moverlo sin problemas el 99 por ciento de las ocasiones.

DexNet 2.0 es también tres veces más rápido que la versión anterior.Al Índice.

PALEONTOLOGÍA - El oído de las primeras ballenas era similar al de los animales terrestres

Las ballenas confían en un agudo sentido de la audición para su existencia submarina. Pero no todas tienen la misma capacidad auditiva. Las barbadas sintonizan los sonidos infrasónicos –a frecuencias demasiado bajas para que los humanos puedan oírlas– para comunicarse a largas distancias. Las dentadas hacen exactamente lo contrario, emiten frecuencias ultrasónicas demasiado altas para que los humanos las escuchen.

Investigadores del Instituto de las Ciencias Evolución de la Universidad de Montpellier (Francia) publican en la revista Current Biology evidencias fósiles de especies de ballenas protocétidas tempranas. Los restos de 45 millones de años se hallaron en depósitos marinos de Togo en África occidental e indican que esas diferencias en el oído surgieron después de que las ballenas evolucionaran en los animales totalmente acuáticos que conocemos hoy en día.

El trabajo se basa en descubrimientos sobre estas ballenas extintas que pasaban tiempo tanto en el agua como en la tierra y que parecen tener más audición que sus parientes terrestres como cerdos, hipopótamos y camellos.

"Encontramos que la cóclea de los protocétidos era distinta en las ballenas y delfines existentes, y que tenían capacidades auditivas cercanas a las de sus parientes terrestres", explica Maeva Orliac de la Universidad de Montpellier y coautora del estudio.

La falta de especialización en la audición de los protocétidos sugiere que las primeras ballenas no pudieron comunicarse a través de llamadas de larga distancia de la misma manera que lo hacen los cetáceos modernos del grupo de las ballenas y los delfines.

Los investigadores estudiaron el laberinto óseo, una cavidad hueca que habría alojado el órgano auditivo, en dos de estas especies de ballenas tempranas.

Los expertos utilizaron microtomografía computarizada para observar dentro de las estructuras internas de las rocas y los fósiles, de la misma manera que un escáner de rayos X hace posible ver los huesos dentro del cuerpo de una persona. Esas imágenes les permitieron analizar las cavidades internas del hueso petroso, que alberga los órganos de la audición y el equilibrio.

"Basándonos en las exploraciones proporcionadas por el escáner pudimos extraer un molde virtual de la cavidad hueca que solía contener el órgano auditivo cuando el animal estaba vivo", dice Orliac. "Este proceso fue largo y difícil –añade– debido a que esta cavidad estaba llena de sedimentos y parcialmente recristalizada, y porque el hueso petroso en los cetáceos es particularmente grueso y denso, lo que disminuye la calidad de imágenes e impide a veces analizarlas".

Sin embargo, las exploraciones apuntan a que la especialización de la audición infrasónica o ultrasónica, tal como se observa en las ballenas modernas, llegó más tarde, cuando las ballenas ya habían encontrado su camino de regreso al mar.

Los hallazgos destacan la importancia de estudiar estos primeros cetáceos para obtener una imagen precisa de la historia evolutiva de las ballenas. También sugiere que el pasado de las ballenas es más complicado de lo que se había descrito anteriormente, según los investigadores.

Orliac asegura que regresarán a Togo en diciembre para buscar especímenes adicionales de ballenas protocétidas. Hasta ahora han descrito dos de tres especies identificadas en Togo basadas en restos dentales y esperan encontrar un espécimen que les permita explorar el oído del tercero. (Fuente: SINC)Al Índice.

MEDICINA - Marcapasos sin batería

Un marcapasos inalámbrico sin batería que puede implantarse directamente en el corazón de un paciente es el resultado del trabajo conjunto de expertos de la Universidad Rice en Houston (Texas) y el Instituto del Corazón de Texas, ambas entidades en Estados Unidos.

El marcapasos, diseñado por Aydin Babakhani de la citada universidad, recolecta energía inalámbricamente a partir de las emisiones de radiofrecuencia enviadas por una unidad de batería externa. En el prototipo ahora presentado, el emisor de energía inalámbrico puede hacer bien su trabajo alejado a hasta varios centímetros de distancia.

Los marcapasos utilizan señales eléctricas para hacer que el corazón mantenga un ritmo constante. Con la tecnología convencional no se implantan directamente en el corazón sino que se sitúan a una distancia prudencial de él, donde resulte lo menos aparatoso posible, sin merma de la funcionalidad, el reemplazo periódico de sus baterías por los cirujanos. Las señales eléctricas del marcapasos se transmiten al corazón a través de unos cables.

Esta configuración acarrea algunos problemas, por las complicaciones que aparecen debido a los cables, como sangrado e infección. El nuevo prototipo de marcapasos inalámbrico reduce estos riesgos al no requerir esos cables.

Algunos de los componentes principales internos del marcapasos sin batería. De arriba abajo, condensador de almacenamiento, chip CMOS y conmutador PMOS. El marcapasos puede ser insertado en el corazón y energizado a través de un conjunto de baterías situado fuera del cuerpo. (Imagen: Rice Integrated Systems and Circuits/Rice University)

Otros marcapasos sin cables, de invención reciente, también mitigan algunas de estas complicaciones, pero sus características los limitan a una sola cavidad cardiaca y no pueden marcar el ritmo de forma biventricular. En cambio, se pueden implantar directamente microchips sin baterías ni cables, energizados inalámbricamente, para marcar el ritmo de múltiples puntos, dentro o fuera del corazón.Al Índice.

BIOLOGÍA - Desarrollan un yogur que ayuda a proteger de la Salmonella

En el mundo, cada año, casi una de cada 10 personas cae enferma por consumir comida en mal estado. Y la cifra de muertes supera los 400.000, según estimaciones de la Organización Mundial de la Salud.

Una de las principales responsables es la salmonelosis: una enfermedad diarreica causada por la ingesta de comestibles contaminados con la bacteria salmonella, ya sean productos animales (pollo, huevos, carne vacuna, leche) o vegetales. Ahora, científicos de la ciudad de Santa Fe quieren proteger a través de la boca lo que por la boca entra: van en camino de desarrollar un yogur que mejore las defensas inmunes contra ese microorganismo.

El proyecto, por ahora en la fase de los ensayos de laboratorio, presenta resultados alentadores. En estudios con ratones alimentados con el producto, “ejerce un efecto inmunomodulador y es capaz de prolongar la vida de ratones infectados con esa bacteria patógena”, informó a la Agencia CyTA la doctora Ana Binetti, investigadora del Instituto de Lactología Industrial (INLAIN), que depende de la Facultad de Ingeniería Química de la Universidad Nacional del Litoral (UNL) y del CONICET, en Argentina.

Para conferirle esa propiedad al yogur, los científicos le agregaron un aditivo especial: un azúcar complejo o “exopolisacárido” que fabrica y libera al medio circundante una bacteria láctica, Lactobacillus fermentum Lf2. El añadido probó tener un doble efecto: mejoró la textura del lácteo (“resultó más cremoso y consistente y con menor cantidad de grumos”, dijo Binetti) y también fortaleció las defensas inmunes del organismo. Los resultados fueron publicados en sendos trabajos en las revistas Food Research International y The Journal of Dairy Research.

“Parecería que el yogur [con el agregado] beneficia la salud de quien lo consume”, sostuvo Binetti, quien añadió que la idea es optimizar las condiciones de obtención del exopolisacárido. “Recién entonces, el producto podrá ofrecerse a la industria láctea como un aditivo ‘natural’”, destacó.

El avance científico es parte de la tesis de doctorado de Elisa Ale, becaria doctoral del CONICET, y de una tesina de Joaquín Perezlindo, asociada a una beca (“cientibeca”) de la UNL. Participaron también los doctores Jorge Reinheimer, director del INLAIN; Patricia Burns, también integrante de ese instituto; y Eduardo Tabacman, de la empresa SomaLogic. (Fuente: AGENCIA CYTA-INSTITUTO LELOIR/DICYT)Al Índice.

GEOLOGÍA - Carreteras costeras amenazadas desde el subsuelo por el aumento del nivel del mar

Una nueva investigación ha descubierto que algunas carreteras, a hasta tres kilómetros de la orilla, se enfrentan a un nuevo peligro que actualmente no puede ser visto por los conductores, la elevación del agua subterránea debido al incremento del nivel del mar.

El equipo de Jayne Knott y Jo Daniel, de la Universidad de New Hampshire en la localidad estadounidense de Durham, ha identificado secciones de carreteras específicas de la costa marina de New Hampshire que son especialmente vulnerables al aumento de los niveles del agua subterránea. Entre ellas se incluyen algunas con mucho tráfico. Sin medidas drásticas que ayuden a estas carreteras a soportar lo mejor posible este problema, los usuarios de esas carreteras se enfrentarán a un deterioro más rápido de ciertos segmentos, que necesitarán mantenimiento mucho más a menudo y que estarán cerrados durante períodos más largos de tiempo, según las conclusiones del estudio.

Los niveles del agua subterránea son más altos que el nivel del mar y eso determina su descarga hacia el océano. Pero dado que el nivel marino empieza a aumentar, esto fuerza al agua subterránea a ascender lentamente, manteniéndose el equilibrio, con la consecuencia de que el agua subterránea avanza poco a poco hacia las capas de la base del pavimento que necesitan permanecer secas para asegurar su resistencia.

El peor enemigo para el pavimento de las carreteras es el agua, en palabras de Daniel. Si el suelo y el sustrato bajo el pavimento se humedecen, entonces desaparece la resistencia que la carretera necesita para permitir el paso del tráfico sin riesgos. Cuando en el pavimento aparecen surcos y grietas, ello permite que más agua penetre en las capas subyacentes, lo que empeora la situación, hasta el punto de que la carretera deba cerrarse durante periodos largos de tiempo, con las consecuencias negativas que ello tiene para la gente que necesita usarla.Al Índice.

MEDICINA - Un software de fácil uso y gratuito para ayudar a los médicos a diagnosticar enfermedades genéticas

Científicos brasileños de la Universidad Federal de Minas Gerais y del laboratorio GENE-Núcleo de Genética Médica han desarrollado una herramienta software de código abierto llamada Mendel,DM que puede ayudar a los médicos a analizar los datos genéticos de los pacientes, con el fin de diagnosticar enfermedades causadas por mutaciones.

Las enfermedades causadas por mutaciones genéticas pueden ser difíciles de diagnosticar. En este sentido, la secuenciación de todo el genoma o solo del exoma (la parte del genoma encargada de construir proteínas) constituye una estrategia eficaz para detectar las mutaciones culpables y realizar un diagnóstico preciso. No obstante, el software necesario para analizar estas secuencias suele ser costoso y su uso complejo para muchos médicos.

Para ofrecer una alternativa a estos problemas, el equipo liderado por Raony Cardenas desarrolló Mendel,MD específicamente para facilitar su utilización por parte de los médicos y de forma gratuita. El trabajo ha sido publicado hoy en la revista 'PLOS Computational Biology'.

Su funcionamiento es sencillo. El usuario sube el genoma completo o una secuencia del exoma de un paciente a través de una interfaz basada en la web, y la secuencia es analizada y filtrada empleando varias herramientas computacionales y bases de datos de mutaciones causantes de enfermedades. El resultado es una lista de mutaciones candidatas que pueden ser investigadas clínicamente hasta llegar a un diagnóstico final.

Los científicos validaron el software a partir de casos clínicos previamente publicados y también lo testaron investigadores y estudiantes d su propia universidad, del laboratorio GENE y del Children’s University Hospital de Dublín (Irlanda). Estos usuarios transmitieron que Mendel,MD era confiable, simple y eficiente en la identificación de las mutaciones causantes de enfermedades en los pacientes.

“Diseñamos el software para que fuera lo suficientemente simple e intuitivo como para poder ser utilizado directamente por los médicos, incluso por aquellos que no dominan la bioinformática”, asegura Sérgio Pena, coautor del trabajo, quien agrega que esperan que Mendel,MD “sea adoptado en otros centros de investigación y laboratorios de todo el mundo”. (Fuente: CGP/DICYT)Al Índice.

ASTRONOMÍA - El futuro de la constelación de Orión

Un nuevo vídeo, basado en mediciones realizadas por los satélites Gaia e Hipparcos de la ESA, muestra cómo nuestra visión de la constelación de Orión evolucionará en los próximos 450.000 años.

Las estrellas no permanecen fijas en el cielo: su posición cambia continuamente, a medida que se mueven por nuestra Galaxia, la Vía Láctea. Estos movimientos, demasiado lentos para que el ojo humano los aprecie a lo largo de su vida, pueden capturarse mediante observaciones de alta precisión, como las realizadas por Gaia, el satélite astrométrico de la ESA.

Al medir los movimientos de las estrellas en el presente, podemos reconstruir sus trayectorias en el pasado a través de la Vía Láctea para estudiar los orígenes de nuestra Galaxia e incluso calcular su recorrido de aquí a millones de años en el futuro.

Este vídeo permite hacernos una idea de lo que sucederá en los próximos 450.000 años, al mostrar la evolución esperada de un fragmento conocido del cielo: la constelación de Orión, el Cazador.

La parte del firmamento que muestra el vídeo mide 40 x 20º; para hacernos una idea, pensemos que el diámetro de la Luna llena en el cielo es de medio grado aproximadamente.

En mitad de una miríada de estrellas a la deriva, la forma de Orión, marcada por sus estrellas más brillantes, va cambiando lentamente su distribución hasta formar un nuevo patrón, lo que da idea de lo efímero de las constelaciones.

La estrella supergigante roja Betelgeuse se puede apreciar en el centro, hacia el extremo superior de la pantalla al comienzo del vídeo (representada en una tonalidad anaranjada). De acuerdo con su movimiento actual, la estrella se saldrá de ese campo de visión en unos 100.000 años. No obstante, el Universo se reserva un destino mucho más adverso para Betelgeuse, ya que se espera que explote en forma de supernova en el próximo millón de años.

Más estrellas de las que aparecen aquí habrán explotado en forma de supernovas antes del final del vídeo, mientras que otras seguirán evolucionando, como la supergigante azul de Orión, Rigel, que aquí aparece como una estrella brillante en la parte inferior izquierda, o la gigante roja Aldebarán, que forma parte de la constelación de Taurus y que aparece cruzando de derecha a izquierda la parte inferior del vídeo.

También habrán nacido muchas estrellas nuevas a partir de la nube molecular de Orión, una mezcla de polvo y gas que Gaia no ve directamente —aunque puede identificarse a modo de manchas oscuras sobre el fondo de estrellas— pero que brilla a longitudes de onda de infrarrojos. Este vídeo no muestra el nacimiento y la muerte de estrellas.

El cúmulo de las Híades, un grupo de estrellas físicamente unidas que forma parte de la constelación de Taurus, se desplaza lentamente desde la esquina inferior derecha a la superior izquierda.

Este nuevo vídeo se basa en datos de la Solución Astrométrica Tycho-Gaia (TGAS), una fuente que recoge las distancias y los movimientos de dos millones de estrellas, procedentes de la primera publicación de datos de Gaia y del catálogo Tycho-2 de la misión Hipparcos. Incluye información adicional de observaciones desde la Tierra, así como datos del catálogo Hipparcos para las estrellas más brillantes.Al Índice.

El vídeo ofrece un acercamiento a un fragmento concreto del firmamento. (Fuente: ESA)

http://www.esa.int/Our_Activities/Space_Science/Gaia/The_future_of_the_Orion_constellation

ARQUEOLOGÍA - Encuentran el objeto de cobre más antiguo hecho en Sudamérica

El origen de la metalurgia precolombina siempre estuvo asociado a restos de metales trabajados por el hombre que se hallaron en los Andes del Perú. Con el hallazgo de una máscara de cobre, en el Valle del Cajón, en la provincia de Catamarca, se demuestra la importancia del noroeste argentino en la tradición metalúrgica. Se trata de la pieza de metal, la más antigua de la región -de hace 3000 años- y pone la atención en esta área del noroeste argentino. La máscara apareció en un osario compuesto por al menos 14 individuos entre adultos y niños. El descubrimiento fue publicado en la revista Antiquity.

“Dado que las sociedades complejas surgieron en lo que hoy es la región andina central, hay una tendencia a asumir que todas las innovaciones tecnológicas también lo hicieron ahí, pero la evidencia de esta máscara de Bordo Marcial -entre muchos otros hallazgos del norte de Chile y Bolivia- está cambiando esta imagen”, asegura Cristina Scattolin, investigadora independiente del CONICET argentino, en el Instituto de las Culturas (IDECU, CONICET-UBA).

La pieza es de cobre –probablemente nativo- sin ninguna aleación -mezcla de metales- las que sí ocurrieron más adelante en el noroeste argentino y de la que hay varios hallazgos. Esta máscara de cobre es el primer objeto terminado con este metal en Sudamérica. “Demuestra que la región fue importante. La pieza es la más antigua encontrada en los Andes y sugiere que hay más de una región involucrada en el origen de esta tecnología”, confía Leticia Cortés investigadora asistente del CONICET en el IDECU autora del trabajo junto a Scattolin. Ambas formaban parte del Museo Etnográfico de la Universidad de Buenos Aires, al momento de la publicación.

La máscara muestra signos de una metalurgia rudimentaria ya que la pieza de cobre se obtuvo mediante un proceso de calentamiento del metal y martillado, que no incluye la fundición del material. “Es un precursor de la metalurgia e implica una innovación tecnológica: el descubrimiento de que el proceso de golpear el material y calentarlo permite obtener esta lámina con la que hicieron la máscara”, asegura Cortés.

En las inmediaciones del hallazgo, en una fosa junto a 14 individuos, también encontraron los restos de un niño que tiene un pendiente de cobre, con un fechado similar. “Hasta ahora no hay otras evidencias de este periodo en esta quebrada. Sí hay entierros en la zona más tempranos, pero sin evidencias de otras manufacturas que pudieran realizar”, aclara la investigadora.

La comunidad de la Quebrada fue fundamental ya que dieron aviso de inmediato al encontrar los restos, que incluían huesos. Cecilia Marcial y Genaro Chaile fueron quienes hallaron y dieron aviso a Museo local, con lo cual pudieron datar la pieza de acuerdo a la antigüedad de esos remanentes óseos. Los análisis sobre la máscara fueron realizados en la Comisión Nacional de Energía Atómica (CNEA). (Fuente: CONICET/DICYT)Al Índice.

ECOLOGÍA - El calentamiento local en ciudades es mayor al calentamiento global

En los últimos 65 años alrededor del 60 por ciento de la población urbana del planeta ha experimentado un calentamiento local de 1'2 grados, que equivale al doble de lo que se ha calentado nuestro mundo (calentamiento global) por el cambio climático en ese mismo periodo: 0'6 grados, destacó Francisco Estrada Porrúa, investigador del Centro de Ciencias de la Atmósfera (CCA) de la UNAM (México).

Al hablar sobre el artículo Evaluación económica global y las políticas de ciudades para reducir los impactos del cambio climático, publicado en la revista Nature Climate Change el pasado 29 de mayo, el especialista indicó que uno de los hallazgos encontrados como parte de su investigación fue que “los impactos económicos producidos por la urbanización a través de la denominada isla de calor serían 2.6 veces mayores a aquellos que se obtendrían midiendo únicamente el cambio climático global”.

Por ejemplo, se gasta más energía para enfriamiento, aumentan las emisiones de contaminantes y los riesgos para la salud humana son mayores.

Si no se toman en cuenta estos factores, subestimaríamos de manera importante los costos que las ciudades enfrentarían ante el cambio climático, alertó.

En dicho estudio, elaborado por un equipo internacional de economistas liderado por un investigador de la UNAM, por primera vez se evalúan los impactos económicos del cambio climático global y local en las grandes ciudades del mundo; los resultados muestran que podrían sufrir enormes impactos económicos durante este siglo, reiteró.

Asimismo, hicimos una evaluación de los impactos económicos del cambio climático en 1692 en urbes del mundo con más de 300 mil habitantes.

Estrada Porrúa mencionó que las metrópolis tienen características particulares que las pueden hacer potencialmente vulnerables al cambio climático. “Por ejemplo, actualmente 50 por ciento de la población mundial vive en ellas y esta proporción va a aumentar durante este siglo; además, producen 80 por ciento del producto interno bruto (PIB) mundial, sin olvidar que también en estas urbes convergen otros problemas ambientales importantes”.

Nos enfocamos en un problema particular que se llama isla de calor, que ocurre con el proceso de urbanización. “Si comparamos un área rural con una ciudad, esta última tiene una temperatura más elevada porque al urbanizar se cambia vegetación y cuerpos de agua por otros materiales como concreto y asfalto, que tienen una capacidad térmica mayor; es decir, almacenan calor y luego lo emiten”, explicó.

Esto lleva a que tengan una temperatura más elevada y presenten cambios en los patrones de precipitaciones y de vientos. La situación debe ser considerada porque en el futuro este calentamiento por isla de calor será más fuerte.

Por ejemplo, para 2050 se espera que las grandes urbes se calienten alrededor de dos grados adicionales al calentamiento proyectado por cambio climático global, y para finales de este siglo una cuarta parte de las grandes metrópolis del planeta se podrían calentar siete grados o más por efecto del cambio climático local y global, detalló.

El incremento de temperatura en una ciudad también trae consigo repercusiones económicas. “Se gasta más energía para enfriamiento, aumentan las emisiones de contaminantes del aire y los riesgos para la salud; el confort humano se reduce, la calidad del agua puede disminuir y las olas de calor pueden volverse más frecuentes, lo cual afecta la productividad de los trabajadores”, expuso.

El especialista señaló que en el estudio también se analiza qué se puede hacer a escala de ciudad y los beneficios que se podrían obtener a partir de acuerdos internacionales para reducir las emisiones de gas de efecto invernadero.

Por ejemplo, una de las ventajas importantes de las acciones locales es que son políticamente más fáciles de llevar a cabo porque su implementación sólo depende de cada ciudad, como el uso de techos blancos o verdes y de pavimento reflectante o claro.

Estas medidas además de ser económicamente eficaces, mejorarían la calidad del aire, la salud, y proporcionarían un ambiente urbano más agradable.

Indudablemente, apuntó, estas opciones locales pueden ayudar si no hay un acuerdo global para la reducción de la emisión de gases de efecto invernadero, porque si se implementan, aunque no haya acuerdo podríamos aminorar de manera importante los impactos en las grandes ciudades.

Una de las aportaciones importantes del artículo (en el que también colaboran investigadores del Instituto de Estudios Ambientales de la Universidad Libre de Ámsterdam en los Países Bajos y la Universidad de Sussex en Reino Unido) es que muestra que se debe actuar a nivel global y local para llevar los impactos del cambio climático a un rango manejable.

Además, abre la puerta para que se realicen estudios más específicos y saber qué acciones se pueden implementar de manera concreta en ciudades como la de México.

Finalmente, afirmó que la publicación en una revista internacional de gran impacto es un reconocimiento a la investigación sobre cambio climático que se hace en México y en la UNAM. (Fuente: UNAM/DICYT)Al Índice.

PSICOLOGÍA - Las redes sociales no reducen las desigualdades en la participación política

El grupo de investigación Democracy, Elections and Citizenship de la Universitat Autònoma de Barcelona (UAB) (Catalunya, España) ha presentado hoy los resultados del proyecto "Modos emergentes de protesta política: vías hacia la inclusión política", dirigido por la profesora de la UAB Eva Anduiza y realizado con el apoyo de RecerCaixa, un programa impulsado por la Obra Social "la Caixa" con la colaboración de la ACUP (Convocatoria 2014), en el marco de la jornada "Desigualdad y participación en la ciudad de Barcelona" organizada por la UAB, la ACUP y la Obra Social" la Caixa "en el Centro de Cultura Contemporánea de Barcelona (CCCB).

A lo largo de las últimas décadas, la participación política, originalmente circunscrita a la participación electoral, ha ido ampliando su referente. Ahora se incluyen no sólo formas institucionales, sino también formas de protesta o expresión, y modos de participación que tienen que ver con la vida privada (como el consumo con motivaciones políticas). Esta investigación, centrada en la ciudad de Barcelona, ​​aborda las características de estas formas emergentes de participación política, en qué medida están condicionadas por los recursos individuales, y cómo se pueden compensar estas desigualdades.

Los investigadores han analizado, junto con otras formas tradicionales de participación, su presencia entre la población, su relación con características individuales (sexo, edad, nivel de estudios o nivel de ingresos) y contextuales (características socio-demográficas del barrio de residencia y convocatorias de protesta). El objetivo del estudio ha sido identificar cómo estas variables individuales y contextuales afectan las probabilidades de participar en protestas y otras formas de participación política.

Los investigadores han constatado que Barcelona es una ciudad con niveles elevados de participación política. Casi el 90% de los ciudadanos declara haber votado alguna vez en los últimos cinco años y más de la mitad participa en manifestaciones o firma peticiones. Cerca del 40% afirman haber hecho donaciones, participado en caceroladas o haber expresado mensajes políticos a través de banderolas, pegatinas o ropa con mensajes políticos. Un tercio de los barceloneses, además, hacen uso de medios de mensajería o redes sociales para difundir contenido político y han tomado decisiones políticas en el ámbito privado como el uso del transporte público por motivos medioambientales o el consumo ético. Sin embargo, sólo un 10% declaran haber participado en una audiencia pública, consejo de barrio o procesos participativos del ayuntamiento de Barcelona.

Algunos distritos se sitúan en porcentajes elevados para todos los modos de participación (como Gracia) y otros, en cambio, se sitúan en porcentajes más bajos (como Sant Martí o Ciutat Vella). Así, la probabilidad de participar en una manifestación es doce puntos porcentuales más alta entre los vecinos de Gracia (60% de probabilidad) que entre los de Sant Martí (48%). Asimismo, un habitante de Gracia tiene el doble de probabilidades de participar en una proceso participativo local (16%) que un residente en San Martí.

Las diferencias territoriales se explican en parte porque los ciudadanos que habitan en cada distrito son diferentes. La participación está especialmente condicionada por el nivel de estudios, aunque otras características individuales como el sexo, la edad, la procedencia o los ingresos también condicionan la probabilidad de participar.

Según el estudio, las formas emergentes de participación (protesta, expresión online, consumo político o ético) presentan desigualdades por características sociodemográficas aún más acusadas que las formas tradicionales.

"Estas diferencias en participación política por atributos sociodemográficos son muy difíciles de reducir. Factores que tienen un efecto positivo sobre la participación política, tales como participar en asociaciones o interactuar en redes sociales digitales, no consiguen reducir las desigualdades, no incrementan más la participación de los más vulnerables" explica Eva Anduiza, investigadora ICREA Academia, profesora del Departamento de Ciencia Política y Derecho Público de la UAB y responsable del estudio.

La investigación muestra que la existencia de una mayor oferta de protesta cercana conlleva un ligero incremento de la participación de los individuos pero no una reducción de las desigualdades. La participación en actos de protesta es ocho puntos porcentuales superiores para aquellos que tienen más de 30 actos de protesta en su entorno en relación con los que tienen menos.

Por otra parte, los investigadores también han constatado que la acción de protesta violenta tiene un efecto negativo sobre el apoyo a los movimientos sociales. Este efecto se concentra sobre los ciudadanos de centro-izquierda. (Fuente: UAB)Al Índice.

BIOLOGÍA - Fetos en desarrollo reaccionan al ver formas de caras dentro del úter

Es sabido, que los recién nacidos muestran un mayor interés por las caras que por los objetos. Ahora, una investigación, publicada en el último número de la revista Current Biology, revela que esta preferencia se empieza a desarrollar dentro del útero materno.

Un equipo de  la Universidad de Lancaster proyectó luz con imágenes a través de la pared matricial de mujeres embarazadas y descubrió que los fetos  –con una gestación de 34 semanas– giraban antes la cabeza para observar imágenes de rostros que de otras formas.

Estos expertos son los primeros en examinar la percepción visual y la cognición de los bebés antes de nacer. "Hace muchas décadas que se conocía esta faceta de los neonatos, sin embargo, la exploración de la visión fetal no se había intentado” explica Vincent Reid, autor principal del estudio.

Hasta el momento, otros estudios no habían podido observar las reacciones del feto frente a estímulos concretos, debido a cuestiones técnicas. Ahora los cientíticos han utilizado un dispositivo de ultrasonido 4D de alta calidad para estudiar su comportamiento.

Para realizar este estudio, los investigadores han analizado las repuestas de 39 fetos ante figuras lumínicas con formas de caras, proyectadas con distintas orientaciones. Las luces emitidas las movían a través de sus campos de visión, mientras observaban con el ultrasonido 4D sus reacciones.

Las películas obtenidas muestran que los bebes se sentían más atraídos por los rostros ‘normales’, que por los invertidos. Con estos resultados, los autores sugieren que los bebes adquieren antes del nacimiento la capacidad para reconocer caras. Además, han comprobado que la luz exterior puede atravesar los tejidos humanos y llegar al útero.

“Existía la posibilidad de que al feto le pareciese interesante cualquier figura, debido a la novedad de los estímulos”, explica Reid, refiriéndose a la metodología empleada. “Si este hubiese sido el caso, no habríamos visto diferencias en las respuestas a las distintas versiones de los estímulos” asegura.

El equipo también ha confirmado que a los fetos les llega la suficiente luz para ver dentro del útero. Por este motivo, desaconsejan a las madres embarazadas iluminar sus barrigas con luces brillantes.

Actualmente, los investigadores están mejorando la fuente de luz empleada en el estudio para profundizar en sus análisis sobre la percepción y cognición del feto. Una de sus futuras líneas de investigación, tratará de averiguar si los bebes desarrollan la capacidad para distinguir números y cantidades estando dentro del útero. (Fuente: SINC)Al Índice.

BIOLOGÍA - La Fecundación In Vitro cumple 40 años

A finales de este año se cumplirán 40 años de la primera Fecundación In Vitro (FIV), realizada con éxito por los doctores británicos Robert Edwards y Patrick Steptoe. Nueve meses después, el 25 de julio de 1978, nacería Louise Brown, el primer “niño probeta” del mundo, que cumplirá 40 años el año que viene.

Está técnica, conocida como FIV clásica, ha permitido el nacimiento de millones de niños en todo el mundo. “Sin embargo, es ineficaz en más que la mitad de los casos de infertilidad que se tratan actualmente” según Jan Tesarik, director de la Clínica MAR&Gen de Granada, que realizó con éxito su primera FIV en 1982 en Chequia, dos años antes que en España.

En la últimas cuatro décadas las técnicas de reproducción asistida han experimentado una evolución exponencial similar a otros campos de la ciencia “y hoy tratamos con éxito casos que antes eran imposibles”, indica Tesarik.

El director de MAR&Gen recuerda que FIV fue una especie de competición “donde los competidores no nos conocíamos. Existían diferentes grupos de trabajo independientes en distintos países que perseguíamos un objetivo similar: resolver el problema de fertilidad de muchas parejas y permitirlas cumplir el deseo de ser padres”.

En esta “carrera” llegó primero, en 1978, el equipo británico, liderado por Robert Edwards- Premio Nobel de Medicina en 2010-  y Patrick Steptoe. También en el mismo año se conseguiría en la India. En 1980 en Australia, un años después en EEUU. En 1982 en Chequia, de la mano del doctor Tesarik, en Francia, Alemania, Italia y Austria. En 1983 en Bélgica y en 1984 en España.

En su momento, el proceso de la FIV que llevó a la concepción de Brown, utilizado luego por mujeres de todo el mundo, fue motivo de una gran polémica. El método generó un amplio debate en los círculos médicos y religiosos y muchos se opusieron activamente a este tipo de intervención del hombre en los “procesos naturales”. Para hacer la idea de FIV más aceptable para la totalidad de la población, Tesarik desarrolló, en 1983, una técnica que permitía recuperar los ovocitos de la mujer, mezclarlos con espermatozoides del marido e introducirlos inmediatamente de nuevo en la mujer, permitiendo que la fecundación se produjera, posteriormente, en su “sitio natural” (Tesarik et al., “Oocyte recovery, in vitro insemination, and transfer into the oviduct after its microsurgical repair at a single laparotomy”. Fertility and Sterility 1983,39:472-775). Esta técnica se utilizó posteriormente bajo la abreviación GIFT (Gamete Intrafallopian Transfer) como alternativa a la FIV convencional.

En todo caso, la FIV “fue un paso de gigante –explica Tesarik- que nos ha permitido dar muchos otros, más importantes, porque en los últimos 40 años la reproducción asistida ha vivido avances revolucionarios”.

Al inicio las técnicas de FIV convencional y de GIFT se utilizaban exclusivamente en casos en los que la causa de infertilidad era de origen femenino, relacionada con una obstrucción de los oviductos (conductos que conectan los ovarios y el útero). Sin embargo, en los años siguientes las indicaciones de estas técnicas se extendían  progresivamente a otras causas de infertilidad femenina y masculina. Y es precisamente en el campo de infertilidad masculina donde se realizó un paso decisivo que marcaba la dirección de futuras innovaciones – la ICSI.

ICSI (del nombre inglés “Intra Cytoplasmic Sperm Injection”) permite realizar la FIV en casos de anomalías severas de espermatozoides, donde la FIV convencional y el GIFT fracasan inevitablemente. El primer niño concebido gracias a ICSI nació en Bélgica en 1992. Jan Tesarik logró el primer nacimiento en Francia, en el Hospital Americano de Paris. La tecnología de micromanipulación de espermatozoides, ovocitos y embriones, desarrollada en el contexto de la aplicación de ICSI, servía posteriormente de base para la evolución de nuevas técnicas para el tratamiento de diferentes causas de infertilidad humana. Esta es la lista de logros los más importantes.

ROSI (del nombre inglés “Round Spermatid Injection”) permite realizar la FIV incluso para hombres sin espermatozoides, utilizando sus células precursoras inmaduras (espermátides). El primer niño del mundo concebido gracias a esta técnica, desarrollada por Jan Tesarik, nació en 1995. En 1998 la misma técnica fue utilizada con éxito por Tesarik para obtener los primeros nacimientos del mundo en casos de hombres con un bloqueo aún más precoz de formación de espermatozoides (espermatocitos primarios).

El primer paso se hizo en 2001, cuando un equipo de investigadores liderado por Jan Tesarik logró, en Brasil, los primeros embriones humanos obtenidos por FIV de ovocitos “artificiales”, reconstruidos con células somáticas de una paciente sin ovocitos. La misma técnica se está probando para formar espermatozoides “artificiales” para hombres que no tienen ni espermatozoides ni sus células precursoras inmaduras. Hoy día estas técnicas no pueden aún ser utilizada clínicamente por falta de garantías de seguridad en cuanto a la normalidad de futuros bebés. Trabajos de investigación en este campo se están realizando simultáneamente en varios países. La técnica de reproducción asistida llamada incorrectamente de “tres padres genéticos” (en realidad se trata de 1 padre y 2 madres genéticas), que ha recibido mucha atención en medios de comunicación el año pasado (e.g. El País 6 OCT 2016) está también derivada de aquella desarrollada por Tesarik en Brasil.

Este método, que permite la exploración de los 46 cromosomas humanos con el fin de detectar posibles deleciones y duplicaciones, ha sido aplicado a embriones humanos por varias clínicas del mundo en los últimos años. Un estudio internacional, con la participación de Jan Tesarik y Clínica MARGen, ha demostrado, en 2014, que la probabilidad de conseguir embarazo evolutivo con embriones seleccionados por hibridación genómica comparativa puede alcanzar 68% en pacientes con 3 o más previos fracasos con embriones no seleccionados. Y todo esto con un sólo embrión transferido a la vez (BioMed Research International 2014).

Sin esperar la disponibilidad de las técnicas para formar espermatozoides y ovocitos artificiales, hoy día podemos hacer en reproducción asistida cosas inimaginables hace 40 años. Así, la calidad y cantidad de ovocitos obtenidos de una mujer con problemas de ovarios pueden ser mejoradas significativamente utilizando una serie de medidas terapéuticas personalizadas estrictamente a la medida de cada paciente concreta. La clínica MARGen va a publicar próximamente, en una revista estadounidense, los resultados obtenidos con pacientes tratadas después de ser rechazadas por varias otras clínicas por ser “casos desesperados”. Sin hablar de la donación de ovocitos, extremamente eficaz, con la cual se puede alcanzar la probabilidad de embarazo del 80% en mujeres que no superarían los 10% con sus ovocitos propios. En el campo de infertilidad masculina, nuevas técnicas de medicación y de laboratorio, perfeccionadas en los últimos 10 años, aumentan la probabilidad de éxito de reproducción asistida para hombres con graves problemas de desarrollo de espermatozoides y con daños del material genético de espermatozoides.

Los últimos avances en diferentes campos científicos están abriendo vías a nuevas aplicaciones en reproducción asistida. “Los que tienen un sentido para percibir vibraciones de lo nuevo en gestación pueden predecir que los años a venir serán lo mismo fructíferos y revolucionarios, en lo que afecta a la reproducción asistida, como los años 90 del siglo pasado con la irrupción de técnicas de micromanipulación celular” comenta Jan Tesarik. Y creo que el contenido de estas innovaciones se podrá resumir con la bonita expresión inglesa: “patient-friendly” (amigable con el paciente).

Una de estas ideas innovadoras consiste en la sustitución de técnicas diagnósticas invasivas con técnicas no invasivas, mediante la recreación virtual de órganos de los pacientes, utilizando grabaciones multifocales y análisis computerizada de imágenes. En esta línea los investigadores de la Clínica MARGen, en colaboración con la Universidad de Granada, han desarrollado, y publicado en el inicio de este año, técnicas de examen de la cavidad uterina y de detección de embarazo ectópico en realidad virtual, creada a partir de imágenes ecográficas tomadas desde fuera. “Estoy seguro que en el futuro podremos recrear el cuerpo entero de una persona, con todas sus eventuales enfermedades y anomalías, en realidad virtual a fin de realizar allí exámenes que serían desagradables o arriesgados en caso de hacerlos en el cuerpo del propio paciente” matiza Tesarik.

Otro campo, actualmente en plena expansión, es el análisis de expresión génica en la sangre periférica. Hoy día se utilizan varios transcriptomas de sangre periférica como marcadores genéticos de patologías localizadas en diferentes órganos del cuerpo humano. “Igual que realidad “morfológica” virtual, podemos hablar de una realidad “molecular” virtual, en la cual se pueden descifrar señales de anomalías y enfermedades particulares. En este sentido se trata de dos realidades virtuales complementarias para analizar el funcionamiento del cuerpo humano y sus partes”, concluye Tesarik, que ha involucrado a la Clínica MARGen en diferentes proyectos de investigación y desarrollo en ambos campos de la ciencia del futuro. (Fuente: MAR&Gen)Al Índice.

ASTRONOMÍA - Estimación de cuánta agua fue necesaria para excavar valles marcianos

En un nuevo estudio se ha calculado la cantidad de agua necesaria para excavar la llamativa red de valles marcianos y el resultado indica que la superficie del Planeta Rojo tenía en el pasado mucha más agua de lo que se pensaba previamente.

Lo descubierto por el equipo de Wei Luo, de la Universidad del Norte de Illinois en Estados Unidos, refuerza la idea de que Marte tuvo una vez un clima más cálido y un ciclo hidrológico muy activo, con agua evaporándose de un antiguo océano, regresando a la superficie en forma de precipitación y erosionando el terreno hasta acabar dando forma a la amplia red de valles del planeta.

Los satélites que orbitan Marte y los robots en su superficie han proporcionado a los científicos pruebas convincentes de que el agua ayudó a dar forma al paisaje del planeta hace algunos miles de millones de años. Pero no estaba claro cuánta agua fluyó realmente sobre el planeta, y la hipótesis del océano ha sido muy debatida.

En el nuevo estudio, Luo y sus colegas utilizaron un algoritmo innovador para calcular de forma más precisa el volumen del espacio hueco dentro de los valles de Marte y la cantidad de agua que habría sido necesaria para crear esos huecos a través de la erosión con el paso del tiempo. La mayoría de los valles tienen más de 3.000 millones de años.

Ilustración del Marte actual y el aspecto que aproximadamente pudo tener el antiguo Marte, cálido y húmedo. (Imagen: Wei Luo, Northern Illinois University)

Sus estimaciones más conservadoras sobre el volumen global de los valles marcianos y la cantidad acumulada de agua necesaria para excavarlos son al menos 10 veces mayores que las estimaciones previas.

Además, la nueva estimación del volumen de agua necesaria para esculpir los valles es al menos un orden de magnitud superior al volumen que se le atribuía a un hipotético océano y 4.000 veces mayor que el volumen de los huecos de los valles.

Eso significa que el agua debió reciclarse muchas veces a través de los sistemas de valles en Marte, y que se necesita un gran cuerpo de agua abierto u océano para facilitar dicho reciclaje tan activo. “Me imaginaría al antiguo Marte siendo similar a lo que tenemos en la Tierra, con un océano, lagos, ríos y precipitaciones”, declara Luo.Al Índice.

BOTÁNICA - Utilizan levaduras en limones como alternativa a los agroquímicos

Mientras Estados Unidos abre las puertas para los limones argentinos, investigadores de la Universidad Nacional de Tucumán (UNT) exploran alternativas ecológicas para controlar los hongos que afectan su producción. Argentina es el principal productor mundial de la fruta y las citrícolas tucumanas lideran la exportación nacional.

El uso de fungicidas sintéticos presenta desventajas, como la aparición de cepas resistentes, y pueden constituir un riesgo tanto para el medio ambiente como para la salud humana. Por otra parte, existen restricciones del mercado internacional en cuanto a la cantidad de residuos químicos permitidos en las frutas. Finalmente, la demanda de productos orgánicos por parte de los consumidores está en constante crecimiento.

El equipo tucumano desarrolla levaduras “killer” que destruyen los hongos de la fruta post-cosecha. Las enfermedades más comunes y severas son el moho verde y el moho azul, causados por Penicillium digitatum y Penicillium italicum, que ingresan al fruto por las heridas que se producen en su piel.

Las levaduras “killer” son extraídas de la superficie de los limones, de las hojas o del líquido del lavado de la fruta. Es decir que la cura de la enfermedad, en este caso, proviene del mismo cítrico; es parte de su flora microbiana. El equipo analizó 400 levaduras diferentes y se quedaron con las tres cepas que dieron los mejores resultados: Pichia, Clavispora y Cándida. El estudio fue publicado recientemente en la prestigiosa revista científica Plos One.

Los investigadores analizaron el estado de los limones que tenían una infección provocada por ellos mismos. Los dividieron en dos grupos: uno de experimentación (donde aplicaron la levadura) y otro de control. A los diez días observaron que los limones del segundo grupo se infectaban completamente; por el contrario, los limones protegidos llegaban en buenas condiciones, hasta el 90% del total.

Julián Dib, doctor en Ciencias Biológicas y docente de la Facultad de Bioquímica, Química y Farmacia de la UNT encabeza la investigación. Integran el equipo Julia Pérez Ibarreche, tesista de la Licenciatura en Biotecnología y Ana Sofía Isas, biotecnóloga. Los tres se desempeñan en la Planta Piloto de Procesos Industriales Microbiológicos (PROIMI) que depende del Conicet.

El PROIMI firmó un convenio de cooperación con la citrícola San Miguel (ubicada en Tucumán), la más importante del país en cuanto al volumen y a la variedad de su producción, que abarca desde el cultivo hasta la comercialización de limones frescos. Los investigadores probaron el producto en la citrícola en más de 3.000 limones, en diferentes etapas (al principio de la cosecha, a la mitad y al final).

Por ahora la forma de utilizar el producto consiste en disolverlo en agua, en baldes de 10 litros, donde se sumergen los limones en rejillas. Dib señaló que pretenden volver más ágil su uso durante el proceso de empaque. “Podemos aplicar la levadura en los grandes piletones durante el tratamiento que reciben con hipoclorito y carbonato. En ese momento se limpia, se encera y se selecciona la fruta por tamaño, color y requerimiento de mercado”, puntualizó.

Pérez Ibarreche afirmó: “lo bueno de trabajar con la citrícola es tener gran escala y trabajar en las condiciones que requiere la industria. Ellos quieren exportar el limón y el producto se piensa para la producción orgánica requerida por los mercados internacionales”.

Los últimos ensayos que realizó la tesista apuntaron a la exportación, teniendo en cuenta que los limones tardan unos 40 días en llegar a países de la Unión Europea o a Rusia, trasladados vía marítima, en conteiners en frío. Probaron la levadura durante esa cantidad de días a una temperatura de entre 7º y 8º C. “Al principio se infectaron los primeros limones, que son muy pocos en relación al total, y de ahí se mantuvo el efecto durante todo el lapso. Más del 90% no se infectó”, aseguró la investigadora.

Dib mencionó que el desafío actual es elaborar el producto en grandes cantidades. “Tenemos que estudiar las condiciones óptimas para su comercialización y para conseguirlo necesitamos el apoyo de la industria”, opinó. El equipo aspira a procesar la levadura, almacenarla en bidones y que las industrias locales puedan utilizarla.

La investigación está financiada por el Conicet; la parte práctica se realiza en la citrícola -que aporta materiales e insumos-, y reciben la cooperación de la Universidad Tecnológica de Malasia que está interesada en el producto. El científico tucumano explicó que sus colegas malasios quieren aplicar las levaduras “killer” para combatir los hongos de la fruta del dragón, planta que tiene valor comercial para ellos.

Jacqueline Ramallo, ingeniera agrónoma y magister en Producción, responsable de Fitopatología y Biotecnología de la citrícola San Miguel, calificó esta línea de investigación como muy valiosa. Aseguró que la conservación de frutas en post-cosecha irá indefectiblemente a productos que no dejen residuos. “Esto es una tendencia creciente a nivel mundial”, enfatizó.

Señaló: “el control de patógenos con productos biológicos (en este caso levaduras) es promisorio, aunque no tiene la efectividad de un producto de síntesis. Falta llevarlo a escala semicomercial y comercial”.

Ramallo está convencida de que el camino es el trabajo conjunto de investigadores y empresas privadas, donde cada parte aporte sus fortalezas. “No tiene sentido un sistema de investigación que trabaje ajeno a las necesidades del medio productivo”, concluyó. (Fuente: Argentina Investiga)Al Índice.

COMPUTACIÓN - Inteligencia artificial prediciendo cuánto vivirá un paciente

Una inquietante aunque útil habilidad cibernética, la de pronosticar cuánto tiempo de vida le queda a un paciente examinando simplemente imágenes de sus órganos, está un paso más cerca de convertirse en realidad gracias a una nueva investigación. Aunque resulte turbador predecir cuándo se morirá una persona, conocer el pronóstico puede ser la primera ayuda para cambiarlo. Por tanto, esta línea de investigación y desarrollo podría tener muchas utilidades en el diagnóstico temprano de enfermedades graves, y propiciar intervenciones médicas que de otro modo solo se plantearían más adelante, cuando las posibilidades de éxito hubieran mermado bastante.

El equipo internacional del Dr. Luke Oakden-Rayner, de la Universidad de Adelaida en Australia, utilizó inteligencia artificial para analizar imágenes médicas del pecho de 48 pacientes. Este análisis informático consiguió predecir qué pacientes morirían en el plazo de cinco años con una precisión del 69%, comparable con las predicciones “manuales” hechas por los expertos sanitarios humanos.

Es el primer estudio de su clase en el que se utilizan imágenes médicas e inteligencia artificial. En él se ha investigado el uso del “aprendizaje profundo”, una técnica que para la habilidad aquí ensayada permite que sistemas informáticos puedan aprender cómo entender y analizar imágenes médicas.

Aunque solo se usó una pequeña muestra de pacientes para este estudio, los resultados de las pruebas sugieren que los sistemas informáticos suficientemente potentes son capaces de aprender a reconocer las complejas apariencias visuales de las enfermedades, algo que de todos modos requiere también un amplio adiestramiento en el caso de los expertos humanos.

La próxima etapa de esta línea de investigación consistirá en poner a prueba con decenas de miles de imágenes de pacientes a esta clase de análisis informáticos guiados por inteligencia artificial.Al Índice

COMPUTACIÓN - El "arte" de la Inteligencia Artificial

Al igual que muchos niños, Antonio Torralba empezó a jugar con los ordenadores cuando tenía 13 años de edad. A diferencia de muchos de sus amigos, no pasaba el tiempo jugando con juegos de video, sino que escribía sus propios programas de inteligencia artificial (IA).

Creció en la isla de Mallorca, España, y pasó su adolescencia diseñando algoritmos para reconocer los números escritos a mano, o que detectaran el verbo y el sustantivo de una oración. Pero quizás de lo que se sentía más orgulloso es de un programa que podía mostrar a la gente cómo se vería el cielo nocturno en una dirección determinada. “O si pudieras mudarte a otro planeta, te diría cómo se verían las estrellas desde allí”, comenta.

Hoy en día, Torralba es profesor adjunto de ingeniería eléctrica y ciencias de la computación en el MIT, y  en el Computer Science and Artificial Intelligence Laboratory(CSAIL), donde desarrolla sistemas de inteligencia artificial (IA) capaces de interpretar imágenes y entender lo que las escenas y objetos contienen.
Torralba se empezó a interesar por una visión por ordenador cuando trabajaba en su doctorado en el Instituto Politécnico de Grenoble en Francia. “La visión es un área muy importante”, subraya él. Es un gran desafío, que requiere una gran cantidad de potencia de cálculo. “Alrededor de un 30 por ciento del cerebro está dedicado o conectado a la visión”.

En este momento, la mayoría de los investigadores de la visión por ordenador, se ocupan de detección facial y el reconocimiento, tratando el resto de la imagen casi como ruido molesto. Sin embargo, Torralba estaba mucho más interesado en el reconocimiento y la comprensión de otros objetos dentro de una imagen. “Quería crear sistemas que pudiesen poner los objetos en su contexto, e intentar comprender cómo los diferentes objetos se relacionan entre sí”, explica.

Así que, comenzó a desarrollar sistemas que usaban la información obtenida de una imagen completa, para ayudar a identificar objetos individuales. Si una imagen contiene un objeto posado en lo alto de una mesa, por ejemplo, dicho objeto es poco probable que sea algo muy grande, acortando considerablemente la cantidad de cosas que podría ser.

En última instancia, estos sistemas podrían ser utilizados para anotar todas las imágenes que se muestran en línea y hacerlos más fáciles de localizar. También podría permitir que los robots puedan reconocer dónde se encuentra una casa o un edificio de oficinas, basándose en los muebles u objetos que se vean a su alrededor.

Torralba también está tratando de desarrollar sistemas que puedan escanear un clip de vídeo de corta duración y predecir lo que va a ocurrir a continuación, basándose igualmente en las personas u objetos de la escena. Para ello, los sistemas deberán entender lo que pueden lograr las acciones de cada objeto o persona de la escena y cuáles son sus limitaciones. Esto permitirá que los sistemas puedan hacer predicciones sobre lo que cada una de estas entidades sea capaz de hacer en un futuro próximo.

Si los sistemas de IA pueden de esta manera aprender a predecir lo que sucederá después, dada toda la información disponible acerca de una situación en particular, debería ayudarles a anticiparse el cómo sus acciones influirán en los acontecimientos futuros, igual que pueden los humanos.

Antes de pertenecer al CSAIL, Torralba pasaba su tiempo libre produciendo su propia obra de arte digital mediante la superposición de varias imágenes. Para una imagen en particular, Torralba tomaba 150 fotografías, cada una de las cuales contenía una persona en el centro de la imagen, entonces las combinaba. El resultado es una imagen digital que parece haber sido dibujada a mano, dice: “La superposición de todas estas imágenes ofrece esta calidad que parece como hecha con un lápiz, pero son fotografías digitales”.

Él utilizó un enfoque similar para crear un “diccionario visual”, que consiste en una imagen formada por miles de imágenes individuales, que ilustran el trabajo de su grupo. Cada cuadro representa una de las aproximadamente 50.000 palabras de la lengua inglesa que se corresponden con un concepto visual. Al pulsar en cualquier punto de la imagen nos trae una determinada palabra representada por las imágenes individuales y su definición.

Aunque su sitio web es un interesante proyecto artístico por derecho propio, también sirve para un propósito práctico, actuar como base de datos de todas las imágenes que, tanto él como su equipo han recogido, y sobre los cuales entrenan sus sistemas de visión por ordenador, como él mismo señala, “nuestro objetivo es desarrollar un sistema capaz de reconocer totalmente los 50.000 objetos”.

Una meta, por cierto, que probablemente  mantenga ocupado a Torralba durante algún tiempo.Al Índice.

SALUD - El insomnio, el gran mal del siglo XXI

Fue en el siglo XVII cuando Pedro Calderón de la Barca escribió su obra magna, la vida es sueño, pero esto parece ser ya cosa del pasado. Ahora, desde otra perspectiva muy distinta, ya en pleno siglo XXI, el 18 de marzo se conmemora el Día Mundial del Sueño.

Este día está dedicado a una campaña convocada por la Asociación Mundial de Medicina del Sueño, para hacer hincapié en la necesidad de la salud del buen dormir, una acción cotidiana que tiene como objetivo la reparación del cuerpo y de la mente y que en la actualidad rara vez se cumple, debido, entre otros factores, a la complejidad de la vida urbana, al desempleo, a la contaminación, las enfermedades, y en definitiva a todas las incertidumbres y miedos de nuestro tiempo… circunstancias que nos atormentan y nos quitan el sueño.

Dormir bien es una acción difícil para el 45 por ciento de la población global, según la Organización Mundial de la Salud. Estos datos no hacen más que corroborar la importancia de recibir todo tipo de ayuda y orientaciones para conseguir el descanso que tanto nuestro cuerpo como nuestra mente necesitan.

Según la web mevoyadormir.com, hay que estudiar las causas que provocan insomnio en cada caso particular y cuáles son las verdaderas  razones para no poder dormir y tener insomnio. Esta web también pone de manifiesto que no a todo el mundo le funcionan los mismos métodos, así que ofrece varias alternativas para conseguir un sueño reparador.

Si ninguno de los consejos o ayuda que pueda recibir le sirve de utilidad, llega el momento de ponerse en manos de profesionales antes de que se vuelva crónico y sea más difícil de erradicar.

Si bien los medicamentos pueden ser prescritos para mejorar el sueño, hay muchos beneficios a las intervenciones que no son farmacológicas.

Los osteópatas craneales, por ejemplo, están capacitados para tratar, de forma efectiva, los trastornos del sueño. Gracias a su formación, estos especialistas pueden percibir un movimiento rítmico en los huesos del cráneo y pueden armonizarlo a través del masaje craneal, obteniendo un estado mejorado de la salud y una mejor calidad del sueño. Si quiere tener más información sobre la osteopatía, en osteopatia10.comweb de referencia en osteopatía, conocerá todo lo relacionado con sus orígenes, cómo funciona, para qué sirve, qué tipos hay…

El deporte, la mejor forma de luchar contra el insomnio y ganar en salud

Como ya hemos mencionado, nuestra sociedad actual vive estresada e impone a sus ciudadanos un ritmo de vida acelerado. Una de las consecuencias más comunes y a corto plazo es la falta de sueño o el insomnio, un trastorno que, si no se trata debidamente, se vuelve un problema crónico con una difícil solución que, en la mayoría de los casos, requiere de medicación.

Las personas con insomnio suelen sentir constantemente una preocupación excesiva, cansancio, falta de energía y concentración durante todo el día y, cuando llega la hora de dormir y descansar, la mente no consigue desconectar y les impide conciliar el sueño o no consiguen un sueño de calidad.

Un buen descanso es fundamental para rendir en las actividades de la vida diaria y en el deporte. Pero, además, el ejercicio es parte clave para que el descanso sea el adecuado y tener clara esta ecuación nos va a servir para evitar recurrir a medicación como primera alternativa.

Está demostrado que el ejercicio, y más específicamente el de carácter aeróbico, ayuda a combatir el estrés. Hay numerosos estudios que demuestran que las personas que realizan ejercicio moderado dos veces a la semana logran descansar mejor y gozar de buena salud.

La falta de tiempo es una de las grandes excusas que, a veces, nos ponemos a nosotros mismos para no seguir una rutina de entrenamiento o el no poder adaptarse a los horarios de un gimnasio. Todo esto desaparece con voluntad y tomando las riendas de nuestra vida, pues está en juego nuestra salud y bienestar.

Por un lado, siempre podemos salir a correr, sin tiempos ni horarios, y por otro lado podemos hacernos con algún aparato para ejercitarnos en casa, como la barra dominadas, con la que podrás hacer todos los ejercicios con barra de dominadas que puedas encontrar en la web. Las mejores barras de dominadas para comprar te están esperando para empezar a cuidarte.

El té, aliado contra el insomnio, ¿o no?

El insomnio es uno de los grandes padecimientos de la sociedad actual. Parece ser que hemos perdido la capacidad de dormir bien, eso que sabíamos hacer desde bebés: dormir y descansar.

Hay mucha confusión en cuanto a los remedios caseros para conciliar el sueño. Hablamos, en este caso, del error que hay alrededor del  y a las infusiones. Muchas personas llaman té a cualquier infusión y consideran que son un buen remedio contra el insomnio. Ciertamente, algunas plantas en forma de infusión pueden ayudarnos a dormir mejor, pero el té no es una de ellas, pues el té es una bebida tan estimulante como el café, por lo que si queremos vencer al insomnio, debemos suprimir la ingesta de té una vez pasadas las 5 de la tarde.

Dicho esto, las propiedades y beneficios para la salud del té son innumerables y no debemos prescindir de ellas. Como bebida en el desayuno, por ejemplo, es una excelente forma de comenzar el día. Páginas como Aromasdete.com se han especializado en toda su diversidad para ofrecerlas de la manera más cómoda, con un solo click de ratón tendrás el té que prefieras en tu domicilio.

El té es la bebida más consumida en el mundo, pero no todo el mundo consume el mismo té, existen muchas variedades de té y cada una de ellas tiene unas características únicas. En aromasdete.com, una empresa familiar de esencia artesana y natural, son plenamente conscientes de este hecho y ofrecen multitud de tipos para satisfacer a todos sus clientes. Entra en su web y descubre cual es el té que más te hace disfrutar.Al Índice.

MEDICINA - Analizan la dinámica de la respuesta inmunitaria celular frente al crecimiento de tumores

El Grupo de Investigación en Dinámica No Lineal, Teoría del Caos y Sistemas Complejos de la Universidad Rey Juan Carlos (URJC) (España), que dirige el profesor Miguel A.F. Sanjuán, ha utilizado un modelo matemático para estudiar la dinámica espacio-temporal de la respuesta de las células inmunitarias ante el crecimiento de tumores, en el marco de su línea de investigación en dnámica del cáncer.

Los resultados de esta investigación han sido publicados en un número especial de la revista científica Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering, dedicado a los métodos matemáticos para el estudio de diferentes ámbitos de la medicina.

Los investigadores han utilizado un autómata celular híbrido que incluye procesos típicos de la respuesta inmunológica celular, como son el influjo de células en el tejido, la lisis (ruptura de la membrana celular), el reclutamiento y la inactivación. “A medida que el sistema inmune ataca a un tumor en crecimiento, lo va desplazando y despedazando. Debido a estos dos fenómenos, si no queda completamente destruido, alguna parte del tumor termina por escapar de la región de interés”, explica el Dr. Alvaro García López, añadiendo que “para que se puedan dar estados transitorios de latencia tumoral prolongados es preciso un equilibrado balance entre el crecimiento del tumor y la destrucción causada en todas las direcciones espaciales”.

Mediante esta nueva técnica se podrán representar también tumores genéticamente heterogéneos a través de la inclusión de diversas poblaciones de células cancerígenas. Por tanto, se espera que dicha sofisticación del modelo actual permita caracterizar la probabilidad de estados de latencia tumoral y otros fenómenos en tumores heterogéneos. Además, también se podrá estudiar con detalle el proceso de selección clonal durante las diversas etapas de la inmunoedición (teoría de la vigilancia inmunológica del cáncer), así como estimar el posible impacto de dicha heterogeneidad en la inmunoterapia.

Desde que el eminente médico y bacteriólogo alemán, ganador del premio Nobel de Medicina en 1908, Paul Ehrlich, sugiriera a comienzos del siglo XX que el sistema inmunitario podía proteger al organismo del desarrollo de tumores, la teoría de la vigilancia inmunológica del cáncer sufrió distintos reveses, siendo descartada y retomada en dos ocasiones.

Actualmente, dicha teoría se conoce con el nombre de inmunoedición. De acuerdo con ella, según apunta Jesús Seoane, investigador de la URJC, “el sistema inmunitario ejerce una presión selectiva sobre el tumor, destruyendo las células más inmunogénicas y dando lugar a una población de células resistentes.

Se cree que dicho proceso se produce en tres etapas: la eliminación, el equilibrio y el escape”. Durante la primera de ellas, las células del sistema inmunitario son capaces de destruir la inmensa mayoría de células tumorales. Sin embargo, una pequeña población de células que escapan a la vigilancia inmunitaria puede sobrevivir en un estado de latencia, ya sea dinámica o celular. Finalmente, en la última etapa del proceso algunas de estas células adquieren la resistencia necesaria para evadir al sistema inmune originando un nuevo tumor. (Fuente: URJC/DICYT)Al Índice.

PSICOLOGÍA - Los malos hábitos de las personas se reflejan en sus mascotas

El sedentarismo y los malos hábitos alimenticios también provocan problemas de sobrepeso y obesidad en perros y otros animales de compañía, y esta condición en la mayoría de los casos está asociada con el estilo de vida de sus dueños, afirmó Ylenia Márquez Peña, profesora de la Facultad de Medicina Veterinaria y Zootecnia (FMVZ) de la UNAM (México).

Se ha comprobado que las personas con horarios de comida cambiantes, que consumen alimentos ricos en carbohidratos, azúcar y grasas y no tienen actividad física reproducen estos comportamientos en sus mascotas, apuntó.

Además, creen que para consentirlas las deben alimentar constantemente, incluso les dan de su comida, les ofrecen galletas o una ración extra como premio cuando hacen algo bien.

Un perro es obeso cuando su masa corporal supera en 20 por ciento el peso que le corresponde de acuerdo con su edad, sexo y raza, pues algunas tienen cierta predisposición genética a aumentar de peso, como el golden retriever, labrador y cocker spaniel precisó.

Muchas personas llevan a sus animales de compañía al Hospital Veterinario de Especialidades de la FMVZ no por la obesidad, sino por otros padecimientos asociados como la diabetes; problemas articulares, cardiacos o circulatorios; dificultad de movimiento, e incluso cáncer.

“Consideran que si sus mascotas están gordas son más graciosas y saludables; sin embargo, deben entender que no es así”, resaltó.

La especialista en pequeñas especies expuso que además de la alimentación, otro factor que aumenta el riesgo de obesidad es la esterilización, pero también se puede controlar. “Al practicar la cirugía se recomienda a los dueños ajustar las porciones de comida y aumentar la actividad física”.

La mejor alternativa es la prevención, remarcó: informar a las personas de la importancia de dar alimentación adecuada (en cantidad y contenido nutricional) a sus mascotas, de llevarlas a hacer ejercicio a diario y no ver a la comida como una forma de consentirlas o de motivarlas a realizar alguna actividad.

Además, es fundamental que reconozcan cuando su animal de compañía tiene obesidad o sobrepeso, y entender que esta condición no sólo está relacionada con la apariencia, sino con la salud, de este modo será más probable que busquen ayuda, concluyó. (Fuente: UNAM/DICYT)Al Índice.

MEDICINA - Eliminar las células más viejas de un individuo podría prolongar su vida

Un estudio reciente confirma que la eliminación selectiva de células senescentes acumuladas en muchos tejidos de los vertebrados a medida que envejecemos, contribuye notablemente a retrasar la aparición de patologías relacionadas con el envejecimiento.

Esta investigación la ha llevado a cabo el equipo internacional de Ok Hee Jeon, de la Universidad Johns Hopkins en Estados Unidos, y Chaekyu Kim, de la misma universidad y que ahora trabaja en el Instituto Nacional de Ciencia y Tecnología de Ulsán (UNIST), en Corea del Sur. También han participado científicos de otras entidades, de dentro y fuera de Estados Unidos.

Ratón antes (izquierda) y después (derecha) de la eliminación de células senescentes. En el extremo derecho, visión microscópica del tejido antes (arriba) y después (abajo) del proceso. (Imágenes: Baker et al., (2016) Nature)

Las células senescentes están presentes en los puntos del cuerpo con patologías relacionadas con el envejecimiento. Aunque estas células desempeñan un papel esencial en la curación de heridas y otros daños, pueden también llegar a promover la aparición de cáncer en los tejidos. Por ejemplo, en las articulaciones, como la rodilla y el tejido de cartílago, a menudo las células senescentes no son retiradas del área tras la lesión, contribuyendo por tanto al desarrollo de la artrosis (osteoartritis).

En el estudio, el equipo de investigación puso a prueba un candidato a medicamento que alivia las alteraciones articulares degenerativas relacionadas con el envejecimiento. Este novedoso fármaco logra tal efecto mediante la destrucción selectiva de células senescentes. Los resultados del estudio sugieren que la eliminación selectiva de las células viejas de las articulaciones podría reducir el desarrollo de artrosis postraumática y permitir que crezca nuevo cartílago y se reparen las articulaciones.Al Índice.

NANOTECNOLOGÍA - El grafeno, clave para descubrir los secretos de las proteínas

Investigadores santafesinos (Argentina) aplican la nanotecnología para clasificar proteínas y sus aminoácidos, ya que de esta manera se puede conocer en profundidad el origen de enfermedades genéticas. Lo hacen por medio de hojas de grafeno, el mismo material que se presenta en las puntas de los lápices.

El trabajo está encarado por investigadores del Instituto de Física del Litoral (IFIS-UNL- CONICET). Ellos estudian materiales con aplicaciones para la biomedicina, específicamente en la clasificación de proteínas. “Trabajamos con 20 aminoácidos, que pueden pensarse como bloques o ladrillos que construyen a todas las proteínas. Todas ellas están formadas de un orden o una secuencia específica de aminoácidos, por lo cual si ese orden falla, también falla la proteína, lo que puede llevar a enfermedades genéticas”, contó Sindy Julieth Rodríguez Sotelo, que estudia el tema en el Grupo de Materiales de Simulación Computacional de Nanomateriales y Dispositivos.

La idea del grupo es construir, en principio, un dispositivo para detectar fallas moleculares responsables de numerosas enfermedades que tengan su origen en secuenciación errónea de aminoácidos, además de controlar la calidad de las proteínas producidas por la ingeniería genética. “Hay enfermedades que tienen sus orígenes en malas secuenciaciones, una conocida puede ser la osteogénesis imperfecta u osteogenia imperfecta, también llamada huesos de cristal. En esta enfermedad por ejemplo, las cadenas de colágeno tienen una estructura repetitiva de 3 aminoácidos. Una alteración en el orden distorsiona el buen funcionamiento de la proteína, donde una pequeña cantidad de colágeno funcional producido no puede ser regulada, dando lugar a la fragilidad excesiva del hueso”, apuntó.

En este sentido, agregó que buscaban caracterizar y estudiar las propiedades eléctricas de un material que pudiera servir para  descifrar ese código que la proteína posee oculta: el material que los investigadores propusieron fue el grafeno. “Es un material relativamente nuevo, con propiedades físicas excelentes, extremadamente delgado, ya que es una lámina de un átomo de espesor, 300.000 mil veces más delgado que una hoja de papel. Es básicamente carbono, el mismo material del que están hechas las puntas de los lápices. Sin embargo, el material que utilizamos se organiza bidimensionalmente de un modo similar a un panal de abejas, una organización que le da la propiedad requerida”, acotó.

Según Rodríguez Sotelo, la estructura del material posibilita distinguir cada uno de los bloques, los aminoácidos que conforman las proteínas. “Nuestro objetivo es estudiar desde la mecánica cuántica cómo ese material distribuye sus cargas o sus electrones en sus superficies con cada uno de esos aminoácidos. Si logramos distinguir una señal o una diferencia eléctrica, podemos construir un secuenciador de proteínas. Para lograrlo, pensamos en un dispositivo sencillo que modelamos con técnicas de cálculo sofisticado, que incluso nos permiten comparar con datos experimentales cómo se distribuyen esas cargas”, añadió.

Los investigadores modelan el dispositivo conectando una hoja de grafeno a una pila de 2 voltios y calculan cómo se produce la distribución de la carga en el material: “Encontramos que el grafeno tiene una corriente diferente para cada uno de los aminoácidos. Es como si cada curva de corriente fuera la huella digital del aminoácido dentro de la proteína. Esos resultados que obtuvimos nos dieron pie para poder escribir tres artículos en revistas internacionales, donde proponemos que efectivamente el grafeno sí puede ser un buen material para construir un secuenciador de proteínas”.

Rodríguez Sotelo, que contó sobre su investigación en el concurso Tesis en 3 minutos realizado por la UNL en junio y que se hizo acreedora del primer premio en la versión 2017, añadió que el tema se viene trabajando en el IFIS desde hace cuatro años bajo la dirección de Eduardo Albanesi. “Los primeros resultados del modelado se obtuvieron como parte de mi tesis de Maestría en Ingeniería Biomédica de la Universidad Nacional de Entre Ríos (UNER). Para continuar con la investigación, inicié mi doctorado en Física en la UNL, donde desarrollo actualmente la investigación en el IFIS”, finalizó. (Fuente: UNL)Al Índice.

SALUD - Una de cada tres personas en el mundo tiene obesidad o sobrepeso

Los malos hábitos alimenticios provocan graves perjuicios en el bienestar de adultos y niños en todo el mundo. Una investigación, publicada en The New England Journal of Medicine, revela que más de 2.000 millones de personas en el mundo sufren problemas de salud relacionados con la obesidad y el sobrepeso.

Es más, el informe –proporcionado por el Instituto de Medición y Evaluación de la Salud (IHME) y la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO)– destaca que una alta proporción fallece por estas causas sin ser ‘técnicamente’ obesas.

Los resultados muestran que, de las 40 millones de muertes atribuidas al sobrepeso, casi el 40% sucedieron en individuos con un índice de masa corporal (IMC) inferior al necesario para ser diagnosticado de obesidad. Según los autores, estas cifras evidencian “la preocupante y creciente crisis de la salud pública mundial”.

“Si la sociedad es indiferente al aumentar de peso, debe ser consciente de que se expone a enfermedades cardiovasculares, diabetes, cáncer y otras dolencias, y pone así en riesgo su vida”, explica Christopher Murray, director del IHME.

La investigación –realizada en 195 países desde 1980 hasta 2015– se fundamenta en los datos del Global Burden of Disease Study (GBD), un trabajo global que cuantifica la perdida de salud a causa de todo tipo de dolencias, y que cuenta con 2.300 colaboradores en 133 países encargados de examinar más de 300 enfermedades y lesiones alrededor del planeta.

En el informe también se han incluido los resultados de otros estudios que relacionan el sobrepeso con los cánceres de esófago, colon, recto, páncreas, hígado, vesícula biliar y vías biliares, mama, útero, ovario, riñón, tiroides y leucemia.

Igualmente, en la reciente publicación se indica que la prevalencia de la obesidad se ha duplicado desde 1980 en más de 70 países y “que no para de aumentar”. En algunas naciones, la proporción de niños con un exceso de peso corporal es incluso mayor que la de los adultos.

Por países, Estados Unidos es el que tiene el mayor número de niños y adultos obesos en el mundo, casi el 13% de la población. Egipto encabeza la lista de adultos con sobrepeso, con alrededor 35% de afectados. Las tasas más bajas son las de Bangladesh y Vietnam, respectivamente, del 1%. China con 15,3 millones y la India con 14,4 millones son los que tienen el mayor número de niños con que padecen esta enfermedad.

“El exceso de peso es una de los mayores retos de la salud pública en nuestro tiempo”, asegura Ashkan Afshin, autor principal del trabajo e investigador de la Universidad de Washington. Así, durante los próximos 10 años los investigadores evaluarán junto a la FAO el progreso de los países en el control del sobrepeso y la obesidad. “Compartiremos datos y descubrimientos con científicos, políticos y otros interesados en desarrollar estrategias para solucionar este problema”, añade.

En España, el reciente informe indica que el 17,8% de los adultos –aproximadamente 7,1 millones de personas– y el 8% de los niños tienen sobrepeso. Unas cifras inferiores a las que manejan los investigadores del Imperial College de Londres, que en su último estudio en colaboración con la Organización Mundial de la Salud (OMS) concluían que el 25% de la población española sufre obesidad.

Pese a la gran cantidad de españoles que padecen esta dolencia, la Sociedad Española para el Estudio de la Obesidad (SEEDO) asegura que el 82,2% no reconoce su exceso de peso. Para Francisco Tinahones, presidente de la organización, estos datos demuestran que “la percepción que se tiene sobre la obesidad es muy baja y no hacemos ningún autodiagnóstico, lo que supone un gran inconveniente a la hora de abordar la epidemia”.

Entre los colectivos médicos también preocupa el constante aumento de peso entre los españoles más jóvenes. Hace apenas unas décadas, los casos de obesidad infantil y juvenil en nuestro país eran “puramente testimoniales”, según Tinahones. En cambio, ahora las cifras prueban que “estamos ante un problema muy grave”. (Fuente: SINC)Al Índice.

MEDICINA - Agregados de nanopartículas destruyen células cancerosas

Desde hace un tiempo se han desarrollado por sus singulares propiedades gran cantidad de aplicaciones terapéuticas con nanopartículas magnéticas, especialmente en sistemas de liberación de fármacos y en tratamientos de hipertermia para tumores. Sometidas a un campo magnético que varía a alta frecuencia, las partículas aumentan su temperatura hasta valores que pueden producir la muerte de células cancerosas.

También se han estudiado posibles aplicaciones para reducir las posibilidades de infección en implantes y prótesis y para favorecer el crecimiento de tejidos. En este contexto, el equipo de investigación del que forma parte Gustavo Plaza, del Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid (UPM) se propuso trabajar en una línea menos explorada: la aplicación de fuerzas, a nivel nanométrico, con fines terapéuticos. El objetivo perseguido en el estudio, publicado en Theranostics, fue la producción de fuerzas lo suficientemente elevadas como para dar lugar a la destrucción mecánica de células cancerosas.

El equipo, liderado por la profesora Yu Cheng, de la Universidad de Tongji (Shanghai, China), ha conseguido demostrar in vitro que se puede inducir con una efectividad muy elevada la muerte de células cancerosas gracias a la fuerza producida por el movimiento de agregados de nanopartículas magnéticas. El estudio combina el tamaño nanométrico de las partículas para alcanzar las células cancerosas y, por otro, el mayor tamaño de los agregados para producir fuerzas más elevadas que son necesarias para inducir la muerte celular.

La técnica de funcionalización permite modificar la superficie de las nanopartículas, recubriéndolas con moléculas específicas, para que se unan a ciertos tipos celulares. En el caso del tratamiento de cáncer se recubren las nanopartículas con moléculas que se unan específicamente a proteínas que son expresadas mayoritariamente en las células cancerosas y no en las células sanas.

En el nuevo trabajo se ha comprobado que las células internalizan las nanopartículas funcionalizadas, fundamentalmente en el interior de lisosomas, que son pequeños orgánulos celulares. La aplicación de un campo externo de relativamente baja magnitud da lugar a la formación de agregados de nanopartículas que tienen forma alargada. Finalmente, haciendo rotar la dirección del campo magnético, con una frecuencia muy baja, se consigue el movimiento de los agregados de nanopartículas que producen fuerzas lo suficientemente elevadas como para romper la membrana de los lisosomas y la propia membrana celular, induciendo la muerte de las células cancerosas con una efectividad muy elevada.

Trabajos previos habían empleado nanopartículas individuales o partículas de tamaño micrométrico (mil veces mayor que las nanopartículas) para dañar mecánicamente células cancerígenas. Para Gustavo Plaza, este nuevo estudio combina las buenas propiedades del tamaño nanométrico para alcanzar las células cancerosas y el mayor tamaño de los agregados para producir fuerzas mayores. Las conclusiones de este nuevo estudio abren la puerta a futuras investigaciones en la línea de la utilización de nanopartículas magnéticas para la destrucción mecánica de células cancerosas. (Fuente: Universidad Politécnica de Madrid)

Al Índice.

MICROBIOLOGÍA - La madera del laurel impide la proliferación de bacterias perjudiciales en alimentos

Investigadores de la Universidad de Jaén (España) han descubierto que la madera del laurel inhibe la formación de biopelículas desarrolladas por bacterias en alimentos en mal estado y en zonas donde las condiciones higiénicas son insuficientes. En estos casos, la aparición de esta capa gelatinosa se produce como consecuencia de la contaminación producida por microorganismos.

Estas biopelículas las forman poblaciones de microorganismos y pueden estar constituidas por una sola o por múltiples especies de hongos y/o bacterias. La presencia de los residuos de este arbusto en contacto con las bacterias impide que éstas se unan y formen esta barrera microbiana.

Al mismo tiempo, este equipo multidisciplinar formado por científicos de los grupos de investigación ‘Compuestos de Interés Biológico’ y ‘Microbiología de los alimentos y del Medio Ambiente’ ha evidenciado con su estudio que la madera del laurel contribuye además a la disgregación de este tapiz bacteriano una vez formado y consolidado.

Para llegar a esta conclusión, los investigadores han ensayado con dos compuestos puros aislados de la madera del laurel, como explican en su artículo ‘Antimicrobial and antibiofilm activities of procyanidins extracted from laurel wood against a selection of foodborne microorganisms’ y publicado en la revista International Journal of Food Science & Technology.

Estos compuestos, conocidos como procianidinas, evitan el crecimiento microbiano y la formación del biofilm, de modo que funcionan como conservantes naturales de alimentos y también como desinfectantes donde residen patógenos transmitidos por alimentos. “Hemos conseguido darle valor añadido a los residuos agrícolas de la madera del laurel, que hasta ahora eran prácticamente desechos”, asegura a la Fundación Descubre la investigadora de la Universidad de Jaén y coautora de este estudio, Elena Ortega.

Durante la experimentación, los científicos han comprobado in vitro el efecto que provocan estos componentes sobre las biopelículas creadas por distintos patógenos alimentarios.

En concreto, los expertos realizaron cuatro ensayos. El objetivo de los dos primeros se basaba en demostrar la actividad antimicrobiana. “Los compuestos derivados de la madera del laurel no se habían abordado desde un punto de vista biológico y son muy similares estructuralmente a otros con propiedades antimicrobianas, por ejemplo, a los presentes en el zumo de arándanos y que ayudan a prevenir la infección de orina”, explica esta experta.

Durante el ensayo destinado a probar la actividad microbiana, sembraron bacterias en placas de Petri. “En ellas creció una especie de césped, lo que nos permitió verificar la existencia de crecimiento microbiano. Tras este proceso, aplicamos una gota del compuesto aislado de la madera del laurel. La zona donde se colocó quedaba transparente como si actuara un antibiótico”, detalla esta experta.

En las otras dos pruebas, los investigadores evaluaron la capacidad de estos compuestos para impedir la formación de biopelículas. Para ello, los expertos emplearon placas de cultivo que proporcionan a los microorganismos una superficie de plástico donde adherirse para formar esta capa protectora. En ellas, incubaron células de distintas bacterias en presencia y en ausencia de estos componentes previamente aislados, dejando que se formara una capa microbiana durante 24 horas.

Una vez transcurrida la incubación, tiñeron las biopelículas para comparar la capacidad de formación de las mismas con y sin los compuestos aislados de la madera del laurel. A continuación, los investigadores dejaron que las bacterias crearan las biopelículas durante un día completo. Pasado ese tiempo, añadieron los componentes de la madera del laurel y dejaron otras 24 horas más de incubación para comprobar si éstos son también capaces de disgregar dichas biopelículas una vez formadas. “En ambos casos, obtuvimos resultados satisfactorios que demostraban que la madera del laurel actúa frente a esta capa”, concreta Ortega.

En este estudio, financiado por el Plan Propio de la Universidad de Jaén, los expertos emplearon maderas de laurel recolectadas en Andalucía donadas expresamente para la investigación y microorganismos aislados de productos ecológicos como enterococos, así como también Staphylococcus aureus y la bacteria intestinal E.coli.

Junto con los efectos para prevenir la aparición y proliferación de bacterias en alimentos, este grupo de expertos ha demostrado que estos compuestos de la madera del laurel, en combinación, también actúan como barrera ante la bacteria Listeria, causante de la listeriosis. Esta enfermedad es poco frecuente aunque muy grave en mujeres embarazadas, fetos y personas con el sistema inmune debilitado.

En este sentido, los investigadores han encontrado un bajo índice de resistencia por parte de esta bacteria al entrar en contacto con los compuestos de la madera de laurel. “Durante el periodo de gestación de la mujer, es recomendable no consumir ni leche sin pasteurizar ni tampoco carne o pescado crudos. Con estos experimentos, hemos evidenciado que estos compuestos podrían frenar la aparición de esta bacteria”, advierte esta experta. (Fuente: F. Descubre)Al Índice.

QUÍMICA - Una nueva técnica permite estudiar con más precisión la interacción entre sistemas moleculares

La vida es el resultado de una compleja interacción entre sistemas moleculares. Estas interacciones dan lugar a nuevas propiedades que no tienen sus componentes aislados. Una de las características de estos sistemas es su capacidad para adaptarse a estímulos externos, lo que puede considerarse una forma rudimentaria de evolución a nivel molecular. Dada la complejidad de estos sistemas, su estudio requiere técnicas de análisis muy afinadas, como la que acaba de desarrollar un equipo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC) (España), y que se publica en la revista Chemistry European Journal.

“El grado de complejidad que se puede generar y estudiar está limitado por la capacidad de análisis y comprensión del sistema como un todo. En este sentido, recientemente ha surgido la Química de Sistemas, que busca precisamente generar mezclas de especies químicas que son capaces de comunicarse entre sí, transformándose unas en otras”, explica Ignacio Alfonso, del Instituto de Química Avanzada de Cataluña. “En los últimos años en nuestro laboratorio hemos preparado mezclas de moléculas artificiales derivadas de aminoácidos naturales que se interconvierten unas en otras formando un entramado molecular capaz de reaccionar a estímulos”, añade.

En este trabajo hemos aplicado a estos sistemas diferentes estímulos (salinidad, pH o presencia de un alcaloide natural) de manera individual y combinada. Esto nos ha permitido observar la capacidad del sistema molecular de adaptarse a los diferentes cambios en el entorno.

Para el estudio del comportamiento global de la mezcla hemos usado técnicas analíticas experimentales y un avanzado tratamiento matemático multivariable, lo que nos ha permitido comprender el efecto de diferentes estímulos incluso cuando están aplicados de manera combinada, tal y como sucede en los sistemas biológicos reales, detalla Alfonso.

“Nuestros resultados abren la posibilidad de aplicar esta metodología a sistemas cada vez más complejos, que pudieran tener implicaciones directas en diferentes ámbitos de la ciencia y la tecnología, desde el diseño de sensores moleculares multicanal al estudio de los orígenes de la vida tal y como la conocemos”, concluye Alfonso. (Fuente: CSIC/DICYT)

Al Índice

BIOLOGÍA - Un nuevo compuesto activa la pigmentación de la piel sin radiación UV

Al exponerse a la luz solar, los rayos ultravioletas penetran las capas exteriores de la piel hasta las más profundas, donde pueden dañar las células y causar cáncer de piel. Pero para protegerse esta se oscurece durante el bronceado gracias a la melanina, un pigmento oscuro que se encuentra en las células de los mamíferos.

Ahora, investigadores del Hospital General de Massachusetts y del Instituto de Cáncer Dana-Farber (ambos en EE UU) han desarrollado una manera de incrementar la pigmentación en la piel humana sin los efectos perjudiciales de la radiación ultravioleta. Los científicos han creado pequeñas moléculas que estimulan la producción de pigmentos absorbentes de rayos UV en las células.

Los dos estudios, publicados en la revista Cell Reports, se basan en una investigación previa que David Fisher, jefe del departamento de Dermatología del hospital estadounidense, realizó hace 10 años. Este trabajo presentaba un componente denominado forskolina que, por vía tópica, lograba inducir un tono protector contra el cáncer en la piel de ratones sin necesidad de exponerlos a radiación ultravioleta. Sin embargo, no resultó efectivo sobre las muestras de piel humana.

"La piel humana es una gran barrera y todo un desafío cuando se trata de traspasarla, es por ello que otros intentos con componentes por vía tópica no han funcionado”, asegura Fisher, también profesor en la Escuela Médica de Harvard.

En los nuevos estudios el equipo ha encontrado la solución para desarrollar un fármaco que penetre la piel con éxito. El hallazgo surgió precisamente de la sinergia entre el grupo de científicos de Fisher y el químico Nathanael Gray, del Instituto de Cáncer Dana-Farber.

“Se trata de una clase diferente de compuestos, que funcionan dirigiéndose a una enzima diferente que converge en la misma vía que conduce a la pigmentación”, describen los investigadores. La diferencia es que esta nueva clase de moléculas diseñadas por los científicos poseen propiedades que les facilitan penetrar la piel humana.

De este modo, un menor peso molecular y una mayor capacidad para atravesar los lípidos han permitido oscurecer la piel humana al inhibir las enzimas SIK (sal-cinasa inducida) y estimular los genes que inducen la pigmentación.

Finalmente, el proceso oscureció la piel en función de la dosis y la hora a la que se aplicaban las moléculas. Así, se observó que el bronceado artificial de la piel podía durar días y se podía recobrar su tono natural en una semana o dos al tiempo que se desprenden las células de la superficie, como ocurre con el bronceado natural.

Según Fisher, el potencial de este trabajo para crear una estrategia contra uno de los tipos de cáncer más frecuentes en el mundo es enorme.

La melanina oscura producida mediante esta técnica –beneficiosa ya que no se produce por lesiones de rayos UV–, podría ser usada para modificar otro tipo de pigmentos con una mayor tendencia cancerígena.

Por el momento, los investigadores se centran en continuar con ensayos clínicos en animales, unas pruebas esenciales para asegurar la efectividad del fármaco antes de pasar a realizar las pruebas de toxicidad en humanos.

“Es posible que esto pueda conducir a nuevas formas de proteger nuestra piel de los dañinos rayos ultravioletas y de la formación de cáncer”, afirma Fisher. El objetivo principal de la investigación es llegar a crear una protección complementaria al uso tradicional de cremas solares. (Fuente: SINC)Al Índice

ECOLOGÍA - El SOS de las abejas ante el cambio climático

El pasado mes de enero, las llamas arrasaron más de medio millón de hectáreas del centro sur de Chile aniquilando a su paso bosques, matorrales, viñas, animales, casas, y hasta poblados enteros. De entre las cenizas surgieron nuevas víctimas con la que nadie había contado: las abejas.

Se calcula que unas 4.500 colmenas resultaron quemadas en los incendios, lo que equivaldría a entre 250 y 400 millones de abejas, según los catastros realizados por la Red Nacional Apícola de Chile. Pero no son las que perecieron las que preocupan a los expertos, sino las que sobrevivieron. Las flores de las que extraían el néctar han desaparecido con el fuego y tardarán años en recuperarse.

Chile alberga cerca del 2% del total de abejas silvestres de todo el mundo, es decir unas 440 especies que se caracterizan por no ser sociales, no vivir en familia y no producir miel. Sin embargo, “resultan vitales para el sustento de los ecosistemas naturales, el bosque nativo y para todo lo que conocemos que era Chile antes de la intervención humana”, explica a Sinc Patricia Aldea, investigadora y directora del Centro para el Emprendimiento Apícola de la Universidad Mayor de Santiago (Chile).

Estos insectos son especialmente vulnerables al cambio climático ya que tienen poca capacidad de reacción ante los desastres naturales, cada vez más frecuentes en la región. “Los incendios son un grave factor para la biodiversidad de los polinizadores nativos”, estima Aldea, que evalúa la pérdida de abejas nativas, para las que todavía no hay estudios oficiales.

Además de incrementar los incendios, el calentamiento global está cambiando rápidamente los regímenes de lluvia en América Latina. “Zonas con relativa o poca precipitación comparativamente están teniendo más agua y otras zonas que habitualmente eran más húmedas se están volviendo más secas. Ante esto hay algunos animales que tienen más posibilidad de moverse que otros”, indica a Sinc Leonardo Galetto, biólogo e investigador del Instituto Multidisciplinario de Biología Vegetal de la Universidad de Córdoba (Argentina).

Ante estas inundaciones, los incendios o el cambio del uso del suelo como ocurre con los grandes monocultivos de soja en Brasil, Argentina, Paraguay y Uruguay, la mayoría de estas abejas –que son solitarias y hacen nidos en el suelo o en madera– “se ven directamente afectadas”, añade Galetto.

Junto con mosquitos y mariposas, las abejas son los polinizadores más importantes. De las 20.000 especies registradas en el mundo, 5.000 se encuentran en Sudamérica. Mil de ellas están en Argentina, donde desempeñan un papel esencial en la polinización de algunos productos típicos de este continente (maracuyá, cacao, cocos o café), un rol que no pueden ejercer las abejas de la miel.

“Es un impacto importante para las poblaciones de abejas nativas porque algunas están en retroceso y esa pérdida de diversidad es difícil de cuantificar”, señala el biólogo, quien ha participado recientemente en una publicación de Naciones Unidas sobre las políticas necesarias a escala global para mantener la población de estos insectos.

En Chile, de las 500.000 hectáreas quemadas en el país a principios de año, más de 200.000 correspondían a flora apícola. “Contabilizamos unas 35.000 colmenas en áreas calcinadas. Ahora hay que mantenerlas durante los próximos seis u ocho meses porque no tienen de dónde sacar alimento”, recalca a Sinc Misael Cuevas, presidente de la Federación Red Nacional Apícola de Chile.

Los efectos de los incendios se suman a una extensa sequía que ya sufría el país latinoamericano. “Las colmenas estaban pasando por un periodo largo y más o menos anormal de hambre porque, a causa de la aridez, mucha flora que debería haber estado disponible en enero no lo estuvo. Muchos apicultores empezaron a suplir con alimento desde entonces”, señala a Sinc Aldea.

El suplemento consiste en la preparación de un jarabe con azúcar o sacarosa y productos multavitamínicos o proteicos para que las abejas puedan subsistir sin néctar. Pero esta alimentación mantenida a largo plazo resulta cara para el apicultor.

La pérdida de bosque nativo y de praderas –fuentes de alimento naturales de las abejas– empeorará la situación de estos insectos, tan importantes para los ecosistemas, la riqueza de las plantas, la vida de otros animales y responsables de casi tres cuartos de los alimentos que consumimos. Las próximas temporadas posiblemente agraven la disponibilidad de alimento y las hambrunas para las abejas.

“Las zonas que antes podían sustentar una carga apícola determinada ahora se reducirá a la mitad o menos”, dice Aldea. Esto puede obligar al apicultor a tomar decisiones difíciles como trasladar las abejas a otro lugar, o cambiar de actividad apícola o fin productivo –es decir, dejar de producir miel para criar abejas polinizadoras o producir abejas reinas–, o incluso, en los casos más extremos, abandonar la actividad. Son las soluciones que se barajan mientras el bosque se recupera, “si se recupera”, continúa la investigadora.

Pero a la sequía y los incendios se une el síndrome de la desaparición de las abejas, que ya afecta a las poblaciones de todo el mundo y que se asocia al uso de plaguicidas y pesticidas. “En general las abejas están disminuyendo en el mundo, y esto es un fenómeno que también está afectando a nuestra región”, subraya a Sinc Lisette Bosshard, de la oficina regional del Ministerio de Agricultura de la región de O’Higgins, en el centro del país y una de las más afectadas.

La experta propone incentivar a los apicultores para que dejen una parte de sus colmenas a la producción de miel y que la otra la dediquen a aumentar la masa de abejas y a crear polinizadoras. “Esto es beneficioso para el ecosistema, pero también abre la puerta a una forma de negocio distinta”, concreta Bosshard, que también apunta a la exportación de grupos de abejas, un negocio incipiente en el país.

En Argentina, uno de los mayores países exportadores de miel del mundo, la situación se repite, pero en este caso, provocada por las intensas lluvias que se registraron este año en varias provincias del norte del país que pasaron de sequía intensa a exceso hídrico.

Las precipitaciones que se han visto acentuadas por el fenómeno de El Niño han generado la eliminación de los nectarios, una glándula que permite a algunas flores segregar el néctar. Así, las abundantes y fuertes lluvias han producido pérdidas de “cadenas de floración de las especies nativas más relevantes”, apunta a Sinc Luis Dante Cerquetti, presidente de la Asociación de Apicultores del Nordeste, en la provincia argentina de Corrientes, un área donde el 80% de los apicultores son pequeños productores.

Debido a estas inesperadas lluvias, la manutención de las colmenas se ha visto comprometida. “Como consecuencia, se ha perdido la cosecha, los panales han sido arrastrados por las corrientes de agua, y ha disminuido la productividad de las colonias. Pero más grave aún, se ha producido el abandono de la actividad por parte de los productores”, señala Cerquetti, cuya asociación ha disminuido en los últimos años de 28 socios con entre 1.320 a 2.300 colmenas a 10 socios con un promedio de 550 colmenas.

“El principal factor de abandono de la actividad ha sido justamente la influencia medioambiental, es decir el periodo de sequías seguido luego de intensas lluvias. Esto ha empeorado por la falta de un manejo técnico adecuado y la inexistencia de políticas públicas para el desarrollo del sector”, asevera.

Los datos recogidos en otra provincia vecina del noroeste argentino, Santa Fe, corroboran los hechos. “Los informes técnicos muestran registros de agua desde menos de 300 milímetros hasta franjas de 600 milímetros en un período de 20 a 25 días a comienzos de año”, manifiesta a Sinc Germán Masciangelo, especialista en apicultura del centro regional de Santa Fe del Instituto Nacional de Tecnología Agropecuaria (INTA) argentino. En los primeros cinco meses de 2017 se han registrado más lluvias que las esperadas para todo el año en la zona.

“Este fenómeno puntual afecta gravemente la producción e incluso la población de abejas en la colmena”, señala Masciangelo. Según el experto, las situaciones que se derivan de la variabilidad climática que vive la provincia están duplicando la mortandad de colmenas.  “Esto implica un mayor esfuerzo y una mayor inversión de los apicultores para poder mantener la cantidad”, insiste.

Para los expertos, es posible que los efectos del cambio climático no se vean inmediatamente porque “nuestras miradas son siempre parciales y tratamos de determinar causa-efecto”, dice Leonardo Galetto, de la Universidad de Córdoba en Argentina. Sin embargo, “en los sistemas agroecológicos las respuestas siempre son complejas y multifactoriales”, concluye el experto.

Las abejas melíferas o productoras de miel pertenecen a una especie no nativa en América Latina que fue introducida en el continente en la época de la colonia española. Por eso, su situación es aún más compleja.

“Para los ecólogos y entomólogos es una especie invasora, porque es un polinizador que se trajo de Europa”, señala Patricia Aldea, de la Universidad Mayor de Santiago en Chile. Sin embargo, para el productor apícola es una fuente laboral.

Según la investigadora, la abeja es un factor importante para la actividad agrícola y la agricultura familiar, pero “también afecta a la biodiversidad por sí sola”, añade Aldea. Ejemplo de ello es que las abejas nativas silvestres o solitarias, que no viven en colmenas, se han ido adaptando a esta invasión y se han desplazado hacia zonas más salvajes con menor intervención humana. (Fuente: SINC/Patricia Luna)Al Índice

MEDICINA - Un estudio con moscas Drosophila y células humanas identifica potenciales compuestos terapéuticos para el Parkinson

Un equipo del Departamento de Genética y de la Estructura de Investigación Interdisciplinar de Biotecnología y Biomedicina de la Universitat de València (España) ha identificado potenciales compuestos terapéuticos para el tratamiento de la enfermedad de Parkinson, empleando un modelo animal desarrollado en ‘Drosophila’, comúnmente conocida como mosca de la fruta. El trabajo, publicado en la revista ‘Free Radical Biology and Medicine’, apunta que algunos compuestos han conseguido aumentar la capacidad motora de las moscas y reducir el estrés oxidativo que sufren las células.

Para la realización del estudio, liderado por Nuria Paricio, se utilizó un modelo animal de la enfermedad de Parkinson desarrollado en Drosophila con una mutación en el gen DJ-1, asociada a una variante de la enfermedad de inicio temprano.

El equipo investigador encontró varios compuestos químicos que no sólo mejoraban la actividad motora de las moscas con dicha alteración genética, sino que además, algunos de ellos eran capaces de reducir el estrés oxidativo que sufren las células, el cual causa mal funcionamiento y degeneración neuronal en este tipo de enfermedades. Estos compuestos son antioxidantes, anti-inflamatorios o neuroprotectores.

Posteriormente el modelo fue replicado en células humanas en las que la función del gen DJ-1 está reducida. Este modelo celular permitió validar el potencial terapéutico de algunos de los compuestos identificados en Drosophila, que fueron capaces de aumentar la viabilidad de las células con la mutación. “Se demostró así la utilidad de Drosophila como modelo animal para estudiar la enfermedad de Parkinson con el objeto de identificar compuestos potencialmente terapéuticos”, explica Nuria Paricio.

“Nuestro modelo presenta muchas ventajas ya que Drosophila es un organismo fácilmente cultivable y manejable, por lo que se pueden hacer estudios a gran escala de una manera rápida y económica. Además, a pesar de ser un organismo que a priori parece alejado de la especie humana, presenta una gran conservación de los procesos fisiológicos relacionados con el sistema nervioso central”, ha destacado Francisco J. Sanz, investigador predoctoral del Departamento de Genética y primer firmante del artículo «Identification of potential therapeutic compounds for Parkinsons disease using Drosophila and human cell models».

La enfermedad de Parkinson es el segundo trastorno neurodegenerativo más frecuente, tras el Alzheimer. El tratamiento actual se basa en restituir la actividad de la dopamina, el principal neutrotransmisor cerebral, el cual está disminuido en los pacientes.

“Dicha estrategia es efectiva para tratar los síntomas en las primeras etapas de la enfermedad, pero presenta problemas en tratamientos crónicos. Además, es incapaz de detener o incluso ralentizar la progresión de la enfermedad de Parkinson. Por ello, es importante encontrar nuevos compuestos con mecanismos de acción diferentes a los usados actualmente y que puedan sustituirlos o potenciarlos”, apunta Verónica Muñoz, investigadora del Departamento de Genética y también firmante del artículo. Al Índice

INGENIERÍA - En dos años será posible producir hueso y cartílago en impresoras 3D/4D para su posterior implantación en las personas

La investigadora pionera en la impresión de tejido humano con impresoras 3D, Nieves Cubo, y profesora del área de Salud de la Universidad Internacional de Valencia (VIU) (España), ha destacado que “en 2 años será posible producir hueso y cartílago en impresoras 3D (o 4D si varía con el tiempo ante estímulos externos) y en unos 10-15 años estará disponible esta técnica en los hospitales, ya que aunque está todo muy avanzado, hay que hacer los ensayos clínicos oportunos, que incluyen estudio de los efectos secundarios a corto y largo plazo, antes de sacarlo al mercado”.

La experta de la VIU ha resaltado que “no se trata de ciencia ficción, actualmente ya se están aplicando las ventajas de las impresiones en 3D en la medicina,  personalizando los procesos de fabricación en este campo y haciéndolos más efectivos”.

Nieves Cubo ha explicado que “antes era un proceso natural pero hoy en día se está imprimiendo piel humana y prótesis con las impresoras 3D. Estas se hacían con metal y ahora se hacen con plástico, reduciendo su peso, disminuyendo su coste de fabricación y acoplándose mejor al cuerpo, por ejemplo, en niños se van adaptando a su crecimiento”.

“Posteriormente, -ha continuado-, en los estudios observamos que si se ponían las condiciones adecuadas se podían hacer estas prótesis en 3D para colocarlas también dentro del cuerpo humano. Ya se han hecho conexiones a modo de puente entre conductos del cuerpo, que al invadirse de células, resolvían problemas de roturas con materiales menos invasivos”.

La profesora de la VIU ha indicado que “otra de las aplicaciones de esta técnica en la medicina es la fabricación de férulas, donde se están utilizando cada vez más en sustitución de las escayolas al tener más ventajas y ser más cómodas. Son modelos a medida, se pueden mojar, son transpirables y permiten las curas”.

Además, gracias a la impresión 3D “se están planificando previamente las intervenciones quirúrgicas, como por ejemplo, en el Hospital Universitario del Gregorio Marañon, en el grupo de Rubén Pérez Mañanes, donde se hace el modelo del cuerpo del paciente y se preparan los instrumentos, las técnicas y todo lo necesario para que la operación sea lo menos invasiva posible”, añade.

Finalmente ha destacado la necesidad de avanzar en esta línea, ya que “la revolución tecnológica que estamos atravesando no se está trasladando a la biología, originando un cuello de botella, que afortunadamente empieza a resolverse. Esto demuestra la importancia de invertir en biología, ya que todo lo que se invierta ahora nos servirá para el futuro. Además de la financiación, los límites serán los que te proporcionen la propia biología y las leyes, ya que hay que ajustarse a las regulaciones a la hora de estudiar y de aplicar los avances”.

Respecto a conceptos como la Biología DIY, el biohacking, tissue-on-a-chip y la impresión 4D ha explicado que lo que se está buscando en la actualidad es “volver a la artesanía, al hazlo tú mismo, ya que a la hora de investigar necesitas cosas nuevas, que no existen o que tienen que adaptarse a nuevos procesos y hay que crearlas”.

Respecto al Biohacking o modificación de un ser vivo ha indicado que “ya no estamos hablando de ciencia ficción, se trata de aplicar las nuevas tecnologías en la medicina y en esa línea está habiendo muchos avances”. En cuanto a las impresoras 4D ha señalado que son como las 3D, pero con una cuarta dimensión, el tiempo, materiales que se puedan desarrollar con el tiempo y que pueden aplicarse en campos tan diversos como la medicina, el arte o la domótica”.

Durante su intervención ha resaltado también la importancia de la formación continua, simultánea y online que “han acabado con las limitaciones y gracias a ello he podido formarme en diferentes materias, desde cómo desarrollar una máquina a cómo programarla, a entender cómo funcionan las células humanas, qué materiales necesitan las células para desarrollarse, etc.”.

“El perfil que se demanda en la actualidad –ha concluido- es de jóvenes proactivos y capaces de adaptarse a las nuevas necesidades que puedan surgir, con capacidad de cambiar de un sector a otro dentro de un mismo campo. No hay que dejar nunca de aprender”. (Fuente: VIU)Al Índice

MEDICINA - Desarrollan un modelo matemático para identificar genes resistentes a fármacos contra el cáncer

Científicos del Departamento de Biología Molecular y Bioquímica de la Universidad de Málaga (España) han desarrollado un modelo matemático que identifica genes resistentes a fármacos contra el cáncer. El estudio abre nuevas vías de abordaje con estrategias que detectan los genes de resistencia a fármacos específicos en cada uno de los subtipos celulares que componen el tumor.

Los investigadores han observado dentro de una misma población de líneas celulares cómo algunas células cancerígenas rechazan la acción de la quimioterapia y cómo otras presentan mayor sensibilidad a ella. A partir de los resultados de este estudio se abre la posibilidad de investigación sobre nuevos enfoques terapéuticos más precisos, dirigidos a los subtipos celulares con mejor disposición a cada uno de los distintos tratamientos.

Hasta el momento, los investigadores observaban las diferencias en la expresión génica del conjunto de células que conforman la muestra poblacional total del tumor. Pero el nuevo sistema permite la combinación de los datos de la composición en tipos celulares y de los valores de expresión de distintas líneas cancerígenas con el fin de encontrar los genes responsables de la resistencia a la medicación, expresados de forma específica en las distintas subpoblaciones celulares del tumor.

En esta línea, los expertos malagueños exponen el nuevo modelo de cálculo en el artículo ‘Mathematical deconvolution uncovers the genetic regulatory signal of cancer cellular heterogeneity on resistance to paclitaxel’ publicado en la revista Molecular Genetics and Genomics. En él han desarrollado las observaciones sobre 16 líneas tumorales, 8 resistentes y 8 sensibles al tratamiento con uno de los medicamentos más usados para quimioterapia en los cánceres más frecuentes.

A través del modelo que proponen los expertos, usado frecuentemente en el estudio de terremotos o en óptica, se mejora la identificación de biomarcadores que indican la resistencia a la quimioterapia teniendo en cuenta que dentro de cada población celular existe una heterogeneidad en la manera en la que expresan su respuesta. Por tanto, se trata de reconocer cuántas subpoblaciones celulares se encuentran dentro de esas líneas y caracterizarlas en función de su contribución a la expresión de los genes que causan la respuesta ante los medicamentos.

“Uno de los mayores problemas en la lucha contra tumores es la resistencia a fármacos, bien presente de una manera innata en el tumor o adquirida tras la exposición a la quimioterapia. Por tanto, la preocupación por desarrollar estrategias de tratamiento eficaces nos ha llevado a elaborar una fórmula que explique las causas genéticas de esta resistencia debidas a la composición en distintos tipos celulares de la población tumoral”, indica a la Fundación Descubre el investigador Juan Antonio García Ranea, autor del artículo.

Tradicionalmente, los algoritmos utilizados para calcular las dosis necesarias en el tratamiento contra el cáncer se fundamentaban en los datos teóricos. Sin embargo, las situaciones clínicas concretas son totalmente diferentes a las condiciones genéricas. Por otro lado, los algoritmos basados en modelos matemáticos necesitan menos medidas experimentales para ajustar las cantidades requeridas.

Para solventar estos obstáculos y ajustarse más a la realidad de los casos, el sistema que proponen estos científicos se apoya en el análisis y observación de la expresión génica de subpoblaciones celulares mediante deconvolución. Éste es un modelo matemático basado en la regresión lineal múltiple, que consiste en la restauración de datos que han sido degradados. Es decir, permite combinar distinta información con el fin de obtener los datos iniciales y plantear las conclusiones sobre los orígenes o causas en unos y otros casos.

Los expertos parten de una población celular en la que se incluyen subpoblaciones resistentes a los tratamientos y otras que no lo son. La deconvolución permite el análisis del desarrollo evolutivo de la expresión de genes en estas subpoblaciones de manera diferenciada, determinando por qué y en qué medida unas desarrollan resistencia a un medicamento que se usa normalmente en quimioterapia y otras no.

Hasta el momento, los valores obtenidos de un tumor eran valores medios de la expresión de los distintos tipos celulares que lo componen, aunque éstos no son reflejo exacto de la realidad heterogénea del tumor, ya que las técnicas actuales no permiten observar la expresión génica en cada tipo celular. Sin embargo, la deconvolución posibilita la descomposición de las señales medias para obtener valores que sean realmente representativos de los subtipos celulares y relacionarlos con el desarrollo de la resistencia.

En el estudio se llegaron a identificar casi 90 genes específicos de los distintos subtipos celulares, cuya expresión diferencial permanecía oculta dentro de los valores de expresión medios del tumor. Los autores demostraron en el trabajo que dichos genes se comportan como biomarcadores capaces de distinguir entre líneas resistentes y sensibles a la medicación en una muestra dispar de tipos de cáncer. Por tanto, una línea futura en la que los investigadores plantean continuar sus estudios se orienta hacia la identificación de los posibles mecanismos y sistemas moleculares implicados en la resistencia, asociados a los nuevos genes identificados.

El equipo de trabajo forma parte de la red europea de excelencia denominada ‘Systems Microscopy NoE’ y el proyecto ha sido financiado por la comisión europea de investigación dentro del VII Programa Marco. (Fuente. Fundación Descubre)Al Índice.