Notícia

Norberto de Buenos Aires

Novedades de la Ciencia y la Tecnología - 43

Publicado em 24 julho 2017

Índice

TECNOLOGÍA MÉDICA - Dosificación de medicamentos a la medida y liberada automáticamente conforme se necesita

CLIMATOLOGÍA - Círculo vicioso climático en la selva amazónica

INGENIERÍA - Los automóviles autoconducidos pueden mejorar mucho el flujo del tráfico aunque sean pocos

PSICOLOGÍA - Una nueva tecnología evalúa la autonomía de una persona en su vida cotidiana

ASTROFÍSICA - El observatorio de Calar Alto se embarca en un ambicioso proyecto con la Universidad de Pekín para el estudio de los agujeros negros

BIOLOGÍA - Una nueva técnica permite crear células madre de la sangre en el laboratorio

MEDICINA - La evolución de la cirugía de aumento de pecho

INGENIERÍA - Purificar aire y generar electricidad al mismo tiempo

BIOLOGÍA - Células responsables del crecimiento de pelo y mecanismo que lo encanece

PSICOLOGÍA - Los rasgos de personalidad que mejor garantizan que la persona no será reemplazada por un robot en su puesto laboral

GEOLOGÍA - Casi toda la superficie terrestre estaba cubierta de agua hace unos 4.400 millones de años

NEUROLOGÍA - Dónde puede residir la conciencia

MEDICINA - Científicos del CIMA diseñan un prometedor tratamiento para la enfermedad de Wilson

NEUROPSICOLOGÍA - Mitos y verdades sobre autismo a la luz de la neurociencia

ASTRONOMÍA - La Nebulosa Espagueti, nueva imagen del astrógrafo remoto del IAC

PSICOLOGÍA - La realidad virtual inmersiva confirma sesgos raciales

INGENIERÍA - Los sordociegos ya pueden “ver” la televisión sin necesidad de intermediarios

CIENCIA DE LOS MATERIALES - La naturaleza ofrece nuevas claves para fabricar ‘materiales a medida’

MEDICINA - Terapia con células madre para regeneración de discos intervertebrales

FÍSICA - Observan por vez primera el movimiento de átomos en un escurridizo fenómeno de la física

MEDICINA - La fase no sintomática de la infección por Chagas incrementa más del doble el riesgo de muerte

NEUROLOGÍA - Otra forma de estudiar el cerebro

BIOLOGÍA - El ‘cóctel’ que activa nuestras defensas

MICROBIOLOGÍA - Identifican la red genética de virulencia en la bacteria de la brucelosis

BIOQUÍMICA - Científicos aíslan una bacteria que produce plástico a base de metano

BIOLOGÍA - Revelan el mecanismo molecular de la activación de proteínas G por GIV, una proteína promotora de la metástasis

PALEONTOLOGÍA - Hallan restos prehumanos de 7,2 millones de años en los Balcanes

MEDICINA - Lenguas electrónicas para detectar cáncer de próstata y de vejiga

NANOTECNOLOGÍA - Nuevo paso para el control de la luz con aplicaciones en nanociencia

BOTÁNICA - Las malas hierbas aprenden a defenderse del glifosato

FÍSICA - Emisión térmica a distancias atómicas

BOTÁNICA - Científicos crean una variedad de frijol tolerante al cambio climático

INGENIERÍA - Un estudiante creó la primera parrilla descartable del mundo

ASTRONOMÍA - Primera imagen completa del anillo de hielo alrededor de la joven estrella Fomalhaut

ANTROPOLOGÍA - Ya aparecieron formas "humanas" de pensar hace 1,8 millones de años

CLIMATOLOGÍA - El aumento global del nivel del mar se acelera más de lo que se pensaba

MICROBIOLOGÍA - Una proteína "diseñada" por la naturaleza hace cuatro mil millones de años es eficaz hoy en día

MEDICINA - Un nuevo mecanismo inhibe efectos secundarios de la quimioterapia

INGENIERÍA - Un atrapamoscas artificial activado con luz

SOCIOLOGÍA - Nuevo sistema científico para evaluar los desequilibrios entre los barrios de una ciudad

BIOQUÍMICA - Una cocción más larga y añadir cebolla potencian los beneficios del sofrito

SALUD - El consumo de chocolate se asocia con un menor riesgo de arritmias

ENTOMOLOGÍA - Insectos en la escena del crimen

ASTROFÍSICA - Académicos participan en investigación que permite simular agujeros negros en un laboratorio

 

 


 

TECNOLOGÍA MÉDICA - Dosificación de medicamentos a la medida y liberada automáticamente conforme se necesita

Como con el café o el alcohol, el alcance del efecto que cada medicamento tiene en cada persona es único. En casos extremos, como en el de la diferencia entre un adulto y un niño muy pequeño, la dosis perfecta para un sujeto puede suponer una sobredosis mortal para el otro. Sin embargo, incluso a igual peso, a veces hay diferencias notables entre personas. Con tal variabilidad, puede ser difícil recetar con exactitud la cantidad correcta de un fármaco importante, como los empleados en quimioterapia o la insulina que necesitan los diabéticos.

Ahora, un equipo liderado por H. Tom Soh y Peter Mage, de la Universidad de Stanford en Estados Unidos, ha desarrollado una herramienta de suministro de fármacos que podría facilitar que las personas reciban la dosis correcta de medicamentos importantes. Estos investigadores han comprobado que la tecnología podría, por ejemplo, regular continuamente el nivel de un fármaco de quimioterapia en animales vivos.

Que se sepa, es la primera vez que alguien ha podido controlar de forma continua y en tiempo real los niveles de determinados fármacos en el cuerpo.

La nueva tecnología tiene tres componentes básicos: un biosensor a tiempo real para monitorizar continuamente los niveles de los fármacos de interés en el torrente sanguíneo, un sistema de control para calcular la dosis adecuada y una bomba programable que suministra solo la cantidad justa de medicina para mantener la dosis deseada.

Un investigador sujeta un prototipo de un biosensor diseñado para detectar niveles activos de una medicina en el torrente sanguíneo. Este biosensor es parte de un sistema para personalizar la dosis de los fármacos. (Foto: Soh Lab)

Si la tecnología funciona tan bien en personas como en los estudios iniciales con animales, podría tener grandes repercusiones, tal como razona Soh. Por ejemplo, ¿qué pasaría si pudiéramos detectar y controlar los niveles no solo de la glucosa sino también de la insulina y del glucagón que regulan dichos niveles? Eso podría permitir a los investigadores crear un sistema electrónico para reproducir en pacientes con diabetes tipo 1 la función del páncreas, que no se lleva a cabo correctamente en ellos.

Al Índice.

CLIMATOLOGÍA - Círculo vicioso climático en la selva amazónica

Una menor precipitación sobre la selva amazónica está incrementando la mortalidad forestal. La disminución en la cantidad de árboles vivos empeora los períodos regionales de sequía, lo que a su vez aumenta esa tasa de muerte de la vegetación. Los resultados de un nuevo estudio han conducido a sus autores a recomendar un apoyo total a medidas para salvaguardar la diversidad de la región amazónica, dado que dicha diversidad es fundamental para la recuperación de este ecosistema.

El estudio es obra del equipo internacional de las investigadoras Anja Rammig, de la Universidad Técnica de Múnich, y Delphine Clara Zemp, del Instituto para la Investigación del Impacto Climático de Potsdam aunque trasladada ahora a la Universidad de Gotinga, todas estas entidades en Alemania.

La selva amazónica es uno de los elementos críticos del sistema climático mundial. Si su área de superficie continúa reduciéndose al mismo ritmo que en décadas anteriores, esto podría llevar a cambios drásticos en el clima terrestre. El equipo de investigación ha examinado esta cuestión. Concretamente se ha analizado cómo dicha selva está reaccionando a los períodos de sequía más extremos que se teme serán comunes en el futuro debido al cambio climático global. La situación se agrava por las actividades de uso del suelo efectuadas por el Ser Humano en la selva amazónica.

En el estudio, se ha demostrado que, por un lado, la interacción entre vegetación y atmósfera sostiene el crecimiento de la selva con un efecto en cascada de transporte de agua. Por otro lado, la pérdida de este efecto puede llevar a una pérdida de vegetación autoamplificada.

La selva amazónica ya está sufriendo una disminución significativa de las precipitaciones. (Foto: TUM/ Rammig)

El ciclo vicioso se desencadena principalmente por los períodos de sequía extrema, como han determinado los autores del trabajo.

Bajo una temporada seca, con la mitad de la precipitación, al menos el 10 por ciento de la selva puede llegar a perderse debido solo a los efectos de autoamplificación, lo que se añade a las sustanciales pérdidas directas procedentes de una menor disponibilidad de agua.

Una décima parte puede parecer poco. Pero si la selva acaba retrocediendo mucho, también lo hará el suelo fértil, porque todos los nutrientes en el Amazonas están almacenados en las plantas. También tendría un efecto devastador en la capacidad de almacenar dióxido de carbono. Como resultado de ello, podríamos dirigirnos hacia un punto crítico, causando un cambio drástico del clima, que no se podría revertir hasta dentro de muchísimo tiempo.

Al Índice.

INGENIERÍA - Los automóviles autoconducidos pueden mejorar mucho el flujo del tráfico aunque sean pocos

La presencia de apenas unos pocos vehículos autónomos en carreteras muy transitadas puede evitarles a los conductores humanos tener que conducir con constantes paradas y arranques, un tipo de conducción al que se ven forzados a menudo cuando el tráfico es denso. Librarse de tener que conducir así acarrea también una reducción en el riesgo de accidente así como evitar el ineficiente consumo de combustible derivado de ese tipo de conducción con constantes paradas y arranques. Estas son las conclusiones a las que se ha llegado en una nueva investigación.

Los resultados obtenidos en los experimentos de este estudio indican que los coches autoconducidos y la tecnología relacionada podrían estar incluso más cerca de revolucionar el control del tráfico que lo que se pensaba anteriormente.

Los experimentos llevados a cabo por el equipo de Daniel B. Work, de la Universidad de Illinois en Urbana-Champaign, Estados Unidos, muestran que con apenas un 5 por ciento de vehículos que sean automáticos y que estén controlados con los criterios idóneos, se pueden eliminar las oleadas de paradas y arranques ocasionadas por ese comportamiento humano de conducción.

En opinión de Work, el uso de vehículos autónomos para regular el flujo del tráfico es la próxima innovación en la ciencia del control y la vigilancia del tráfico, que avanza rápidamente.

Ensayos experimentales con coches autónomos y conducidos por humanos. (Foto: John de Dios)

El equipo llevó a cabo experimentos de campo en Tucson, Arizona, en los cuales un único vehículo autónomo dio vueltas de forma continua por una pista con al menos otros 20 coches, conducidos por humanos. Bajo circunstancias normales, los conductores humanos crean de manera natural oleadas de paradas y arranques, incluso en ausencia de cuellos de botella, cambios de carril, uniones de carriles y otras alteraciones. Este fenómeno de tráfico se denomina “embotellamiento fantasma”.

Los autores del nuevo estudio hallaron que controlando del modo idóneo la velocidad del coche autónomo, se suavizaba el flujo del tráfico para todos los automóviles. Queda pues demostrado de modo experimental, por vez primera, que incluso un pequeño porcentaje de tales vehículos puede tener una influencia positiva notable en la carretera, eliminado las colas y reduciendo el consumo total de combustible en hasta un 40 por ciento. Además, este objetivo se puede alcanzar mediante estrategias de control conceptualmente simples y fáciles de poner en práctica.Al Índice.

PSICOLOGÍA - Una nueva tecnología evalúa la autonomía de una persona en su vida cotidiana

Un equipo de investigación del Departamento de Psicología Básica, Clínica y Psicobiología de la Universitat Jaume I de Castelló (España), liderado por la profesora Micaela Moro Ipola, ha desarrollado una nueva tecnología llamada «BECAD» para evaluar el grado de autonomía de una persona en las diferentes áreas de funcionamiento humano con un punto de vista objetivo aplicable en la valoración de la dependencia y la discapacidad.

BECAD consiste en una serie de cuestionarios que permiten la evaluación del grado de autonomía de las personas con alguna diversidad funcional; mediante la recogida de datos en distintas áreas de actividad como el aprendizaje y aplicación del conocimiento; el movimiento; las tareas y demandas generales; el cuidado de un mismo; las relaciones interpersonales; la comunicación o la manipulación de objetos.

Su desarrollo, coordinado por la profesora Moro, ha contado con la participación de Laura Mezquita Guillamón, profesora ayudante del Departamento de Psicología Básica y Psicobiología; Ana María Gil Palmero, investigadora del proyecto, y como colaboradores externos, Vanesa Fuertes Serena, psicóloga y técnica de inserción laboral y la empresa informática Innovatrium, S.L.

«Una de las novedades de la herramienta —comenta la investigadora principal— sería la globalidad, porque incluye todas las actividades que hacen los seres humanos y en todos los ámbitos: el físico, el mental y el social. Otra es que el proceso de construcción ha seguido los métodos científicos de creación de escalas para la evaluación del comportamiento», y el fundamento teórico, en concreto, está basado en la Clasificación Internacional del Funcionamiento, la Dependencia y la Salud de la Organización Mundial de la Salud (OMS).

Investigadoras de la UJI. (Foto: UJI)

La herramienta permite el establecimiento de objetivos de rehabilitación, la evaluación de la eficacia de su tratamiento y también la identificación de factores ambientales que pueden actuar como barreras o ayudas. Los datos se almacenan en línea en una base de datos en el servidor donde está alojada la página web y permite la comparación de resultados (por ejemplo, antes y después de una intervención) y la actualización de las puntuaciones. Esto facilita, en menos tiempo que los procedimientos actuales y de forma cuantitativa, detallar las características y las dificultades de una persona en todas las actividades relevantes de la vida.

BECAD proporciona procedimientos de medida objetivos sobre dos aspectos: la capacidad de la persona para realizar una determinada actividad, es decir, el máximo nivel de funcionamiento que puede lograr en un ámbito y en un momento concreto, sin adaptaciones o ayudas específicas; o sobre el desarrollo, el grado de la actividad que el individuo realiza realmente en la vida cotidiana, y que puede coincidir con la capacidad, ser inferior (cuando hay limitaciones o restricciones) o superior (cuando hay ayudas de algún tipo).

La tecnología, en periodo de validación mediante una prueba de concepto, está dirigida a profesionales sociosanitarios que trabajan en el ámbito de la rehabilitación, integración social de personas con enfermedades crónicas y evaluación de la discapacidad. Esto incluye centros de rehabilitación y servicios sociales y agencias de la Administración responsables de la valoración de la dependencia y discapacidad y de la asignación de ayudas sociales y recursos sociosanitarios.

Las herramientas desarrolladas hasta el momento estaban limitadas porque sólo abordaban un aspecto específico (como la capacidad de trabajar) o eran breves, dejando sin cubrir aspectos que podían ser objeto de rehabilitación. Por eso, «era necesario disponer de una herramienta de evaluación con los aspectos más relevantes —asegura la investigadora Micaela Moro— que permite incluir objetivos de rehabilitación para la reducción de la discapacidad y en la que también aparezca el punto de vista del profesional sanitario o las personas más próximas».

El proyecto «Estudio de viabilidad de la batería de evaluación de la capacidad y el desarrollo, una herramienta de evaluación de la discapacidad en línea (BECAD)» obtuvo una de las ayudas Start UJI del Plan de Promoción de la Investigación 2016 de la universidad pública de Castelló. (Fuente: UJI/DICYT)Al Índice.

https://www.youtube.com/watch?v=kYyvqT_Ecc4

ASTROFÍSICA - El observatorio de Calar Alto se embarca en un ambicioso proyecto con la Universidad de Pekín para el estudio de los agujeros negros

El observatorio de Calar Alto, el mayor observatorio astronómico de Europa continental, ha firmado un acuerdo con la Universidad de Pekín para el desarrollo, desde el telescopio de 2.2 metros, de un estudio intensivo de los agujeros negros supermasivos situados en la región central de las galaxias, que constituyen lo que se conoce como núcleos activos de galaxias y que se hallan entre los objetos más energéticos que existen en el universo.

El proyecto, que empleará el 60% del tiempo del telescopio y se extenderá hasta finales de 2019 (con una posible renovación hasta 2021), situará al observatorio en la vanguardia del estudio de los núcleos activos de galaxias y contribuirá a dotar de estabilidad presupuestaria a Calar Alto.

"La Universidad de Pekín se interesó en el observatorio de Calar Alto por la calidad de su cielo y de sus proyectos -apunta Jesús Aceituno, director del observatorio-. Calar Alto se ha especializado en la última década en el desarrollo de grandes sondeos astronómicos, como CALIFA o ALHAMBRA, que están siendo fundamentales para la astrofísica moderna. Hoy nos encontramos con la experiencia suficiente para abordar este proyecto ambicioso y de largo recorrido, que nos ayudará a entender mejor estos gigantescos agujeros negros así como las implicaciones que tienen en cosmología".

Los núcleos activos de galaxias (o AGNs, su acrónimo en inglés) pueden emitir de forma continuada más de cien veces la energía de todas las estrellas de la Vía Láctea. Su estructura consiste en un agujero negro, de hasta miles de millones de masas solares, rodeado de un disco de gas que lo alimenta y que, en su proceso de caída, libera gran cantidad de energía.

Ilustración de un núcleo activo de galaxia, con agujero negro central rodeado de un disco de acrecimiento y una estructura de polvo externa con forma de rosquilla. (Foto: NASA/CSC/M.Weiss)

Aunque se conocen y estudian desde hace décadas, los núcleos activos presentan numerosas cuestiones aún no resueltas, entre ellas el proceso físico de caída de material hacia el agujero negro o la relación entre la evolución del mismo y la de su galaxia anfitriona.

El proyecto que se desarrollará en Calar Alto estudiará un tipo específico de núcleos activos, que muestran una tasa de acrecimiento, o de absorción de material del disco, especialmente elevada. "Estamos empleando el telescopio de 2,2 metros de Calar Alto para desarrollar un estudio intensivo de una muestra de unos cincuenta agujeros negro supermasivos que nos permitirá determinar sus propiedades fundamentales, entre ellas su masa. Esto nos permitirá abordar las cuestiones abiertas en el estudio de las galaxias activas y comprobar si pueden servirnos de candelas estándar para medir distancias en el universo", apunta Jian-Min Wang, investigador de la universidad de Pekín que encabeza el estudio.

El Observatorio Astronómico Hispano-Alemán de Calar Alto está situado en la Sierra de Los Filabres, norte de Almería (Andalucía, España). Es operado conjuntamente por el Instituto Max-Planck de Astronomía en Heidelberg, Alemania, y el Instituto de Astrofísica de Andalucía (CSIC) en Granada, España. Calar Alto proporciona tres telescopios con aperturas de 1.23m, 2.2m y 3.5m. Un telescopio de 1.5m, también localizado en la montaña, es operado bajo el control del Observatorio de Madrid. (Fuente: CAHA)Al Índice.

BIOLOGÍA - Una nueva técnica permite crear células madre de la sangre en el laboratorio

Desde que las células madre embrionarias se aislaran en 1998, los científicos han tratado –aunque con poco éxito– usarlas para crear células madre formadoras de sangre, que maduran hasta convertirse en uno de los tres tipos de células sanguíneas: glóbulos blancos (combaten las infecciones), glóbulos rojos (transportan el oxígeno) y plaquetas.

En 2007, tres grupos de investigación generaron las primeras células madre pluripotentes inducidas a partir de otras de la piel humana  y mediante reprogramación genética. Estas células pluripotentes se usaron después para crear múltiples tipos celulares, como las neuronas y las células cardiacas, pero las formadoras de sangre seguían sin conseguirse.

Ahora, un equipo del Boston Children’s Hospital y otro del centro Weill Cornell Medicine (ambos en EE UU) han logrado crearlas a partir de células pluripotentes y endoteliales (del tejido que recubre el interior de los vasos sanguíneos). El avance, publicado en dos artículos en la revista Nature y que supone la culminación de 20 años de trabajo, muestra cómo se generan múltiples tipos de células sanguíneas humanas introducidas en ratones.

“Este paso abre una oportunidad para tomar las células de pacientes con trastornos genéticos de la sangre, usar la edición de genes para corregir su defecto genético y hacer células sanguíneas funcionales”, dice Ryohichi Sugimura, primer autor del estudio e investigador en el Stem Cell Program del hospital, liderado por George Daley, también decano en la Harvard Medical School.

El estudio permitiría además contar con un abastecimiento ilimitado de células madre de la sangre y de sangre extraídas de las células de donantes universales. “Esto podría aumentar el suministro de sangre para los pacientes que necesitan transfusiones”, añade Sugimura.

Las células madre y progenitoras de sangre emergen de células endoteliales hemogénicas durante el desarrollo embrionario normal. Las células azules (izquierda) emergen de las células progenitoras y hematapoyéticas emergentes. (Foto: O'Reilly Science Art)

El equipo del Boston Children’s Hospital combinó dos enfoques previos. En primer lugar expusieron células madre pluripotentes humanas a señales químicas que las guían para diferenciarse en células y tejidos especializados durante el desarrollo embrionario normal. En concreto, se generó endotelio hemogénico, un tejido embrionario temprano que eventualmente da lugar a células madre de sangre. Esta transición nunca se había logrado en laboratorio.

A continuación, el grupo añadió factores reguladores genéticos (llamados de transcripción) para ‘empujar’ al endotelio hemogénico hacia un estado formador de sangre. Los científicos empezaron con 26 factores de transcripción como candidatos probables, pero finalmente llegaron a los cinco necesarios para crear las células madre de la sangre. Estos factores se distribuyeron en las células con un lentivirus, como se utiliza en algunas formas de terapia génica.

Finalmente trasplantaron en ratones las células endoteliales hemogénicas modificadas genéticamente. Unas semanas más tarde, un pequeño número de animales llevaba en su médula ósea y en el sistema circulatorio diversos tipos de células sanguíneas humanas –como glóbulos rojos, células mieloides (precursores de monocitos, macrófagos, neutrófilos, plaquetas y otras células), y linfocitos T y B–. Algunos ratones fueron incluso capaces de crear una respuesta inmunitaria humana después de la vacunación.

“Ahora podemos mostrar la función de la sangre humana en los ‘ratones humanizados”, dice Daley, que concluye: “Es un gran paso para investigar enfermedades genéticas de la sangre”.

Por su parte, el equipo de Weill Cornell Medicine usó células endoteliales de ratón adulto como material de partida. Luego alteraron los niveles de los factores de transcripción para impulsar su transición a células madre de sangre en ratones, que se desarrollaron en una capa de células endoteliales fetales para confirmar sus propiedades.

El objetivo final de los investigadores es que la técnica permita crear células madre de la sangre de modo práctico y seguro. Para ello evitarán el uso de virus, que permiten distribuir los factores de transcripción, y la introducción de técnicas de edición genética, como CRISPR, con la que se corrigen los defectos genéticos de las células madre pluripotentes antes de transformarse en sanguíneas. (Fuente: SINC)Al Índice.

MEDICINA - La evolución de la cirugía de aumento de pecho

Podría creerse que la mamoplastia de aumento es una operación reciente, fruto de la mentalidad actual de culto al cuerpo, pero no es así. Los primeros tratamientos para aumentar la talla de pecho se realizaron en torno a 1880, aunque la mayoría con desastrosos resultados. El paso del tiempo, los avances científicos y la modernización de las técnicas, han conseguido que sea algo que está a la orden del día y que ya se realiza en muchos centros. Gracias a la democratización de la cirugía estética, debido una mayor competencia, ha habido un descenso general en el precio del aumento de pecho. Lo que antes era opción solo para unos pocos, ahora casi cualquiera puede permitírselo.

Los inicios de los implantes son de lo más variados, desde bolas de cristal y vidrio, a cartílago, lana, poliéster, esponjas y bolsas de distintos materiales sintéticos. El primer injerto conocido fue una prótesis hecha con tejido adiposo de la propia paciente, de un tumor benigno extraído de su espalda. Las inyecciones de parafina de finales del siglo XIX fueron una mala idea, pero no menos fueron las de silicona de la década de 1950. Los problemas que derivaron de estas prácticas llevaron en muchos casos a la mastectomía como única solución viable.

Los primeros implantes de confianza no llegaron hasta los años 60, con Corning y Gerow, unas bolsas de silicona que ya no producían efectos adversos y eran duraderas en el tiempo. Si bien los materiales, la técnica y la cirugía mamaria han mejorado muchísimo en los últimos años, la idea en sí de las prótesis no difiere tanto de las actuales.

La ciencia sigue avanzando para facilitar que todo el mundo tenga el aspecto que desea y de la forma más sencilla. Así, han surgido nuevas técnicas en el aumento de pecho, como la lipoescultura, o rellenar el pecho con tejido graso de la paciente; esto ofrece un aspecto natural, ya que se adecua a los cambios de peso de la paciente. Una de las razones por las que no es muy utilizada es el riesgo de cáncer de mama, que aunque no está demostrado que exista, el temor se encuentra en el trasplante de células madre. Otra técnica consiste en las inyecciones de ácido hialurónico, que se hacen de forma ambulatoria y ofrecen un resultado muy real. Estas últimas son fórmulas todavía poco utilizadas y no dan un resultado permanente, pero la realidad es que ninguna intervención es para toda la vida, ya que incluso los implantes, aunque no se rompan, se aconseja cambiarlos cada 10 años aproximadamente.

Al Índice.

INGENIERÍA - Purificar aire y generar electricidad al mismo tiempo

Se ha inventado un aparato que purifica el aire y, al mismo tiempo, genera energía. Para que el dispositivo funcione, basta con exponerlo a la luz.

Este avance tecnológico es obra de investigadores de la Universidad de Amberes y de la de Lovaina, ambas en Bélgica.

El proceso funciona mediante el pequeño aparato, que incluye dos cubículos separados por una membrana. El aire es purificado en un lado, mientras que en el otro se produce gas hidrógeno a partir de una parte de los productos de degradación. Este gas hidrógeno puede ser almacenado y usado más tarde como combustible. De hecho, ya hay autobuses que circulan gracias a él.

Con este avance, el equipo de Sammy Verbruggen aspira a satisfacer dos necesidades sociales importantes: limpiar el aire y producir energía alternativa. El corazón de la solución reside en la membrana, donde los investigadores utilizan nanomateriales muy específicos. Estos catalizadores son capaces de producir hidrógeno y descomponer las sustancias contaminantes del aire. En el pasado, dispositivos parecidos se usaban principalmente para extraer hidrógeno del agua. Verbruggen y sus colegas han ahora descubierto que la obtención de hidrógeno es también posible, y de forma aún más eficiente, sirviéndose del aire contaminado.

El nuevo aparato solo debe ser expuesto a la luz para que comience a purificar el aire y a generar energía eléctrica. (Foto: UAntwerpen y KU Leuven)

Parece un proceso complejo, pero a efectos prácticos no lo es en absoluto: solo hay que exponer el aparato a la luz.

El equipo de Verbruggen está actualmente trabajando con prototipos de tan solo unos pocos centímetros cuadrados. En una etapa posterior, y si todo va bien, esta tecnología alcanzará una escala mayor, hasta el punto de que será práctico usarla en la industria. Verbruggen y sus colaboradores están trabajando asimismo en la mejora de los materiales empleados en el dispositivo, de manera que sus nuevas versiones puedan usar la luz solar de forma más eficiente para desencadenar las reacciones deseadas.

Al Índice.

BIOLOGÍA - Células responsables del crecimiento de pelo y mecanismo que lo encanece

Unos investigadores han identificado las células que directamente hacen brotar el cabello así como el mecanismo que causa que este se vuelva gris y luego blanco, hallazgos que podrían un día ayudar a identificar posibles tratamientos para la calvicie y el encanecimiento.

El Dr. Lu Le. (Foto: UT Southwestern Medical Center)

El equipo del Dr. Lu Le, del Centro Médico del Sudoeste, dependiente de la Universidad de Texas en Estados Unidos, ha hecho unos hallazgos reveladores sobre por qué el cabello se encanece y sobre la identidad de las células que directamente hacen crecer el cabello. Con estos nuevos conocimientos, Le y sus colegas esperan en el futuro crear un compuesto tópico, o suministrar de forma segura el gen necesario, para que los folículos de cabello corrijan estos problemas cosméticos.

Los investigadores encontraron que una proteína llamada KROX20, asociada más habitualmente con el desarrollo de los nervios, se activa en células cutáneas que se convierten en el tallo del cabello. Estas células precursoras, o progenitoras, del cabello, producen entonces una proteína llamada SCF (Stem Cell Factor) que, a juzgar por los nuevos hallazgos, es esencial para la pigmentación del pelo.

Cuando suprimieron el gen SCF en las células progenitoras del cabello en modelos de ratón, el pelo del animal se volvió blanco. Cuando eliminaron las células productoras de KROX20, no creció pelo y los ratones se quedaron calvos.Al Índice.

PSICOLOGÍA - Los rasgos de personalidad que mejor garantizan que la persona no será reemplazada por un robot en su puesto laboral

¿Le preocupa que los robots le quiten el empleo?

El aprendizaje automático y el concepto comúnmente referido como "big data" permitirán que la cantidad de tareas que las máquinas pueden realizar mejor que los humanos aumente tan rápido que mejorar solo los niveles educativos no bastará para mantenerse competitivo ante la automatización de los trabajos. Este es el pronóstico, un tanto inquietante, que hace Rodica Damian, profesora de la Universidad de Houston en Estados Unidos, y coautora de una investigación que ha profundizado en esta reorganización laboral que parece ya inevitable para un futuro no muy lejano.

Los investigadores trabajaron con un conjunto de datos sobre 346.660 personas, examinando rasgos de personalidad e intereses vocacionales en la adolescencia, junto con el grado de inteligencia y el estatus socioeconómico. Es el primer estudio que examina cómo una serie de factores de personalidad y de bagaje en la vida personal y profesional predicen si una persona seleccionará empleos que con más (o menos) probabilidad serán automatizados en el futuro.

Los resultados de este análisis indican que las personas que son más inteligentes y que mostraron más interés en las artes y las ciencias durante la escuela secundaria tienen una menor probabilidad de caer víctimas de la automatización.

Rodica Damian. (Foto: University of Houston)

Los investigadores encontraron que cada incremento de 15 puntos en el CI (cociente intelectual) predijo un descenso del 7 por ciento en la probabilidad de que el trabajo desempeñado por el sujeto se acabe automatizando.

Un buen grado de madurez en la forma de ser del sujeto, así como una personalidad extravertida, también hacen menos probable el reemplazo de la persona por un robot, a juzgar por los datos analizados. Tal como nos recuerda Damian, los robots no pueden desempeñarse tan bien como los humanos cuando se trata de interacciones sociales complejas. Los humanos también superamos a las máquinas al afrontar tareas que requieren creatividad.

Los autores del estudio han hallado que, a despecho del contexto social del que procedían, las personas con niveles más altos de inteligencia, intereses más fuertes en las artes y las ciencias, y con los otros rasgos citados más marcados, tendían a seleccionar empleos menos automatizables, o a ser seleccionadas para ellos.Al Índice.

GEOLOGÍA - Casi toda la superficie terrestre estaba cubierta de agua hace unos 4.400 millones de años

Tras un minucioso análisis de diminutos granos minerales de hasta 4.400 millones de años de antigüedad, unos científicos han llegado a la conclusión de que la Tierra temprana era probablemente estéril, plana y estaba cubierta casi por completo por el agua, con unas pocas islas pequeñas asomando por encima del océano global.

El equipo de Antony Burnham, de la Universidad Nacional Australiana en Canberra, estudió granos del mineral conocido como circón, recogidos en la zona de las Jack Hills (Colinas de Jack), en Australia occidental. Estos granos figuran entre los fragmentos conocidos más antiguos de la Tierra que todavía se conservan.

La historia de la Tierra es como un libro con el primer capítulo arrancado, sin ninguna roca superviviente del período más temprano, pero el equipo de Burnham se ha valido de sustancias traza en el circón para construir un perfil del mundo en esa época.

Los resultados de la nueva investigación indican que no había montañas ni se produjeron colisiones continentales durante los primeros 700 millones de años o más de la existencia de la Tierra; era un lugar mucho más tranquilo (y aburrido) que tiempo después o que en la actualidad.

Una serie de cristales de circón de hasta 4.400 millones de años de antigüedad han sido encontrados en roca arenisca, en la zona de las Colinas de Jack, en Australia occidental. (Imagen: Stuart Hay, ANU)

Los resultados obtenidos también refuerzan la teoría de la “Tierra fría temprana”, donde las temperaturas eran lo bastante bajas como para permitir la existencia de agua líquida, océanos y una hidrosfera, no mucho después de que la corteza del planeta se solidificase tras haber sido un mar de roca fundida. Cada vez parece más claro que la Tierra tuvo una hidrosfera antes de hace 4.300 millones de años, y posiblemente vida no demasiado después.Al Índice.

NEUROLOGÍA - Dónde puede residir la conciencia

Las conexiones establecidas entre las neuronas, las sinapsis, forman un entramado enorme y maravilloso que, a través de todas sus ramas, se comunican y coordinan patrones de activación en todo el cerebro. De esta manera unidades de información se integran para constituir experiencias unificadas que son nuestra memoria, nuestros sentimientos y al final nuestra conciencia del entorno.

En palabras sencillas, el secreto de la conciencia podría encontrarse en esos árboles que se comunican y entraman, una suerte de árboles neuronales.

En los 140 años que se han dedicado a mapear las proyecciones neuronales, los científicos han visto de todo: unas cortas, otras robustas y ahora, unas de una longitud extrema que cubren toda la distancia que media entre la parte posterior de la cabeza, la médula espinal, hasta la parte anterior.

En la semana del 2 de febrero de este año, Christof Koch, presidente del Instituto Allen de la Ciencia del Cerebro, celebró un congreso y en él anunció el descubrimiento de tres neuronas con ramificaciones que abarcaban ambos hemisferios cerebrales. Para mayor asombro, estas neuronas se encontraron en el CLAUSTRUM, esa misteriosa y muy delgada capa de células que Koch cree sea la silla de la conciencia. Entre las tres, la más larga de las neuronas, envolvía toda la circunferencia del cerebro de un ratón, como una corona, algo jamás visto hasta entonces.

“¡Una única neurona, lanzando sus proyecciones a toda la corteza! Absolutamente asombroso”, enfatizó Koch en su charla.

Estos resultados son los últimos obtenidos en un proyecto que se ha propuesto mapear las proyecciones individuales de todas las neuronas en el cerebro. Una tarea colosal.

El cerebro tiene miles de millones de neuronas, que forman billones de sinapsis. Para seguirle el curso a una proyección neuronal, los científicos por lo general inyectan un virus o un colorante en la neurona, y esperan a que el agente marcador viaje a lo largo de las proyecciones. Luego realizan cortes finísimos del tejido cerebral, y con la ayuda de un microscopio observan el curso del colorante o del virus. Es lento, tedioso y pensar en hacerlo en todo un cerebro, bueno.

Para automatizar el proceso Koch y su colaborador, Qingming Luo de la Universidad Wuhan en China, desarrollaron un método que hace cortes y observación de las “tajadas”, de forma continua.

El equipo se enfocó en las neuronas en el claustrum, “una parte tan bonita del cerebro pero que no ha tenido suficiente reconocimiento”, bromeó Koch.

Usando un ratón transgénico lograron que una droga activara un gen del cerebro que produce una proteína verde fluorescente. Con la luz ultravioleta, las neuronas con esta proteína brillan, destacándose del fondo.

Los investigadores suministraron dosis bajas de la droga y tomaron una imagen de la superficie, con el microscopio. Lo siguiente fue, ayudados con una cuchilla de diamante cortar tajadas finísimas del tejido y tomar una nueva imagen. Después de diez mil ciclos, las imágenes resultantes se juntaron, de forma digital, para recrear la imagen tridimensional de las tres células fluorescentes.

“Esta técnica nos permite obtener información estructural, con una precisión uniforme y una altísima resolución”, dice Luo.

Tal vez lo más importante es que las células fueran encontradas en el claustrum, aunque no fue sorprendente. El claustrum es una capa de células, delgadísima, irregular, situada bajo la corteza del cerebro. Cautivó a Koch desde cuando las primeras imágenes mostraron que era la región del cerebro que contenía el mayor número de conexiones, relativa a su volúmen.

“Mirando las fibras de materia blanca que entran y salen del claustrum no se puede pensar en otra cosa sino que estemos viendo La Estación Central del cerebro. Casi todas y cada una de las regiones de la corteza envían fibras al claustrum”, explica Koch.

Y de acuerdo a Koch, conexión es el ingrediente secreto de la salsa que es la conciencia.

Cuando se mira la cara de alguien querido, las regiones del cerebro que sustentan la vista, el olfato, los recuerdos y las emociones, todas se activan de forma individual, y estas piezas de información, percepciones internas y externas, se integran en una experiencia unificada de conciencia.

“Dado que el claustrum, con sus conexiones masivas, podría estar coordinando las entradas y salidas, inputs y outputs, sería el gran director de la conciencia”, dice Koch.

  1. La teoría de Koch es difícil de demostrar aunque un caso clínico ocurrido en una mujer en el 2014 ofrece un apoyo tangencial. Mientras se estimulaban varias regiones del cerebro para localizar la fuente de sus continuos ataques epilépticos, la mujer, que estaba despierta, cuando tocaron uniones nerviosas cerca del claustrum, paró de responder a  estímulos visuales o auditivos y empezó a respirar con lentitud. Tan pronto terminó el contacto con esa región, la mujer volvió a la normalidad de inmediato. Los neurocirujanos repitieron la prueba y en 10 de 10 veces ocurrió lo mismo.

“Esto apoya, o al menos es compatible con la idea que Francis Crick (codescubridor de la estructura del ADN) y yo describimos en términos del compromiso del claustrum en la conciencia”, dice Koch.

Crick estuvo convencido de que el claustrum sería definido o formaría parte del concepto de la conciencia, hasta sus últimos días, cuando ya enfermo y a punto de morir le susurró a Koch que ahí estaba todo, el gran director de la orquesta sin el que nuestros pensamientos, sentimientos, comportamientos tomarían rumbos erráticos.

Poco a poco, y pedazo a pedazo, bit a bit, se irá construyendo y conformando uno de los conceptos más trascendentales de la mente humana, la conciencia.Al Índice.

Nature 543 doi:10.1038/nature.2017.21539

MEDICINA - Científicos del CIMA diseñan un prometedor tratamiento para la enfermedad de Wilson

Científicos del Centro de Investigación Médica Aplicada (CIMA) de la Universidad de Navarra (España) han diseñado un método prometedor de terapia génica para tratar la enfermedad de Wilson, una enfermedad rara causada por la falta o disfunción de un gen. La terapia génica consiste en introducir la versión correcta del gen en las células dañadas mediante vehículos o vectores, generalmente virus modificados en el laboratorio que pierden su capacidad de causar enfermedad pero mantienen su habilidad para penetrar en las células.

Con este prometedor método terapéutico la Dra. Gloria González Aseguinolaza, directora del Programa de Terapia génica del CIMA, y su equipo han diseñado VTX801, vector viral que corrige un estado avanzado de la enfermedad de Wilson en ratones. En el proceso de desarrollo de su innovadora estrategia terapéutica ha participado el Massachusetts Eye and Ear (MEE), hospital asociado a la Universidad de Harvard, aportando una avanzada cápside viral (Anc80),envoltura del material genético del virus modificado.

El avance ha sido posible gracias al acuerdo y licencia exclusiva del CIMA, a través de su fundación para la investigación médica aplicada (FIMA), con la recién anunciada compañía biotecnológica francesa Vivet Therapeutics (Vivet). Esta empresa, que desarrolla nuevos tratamientos para enfermedades metabólicas hereditarias raras basados en la terapia génica, ha captado 37,5 millones de euros en su primera ronda de financiación de un consorcio de inversores liderado por Novartis Venture Fund y Columbus Venture Partners, e incluye a Roche Venture Fund, HealthCap, Kurma Partners e Ysios Capital. Destaca el hecho de que un proyecto de un centro de investigación de una institución académica española atraiga tal cuantía de inversores internacionales líderes en el sector biotecnológico.

Investigadores del CIMA en el proyecto Vivet. En el centro, Gloria González Aseguinolaza y en el extremo derecho Jesús Hernández, representante de la FIMA y anterior director general del CIMA. (Foto: Elisabet Frauca)

La enfermedad de Wilson se debe a la mutación del gen ATP7B, encargado del metabolismo del cobre, lo que provoca que este metal se acumule en el hígado y otros tejidos produciendo daño hepático y neurológico y pudiendo causar la muerte. Afecta a una de cada 30.000 personas en el mundo.

Su tratamiento actual intenta mitigar el progreso de la enfermedad y consiste en ingerir varias pastillas diarias de por vida, con importantes molestias para el paciente y una cronicidad que supone un elevado gasto sanitario a nivel global. “Nuestra estrategia va al origen de la enfermedad e intenta corregirla”, asegura la Dra. González Aseguinozala. A su vez, “consiste en aplicar una única inyección cuyos efectos podrían durar hasta 7 años, que es hasta ahora el tiempo de seguimiento de un paciente tratado con terapia génica dirigida al hígado”.

Según la investigadora, los exitosos resultados en ratones con un estado avanzado de la enfermedad y el acuerdo con Vivet “nos han permitido optimizar el vector VTX801 y su sistema de producción para poder obtenerlo en grandes cantidades en grado clínico”. Una vez los investigadores del CIMA comprueben la seguridad y eficacia del nuevo fármaco, Vivet prevé comenzar los primeros ensayos clínicos con VTX801 a finales de 2018.

González Aseguinozala señala que su investigación “se ha centrado en la enfermedad de Wilson porque es la primera de la que tenemos datos satisfactorios y las posibilidades de beneficiar al pacientes son más inmediatas. No obstante, el potencial de esta estrategia terapéutica abre las puertas a otros tratamientos por terapia génica, ya que cambiando el gen defectuoso, podríamos abordar corregir enfermedades con una causa similar”. (Fuente: U. Navarra)Al Índice.

NEUROPSICOLOGÍA - Mitos y verdades sobre autismo a la luz de la neurociencia

Ana Barrantes 27/04/2017

En la película Rain Man, (Barry Levinson, 1988), Charlie Babbitt (Tom Cruise), un joven egocéntrico californiano, recibe la noticia de que su padre, al que no ve hace muchos años, ha fallecido.  Al pretender recibir la herencia de 3 millones de dólares, descubre que el dinero de la misma se halla en fideicomiso a favor de una persona de cuya existencia no tenía noticia: Raymond Babbitt (Dustin Hoffman), su hermano mayor. Raymond conoce todas las estadísticas de las ligas de beisbol y es capaz de recitar páginas enteras de la guía telefónica; tiene además una habilidad en la que su hermano Charlie pone sus esperanzas: puede recordar todas las cartas que han salido en la mesa de un casino y calcular la probabilidad de que salga la carta necesaria para ganar al blackjack y romper la banca.

Entonces, el personaje interpretado por Dustin Hoffman fue reconocido como una persona con autismo. Sin embargo, el perfil de Raymond Babbit en el film equivale más bien al síndrome de Savant: un conjunto de síntomas cognitivos diferenciados, definido por Darold Treffert, según el cual algunas personas con discapacidades físicas, intelectuales o motrices, poseen inesperadas habilidades mentales específicas. Las habilidades más usuales de los savants suelen centrarse en dominios concretos: artes (sobre todo ser buenos intérpretes musicales), cálculo de fechas, cálculo matemático y habilidades mecánicas y espaciales.Este síndrome, descrito por primera vez en 1978, tiene como característica su relación con el autismo: 1 de cada 10 autistas podrían tener alguna habilidad de los savant.

Rain Man contribuyó en su momento a dar a conocer y visibilizar el autismo; el film ganó cuatro óscars, entre ellos el de mejor actor para Dustin Hoffman. El actor reconoció y agradeció públicamente la inspiración y ayuda obtenida para preparar el papel por parte de Kim Peek, quien pese a haber nacido con macrocefalia y un grave daño en el cerebelo,no superar en los test de cociente de inteligencia la puntuación de 87 (inferior a la media de 100) y encontrar incomprensibles las metáforas del lenguaje, a los catorce años había completado las asignaturas de secundaria. Kim Peek leyó más de 12.000 libros y era capaz de recordar su totalidad, mostrando memoria eidética. Podía leer dos páginas al mismo tiempo, su ojo izquierdo leía la página izquierda y su ojo derecho, la página derecha, tardando unos tres segundos en leer ambas páginas. No se ha probado, aunque es posible,que ello estuviese relacionado con que había nacido con agénesis del cuerpo calloso y la comisura anterior, es decir, le faltaba la conexión entre los dos hemisferios cerebrales.

Pero pese a esta popularidad de la condición autista y de personas como Kim Peek, el autismo sigue siendo esencialmente desconocido tanto en su etiología (origen), como en sus manifestaciones, lo que hace que hayan pervivido ciertas distorsiones o mitos en la información transmitida al respecto. Sin embargo, los avances en neurociencias desde los últimos cinco años y la revisión de los criterios diagnósticos de los Trastornos del Espectro Autista nos permiten revisar bajo un nuevo prisma dichas creencias sobre el autismo:

El autismo es una enfermedad psiquiátrica

El autismo pertenece al conjunto de los Trastornos del Espectro Autista que se describe en el DSM-V (Manual diagnóstico y estadístico de los trastornos mentales de la Asociación Americana de Psiquiatría-AAP) dentro de los trastornos del neurodesarrollo, grupo de trastornos que tienen su origen en el periodo de desarrollo y se caracterizan por déficits en el desarrollo que producen limitaciones en áreas específicas o limitaciones globales, en  lo personal, social, académico o en el funcionamiento ocupacional. Esta categorización diagnóstica desvincula los trastornos del espectro autista de enfermedades mentales tales como la esquizofrenia, con las que el autismo ha sido en ocasiones, desafortunadamente, asimilado.
El autismo se considera hoy en día una disfunción neurológica crónica con fuerte base genética que desde edades tempranas se manifiesta en una serie de síntomas basados en dos ejes:

Deficiencias persistentes en la comunicación social y en la interacción social en diversos contextos

Patrones restrictivos y repetitivos de comportamiento, intereses o actividades

A pesar de las clasificaciones con fines diagnósticos, ninguna persona que presenta un TEA es igual a otra en cuanto a características observables. El grado de severidad, forma y edad de aparición de cada uno de los criterios puede variar enormemente de una persona a otra.
Hoy por hoy no existe un marcador biológico fiable que conduzca al diagnóstico exacto del autismo. Algunas investigaciones sugieren que es un trastorno del desarrollo neuronal con afectación principal de la corteza bifrontotemporal, estructuras límbicas, cerebelo, tronco encefálico, hipocampo, áreas parietales y cuerpo calloso (Anagnostou, E., Taylos, M.J-2011). Así mismo, se ha observado alteración en la transmisión del neurotransmisor GABA (Adrian, L., et al.-2010)

Los autistas son «genios» en algún campo

No todas las personas con autismo poseen talentos extraordinarios. Como comentábamos al inicio, alrededor de 1 por cada 10 personas con autismo despliega habilidades asombrosas, determinadas por varios factores, uno de los cuales puede ser la práctica debida a sus intereses restrictivos y repetitivos.

Sobre la causa de que algunos niños autistas desarrollen talentos especiales, existen varias propuestas. Una es la del Dr. N. Gordon, quien sugirió que estas personas muestran fallas en el desarrollo de su cerebro y que, cuando elcerebro es liberado de algunas funciones se puede concentrar mejor en otras. En el caso del autismo señala que las discapacidades del lenguaje se deberían a que muchos de los altos niveles de control y función intelectual no están presentes por lo que se ven aumentadas las capacidades de procesamiento simple y rápido.(Gordon, N.  Unexpected development of artistic talents.Postgrad Med J. 2005)

Los autistas tienen el cerebro más grande

Está demostrado que los bebés y niños pequeños con autismo tienen cerebros más grandes que niños normotípicos de la misma edad. Hasta hace poco, se explicaba que los cerebros de personas con autismo tenían tres períodos diferentes de crecimiento anómalo: un crecimiento excesivo en la infancia temprana, una detención prematura del crecimiento en la niñez y una pérdida de volumen entre la adolescencia y la primera madurez. Sin embargo, un estudio reciente presentado en la reunión anual de la Society for Neuroscience 2016 indica que ese incremento persiste en la adolescencia y en la vida adulta.

Para llegar a esta conclusión, los investigadores escanearon mediante resonancia magnética los cerebros de 254 personas con autismo y 223 controles, de edades comprendidas entre 6 y 25 años y cuyos cocientes de inteligencia se encontraban entre 47 y 158. Para minimizar cualquier distorsión en los datos causada por el equipo o la metodología, todos los análisis se hicieron con el mismo escáner y siguiendo el mismo protocolo  Los investigadores encontraron que el volumen cerebral era un 3% superior, de media, en las personas con autismo frente a los controles y que esa diferencia no cambiaba significativamente con la edad de los participantes, persistía a lo largo de los años.

Los investigadores encontraron también que el incremento de volumen cerebral en el grupo con autismo es debido, al menos en parte, a un incremento en la sustancia gris, (zonas más ricas en cuerpos neuronales). Determinaron que las personas con autismo tienen un mayor volumen de sustancia gris en los lóbulos temporales, zonas que procesan estímulos sociales como el lenguaje y las caras, y en el lóbulo frontal, que interviene en el pensamiento, el juicio y la toma de decisiones.El grupo con autismo presentaba también incrementos de la sustancia blanca, formada mayoritariamente por los axones mielinizados de las neuronas, en algunas regiones encefálicas, en concreto en los lóbulos temporales y en el cerebelo (José Ramón Alonso, Catedrático en la Universidad de Salamanca, Febrero 2017)

Autismo es sinónimo de retraso mental

El grupo de investigación al que hacíamos referencia en el epígrafe anterior, también encontró que el volumen cerebral se incrementaba con el cociente de inteligencia en los controles, algo ya comprobado: en general, la gente más inteligente tiende a tener  cabezas más grandes. Curiosamente, esa correspondencia no se da en el grupo con autismo. Esto es  sorprendente, porque todas las supuestas explicaciones ofrecidas para esa asociación en el cerebro normal (mayor espacio computacional, mayor rendimiento por la mayor cantidad de neuronas o de sustancia blanca), deberían en teoría reflejarse también en las personas con autismo. Es decir, en los casos con TEA esa mayor cantidad de elementos neuronales no se refleja en un incremento de la habilidad para el procesamiento cognitivo.

Se sabe que los TEA y la discapacidad intelectual (DI) están correlacionados, aunque parece que la DI es más prevalente en el autismo que el autismo en la DI (Schwartz. Neri, 2012).Lo cierto es que el autismo impacta en todo el aprendizaje, especialmente en los individuos más severamente afectados.Las primeras investigaciones establecían que la mayoría de los niños con TEA tenían DI: 75% -80% (Rutter, 1970). Estudios más recientes, fijan la prevalencia para el grupo de TEA total en un 25% a 40% (O´Brien. 2004).
Sin embargo, un artículo publicado en 2006 en la página web de la revista Sience, reveló que, normalmente, los profesionales de la salud evaluaban a los autistas utilizando un test de CI estándar conocido como el Test Wechsler. Esta prueba requiere que los niños entiendan las órdenes verbales, una habilidad con la que la mayoría de niños autistas tienen problemas.

El neurocientífico cognitivo Laurent Mottron, del Hospital Rivière-des-Prairies, en Montreal y sus colaboradores se dieron cuenta de que, aún cuando estos niños obtenían malos resultados en la parte de comprensión verbal del test, los resultados eran opuestos en la parte que medía inteligencia no verbal y razonamiento. Esto les llevó a utilizar otro test más centrado en la escritura, el Test de Matrices progresivas de Raven. Mediante esta prueba, los autistas verbales obtuvieron mayores puntuaciones que con el test anterior.Hicieron lo mismo con un autista mudo, tipo de autista que se encuentra entre los que tienen una ejecución más baja en este aspecto y alcanzó bajas puntuaciones en el Test de Wechsler, tal y como se predecía, pero alcanzó una puntuación por encima del percentil 90 en el Test de Raven.

Los investigadores saben que las personas no autistas emplean habilidades verbales para realizar este último test, pero a la vista de estos resultados cabe pensar que la gente autista puede estar utilizando distintas habilidades, como la percepción visual (Mottron). Los estudios de imagen cerebral, en los que las personas normotípicas usan áreas lingüísticas del cerebro para resolución de problemas mientras que los autistas usan sus áreas de procesamiento visual, confirman esta idea.

Se asume que los niños que sufren de autismo son retrasados mentales, pero eso es porque no sabíamos cómo evaluar su talentoindicaba Irving Gottesman, genético del comportamiento en la Universidad de Minnesota, (Minneapolis), en declaraciones a la misma revista.

El autismo está causado por hiperfuncionamiento cerebral

Un alto porcentaje de las personas con TEA (entre el 60 y el 95%) manifiestan de forma característica un inusual perfil sensorial; la hiper o hiporresponsividad a imputs sensoriales constituye uno de los marcadores conductuales dentro del trastorno. Así mismo, otra característica tan común como los graves déficits sociales o el perfil sensorial desajustado es una percepción a partir de detalles o procesamiento localmente orientado (funcionamiento perceptual aumentado), que influirían en tareas cognitivas de alto nivel tanto de contenido social como de otro tipo. Por todo ello, a menudo las personas con autismo tienen problemas filtrando la información sensorial irrelevante. Eso hace que se sientan abrumados en ambientes saturados de estímulos que los normotípicos ignoramos con facilidad. También parece estar relacionado con su exquisita atención a los detalles.

Por otra parte, muchas personas con TEA sufren ataques epilépticos, algo que también sugiere que los mecanismos inhibitorios fallan y se desencadena una actividad neuronal exagerada y anómala.

También hay evidencias de que algo sucede con el GABA, ácido gamma aminobutírico, principal transmisor inhibitorio en el sistema nervioso que «apaga» o «calma» los circuitos neuronales en los que interviene. En 2016, Caroline Robertson de la Universidad de Harvard y sus colegas del MIT han documentaron una relación directa entre los niveles cerebrales de GABA y la gravedad de los síntomas de TEA. Es un resultado importante porque los niveles de neurotransmisores pueden modularse farmacológicamente, en cuyo caso una medicación específica podría aliviar los síntomas en personas afectadas por esta discapacidad. En este estadio, es necesario replicar el estudio y analizar los cambios en la concentración de GABA en distintos momentos del desarrollo cerebral y de la aparición de la sintomatología del autismo.
(Robertson CE, Ratai E-M, Kanwisher N (2016) Reduced GABAergic action in the autistic brain. Current Biol 26: 1-6. http://www.cell.com/current-biology/pdf/S0960-9822(15)01413-X.pdf).

Los autistas no tienen emociones

Las personas en general varían en su sensibilidad emocional, en la velocidad, intensidad y duración de sus emociones primarias, que son biológicas por naturaleza. Para ser capaces de regular efectivamente las emociones, primero hay que ser conscientes del mundo interno, de las sensaciones emocionales y físicas; identificar, procesar y expresar estas sensaciones internas, relacionarlas con el mundo externo, con las situaciones que las producen, identificar los pensamientos provocados por las situaciones sociales, inhibir el estado emocional excesivamente negativo o positivo mediante la búsqueda de estrategias conscientes de tranquilizarse, como puede ser el aceptar y comprender el estado emocional propio, o utilizar reestructuración cognitiva que haga tolerar de una mejor manera las situaciones y planificar la realización de tareas u objetivos a pesar de tener un estado hiperemocional. Todos estos procesos con frecuencia están alterados en personas con TEA.

Para los niños con espectro autista es difícil distinguir entre lo que hay en el interior de su mente y lo que hay en el interior de la mente de los demás (Frith – 1989)

Aunque no hay evidencia de que las personas con TEA tengan emociones menos intensas que otras personas, su reconocimiento emocional, la expresión de sus emociones y la regulación afectiva para proseguir con sus tareas y objetivos están frecuentemente disminuidas en ellos.

Las personas con TEA tienen dificultades en integrar la información proveniente de su mundo interno y externo. Sí existe evidencia de que las personas con TEA presentan dificultades de teoría de la mente, entendida como la capacidad de comprender pensamientos, creencias e intenciones de las otras personas; dificultades en la empatía, entendida como el reconocimiento y comprensión de los estados emocionales de otras personas, en especial de emociones más sutiles, y dificultades de comprensión de situaciones sociales complejas, basadas en las dificultades de integración de la información sensorial, emocional y cognitiva múltiple.

Diversos estudios han hallado que, a diferencia de personas con rasgos psicopáticos, que tienen preservada la empatía cognitiva, en los TEA existen dificultades en la empatía cognitiva, es decir, en la comprensión del estado emocional, de los pensamientos y situaciones que hacen sentirse a la otra persona de una determinada manera, pero una vez reconocen estas emociones y cogniciones, sintonizan emocionalmente con otras personas.

El autismo se cura

El autismo no es un estado patológico, sino un síndrome clínico, es decir, es un conjunto de signos y síntomas. A pesar de considerarse su origen genético, su diagnóstico en el momento del nacimiento es difícil ya que, aunque hay manifestaciones desde los primeros meses de vida, estas son más notorias a partir de los 18 meses. Las alteraciones más evidentes son conductuales, en la comunicación verbal y no verbal así como en las relaciones sociales y emocionales. En todos los casos de TEA el diagnóstico se realiza a través de la observación directa de las alteraciones del comportamiento: a los 12 meses tienden a observarse una serie de marcadores que se repiten en diferentes estudios, aunque no siempre con las mismas implicaciones. Entre ellos se incluyen los déficits en la atención conjunta, la respuesta limitada al nombre, retrasos en la comunicación verbal y no-verbal, la exploración atípica de los objetos, retraso motor, algunas conductas repetitivas, diferencias en el temperamento y menor capacidad imitativa (Elsabbagh & Johnson, 2010). Ahora bien, ninguno de estos marcadores se encuentra en todos los participantes con autismo ni, tomado individualmente, permite determinar que un individuo dado desarrollará posteriormente autismo (Tager-Flusberg, 2010).

Debido a que el autismo no se ajusta al modelo médico de enfermedad-curación, la mayoría de los trabajos de revisión del curso evolutivo de niños diagnosticados de autismo han preferido utilizar el término recuperación, considerando que el autismo se ha recuperado cuando no se cumplen los criterios diagnósticos y, además, es posible llevar una vida social y laboral satisfactoria. Alrededor del 20% de los niños diagnosticados dejan de cumplir los criterios en los que se basó el diagnóstico y, además, alcanzan un ajuste social y laboral satisfactorio. Como factores favorecedores se identifica: inteligencia normal, buen nivel de lenguaje y baja incidencia de comorbilidades.

Un concepto interesante surgido en los últimos años es el de neurodiversidad, desde el que se considera que la intervención con personas que presentan TEA debe orientarse  desarrollo óptimo de sus capacidades individuales en un entorno facilitador. Bajo el prisma de la neurodiversidad se prioriza la atención sobre las habilidades de cada persona, sea cual sea su condición, y se considera que en realidad lo que importa es la oportunidad de desarrollar las capacidades de cada uno. Por el contrario, los currículos escolares rígidos, estandarizados y reglados, basados en la memoria y en la rutina,  empobrecerían tanto el desarrollo de los neurodiversos, como de los neurotípicos (Armstrong, 2012). Desde este enfoque se contempla que las iniciativas terapéuticas, cuando se apliquen, no tienen otra justificación que la integración social y el bienestar de la persona, y deben estar diseñadas en base no tanto al diagnóstico como al individuo. Además, los objetivos han de ser claros y los resultados medibles a corto plazo, sin olvidar que la mejor terapia consiste en crear un entorno inclusivo. Y en los casos en los que se emprendan terapias especializadas, cabe recordar lo que afirmaba Howlin:

El tratamiento no debe exigir un gran sacrificio en términos de tiempo, dinero o cualquier otro aspecto de la vida familiar, sino que debe beneficiar a todos los involucrados

Post patrocinado por  Centro para el Tratamiento del Autismo Psicoclínica BarcelonaAl Índice.

ASTRONOMÍA - La Nebulosa Espagueti, nueva imagen del astrógrafo remoto del IAC

Las estrellas masivas mueren de forma espectacular. El remanente de supernova Simeis 147 (también conocido como Sharpless 2-240 y, en ocasiones, como Nebulosa Espagueti) es el resto de una supernova localizado entre las constelaciones del Tauro y Auriga. La imagen se ha obtenido con el llamado “Fotomatón Cósmico”, un astrógrafo remoto de la Unidad de Comunicación y Cultura Científica (UC3) del IAC, instalado en el Observatorio del Teide (Izaña, Tenerife, España). Esta imagen se incluye en el marco del proyecto “NIÉPCE: del negativo al positivo”, que rinde homenaje a la Fotografía.

El tamaño aparente en el cielo de este remanente de supernova es espectacular. Si fuera posible observarlo a simple vista, alcanzaría más de 4 grados en su extensión máxima, equivalente a ocho Lunas alineadas de lado a lado. En su interior, aunque no en el centro de los restos de la explosión, se encuentra el púlsar PSR J0538+2817, el núcleo de una estrella masiva y extremadamente concentrado que gira a gran velocidad.

Existen dos estimaciones de distancia para esta nebulosa. La primera la sitúa a una distancia aproximada de 880 parsecs (2.870 años luz) de la Tierra, lo que implicaría que Simeis 147 abarca un volumen aproximadamente esférico de entre 150 y 200 años luz de diámetro. Si consideramos que la distancia a la estrella más cercana, Próxima Centauri, es de 4,2 años luz, podemos imaginar las colosales dimensiones reales de este objeto astronómico.

Imagen de Simeis 147 (también conocido como Sharpless 2-240 y, en ocasiones, como Nebulosa Espagueti), obtenida con el astrógrafo remoto de la Unidad de Comunicación y Cultura Científica (UC3), del Instituto de Astrofísica de Canarias (IAC), desde el Observatorio del Teide (Izaña, Tenerife). Se trata de una imagen de larga exposición (8 horas en cada uno de los filtros estrechos: H-alfa/rojo, SII/verde y OIII/azul) a la que se le ha dado el color real de las estrellas gracias al uso de tres filtros de banda ancha (R:rojo; G:verde; B:azul), con exposiciones totales de hora y media en cada uno de ellos. La imagen muestra simultáneamente regiones muy débiles junto a otras más brillantes. El color que se muestra corresponde aproximadamente con el que veríamos con nuestros ojos si éstos fuesen extraordinariamente sensibles. (Crédito: Daniel López/IAC)

Esta nebulosa se expande a una velocidad de unos 100 km/s y parece tener energía suficiente para emitir radiación incluso en rayos gamma, según confirma el satélite Fermi.

La otra estimación de distancia es algo mayor al estar basada en el púlsar PSR J0538+2817, situado a 1,3 kiloparsecs (4.240 años luz). Estudios recientes sugieren que la estrella que explotó era una estrella masiva que tenía otra similar como compañera. Al explotar ésta última, varió la distribución de masas y ambas salieron expulsadas a gran velocidad. La posición del púlsar no coincide con el centro geométrico del remanente de supernova, que se encuentra desplazado justo en dirección opuesta a HD 37424, una estrella gigante que habría compartido la posición central hace unos 30.000 años. (Fuente: IAC)Al Índice.

PSICOLOGÍA - La realidad virtual inmersiva confirma sesgos raciales

Investigadores de la Universidad de Barcelona (UB) (Catalunya, España) han utilizado la influencia de la realidad virtual inmersiva (RVI) para analizar los efectos que tiene la inmersión en un personaje virtual en las conductas automáticas ante otras razas. Los resultados, publicados PLOS ONE, muestran que adoptar una determinada raza virtual, independientemente de la real, afecta a determinados comportamientos inconscientes hacia personajes virtuales del mismo color de piel virtual.

Según los expertos, quedan demostrados así los efectos de este tipo de experiencias virtuales en la percepción, el comportamiento y las actitudes, pero además, también abren la puerta al uso de esta tecnología para combatir conductas racistas.

El trabajo ha sido liderado por Mel Slater, investigador ICREA del grupo de investigación Entornos Virtuales en Neurociencias y Tecnología Experimental (Event Lab) de la UB. También han participado el experto de la UB Bernhard Spanlang y Béatrice S. Hasler, de la Sammy Ofer School of Communications de Israel.

Durante las interacciones sociales, las personas se identifican como miembros de los grupos sociales a los que pertenecen de manera espontánea. Esta identificación, en la que rasgos como la raza o el sexo son elementos muy potentes de pertenencia a un grupo, influye en las percepciones y comportamientos interpersonales.

Un método habitual para contrarrestar este sesgo es la toma de perspectiva, que normalmente requiere que las personas imaginen cómo sería, por ejemplo, tener otro color de piel o sexo. En el nuevo trabajo, los investigadores han transformado esta toma de perspectiva mediante el uso de la RVI. “En lugar de hacerles imaginar cómo sería ser otra persona, hemos puesto a los participantes en la situación de “ser” esa otra persona”, explica Slater.

Provistas de unas gafas y un traje de realidad virtual, las participantes encarnaban el avatar asignado y debían interactuar con otra mujer virtual generada por el programa. (Foto: Eventlab - Universidad de Barcelona)

El estudio se realizó con 32 mujeres de raza blanca que fueron asignadas aleatoriamente a un cuerpo virtual de raza blanca o negra. Provistas de unas gafas y un traje de realidad virtual, las participantes encarnaban el avatar asignado y debían interactuar con otra mujer virtual generada por el programa.

En el experimento, las participantes debían describir primero una serie de cuadros que aparecían en una pared virtual, y después escuchaban la descripción que de ellos hacía la otra mujer virtual. Cada participante repitió el experimento dos veces, en semanas diferentes, pero siempre con el mismo color de piel asignado al principio. Sin embargo, el color de la piel del avatar con el que compartían espacio virtual fue diferente en cada ensayo.

Los investigadores grabaron los experimentos y analizaron el grado de mimetismo de las participantes con la otra persona virtual. Para ello registraron las veces en las que la participante imitaba inconscientemente movimientos del otro personaje, como tocarse la cara, colocar los brazos en las caderas o rascarse el brazo.

“Inconscientemente, las participantes imitaban mucho más los gestos del otro personaje virtual cuando coincidían en el color de piel virtual. Por ejemplo, cuando la voluntaria realizaba la experiencia con un avatar negro, imitaba en más ocasiones a su colega virtual negra que cuando esta era blanca”, añade el investigador.

“Esta imitación —continúa Slater— es importante, ya que es un comportamiento no consciente que, según estudios de psicología social, indica entendimiento social. Es decir, inconscientemente, tendemos a imitar más a aquellos con los que estamos en mayor armonía”.

Los autores señalan que no es posible extrapolar estos resultados fuera de la simulación virtual, ya que para poder hacerlo sería necesario llevar a cabo un seguimiento de los participantes que certificara la variación de los sesgos raciales en su vida diaria.

En este sentido, un estudio anterior de EventLab demostró que encarnar un personaje virtual de una raza diferente a la propia “disminuye el sesgo racial al menos una semana después de la exposición a la realidad virtual”.

Según los investigadores, esta influencia en las actitudes implícitas de los participantes, sitúa a la RVI como un prometedor instrumento para, en el futuro, combatir el racismo en la vida cotidiana. “A medida que se generalice el uso de la realidad virtual en la sociedad, puedo imaginar, por ejemplo, juegos no violentos y películas interactivas con RVI en los que el jugador encarna diferentes cuerpos y roles”, detalla Slater.

“Otras aplicaciones posibles serían el uso de la RVI para que funcionarios públicos –como policías, que tienen trato directo con el público– vivan la experiencia de cómo podrían ser tratados de manera diferente en función de su raza (virtual). Por supuesto, esto sería más importante en algunos países con problemas raciales severos”, concluye el experto. (Fuente: Universidad de Barcelona)Al Índice.

INGENIERÍA - Los sordociegos ya pueden “ver” la televisión sin necesidad de intermediarios

La Universidad Carlos III de Madrid (UC3M), Telefónica y FASOCIDE (Federación de Asociaciones de Personas Sordociegas), en España, han presentado la tecnología PervasiveSUB, un software pionero en el mundo que permite a las personas sordociegas recibir y disfrutar sin intermediarios los contenidos de la televisión al mismo tiempo que las personas de su alrededor.

PervasiveSUB recoge todos los subtítulos de las cadenas de televisión y los envía a un servidor central desde donde se reenvían a los smartphones o tabletas, y desde ahí a la línea braille de la persona sordociega gracias a la app GoAll, que integra el software y que es compatible con diferentes líneas braille y permite controlar la velocidad de los subtítulos captados directamente desde la emisión de televisión en perfecto directo.

La presentación, que ha tenido lugar en el campus de Madrid-Puerta de Toledo de la UC3M, ha contado con la presencia de Ángel García Crespo, profesor de esta institución y  director del proyecto; Arancha Díaz-Lladó, directora de Innovación Sostenible de Telefónica; y Francisco José Trigueros Molina, presidente de FASOCIDE (Federación de Asociaciones de Personas Sordociegas), así como con la participación de un grupo de personas sordociegas que han hecho una demostración de cómo funciona esta tecnología.

PervasiveSUB, financiado por Telefónica, ha sido desarrollado por el grupo de investigación del Instituto de Desarrollo Tecnológico y Promoción de la Innovación Pedro Juan de Lastanosa de la UC3M, bajo la dirección del profesor García Crespo, quien ha declarado que “uno de los grandes problemas que tienen las personas sordociegas es su poca visibilidad ante el mundo, como lo demuestra el hecho de que no hayan sido reconocidas ante el Parlamento Europeo hasta 2004”.

(Foto: UC3M)

Según Arancha Díaz-Lladó, “en Telefónica trabajamos para convertirnos cada día en una empresa más accesible y así contribuir a la igualdad de oportunidades para todos. Y aunque queda mucho camino por recorrer: las nuevas tecnologías inclusivas y la revolución digital son nuestros mejores aliados para lograrlo”.

Un grupo de usuarios sordociegos, pertenecientes a FASOCIDE, han sido los encargados de probar este software pionero en España y en Estados Unidos con unos resultados muy satisfactorios. Así, todas las personas que lo han probado destacan la ventaja que significa poder acceder a información antes vedada para ellas en tiempo real y sin intermediarios, y además han elogiado las capacidades de envío a líneas braille y la posibilidad de modificar la velocidad de lectura y visualización.

Dado el éxito de estas pruebas, la tecnología ya está disponible en todos los canales nacionales de la TDT nacionales, autonómicos de Madrid y en breve en el resto de comunidades autónomas. El equipo investigador pone a partir de ahora esta tecnología al servicio de quien lo requiera de forma gratuita. Los interesados no tienen más que descargarse la APP GoAll, disponible en iOS y ANDROID.

Las personas sordociegas son aquellas que padecen un deterioro combinado de la vista y el oído, lo que les dificulta el acceso a la información, la comunicación y la movilidad, de tal forma que afecta gravemente las habilidades diarias necesarias para una vida mínimamente autónoma y por ello, requieren servicios especializados, personal específicamente formado para su atención y métodos especiales de comunicación.

En España, hay alrededor de 20.000 sordociegos, que necesitan para su contacto con el entorno la presencia constante de un guía-intérprete a través del cual tiene que pasar cualquier estímulo visual o auditivo. Sin embargo, a partir de ahora, y gracias a investigaciones como la de la UC3M, van a poder recibir de primera mano y de forma directa las emisiones de televisión en tiempo real y en igualdad de condiciones que el resto de la población. (Fuente: UC3M)Al Índice.

CIENCIA DE LOS MATERIALES - La naturaleza ofrece nuevas claves para fabricar ‘materiales a medida’

En 2004, André Geim y Konstantin Novoselov demostraron que era posible separar capas de grafito de espesor de un solo átomo y otros materiales bidimensionales con la única ayuda de cinta adhesiva. Desde entonces, la comunidad científica persigue la posibilidad de fabricar materiales ‘a medida’ mediante el apilamiento de distintos materiales ultradelgados, con el objetivo de desarrollar una nueva generación de tecnología flexible y transparente. Estos son los materiales que hoy se conocen como ‘heteroestructuras de van der Waals’.

Hasta la fecha, el procedimiento para fabricar heteroestructuras ha sido totalmente artesanal, lo que conlleva varias dificultades: controlar que las capas apiladas estén perfectamente alineadas (hasta el último átomo), o evitar que residuos atmosféricos queden atrapados durante el proceso de apilamiento, por ejemplo.

Ahora, investigadores de la Universidad Autónoma de Madrid (UAM) y el instituto IMDEA Nanociencia (España), en colaboración con el sincrotrón español ALBA y la Universidad Tecnológica de Delft (Países Bajos), han descubierto que la naturaleza fabrica mejores estructuras de van der Waals que los científicos en los laboratorios.

Concretamente, estos investigadores han encontrado que la franckeita, un mineral de la familia de las sulfosales conocido desde 1893, posee de manera natural una estructura similar a las heteroestructuras de van der Waals, con la ventaja de que el alineamiento es prácticamente perfecto y no hay residuos atrapados entre las capas.

“Una vez más confirmamos que la naturaleza va un paso por delante”, afirman los investigadores. Los resultados, publicados por Nature Communications en un artículo de acceso gratuito, marcan un hito en la investigación en materiales bidimensionales y abren la puerta a un nuevo campo de investigación: las heteroestructuras naturales.

Franckeita. Izquierda: mineral en volumen; centro: material hecho polvo; derecha: suspensión de franckeita en un disolvente. (Foto: UAM-IMDEA Nanociencia)

El trabajo también demuestra que es posible emplear procedimientos similares a los utilizados con el grafeno para aislar capas de pocos átomos de espesor, los cuales pueden ser utilizados para fabricar fotodetectores y celdas solares capaces de operar en el infrarrojo. Estos son dispositivos muy interesantes para el desarrollo de aplicaciones tecnológicas, como cámaras de visión nocturna o sensores para las telecomunicaciones.

Además, el trabajo demuestra que la franckeita se puede exfoliar químicamente, obteniendo suspensiones del material en disolvente que permiten fabricar láminas ultradelgadas a gran escala. “Estos métodos eran incompatibles con los procedimientos artesanales empleados hasta la fecha, que solamente permiten ensamblar heteroestructuras capa a capa”, afirman los autores.

“El haber aislado la franckeita como un material de unos pocos átomos de espesor supone un hito en la investigación en materiales bidimensionales, ya que, desde ahora, es posible obtener heteroestructuras de van der Waals de la propia naturaleza, evitando así su dificultosa síntesis”, agregan. (Fuente: UAM)Al Índice.

MEDICINA - Terapia con células madre para regeneración de discos intervertebrales

Es el “amortiguador” entre las vértebras de la columna, disminuyendo la carga ejercida con cada paso, torsión y salto: hablamos del disco intervertebral. Si el tejido de fibrocartílago en la columna se degenera con el paso del tiempo, los discos intervertebrales pueden “deslizarse”, pinzando la médula o nervios. Las consecuencias incluyen un dolor intenso o incluso la parálisis. No solo las personas, sino también los perros sufren a menudo esta enfermedad. Dado que los propios discos intervertebrales no pueden regenerarse, el material desplazado del disco afectado es retirado en una operación que puede realizarse tanto en personas como en animales. Con dicha operación, la presión sobre los nervios y la médula desaparece, pero continúa presente la inoperancia del disco.

Hay una gran esperanza depositada en la posibilidad de lograr una terapia con células madre capaz de solucionar este problema de la inoperancia. Las células madre son células multipotentes que pueden ser diferenciadas en varios tipos celulares.

Una terapia experimental con células madre que ha registrado éxitos prometedores recientemente es la ideada por el equipo de Frank Steffen, de la Universidad de Zúrich en Suiza.

Los investigadores de la Universidad de Zúrich han comprobado en perros pastores alemanes que estos animales pueden soportar sin problemas insalvables un tratamiento con células madre de su propio cuerpo. (Imagen: Vetsuisse Faculty, University of Zurich)

Steffen y sus colaboradores esperan que las células madre lleguen a formar nuevo cartílago del disco una vez inyectadas en el disco dañado. Por ahora, los experimentos con tres perros pastores alemanes aquejados de ese problema demuestran que un tratamiento con las propias células madre del cuerpo es bien tolerado, lo cual es un primer paso importante.

Las investigaciones sobre la regeneración de los discos intervertebrales se realizan frecuentemente usando ensayos con modelos animales. En la Clínica para la Cirugía de Pequeños Animales, adscrita a la universidad antedicha, los investigadores han tomado una vía distinta: dado que tratan numerosos perros que espontáneamente sufren una hernia de disco cada año, han conseguido obtener importante información directa de animales que están realmente afectados por la enfermedad. Debido a la similitud en patología y en recorrido de la enfermedad, se supone que podrán extraerse también conclusiones para el tratamiento de personas afectadas por ello.Al Índice.

FÍSICA - Observan por vez primera el movimiento de átomos en un escurridizo fenómeno de la física

El movimiento de átomos a través de un material puede causar problemas bajo ciertas circunstancias. La microscopía electrónica con resolución atómica ha permitido a unos investigadores observar por vez primera un fenómeno que ha eludido a los científicos expertos en materiales durante muchas décadas.

En ciertos contextos técnicos, es extremadamente importante que se mantengan los límites entre capas. Un ejemplo lo tenemos en la tecnología de las películas ultradelgadas, que se caracteriza por el uso de películas de varios materiales colocadas unas sobre las otras. El movimiento inducido térmicamente de los átomos a través de un material, la difusión, es algo bien conocido en física. Una clase especial de difusión a lo largo de defectos lineales en un material fue propuesta ya en la década de 1950, pero durante décadas no ha dejado de ser un concepto teórico y los investigadores nunca han conseguido observarla directamente. En su lugar, habitualmente se aplican modelos teóricos y métodos indirectos para medir ese fenómeno, conocido como difusión en tubo de dislocación.

Unos investigadores de la Universidad de Linköping en Suecia, y de la de California en Berkeley, Estados Unidos, han conseguido ahora finalmente observar la migración de átomos entre las capas de una película delgada. El equipo de Magnus Garbrecht (Universidad de Linköping) utilizó microscopía electrónica de barrido por transmisión, con una resolución tan alta que fue posible visualizar las posiciones de los átomos individuales en el material. La muestra que estudiaron fue una película delgada en la cual unas capas de un metal, el nitruro de hafnio, de alrededor de cinco milmillonésimas de metro de grosor, se alternan con capas de un semiconductor, nitruro de escandio.

Los investigadores de la Universidad de Linköping usaron microscopía electrónica de barrido por transmisión para estudiar la difusión en películas delgadas. (Foto: Karin Söderlund Leifler)

Las propiedades de las capas alternadas de esos dos materiales hacen de esta película un candidato adecuado para su uso en, por ejemplo, tecnología de recubrimiento y microelectrónica. Es muy importante, por razones de estabilidad, que las capas de metal y de semiconductor no se mezclen. Los problemas aparecen si los átomos experimentan difusión a través de una entrecapa que forme un puente cerrado entre las capas en la película, algo parecido a un cortocircuito eléctrico.Al Índice.

MEDICINA - La fase no sintomática de la infección por Chagas incrementa más del doble el riesgo de muerte

La enfermedad de Chagas afecta a millones de personas en América Central y del Sur y está considerada como una de las 17 enfermedades desatendidas más importantes por la Organización Mundial de la Salud (OMS). Un amplio equipo de investigadores brasileños y norteamericanos ha encontrado ahora que incluso la fase no sintomática de la infección, que puede perdurar durante muchos años, incrementaría el riesgo de muerte de una persona más del doble.

El trabajo, que se acaba de publicar en la revista ‘Plos Neglected Tropical Diseases’, también concluye que las muertes por enfermedad de Chagas probablemente han sido infra-reportadas en el pasado.

El Chagas es una enfermedad infecciosa causada por ‘Trypanosoma cruzi’. Este parásito es inoculado en el organismo humano ante la picadura de un insecto vector, que en la mayor parte de los casos es la vinchuca (‘Triatoma infestans’). Inicialmente puede causar hinchazón, fiebre o dolores de cabeza, pero los síntomas generalmente desaparecen después de algunos meses. De este modo, las personas infectadas pueden vivir décadas sin más signos de la enfermedad, tiempo en el que los médicos habían asumido que no aumentaba la mortalidad. Sin embargo, se conoce que años después los síntomas cardiacos, neurológicos y digestivos pueden reaparecer.

Tal y como describe a DiCYT Ester Sabino, de la Facultad de Medicina de la Universidad de São Paulo, el trabajo compara la mortalidad presente en 2.842 donantes de sangre con prueba positiva para la enfermedad de Chagas en el momento de la donación en relación con 5.684 donantes negativos entre 1996 y 2000. Teniendo en cuenta que los donantes de sangre son rutinariamente examinados para detectar síntomas de enfermedad de Chagas activa, se asumió que las muestras de sangre que daban positivo al parásito procedían de individuos en una fase indeterminada de la enfermedad.

Insecto vector de la enfermedad de Chagas (Triatoma). (Foto: Flickr user gauchocat, Flickr)

Estos registros fueron cruzados con los datos del sistema nacional de información sobre mortalidad de Brasil para determinar cuáles de estas personas habían fallecido posteriormente y, en caso afirmativo, por qué causa. Entre los que tuvieron una prueba positiva a Chagas, 159 (5,6%) murieron durante el estudio, mientras que sólo 103 (1,8%) de los que dieron negativo fallecieron.

“Los donantes positivos mueren 2,3 veces más, lo que representa más del doble del riesgo de muerte global”, precisa Sabino, quien además subraya que cuando sólo se analizaron las muertes debidas a Chagas o a anomalías cardiacas subyacentes, la diferencia fue aún mayor: las personas con la enfermedad tuvieron 17,9 veces más riesgo de muerte. Sin embargo, a menudo la infección por Chagas no figuraba como causa de muerte en los pacientes que habían resultado positivos para la enfermedad y que murieron de problemas cardíacos.

“El estudio puso de manifiesto que el 42% de los donantes seropositivos que fallecieron a consecuencia de problemas cardiacos no tenían descrita la infección por Chagas en su certificado de defunción, lo que significa que la mortalidad por esta enfermedad está subestimada en los datos oficiales de Brasil”, concluye la investigadora.

El trabajo subraya que los datos registrados reflejan la condición del Chagas como enfermedad tropical desatendida y que se necesita urgentemente investigación para probar nuevas opciones terapéuticas con menos efectos secundarios y encontrar mejores formas para estimar la progresión de la enfermedad. “Medir la mortalidad de forma precisa es un paso importante para entender el impacto de la enfermedad en la población”, agrega Sabino.

En el estudio han participado, concretamente, la Universidad de São Paulo, el Hospital Sirio Libanes, la Fundación Pró-Sangue, la Universidad Federal de Minas Gerais (Brasil) y el Blood Systems Research Institute (BSRI) de San Francisco (California, Estados Unidos). (Fuente: Cristina G. Pedraz/DICYT)Al Índice.

NEUROLOGÍA - Otra forma de estudiar el cerebro

Marcos Cuadrelli es alumno investigador. Hace 2 años, junto a un equipo de cinco investigadores conformado por cuatro profesionales (tres médicos y un biólogo) y dos estudiantes, iniciaron esta investigación que finalizaría con la presentación de un póster en el Congreso Internacional de Diagnóstico por Imágenes en Brasil y que forma parte del material que usará para realizar un atlas.

Marcos comenta que su pasión por la neuroanatomía fue heredada del profesor Leopoldo Luque, con quien comenzaron buscando líneas de investigación para presentar en la Facultad, siendo una de ellas la relacionada a la tractografía. Luego de iniciar la búsqueda de marco teórico, estudiando fuentes francesas y rusas, papers y journals de neurocirugía, Marcos había logrado avanzar en la propuesta de investigación: observó que no existía en toda la teoría reunida unión entre la tractografía y el conocimiento anatómico del cerebro. La investigación cubre el hueco bibliográfico existente a la hora de profundizar la formación de los estudiantes de medicina dentro del estudio por imágenes del cerebro, ampliando el conocimiento neuroanatómico en conjunto con su relación imagenológica, dentro del área de la tractografía DTi.

El alumno de Medicina podrá mejorar la manera en que estudia, a través de las imágenes tractográficas, las conexiones del encéfalo mostrando, mediante un software, la dirección de la difusión de moléculas de agua utilizando diferentes colores dependiendo el eje que atraviesa. Esta técnica muestra cómo se observan estas estructuras, tomando conciencia de lo que están viendo, no basándose en imágenes figurativas sino obteniendo conocimiento para poder realizar un diagnóstico certero.

(Foto: Argentina Investiga)

Asimismo, esta investigación es de utilidad para los médicos especialistas en diagnóstico por imágenes, dado que pueden unir la imagen que observan en el monitor con la realidad anatómica para lograr una profundización de los conocimientos.

La tractografía es una técnica operador dependiente, que se considera de vital importancia a la hora de realizar estudios en el sistema nervioso central humano, dado que muestra cómo es la conexión que existe en el cerebro y permite conocer una situación patológica. Al ser utilizada para diagnóstico y tratamiento de enfermedades neurodegenerativas, como el Alzheimer y epilepsia, el profesional accederá a otro tipo de interpretación, más especializada.

En definitiva, según Marcos, el cerebro tiene la última palabra siempre, por ello es importante para prevenir, diagnosticar y realizar el mejor tratamiento que se conozca en profundidad su anatomía. (Fuente: Argentina Investiga)Al Índice.

BIOLOGÍA - El ‘cóctel’ que activa nuestras defensas

La imagen inmediata que ofrecen nuestras defensas es la de un ejército: unas tropas sin claros capitanes ni generales, pero sí con células y señales en permanente lucha contra lo invisible. Y en medio de esa disputa surgen varias cuestiones sobre lo que le da la fuerza a esta milicia. Si la genética no lo es todo, ¿qué podemos hacer?

No es extraño hablar de la heredabilidad del cáncer, o de la predisposición genética y familiar a sufrir un infarto. Sin embargo, rara es la vez en que maldecimos o damos las gracias a los genes de nuestras defensas.

"Quizás porque es más difícil estudiarlos”, afirma a Sinc Moisés Labrador, especialista en inmunología y alergología en el Hospital Vall d´Hebron de Barcelona. Salvo en casos graves de inmunodeficiencias, es mucho más complicado y difuso definir un buen o mal sistema inmunitario que la presencia o ausencia de un tumor.

Pero los genes importan. Dos artículos muy similares y publicados simultáneamente en la revista Cell permitieron comparar la fuerza de las defensas y su genética entre dos grupos de poblaciones: una de descendencia europea y otra africana. Las conclusiones oscilan entre la lógica evolutiva y la sorpresa un tanto inesperada.

En uno de ellos, el equipo de Luis Barreiro, investigador en la Universidad de Montreal (Canadá), aisló macrófagos de la sangre de 95 europeos y 80 afroamericanos y los expuso a dos tipos de bacterias. Los macrófagos son una primera línea de defensa, es decir los encargados de captar y “comerse” a las bacterias. Su funcionamiento es una prueba de cómo funciona la llamada inmunidad innata.

Cuando analizaron su actividad se llevaron una primera sorpresa: pasadas 24 horas, los macrófagos de los africanos habían acabado con tres veces más bacterias de lo que habían conseguido los de los europeos.

Nuestro sistema inmunitario se parece a un ejército con células y señales en permanente lucha contra lo invisible. (Foto: Fotolia)

Para explicar esta diferencia, los científicos analizaron la secuencia del ADN y la expresión de los genes de las dos poblaciones, antes y después de la infección, y revelaron que la genética parecía explicar al menos el 30% de las diferencias en su actividad. Esto significa que la evolución reciente, la que tuvo lugar desde que los primeros africanos llegaron a Europa, ha modelado de forma paciente y sustancial la manera en que nuestro cuerpo se defiende.

Pero a los investigadores les asombró un dato más. Algunas de las variantes parecen no ser consecuencia directa del azar de las mutaciones y su selección, sino que provienen directamente de ADN neandertal, del cruzamiento sexual y genético que los europeos (y no los africanos) tuvimos con ellos hace entre 50.000 y 100.000 años. El el mismo encuentro del que nos legó un virus y un cáncer. Las variantes candidatas más potentes afectan a unos 16 genes, algunos de ellos de importancia conocida y fundamental.

“El sistema inmunitario de los afroamericanos responde de forma diferente, pero no podemos concluir que sea mejor”, sostiene a Sinc Barreiro. “Una respuesta inmunitaria potente también tiene efectos negativos, como una mayor susceptibilidad a enfermedades autoinmunes”, añade. De hecho, esa podría ser una explicación de por qué algunas de estas, como el lupus, son más frecuentes en los afroamericanos.

Aunque aún no puede ser demostrada, la hipótesis de Barreiro sobre la razón de los cambios es que cuando los primeros humanos modernos salieron de África se encontraron expuestos a menos microorganismos. Como las defensas no necesitaban ser tan potentes se adaptaron para suavizarse, y así disminuyeron los problemas derivados de una respuesta potente, como los de las enfermedades autoinmunes.

Para Lluis Quintana-Murci, director del Instituto Pasteur en París y jefe del grupo que ha publicado otro artículo similar en la revista Cell, “atenuar la respuesta immunitaria ha sido algo muy importante durante la evolución”. Se trata de buscar “el compromiso entre responder bien, pero sin exagerar”, recalca.

En vez de macrófagos, para el otro estudio se usaron monocitos, un tipo de célula similar de la que aquellos se derivan, que se expusieron a virus como los de la gripe, además de a componentes bacterianos. Los resultados, en esencia, fueron similares. Cientos de genes se expresaban de forma diferente entre europeos y africanos, y los cambios en la secuencia genética explicaban buena parte de esas diferencias.

Además, volvieron a encontrarse con que algunos de ellos provenían de los neandertales. “Es difícil saber si están en nosotros por selección natural o por deriva genética (y se mantienen sin ninguna función especial)”, asegura Quintana-Murci. Pero, por los números, algunos tienen muchos visos de haber sido seleccionados. “Nosotros nos fijamos especialmente en uno de ellos, el más evidente, que regula la respuesta a virus como los de la gripe”, completa el genetista.

Así, si nos centramos en diferentes poblaciones, nuestros sistemas inmunitarios parecen claramente diferentes. Dentro de una misma población, “hay estudios que indican la importancia de ciertas variantes”, –indica Moisés Labrador–, pero aún no se dispone de una huella genética, una firma que permita discernir la mayor o menor eficacia o precisión de nuestras defensas. Lo que sí se sabe es que eso también depende en parte del ambiente y un poco del azar.

Los macrófagos y monocitos participan en la inmunidad innata, esa con la que ya nacemos y que, de una manera un poco imprecisa, se dirige a dianas más o menos comunes en los microorganismos. Los anticuerpos son, sin embargo, uno de los distintivos de la inmunidad adquirida, que debe ser desarrollada y entrenada, y se dirige con mucha más precisión y eficacia a las características de cada patógeno particular.

Para ello, se dispone de un arsenal de más de cien millones de anticuerpos diferentes, cada uno específico para una molécula que encuentre en el exterior. Si van contra algo interior se destruyen en su mayoría en los primeros meses de vida. Son como una llave buscando su única cerradura. Pero los anticuerpos se fabrican a partir de los genes, y no tenemos tantos como para generar toda esa diversidad. Este descubrimiento le valió el Premio Nobel al japonés Susumu Tonegawa en 1987.

Básicamente es una mezcla de cortar, pegar, entrelazar y mutar fragmentos de ADN. Cada uno de los genes que componen los anticuerpos tiene diversas variantes, una a continuación de otra. Cuando se forma un anticuerpo se “escoge” una variante de cada gen, lo que multiplica las posibilidades. Además, una maquinaria se encarga de introducir mutaciones al azar, para así aumentar el abanico. La consecuencia es que cada uno de nosotros dispone de un amplísimo repertorio, con muchas combinaciones comunes, pero también con particularidades.

“Es indudable que hay una parte de azar”, asegura Labrador. “Esa es la manera en que la especie se protege. En general, todos disponemos de anticuerpos contra las enfermedades más frecuentes, pero hay diferencias individuales que permitirían a algunos sobrevivir si se produjera una epidemia nueva”, señala el especialista del Hospital Vall d´Hebron de Barcelona.

Además de la genética y el azar, el entorno también cuenta. “Nosotros investigamos la importancia de la genética en la immunidad, pero estamos ahora estudiando la de otros factores en nuestras respuestas immunitarias como la edad, el tipo de vida, la nutrición, etc.”, afirma Quintana-Murci.

Como ocurre con otras cosas, “la inmunidad funciona en una interacción de la genética con el entorno”, asegura Labrador. Existen algunas formas, aunque modestas, de mejorarla recurriendo a la nutrición, a los probióticos y a otros hábitos diarios.

“La vitamina C parece mejorar muy ligeramente el estado del sistema inmunitario, aunque no está completamente demostrado. Lo haría por ser antioxidante y porque ayuda a absorber nutrientes esenciales como el hierro”, subraya Moisés Labrador.

En realidad, “prácticamente ningún alimento aislado ha demostrado ser eficaz y debería recomendarse de forma general”, continúa Labrador. De hecho, una revisión de estudios encontró que la toma continuada no prevenía los resfriados, pero sí aliviaba ligeramente los síntomas y su duración.

“Lo que sí se ha demostrado más eficaz es seguir una dieta completa, como la mediterránea, con cantidades adecuadas de vitaminas, minerales, grasas adecuadas y proteínas de alto valor biológico”, asegura el inmunólogo.

En cuanto al uso de probióticos (bacterias téoricamente beneficiosas) para mejorar el sistema inmunitario, hay muchos estudios preliminares, aunque todavía ninguno en concreto ha sido aprobado oficialmente como medicamento. Hasta ahora, se venden como suplementos o complementos alimenticios, con algunas indicaciones más sólidas que otras.

Entre ellas, “la más clara para determinados probióticos es el tratamiento de la diarrea aguda, sobre todo la de origen vírico”, afirma a Sinc Francisco Guarner, jefe de sección de Aparato Digestivo en el Hospital Vall d’Hebron y presidente de la Sociedad Española de Probióticos y Prebióticos. “Lo que se ha visto sobre nuestras bacterias es que lo más beneficioso es tener diversidad”, sostiene Labrador, para quien, una vez más, esto se consigue en gran parte con una dieta sana, como la mediterránea.

Otros factores, como el sueño y el deporte, también parecen beneficiosos. “Nada es blanco o negro, estamos hablando de pequeños ajustes, pero tanto el ejercicio como el sueño profundo contribuyen a reducir el estrés y actúan como mecanismos antioxidantes, mejorando el estado general de la respuesta”, afirma Labrador.

A esto se añade la hipótesis de la higiene, una la teoría cada vez más probada de que ambientes demasiado asépticos entorpecen la educación de nuestras defensas. “Uno de los mejores consejos que creo que se puede dar para tener un buen sistema inmunitario es dejar que los niños sean niños”, dice Labrador.

Al permitir que jueguen y se ensucien en un entorno lo más natural posible consiguen ponerse en contacto con microorganismos con los que tradicionalmente los humanos nos hemos relacionado. “Básicamente, nuestro sistema inmunitario tiene tres tipos de respuestas. Cuando nacemos predomina la de tipo 2, pero necesitamos el contacto con el exterior para mitigarla y a la vez ampliar el abanico”. La de tipo 2 es precisamente la relacionada con las alergias, cada vez más frecuentes.

“Las respuestas en las que se basan las alergias son las que nos permitieron explorar y colonizar el mundo”, afirma Labrador, ya que se dirigen especialmente contra “picaduras de insectos, mordeduras de serpientes, tóxicos o parásitos”. De hecho, las reacciones alérgicas buscan la expulsión de todos ellos, ya sea mediante secreciones, estornudos, tos, y lagrimeo, entre otros. El problema viene cuando ya no son tan necesarias, y sobre todo se producen en respuesta a causas “equivocadas”.

“En el caso de las alergias conocemos variantes genéticas que predisponen”, afirma el especialista del Vall d’Hebron. Sin embargo, tampoco se dispone de un retrato genético preciso. Lo que sí parece claro es que su frecuencia ha ido aumentando en las últimas décadas, al menos en los países enriquecidos.

La causa parece estar de nuevo en la hipótesis de la higiene. La falta de contacto con los microorganismos que nos solían rodear deja a las defensas en “modo 2”, en un tipo de alerta particular y excesiva. ‘Educar’ a las defensas dejando que desde la infancia nos pongamos en contacto con microorganismos sigue siendo la mejor opción.

“Pero también pueden hacerse políticas de salud pública”, añade Labrador. La alergia a ciertos tipos de polen es una de las más extendidas, y la causa no es solo individual. “Los humos de los motores diésel están multiplicando la capacidad alergénica de los pólenes”, recalca el investigador. Según los expertos, aunque existen diversos factores, uno de ellos se explica porque en las plantas aumentan las proteínas de estrés, lo que los hace más agresivos. En definitiva, genética, azar y entorno forman un ‘cóctel’ único en cada persona donde todo es nuevo y viajo bajo el sol. (Fuente: SINC/Jesús Méndez)Al Índice.

MICROBIOLOGÍA - Identifican la red genética de virulencia en la bacteria de la brucelosis

La brucelosis, una patología del ganado y otros animales domésticos, también afecta a medio millón de personas por año en el mundo (incluyendo 10.000 argentinos). Ahora, un grupo de científicos descubrió la red genética de virulencia de la bacteria que causa la enfermedad, esto es, la sucesión de genes que se activan o se reprimen para favorecer la multiplicación del patógeno.

En el estudio, publicado en la revista Nucleic Acids Research, los científicos recrearon en el laboratorio las condiciones ambientales (acidez y nutrientes) que la bacteria de la brucelosis o Brucella encuentra en el interior de ciertas células inmunes cuando es fagocitada. Además, agregaron metabolitos específicos que favorecen la inducción de un factor de transcripción (VjbR) “encargado de activar los genes que requiere la bacteria para infectar a la célula hospedadora”, explicó el doctor Rodrigo Sieira, autor principal del estudio e investigador del Instituto de Investigaciones Bioquímicas de Buenos Aires (IIBBA), que depende del CONICET y de la Fundación Instituto Leloir.

En una etapa siguiente, los científicos usaron tecnologías de última generación (ChIP-seq y RNA-seq) para identificar cuáles de los 3.000 genes bacterianos están regulados por VjbR y se “encienden o apagan” para facilitar la infección. “Nos llevó mucho tiempo”, dijo Sieira, quien integra el Laboratorio de Microbiología Molecular y Celular del Leloir que dirige la doctora Ángeles Zorreguieta. Resultaron ser 71 genes, que, entre otras funciones, influyen o modulan la respiración, la resistencia al estrés y la “limpieza” de compuestos tóxicos. De esta manera, Brucella evade el sistema de defensa de la víctima y se multiplica.

Imagen microscópica de la bacteria de la brucelosis (color verde) reproduciéndose en el interior de un glóbulo blanco de ratón (color rojo). El estudio liderado en el Instituto Leloir sienta bases para el desarrollo futuro de terapias eficaces. (Foto: R. Siei)

Sieira subrayó que el avance representa “un primer paso en el estudio de la red regulatoria de virulencia de Brucella y abre nuevas líneas de investigación para estudiar el rol específico de los genes identificados que no aún no han sido explorados”. En tanto, Zorreguieta puntualizó que el hallazgo podría favorecer en el futuro el desarrollo de nuevos antibióticos y vacunas.

Del avance también participaron los doctores Gabriela Sycz y Hernán Bonomi, investigadores del Instituto Leloir y del CONICET. El análisis bioinformático de los datos se realizó en colaboración con la doctora Claudia Kleinman, de la Universidad McGill, en Montreal, Canadá.

El estudio fue posible gracias a la financiación otorgada por la Agencia Nacional de Promoción Científica y Tecnológica, y también a un programa de becas externas de CONICET. (Fuente: AGENCIA CYTA-INSTITUTO LELOIR/DICYT)Al Índice.

BIOQUÍMICA - Científicos aíslan una bacteria que produce plástico a base de metano

De las aguas turbias y contaminadas del Sistema de Estuarios de Santos, en la costa del estado de São Paulo, en Brasil, puede emerger una solución para producir, mediante un proceso sostenible, un polímero (un plástico) con un posible alto valor agregado.

Un grupo de científicos vinculados al Centro de Capacitación e Investigación en Medio Ambiente (Cepema) de la Universidad de São Paulo (USP) aisló en la referida zona del litoral sur paulista una bacteria capaz de producir un biopolímero, que es un polímero producido mediante un proceso biotecnológico.

Este descubrimiento se concretó durante la realización un proyecto que tiene lugar en el Centro de Investigaciones para la Innovación en Gas Natural (Research Centre for Gas Innovation, RCGI), que cuenta con el apoyo de la FAPESP y de Shell en el marco del Programa de Apoyo a la Investigación en Asociación para la Innovación Tecnológica (PITE).

“Aún no hemos caracterizado al polímero que esta bacteria produce, pero nuestros análisis indican que es muy distinto a los que figuran en la literatura científica”, declaró Elen Aquino Perpétuo, docente del Departamento de Ciencias del Mar de la Universidad Federal de São Paulo (Unifesp) y coordinadora del proyecto, a Agência FAPESP.

La investigadora y su colega Bruno Karolski, también investigador del Cepema-USP, y la doctoranda Letícia Cardoso, iniciaron hace alrededor de un año un proyecto que apunta a desarrollar procesos biotecnológicos mediante la utilización de microorganismos para la mitigación de metano (CH4) y dióxido de carbono (CO2), ampliamente presentes en el gas natural.

Científicos aíslan una bacteria que produce plástico a base de metano Un microorganismo hallado en el Sistema de Estuarios de Santos, en São Paulo, Brasil, produce un biopolímero que aún no se ha caracterizado (Imagen: RCGI)

Para llevar adelante la investigación, los científicos prospectaron bacterias denominadas metanotróficas, que tienen no solamente la capacidad de consumir sino también de transformar metano y metanol en polímeros como el polihidroxibutirato (PHB), perteneciente a la familia de los polihidroxialcanoatos (PHA), con características físicas y mecánicas similares a las de resinas sintéticas, tal como es el caso del polipropileno.

La producción del PHB, cuyo desarrollo contó con el apoyo de la FAPESP, está a cargo en Brasil de una industria nacional con sede en la localidad de Serrana, en el interior del estado de São Paulo, y se lleva a cabo mediante la utilización de azúcar de cañamiel, un sustrato que es un 30% más caro que el metanol.

“La idea de nuestra investigación es utilizar un sustrato más barato que el azúcar –en este caso, metano y metanol– para producir PHB y tornar factible comercialmente su producción a través de una ruta biológica”, explicó Aquino Perpétuo.

En el trabajo de bioprospección, durante el cual recolectaron muestras en tres puntos distintos del Sistema de Estuarios de Santos, los investigadores se depararon con dos bacterias que tienen esa capacidad de transformar el metano en biopolímeros.

La primera es la Methylobacterium extorquens –que es productora de PHB–, y la segunda es la Methylobacterium rhodesianum, que transforma el metano en el otro tipo de polímero que aún no se ha caracterizado.

“No existía ninguna información que apuntara que la Methylobacterium rhodesianum acumula un polímero”, afirmó Aquino Perpétuo Perpétuo.

Los investigadores también constataron que esas bacterias aisladas en sistemas naturales producen más polímeros que las cepas comerciales, cultivadas en laboratorio, tales como las de los géneros Methylobacter sp. y Methylocystis sp, con las cuales trabajaron durante la etapa inicial del proyecto para realizar las primeras pruebas y validar la metodología.

Sin controlar parámetros tales como la temperatura, el pH y la agitación, la Methylobacterium extorquens aislada en el ambiente marino acumula un 30% de su peso seco en polímero, por ejemplo.

“Esta diferencia en la producción de polímeros por parte de estas bacterias se debe a las presiones que sufren en los ambientes naturales, donde se encuentran expuestas a condiciones adversas de temperatura, salinidad y presión, y a mareas y contaminantes”, señaló Aquino Perpétuo. “Por eso deben ser más resistentes que las cepas cultivadas en laboratorio y también necesitan tener una mayor reserva energética para sobrevivir”, explicó.

De acuerdo con la investigadora, los microorganismos metanotróficos producen biopolímeros cuando existe una fuente de carbono en exceso y una limitación de algún nutriente.

En tales circunstancias, estas bacterias almacenan el carbono en gránulos de polímeros de polihidroxialcanoatos como reserva energética.

“Al principio se creía que esos gránulos de reserva eran lípidos [aceites]”, dijo Aquino Perpétuo. “Pero posteriormente se descubrió que, a decir verdad, éstos pertenecen al grupo de los polihidroxialcanoatos, y que pueden emplearse para producir polímeros de origen biológico y biodegradables, entre otras ventajas en comparación con los polímeros producidos por la vía petroquímica”, afirmó.

Toda vez que esos microorganismos necesitan metano como sustrato para producir biopolímeros, los investigadores seleccionaron lugares donde existe una mayor abundancia del gas para la bioprospección.

La primera elección recayó sobre la represa de la Central Hidroeléctrica de Balbina, en el estado de Amazonas, en el norte de Brasil. Y la segunda –seleccionada a efectos de comparación– fue el Sistema de Estuarios de Santos.

Sin embargo, las muestras recolectadas en el Sistema de Estuarios de Santos se mostraron más interesantes que las de Balbina, comentó Aquino Perpétuo.

“Como logramos aislar muchos microorganismos en Santos, empezamos a trabajar con ellos y postergamos el procesamiento de las muestras recolectadas en Balbina”, dijo. “Pero pretendemos reanudar durante las próximas semanas los análisis de las muestras de Balbina, que exhiben una grande diversidad de microorganismos”, afirmó.

Además de caracterizar al polímero producido por la Methylobacterium rhodesianum, los investigadores pretenden evaluar ahora si la bacteria es viable económicamente para producir un biopolímero.

Para que la ruta biológica sea factible económicamente, la bacteria debe ser capaz de acumular un 60% de su peso seco en polímero. Este cálculo se hace teniendo en cuenta la producción de PHB partiendo del azúcar, según explicó Aquino Perpétuo.

“Los que se espera ahora es evaluar si constituye un mejor negocio invertir en la producción de ese biopolímero, que aún no ha sido caracterizado, o en el aumento del rendimiento de la producción de PHB, que ya se conoce comercialmente y tiene un mercado afianzado”, dijo la investigadora. (Fuente: AGENCIA FAPESP/DICYT)Al Índice.

BIOLOGÍA - Revelan el mecanismo molecular de la activación de proteínas G por GIV, una proteína promotora de la metástasis

La escasez de información sobre los mecanismos de la metástasis ha dificultado el desarrollo de terapias efectivas antimetastásicas. La proteína de interacción con Gα asociada a vesículas (GIV) es una diana emergente en este ámbito, puesto que podría ser un regulador central de la metástasis. Su caracterización completa puede permitir abrir nuevos caminos para la intervención terapéutica.

Mediante una combinación de técnicas bioquímicas y estructurales, incluyendo resonancia magnética nuclear (RMN), un grupo de investigadores ha desvelado el mecanismo molecular detrás de la unión de GIV a una proteína G. Las proteínas G son componentes del sistema de comunicación que el cuerpo utiliza para detectar hormonas en el torrente sanguíneo y para enviar los mensajes correspondientes a las células.

Los resultados muestran que el modo de acción de GIV difiere del de las bien conocidas proteínas GPCR, ya que GIV se une a un sitio distinto de la proteína G. Gracias al uso combinado de métodos de RMN y de protocolos de modelado molecular, se ha obtenido información esencial sobre la interfaz entre ambas proteínas. De hecho, se ha observado que GIV se une a una cavidad sobre la superficie de la proteína G. Estos resultados sugieren un mecanismo de regulación alostérico, ya que los cambios conformacionales en una región de la proteína G se propagan a otra región distante.

Este trabajo ha sido el resultado de la estrecha colaboración del grupo de Mikel García-Marcos, de la Universidad de Boston, con el grupo de Francisco J Blanco de CIC bioGUNE, y se ha publicado en la revista Nature Communications.

La sinergia entre los dos grupos, así como la participación de investigadores del IRB Barcelona, la Universidad de Cornell y la Universidad de Glasgow, han hecho posible descubrir este nuevo mecanismo de actuación de un regulador de proteínas G. Los estudios multidisciplinares de este tipo son clave para caracterizar los complejos procesos biológicos de relevancia en la investigación biomédica del cáncer. (Fuente: CIC bioGUNE)Al Índice.

PALEONTOLOGÍA - Hallan restos prehumanos de 7,2 millones de años en los Balcanes

Los chimpancés actuales son los parientes vivos más cercanos de los seres humanos. Dónde vivió el último ancestro común entre ambos es un tema central y altamente debatido en paleoantropología. Los investigadores habían asumido que los linajes divergieron hace entre cinco y siete millones de años y que los primeros prehumanos se desarrollaron en África.

Sin embargo, dos estudios publicados hoy en PLoS ONE, indican que el linaje común de grandes simios y humanos se dividió varios cientos de miles de años antes de lo que se suponía hasta ahora. El equipo de científicos, encabezado por el profesor Madelaine Böhme, del Centro Senckenberg para la Evolución Humana y el Paleoambiente de la Universidad de Tubinga (Alemania), y el profesor Nikolai Spassov, de la Academia Búlgara de Ciencias, señala además que la división del linaje humano se produjo en el Mediterráneo oriental y no en África, como se había establecido hasta el momento.

El equipo analizó los dos especímenes conocidos del homínido fósil Graecopithecus freybergi: una mandíbula inferior de un yacimiento griego y un premolar superior de Bulgaria. Utilizando la tomografía computarizada, los científicos visualizaron las estructuras internas de los fósiles y demostraron que las raíces de los premolares estaban ampliamente fusionadas.

"Mientras que los grandes simios tienen dos o tres raíces separadas y divergentes, las raíces de Graecopithecus convergen y se funden parcialmente, una característica propia de los seres humanos modernos, de los tempranos y de varios prehumanos, incluidos Ardipithecus y Australopithecus", explica Böhme.

Mandíbula inferior de Graecopithecus freybergi, denominada 'El Graeco', de 7,175 millones de años hallada en Grecia. (Foto: Wolfgang Gerber, Universidad de Tübingen)

La mandíbula inferior, apodada 'El Graeco' por los científicos, tiene raíces dentales adicionales, lo que sugiere que la especie Graecopithecus freybergi podría pertenecer al linaje prehumano. "Estos resultados nos sorprendieron ya que solo eran conocidos en África subsahariana", añade Jochen Fuss, estudiante de doctorado en Tübingen, que realizó esta parte del estudio.

Además, Graecopithecus es varios cientos de miles de años más viejo que el más antiguo prehumano potencial de África, Sahelanthropus de Chad, que tiene una antigüedad de seis a siete millones de años.

El equipo de investigación dató la secuencia sedimentaria de los yacimientos fósiles de Graecopithecus en Grecia y Bulgaria con métodos físicos y obtuvo una edad casi sincrónica para ambos fósiles: 7,24 y 7,175 millones de años. "Es en el comienzo del Mesiniano, una edad que termina con la desecación completa del mar Mediterráneo", dice Böhme.

David Begun, paleoantropólogo de la Universidad de Toronto (Canadá) y coautor de este estudio apunta: "Esta datación nos permite trasladar la división entre humanos y chimpancés al área mediterránea".

Al igual que ocurría con la teoría de África oriental, la evolución de los prehumanos puede haber estado impulsada por dramáticos cambios ambientales.

El equipo dirigido por Böhme demostró que el desierto del Sahara del norte de África se originó hace más de siete millones de años, según los análisis geológicos de los sedimentos en los que se encontraron los dos fósiles. El análisis de los isótopos de uranio, torio y plomo en partículas de polvo individuales dio lugar a una edad de entre 0,6 y 3 mil millones de años por lo que deduce que su origen estaría en el norte de África.

Además, el sedimento polvoriento tiene un alto contenido de diferentes sales. "Estos datos documentan por primera vez el desierto del Sáhara hace 7,2 millones de años, cuyas tormentas del desierto transportaron polvo rojo salado a la costa norte del mar Mediterráneo en su forma", aseguran los investigadores de Tübingen.

Este proceso también es observable en la actualidad. Sin embargo, el modelo de los científicos muestra que, con hasta 250 gramos por metro cuadrado y año, la cantidad de polvo en el pasado supera considerablemente las cargas de polvo recientes en el sur de Europa, si se compara con la situación actual en la zona del Sahel en África.

Los investigadores demostraron además que, contemporáneo al desarrollo del Sáhara en el norte de África, se formó un bioma de sabana en Europa. Con una combinación de nuevas metodologías estudiaron fragmentos microscópicos de carbón vegetal y partículas de silicato de planta, llamadas fitolitos.

Muchos de estos fitolitos identificados derivan de las gramíneas y particularmente de aquellas que usan la vía metabólica de la fotosíntesis C4, que es común en los pastizales y sabanas tropicales actuales. La expansión global de las gramíneas C4 comenzó hace ocho millones de años en el subcontinente indio y su presencia en Europa era previamente desconocida.

"El registro de fitolitos proporciona evidencia de sequías severas, y el análisis de carbón vegetal indica incendios recurrentes", expone Böhme. "En resumen, reconstruimos una sabana que encaja con las jirafas, gacelas, antílopes y rinocerontes que se encontraron junto a Graecopithecus", agrega Spassov.

"La incipiente formación de un desierto en el África septentrional hace más de siete millones de años y la expansión de las sabanas en el sur de Europa pueden haber desempeñado un papel central en la división de los linajes humanos y chimpancés", continúa Böhme, quien llama a esta hipótesis la 'historia del lado norte', recordando la tesis del paleontrólogo francés Yves Coppens, conocida como East Side Story, según la cual el cambio climático en África oriental podría haber desempeñado un papel crucial en este episodio. (Fuente: SINC)

Al Índice.

MEDICINA - Lenguas electrónicas para detectar cáncer de próstata y de vejiga

Investigadores de la Universitat Politècnica de València y el IIS La Fe, integrados en la Unidad Mixta en Nanomedicina y Sensores impulsada por ambas instituciones, y el CIBER de Bioingeniería, Biomateriales y Nanomedicina (CIBER-BBN), en España, han desarrollado a escala de laboratorio un nuevo sistema de bajo coste para el diagnóstico no invasivo de cáncer de próstata y vejiga. Se trata de un equipo de lenguas electrónicas basada en electrodos metálicos, que permite detectar de forma rápida y sencilla esta patología a partir de una muestra de orina.

El equipo de la UPV y el IIS evaluó la eficacia de este sistema a partir del análisis de muestras de orina de pacientes antes y después de ser operados. Además, se recogieron muestras de pacientes con hiperplasia benigna de próstata, integrados en el grupo de no cáncer para el estudio de cáncer de próstata. Este sistema fue capaz de distinguir las muestras de orina no cancerosas de las sí afectadas con una sensibilidad del 91% y una especificidad del 73%.

La especificidad y la sensibilidad obtenida por la lengua electrónica en la orina es mayor en comparación con la prueba de PSA –antígeno prostático específico- en sangre, que es el procedimiento más utilizado para la detección del cáncer de próstata. “Los resultados obtenidos constatan la idoneidad de esta tecnología de lenguas electrónicas para la identificación de pacientes afectados por esta patología. Esta tecnología tiene un gran potencial para su aplicación en la práctica clínica, tanto para el diagnóstico como para el seguimiento de la evolución de los pacientes después de la terapia”, destaca Ramón Martínez Máñez, director del Instituto Interuniversitario de Investigación de Reconocimiento Molecular y Desarrollo Tecnológico y director científico del CIBER-BBN.

La medida de lengua electrónica sobre la orina se hace poniendo en contacto el sensor, en este caso compuesto por un conjunto de metales nobles y seminobles, con la muestra de orina del paciente. Está conectada a un potenciostato que aplica diferentes potenciales a los electrodos y a su vez, recoge las corrientes resultantes para ser analizadas en un ordenador dotado con un programa informático para análisis multivariante.

Lengua electrónica. (Foto: UPV)

“La lengua se "entrena" en una primera fase con un conjunto de muestras de pacientes y controles para generar un modelo que discrimine entre ambos tipos de muestras. Ese modelo, una vez validado, podría utilizarse para hacer predicción sobre nuevas muestras de orina y poder determinar si estos nuevos pacientes tienen o no la enfermedad con cierto margen de sensibilidad y especificidad”, apunta Ramón Martínez Máñez.

En su trabajo, los investigadores aplicaron también técnicas que dan información metabólica como son espectrometría de masas y resonancia magnética nuclear.

Además, en el caso concreto del cáncer de próstata, el doctor José Luis Ruiz Cerdá, responsable de la Unidad Mixta de Investigación en Nanomedicina y Sensores en el IIS La Fe, y facultativo del Servicio de Urología del Hospital Universitari i Politècnic La Fe coordina un proyecto cuyo objetivo es detectar cáncer de próstata con perros adiestrados, mediante su olfato.

Hasta el momento se ha completado la fase de adiestramiento de los canes en la que se ha utilizado un número de muestras muy elevado de orinas procedentes de pacientes con cáncer y controles. Esa fase se ha realizado en el centro de biodetección de la Asociación Cáncer y Detección Olfativa Canina (CDOC). Una vez que el sistema olfatorio de los canes ha fijado la huella olorosa del cáncer de próstata y han conseguido discriminar entre pacientes con y sin cáncer, se ha pasado a una segunda fase en la se les ha entrenado para que generalicen la huella olorosa presentándoles muestras de orina de diferentes pacientes con cáncer de próstata.

El doctor Ruiz-Cerdá anuncia que ya ha finalizado la fase del ensayo doble ciego en la que se valora la capacidad diagnóstica de los canes. “Se han realizado 40 exámenes con 240 muestras de orina de las que únicamente 30 procedían de pacientes con cáncer de próstata, el resto procedían de pacientes con hiperplasia benigna de próstata. Aunque no disponemos de un análisis completo de los resultados, podemos adelantar que los valores de sensibilidad y especificidad están por encima del 90%. Estos datos deben confirmarse con otros canes adiestrados. Sin embargo, nos ha animado a pasar a la siguiente fase de estudio prospectivo para confirmar definitivamente la hipótesis del estudio (presencia de compuestos volátiles en orina específicos del cáncer de próstata). Posteriormente, analizaremos las muestras de orina con diversas plataformas de análisis metabolómico (RMN, espectometria líquida y de gases) para identificar los compuestos específicos”, explica Ruiz Cerdá.

Además, los investigadores de la UPV y el IIS La Fe presentarán también otros logros alcanzados fruto del trabajo llevado a cabo en la Unidad Mixta en Nanomedicina y Sensores. Entre ellos, destaca el desarrollo de sensores –soportes nanoporosos funcionalizados con puertas moleculares- para la detección rápida y sensible de Candida Albicans, hongo que pueda provocar candidiasis; o nuevas técnicas para el diagnóstico y prevención del daño cerebral prenatal, mediante la detección en sangre materna de biomarcadores de desarrollo neuronal anómalo.

Existen otras líneas de investigación derivadas de los proyectos COBIOPHAD y ONCOMARKER. En el marco de COBIOPHAD, los investigadores de la UPV y La Fe trabajan en un innovador dispositivo de diagnóstico in vitro (IVD) para el diagnóstico de las alergias a antibióticos β-lactámicos. Se trata de un sistema biofotónico integrado basado en la tecnología de discos compactos. Mientras, el proyecto ONCOMARKER tiene por objeto el diseño y desarrollo de una plataforma de análisis de biomarcadores oncológicos para establecer el pronóstico y respuesta al tratamiento en el cáncer colorrectal avanzado o metastásico (CCRm). La plataforma comprende chips de análisis consumibles, un lector de dichos chips, y un kit de reactivos.

Otro de los proyectos destacados es NANO3D, cuyo objetivo es desarrollar un software que modelice los parámetros de una terapia de hipertermia virtual basada en nanopartículas metálicas (NPMs), aplicándola sobre un modelo tridimensional extraído mediante técnicas de imagen biomédica. Del estudio se deducirá: la concentración, dosis de NPMs, el número de puntos de inyección, la posición ideal para lograr un calentamiento lo más homogéneo posible, la intensidad de campo inducido y el tiempo de exposición. Todo ello aplicado a un tratamiento personalizado al paciente, tratando de minimizar el sobrecalentamiento de los tejidos sanos y maximizar el volumen de hipertermia en el tumor.

Por último, se está desarrollando un sistema de liberación controlada de fármacos para el tratamiento de la retinosis pigmentaria basado en la utilización de compuestos antioxidantes y anticuerpos.

Todos estos proyectos y líneas de investigación se presentarán en la VI Jornada de Cooperación UPV-La Fe, que se celebra este próximo miércoles, 24 de mayo, en el Hospital Universitari i Politècnic La Fe. (Fuente: UPV)Al Índice.

NANOTECNOLOGÍA - Nuevo paso para el control de la luz con aplicaciones en nanociencia

El Grupo de Investigación en Aplicaciones del Láser y Fotónica de la Universidad de Salamanca (ALF-USAL) (España) ha conseguido generar haces vectoriales de luz en el rango del ultravioleta lejano, en una colaboración internacional con la Universidad de Southampton (Reino Unido), la Escuela de Minas de Colorado (Estados Unidos), y la Universidad Autónoma de Barcelona. El artículo que explica este logro, publicado en la revista Optica, ha tenido un gran impacto en su campo, ya que abre las puertas a muchas aplicaciones en el campo de la nanociencia, por ejemplo, en microscopía y en nanomagnetismo.

En la actualidad, los expertos en fotónica controlan cualquier propiedad de la luz en la zona visible del espectro electromagnético. Además de modificar propiedades conocidas como la intensidad o la longitud de onda (color) de la luz, también son capaces de modificar propiedades no tan conocidas, como su polarización –la dirección en la que oscilan las ondas electromagnéticas que la componen- o su estructura espacial y temporal. “La tecnología actual nos permite construir láseres con las características que necesita prácticamente cualquier experimento”, explica a DiCYT Julio San Román. Manejar las propiedades de la luz visible o infrarroja es hoy en día sencillo, pero sigue siendo un reto en longitudes de onda más cortas, como el ultravioleta o los rayos X, donde la tecnología que se usa para el rango del visible no se puede aplicar.

Una propiedad de la luz que ha suscitado mucho interés durante los últimos años por su utilidad en microscopía, nanofabricación láser y nanomagnetismo es la distribución espacial de polarización de un haz de luz. Los haces de luz que tienen una polarización distinta en diferentes puntos del haz se conocen como haces vectoriales. Dentro de estos, los más conocidos son aquellos con polarización radial (cada punto del haz de luz tiene polarización en dirección radial con respecto al centro del haz) o azimutal (cada punto del haz de luz tiene polarización en dirección tangencial a la circunferencia concéntrica al haz que pasa por dicho punto). Los haces radiales permiten concentrar la luz en regiones muy pequeñas, mientras que los azimutales son ideales para crear campos magnéticos aislados.

El equipo liderado por los investigadores de Salamanca ha trasladado la generación de haces vectoriales al ultravioleta lejano, el rango que está cerca de los rayos X. Lo sorprendente del trabajo es el cambio de enfoque a la hora de generar estos haces: en vez de aplicar la tecnología usada en el rango visible e infrarrojo para controlar las propiedades de un haz estándar ultravioleta, han diseñado un mecanismo para generar directamente un haz ultravioleta con estas propiedades. Para ello han utilizado una técnica en la que llevan años trabajando con muy buenos resultados, conocida como generación de armónicos de orden elevado. Consiste en generar un haz infrarrojo intenso, pero que en interacción con los átomos de un gas se convierte en otro haz de mayor frecuencia (menor longitud de onda), alcanzando el rango del ultravioleta lejano y de los rayos X.

Generación de haces de rayos X con polarización radial y azimutal. (Imagen: Carlos Hernández García y Alex Turpin)

“Lo más interesante para nosotros es que algunas propiedades del haz infrarrojo se trasladan al ultravioleta, entre ellas, la distribución de polarización del haz”, señala Íñigo Sola. El trabajo experimental fue desarrollado por Carlos Hernández García e Íñigo Sola, investigadores de la Universidad de Salamanca, en el Centro de Láseres Pulsados (CLPU) de Salamanca, corroborando las simulaciones teóricas previas desarrolladas por el grupo ALF-USAL. Además, las simulaciones teóricas han desvelado que el nuevo haz vectorial se emite en forma de pulsos de attosegundo (la trillonésima parte de un segundo).

Para generar haces vectoriales infrarrojos, que mediante el proceso de generación de armónicos se trasladan al ultravioleta, los investigadores han utilizado un dispositivo desarrollado por sus colaboradores en la Universidad de Southampton (Reino Unido). Se trata de una máscara nanoestructurada de fabricación muy compleja que es capaz de modificar la distribución de polarización del haz infrarrojo. En definitiva, “hemos sido capaces de generar directamente un haz con estas propiedades en el rango ultravioleta, y es la primera vez que se consigue”, resume Carlos Hernández García, primer firmante del artículo. Además, “no vemos ningún límite fundamental para que esta tecnología se pueda extender a los rayos X”, añade.

Uno de los aspectos más destacados es la “capacidad de focalización” de este tipo de haces radiales de luz, es decir, “permiten concentrarlos mucho mejor en el espacio” y esto implica tener una gran resolución. Por lo tanto, su generación en el rango del ultravioleta e incluso rayos X, puede ser un avance importante para la microscopía, con la posibilidad de obtener imágenes en una escala extremadamente pequeña, del orden de los nanómetros, la millonésima parte de un milímetro. “Ya se obtienen imágenes experimentales con haces ultravioleta de un tamaño de cientos de nanómetros, pero con la polarización normal, así que nosotros pensamos que esto puede tener más aplicaciones”, apunta Julio San Román. Por otro lado, respecto a los haces azimutales, “ya hay investigadores que los utilizan en el infrarrojo, pero trasladados al ultravioleta, pueden servir para generar campos magnéticos a una escala mucho más pequeña”, señala.

Todo ello supone que la comunidad científica cuenta a partir de ahora con una nueva herramienta que puede ser de gran utilidad para el desarrollo de nanodispositivos y que además resulta bastante asequible. “Hay centenares de laboratorios en todo el mundo que tienen la capacidad para realizar este mismo experimento, por lo que estos nuevos haces vectoriales en el ultravioleta podrían llegar a convertirse, en pocos años, en una herramienta de gran utilidad”, comentan. En la actualidad, ya están analizando el campo magnético que se genera y las aplicaciones novedosas que puede tener. (Fuente: José Pichel Andrés/DICYT)

Al Índice.

BOTÁNICA - Las malas hierbas aprenden a defenderse del glifosato

Ya se conoce científicamente por qué uno de los herbicidas más usados en los campos de olivar y cítricos de España y, sobre todo, en la comunidad andaluza, apenas afecta a la especie Lolium rigidum, una de las malas hierbas más problemáticas para estos cultivos y que le roba el sueño a más de un agricultor.

Un equipo de investigadores de la Universidad de Córdoba, liderados por el catedrático de Química Agrícola y Edafología Rafael A. De Prado, ha conseguido descubrir que un biotipo de Lolium rigidum es resistente a un herbicida de gran uso en los cultivos, el glifosato. Esa resistencia se debe a que, al ser aplicado dicho herbicida sobre este tipo de mala hierba, el glifosato se absorbe y se mueve poco con respecto al biotipo susceptible.

Desde los años 90, se venía realizando un uso continuado de glisofato, ampliamente usado en campos de olivar y cítricos de toda la geografía española. Esta situación condujo a que este herbicida provocara una presión de selección sobre dos grandes tipos de malezas Lolium rigidum y Conyza spp. Como resultado de tal presión, la primera de estas malas hierbas, ha sido capaz de sobrevivir al tratamiento de glifosato a dosis que debería eliminarla.

Según se detalla en un artículo publicado recientemente en la revista Frontiers in Plant Science este equipo de científicos ha comprobado, mediante el uso de Carbono14  (14C) y un sistema denominado Fosforo Imager, cómo el glifosato apenas penetra y se mueve dentro de la planta, concluyendo que la no translocación del herbicida es en realidad un mecanismo de defensa de la propia planta. De Prado explica que para llegar a estos resultados realizaron prospecciones, principalmente en olivares de la provincia de Jaén y campos de cítricos en Córdoba, Sevilla y Huelva.

Imitando a los TAC de contraste que se hacen a diario en los hospitales, los investigadores de la UCO aplican sobre las muestras de Lolium rigidum la dosis de campo del herbicida glifosato mezclado con Carbono 14 (14C) y tras 96 horas se toma una imagen radiográfica de la planta donde comprueban que el glifosato no se transloca por determinadas partes de la mala hierba en cuestión.

Esta investigación de la que da cuenta Frontiers in Plant Science prueba que la resistencia de estas malas hierbas al glisofato no está asociada a acciones humanas ni a fenómenos climatológicos, sino que es algo intrínseco en la planta y responde al planteamiento darwiniano de la adaptación de las especies. El equipo se plantea ahora si este mismo mecanismo se repite en otras plantas y con otros herbicidas.

En este trabajo han participado los investigadores Pablo Fernández, Rafael Domínguez, y el técnico Rafael Roldán y han colaborado los profesores Francisco Barro y Fernando Bastida, del Instituto de Agricultura Sostenible del CSIC de Córdoba y de la Universidad de Huelva, respectivamente. (Fuente: UCO)Al Índice.

FÍSICA - Emisión térmica a distancias atómicas

La nanotecnología es la disciplina que estudia y analiza las propiedades que tiene la materia en la nanoescala. Algunas de estas propiedades están muy bien caracterizadas, como la conducción eléctrica en sistemas nanoscópicos (formados incluso por sólo unos pocos átomos). Sin embargo, aunque se conoce que el fenómeno tiene un origen electromagnético, todavía no se ha medido con exactitud la cantidad de calor que intercambian dos objetos cuando se acercan a distancias nanométricas.

Hasta hace poco, no era posible medir experimentalmente este fenómeno ni tampoco estudiarlo computacionalmente en geometrías complejas, ya que no existían las herramientas necesarias para hacerlo.

En los últimos años, distintos grupos han realizado los primeros estudios experimentales sobre la emisión de calor en este régimen, obteniendo resultados contradictorios. De hecho, algunos investigadores han medido una emisión térmica entre dos superficies de oro que es hasta mil veces mayor que la predicha por la teoría básica del electromagnetismo. Por tanto, dentro de la disciplina es fundamental llevar a cabo nuevos trabajos que solucionen esta discrepancia y mejoren la comprensión de este fenómeno.

Ahora, un equipo internacional, formado por físicos de la Universidad Autónoma de Madrid (UAM) (España) y la Universidad de Michigan (EE.UU.), ha llevado a cabo un estudio sobre la transferencia radiativa (electromagnética) de calor en la escala subnanométrica. Concretamente, han logrado medir la transferencia de calor entre una punta STM de oro y un sustrato del mismo material cuando la separación entre ambos era desde unos pocos Ångström hasta 5 nanómetros.

Diagrama de la punta de un microscopio térmico empleado para llevar a cabo las medidas del trabajo. (Foto: IFIMAC-UAM)

Los resultados, publicados en Nature Communications, muestran que, cuando se limpian sistemáticamente las superficies de oro, la emisión térmica pasa de ser extremadamente alta a tomar valores muy bajos, compatibles con los obtenidos mediante cálculos numéricos realizados en el marco de la teoría del electromagnetismo.

“El estudio sugiere por tanto que la transferencia extraordinaria encontrada en experimentos anteriores se debe a la presencia de contaminantes entre la punta y la muestra. Estas partículas podrían proporcionar un canal de conducción térmica que diera lugar a las señales tan altas medidas en trabajos anteriores”, señalan los investigadores.

Estas conclusiones son fundamentales para el desarrollo de nuevas técnicas capaces de medir la emisión térmica en escalas nanométricas. Además, el trabajo sienta las bases para el desarrollo de nuevas tecnologías basadas en la radiación térmica en la nanoescala, como el grabado magnético asistido por calor o la creación de células termo-fotovoltaicas que presenten mayor eficiencia.

Además de investigadores estadounidenses, el estudio lo firman los físicos Víctor Fernández-Hurtado, Johannes Feist, Francisco J. García-Vidal y Juan Carlos Cuevas, del Centro de Investigación de Física de la Materia Condensada (IFIMAC) de la UAM. (Fuente: UAM)

Al Índice.

BOTÁNICA - Científicos crean una variedad de frijol tolerante al cambio climático

Científicos de la Universidad de Costa Rica (UCR) y del Instituto Nacional de Innovación y Transferencia en Tecnología Agropecuaria (INTA) del Ministerio de Agricultura y Ganadería (MAG), trabajaron en forma conjunta durante cinco años para perfeccionar una variedad de frijol resistente a la sequía.

Junto con los científicos de la UCR y del INTA colaboraron estrechamente los productores del Centro Agrícola Cantonal de Los Chiles, en la Región Huetar Norte, así como de Concepción de Pilas, El Águila, Guagaral, Chánguena y Veracruz de Pejibaye de Pérez Zeledón, en la Región Brunca, entre otros.

Fue precisamente en este último lugar donde se realizó la liberación oficial de la nueva variedad a finales de diciembre del año pasado bajo la denominación en lengua chorotega “Nambí”, en honor al cacique Nambí, quien gobernó Nicoya.

La semilla original fue donada por el Centro Internacional de Agricultura Tropical (CIAT) con sede en Colombia, que realizó el cruzamiento con el apoyo de la Escuela Agrícola Panamericana El Zamorano, conocida también como Universidad Zamorano.

La variedad obtenida se caracteriza por ser tolerante a sequía terminal, lo cual es sumamente importante ya que la producción de frijol en particular se ha visto afectada por el cambio climático.

La semilla fue introducida a Costa Rica en el año 2011, como parte del esfuerzo denominado "Ensayo regional de líneas de frijol de grano negro tolerantes a los efectos del cambio climático con énfasis en la sequía y las altas temperaturas".

La variedad Nambí se puede cultivar en diferentes zonas frijoleras del territorio nacional, sin embargo funciona mejor en las regiones Huetar Norte y Brunca. (Foto: UCR)

Esta semilla se denominó como línea experimental de frijol SEN52 durante su fase de prueba para adaptarla al territorio y clima costarricenses mediante la metodología de fitomejoramiento participativo, en el cual los científicos colaboran estrechamente con las comunidades organizadas de productores de frijol.

Esta metodología Integra a los productores desde el inicio del proceso de aclimatación local de la variedad hasta su liberación, lo cual permite que el agricultor la conozca y se acostumbre a utilizarla antes de la liberación, incluso se le brinda la oportunidad de sugerir cuándo requiere que se libere el nuevo grano.

Los experimentos en el proceso de adaptación fueron coordinados conjuntamente por el Dr. Néstor Chaves Barrantes, investigador de la Estación Experimental Agrícola Fabio Baudrit Moreno (EEAFBM) de la UCR y Juan Carlos Hernández Fonseca del INTA.

El Dr. Chaves destacó la colaboración internacional, pues estas semillas son cruzadas originalmente por El Zamorano y el CIAT, quienes luego facilitan las poblaciones a distintos países del continente. Luego cada nación se encarga de adaptarlas a su territorio.

En el caso de Costa Rica dijo que “nosotros aquí las traemos, las zarandeamos un poquito y después las probamos en los campos de productores hasta llegar a las variedades.

“El Zamorano y el CIAT, trabajan tanto su propios proyectos de cruzamientos que después nos comparten, o bien nos hacen cruzamientos a nosotros a pedido por un interés particular, de donde han salido poblaciones de una variedad criolla que eso a ellos no les interesa ni para Honduras ni para Colombia. Pero sí es un interés muy particular de nosotros.

“En esos casos ellos hacen el cruzamiento, nos envían la población y nosotros seguimos aquí evaluando y descartando lo que no nos sirve hasta llegar a una variedad específica”, explicó el investigador.

En el caso de la variedad Nambí, dijo que esta fue probada en diferentes zonas frijoleras del territorio nacional y se puede cultivar prácticamente en todas ellas, sin embargo funciona mejor en las regiones Huetar Norte y Brunca.

Esta es la primera variedad de frijol de otras que se liberarán en el futuro como respuesta al efecto del cambio climático sobre la producción de este grano básico en la alimentación de los costarricenses, manifestó el investigador. (Fuente: UCR/DICYT)Al Índice.

INGENIERÍA - Un estudiante creó la primera parrilla descartable del mundo

Dicen que no existe nada más argentino que disfrutar de un asado con amigos, y desde ahora ese ritual es posible en cualquier lugar y de manera práctica, económica y ecológica. Emmanuel Scianca, un joven estudiante de la carrera de Diseño Industrial de la Facultad de Bellas Artes de la Universidad Nacional de La Plata (Argentina), creó “Tu Punto”, la primera parrilla portátil, descartable y biodegradable del mundo.

Tan práctica como resistente, la parrilla tiene el tamaño de una hoja oficio, está hecha de cartón corrugado y varillas de madera recicladas, y tiene una altura de 15 centímetros. Para facilitar su traslado, Tu Punto se vende desarmada, pero cuenta con un sencillo manual de instrucciones y dobleces troquelados que permiten tener listo el asador en pocos minutos.

La parrilla descartable no soporta las llamas directas. Fue diseñada para que se le coloquen debajo las brasas, una vez que el carbón ya fue encendido. Al respecto, Scianca explica que “el cartón se quema en contacto directo con el fuego, pero no con el calor de las brasas”.

Por su bajo costo y practicidad para el traslado, este novedoso y particular asador aparece como una opción ideal para las salidas de camping y actividades al aire libre. Según afirma su creador, “permite asar hasta 2 kilos de carne o cocinar seis hamburguesas a la vez, y puede ser utilizada hasta cuatro veces antes de descartarse”.

Según cuenta Emmanuel Scianca, la idea surgió en 2011 cuando, como estudiante de la carrera de Diseño Industrial de la Facultad de Bellas Artes de la UNLP, la cátedra B del Taller de Diseño Industrial propuso como trabajo práctico desarrollar una superficie para asar alimentos.

(Foto: Argentina Investiga)

Scianca explica que la primera idea fue “hacer un proyecto con materiales como hierro y metal, pero al darme cuenta que las personas también tienen que llevar el carbón pensé en hacer algo más liviano y fácil de transportar”.

Luego de varias pruebas el diseñador logró desarrollar una parrilla de cartón, que originalmente fue pensada como un pack que sirviera también de envase para el carbón; pero finalmente la idea evolucionó en un producto individual. Al momento de la evaluación el proyecto tuvo una gran recepción por parte de sus docentes.

En 2011 Scianca presentó su proyecto en el concurso Creer-Crear, de American Express, donde no sólo obtuvo el primer premio, sino que además recibió un aporte para inversión de 40 mil pesos. Fue así que logró producir una primera tanda de 3 mil unidades. Actualmente, y con el proyecto en pleno desarrollo, ya cuenta con dos socios en los que se apoya para resolver, sobretodo, las cuestiones comerciales.

La parrilla “Tu Punto” ya se vende en todo el país, con especial éxito entre los productos de camping. La expectativa está puesta en lograr exportar el producto y llegar a mercados internacionales, reconoce Scianca.

Lejos de conformarse, el joven diseñador asegura que el desarrollo de esta parrilla fue sólo el comienzo. Por eso ya planea, junto a sus socios, ampliar el abanico de productos, siempre respetando el concepto ecológico y sustentable del negocio.

En este sentido, adelantó que “ya tenemos muy avanzado el diseño para lanzar este año un mate descartable”. Además planea desarrollar productos de camping y una marca propia de carbón. El valor de la parrilla es de 60 pesos y ya llevan vendidos más de 6 mil kits Tu Punto en todo el país. (Fuente: Eduardo Spinola/Argentina Investiga)Al Índice.

ASTRONOMÍA - Primera imagen completa del anillo de hielo alrededor de la joven estrella Fomalhaut

Un equipo internacional de astrónomos usó el Atacama Large Millimeter/submillimeter Array (ALMA) para producir la primera imagen completa, en longitudes de onda milimétricas, del anillo de escombros que rodea la joven estrella Fomalhaut. Esta franja de escombros y gas extraordinariamente bien definida es probablemente el resultado de exocometas que chocaron unos con otros en los límites externos de un sistema planetario situado a 25 años luz de la Tierra. Estas observaciones permitieron establecer analogías con los cometas de nuestro propio Sistema Solar.

Las imágenes de Fomalhaut obtenidas anteriormente con ALMA —en 2012, cuando el telescopio aún se encontraba en construcción— mostraban aproximadamente la mitad del disco de escombros. Si bien se había obtenido en un ensayo de la capacidad inicial de ALMA, esta imagen ya había proporcionado indicios muy interesantes sobre la naturaleza y el posible origen del disco.

Las nuevas observaciones de ALMA aportaron ahora una asombrosa vista de la brillante franja de escombros en su totalidad, y revelaron similitudes químicas entre su contenido helado y los cometas de nuestro Sistema Solar.

“ALMA nos proporcionó esta imagen extraordinariamente nítida de un disco de escombros totalmente formado”, celebra Meredith MacGregor, astrónoma del Centro Harvard-Smithsonian de Astrofísica, en Cambridge (Massachusetts, EE. UU.), y autora principal de uno de dos artículos acogidos para publicación en The Astrophysical Journal donde se describen estas observaciones. “Por fin podemos ver la forma bien definida de este disco, que podría proporcionarnos bastante información sobre el sistema planetario donde se originó, y que es responsable por su aparencia tan característica”.

Imagen compuesta del sistema estelar Fomalhaut. (Crédito: ALMA (ESO / NAOJ / NRAO), M. MacGregor; NASA / ESA Hubble, P. Kalas; B. Saxton (NRAO / AUI / NSF)))

Fomalhaut es un sistema estelar relativamente cercano, y uno de unos 20 sistemas con planetas de los cuales se han obtenido imágenes directas. El sistema entera tiene aproximadamente 440 millones de años, o cerca de un décimo de la edad nuestro Sistema Solar.

Tal como se aprecia en la nueva imagen de ALMA, a unos 20.000 millones de kilómetros de la estrella se formó una brillante franja de polvo helado de aproximadamente 2.000 millones de kilómetros de extensión.

Los discos de escombros alrededor de las estrellas jóvenes son un fenómeno común, correspondientes a períodos dinámicos y caóticos de la historia de los sistemas solares. Los astrónomos creen que se forman durante las colisiones de cometas y otros planetesimales en las partes externas de sistemas solares jóvenes. Los escombros remanentes absorben la luz de la estrella central y reemiten esa energía en forma de un tenue brillo en longitudes de onda milimétricas que pueden ser observadas con ALMA.

Con los nuevos datos recabados por ALMA y un detallado modelo informático, los investigadores pudieron calcular con precisión el emplazamiento, el ancho y las características geométricas del disco. Estos parámetros confirmaron que un anillo tan angosto probablemente sea el resultado de la influencia gravitacional de los planetas del sistema, explica MacGregor.

Las nuevas observaciones de ALMA también son las primeras en mostrar claramente un brillo apocéntrico, un fenómeno predicho en 2016 en un artículo firmado por Margaret Pan, investigadora del Instituto de Tecnología de Massachusetts, de Cambridge, quien también es coautora de los nuevos artículos de ALMA. Al igual que cualquier objeto con órbita alargada, el material polvoriento del disco de Fomalhaut se desplaza más lentamente cuando se encuentra más lejos de la estrella. A medida que disminuye su velocidad, el polvo se acumula y forma densas concentraciones en las partes más distantes del disco. Estas densas áreas son detectadas por ALMA como emisiones milimétricas más brillantes.

Al usar los mismos datos de ALMA pero centrándose en claras señales milimétricas emitidas naturalmente por las moléculas del espacio, los investigadores también pudieron detectar grandes nubes de gas de monóxido de carbono precisamente en el mismo lugar que el disco de escombros.

“Estos datos nos permitieron determinar que la abundancia relativa de monóxido de carbono y de dióxido de carbono alrededor de Fomalhaut es más o menos la misma que la que se observa en los cometas de nuestro Sistema Solar”, explica Luca Matrà, investigador de la Universidad de Cambridge (Reino Unido) y autor principal del segundo artículo publicado por el equipo. “Esta similitud química permite establecer una analogía con las condiciones que propician la formación de cometas en las zonas externas de este sistema planetario y el nuestro”. Matrà y sus colegas creen que este gas es liberado durante constantes colisiones de cometas, o bien es el resultado de un único y gran impacto de supercometas cientos de veces más masivos que el Hale-Bopp.

La presencia de este disco de escombros bien definido alrededor de Fomalhaut, sumada a su composición química particularmente familiar, podría ser un indicio de que este sistema está experimentando su propia versión del Último Bombardeo Intenso, un período ocurrido hace aproximadamente 4.000 millones de años, cuando la Tierra y otros planetas recibían frecuentes embestidas de asteroides y cometas que sobraron del proceso de formación del Sistema Solar.

“Hace veinte años, los mejores telescopios milimétricos produjeron los primeros mapas borrosos de los granos de polvo que orbitaban alrededor de Fomalhaut. Ahora, con ALMA funcionando a plena capacidad, se obtuvo una imagen del anillo entero”, comenta Paul Kalas, astrónomo de la Universidad de California (Berkeley) e investigador principal de una de estas observaciones. “Esperamos detectar un día los planetas que ejercen influencia sobre las órbitas de estos granos”. (Fuente: OBSERVATORIO ALMA/DICYT)Al Índice.

ANTROPOLOGÍA - Ya aparecieron formas "humanas" de pensar hace 1,8 millones de años

Usando tecnología muy avanzada de visualización del cerebro para observar cómo humanos modernos elaboran herramientas primitivas, un equipo de investigación ha encontrado evidencias de que las formas de pensar humanas podrían haber surgido hace al menos 1,8 millones de años.

 

Los resultados, obtenidos por el equipo de Shelby S. Putt, de la Universidad de Indiana en Estados Unidos, sitúan la aparición de la cognición “humana” al mismo tiempo que la del Homo erectus, una especie primitiva de aspecto simiesco que se halló por primera vez en África y cuya evolución antecede a los neandertales en casi 600.000 años.

Se trata de un resultado notable, porque se piensa habitualmente que nuestras formas modernas de cognición aparecieron solo muy recientemente en términos de historia evolutiva humana. Pero lo ahora descubierto sugiere que la transición desde las formas simiescas de pensar y de comportarse hasta las humanas aconteció sorprendentemente pronto.

Las conclusiones del estudio se basan en la actividad cerebral de individuos modernos a quienes se enseñó a crear dos tipos de herramientas primitivas: las más simples (poco más que piedras con un borde recortado para que resulte afilado) y otras más complicadas y más hábilmente trabajadas, que se parecen a puntas de flecha grandes. Ambos tipos de herramientas se fabricaron golpeando piedras entre sí, pero difieren notablemente en el grado de sofisticación del diseño y, por tanto, en el nivel intelectual del fabricante y su tipo de inteligencia.

Shelby S. Putt. (Foto: University of Iowa)

Las herramientas del tipo sencillo aparecieron por primera vez hace unos 2,6 millones de años, y se hallan entre las más antiguas usadas por los antepasados de la humanidad. El uso de las del tipo sofisticado data de hace entre 1,8 millones de años y 100.000.

En el estudio, 15 voluntarios aprendieron a construir ambos tipos de herramientas.

Una vez adiestrados, fabricaron herramientas de uno y otro tipo. Los escaneos cerebrales a los cuales se les sometió mientras trabajaban han revelado que solo necesitaron atención visual y control motor para crear las herramientas más simples. En cambio, para fabricar las herramientas más complejas se movilizó una porción mucho más grande del cerebro, incluyendo regiones asociadas con la integración de información visual, auditiva y sensoriomotora, así como la guía de la memoria de trabajo visual y la planificación de acciones de orden superior.Al Índice.

CLIMATOLOGÍA - El aumento global del nivel del mar se acelera más de lo que se pensaba

En la actualidad, los altímetros a bordo de satélites monitorizan constantemente los niveles del mar en todos los océanos, pero antes de su lanzamiento en 1992, la información sobre el aumento del nivel global medio del mar provenía de una red de mareógrafos ubicados a lo largo de las costas.

"Estos instrumentos miden el nivel del mar relativo a su posición en lugares específicos de la costa y, por lo tanto, las medidas están contaminadas por el movimiento de tierras vertical de la corteza terrestre y por los patrones de variabilidad regionales que resultan de la redistribución del viento, de los cambios en la circulación de los océanos o por los efectos gravitacionales de la redistribución de masas de agua y hielo en la superficie del planeta", dice Sönke Dangendorf, autor principal del estudio que se publica en PNAS e investigador del Forschungsinstitut Wasser und Umwelt de la Universidad de Siegen (Alemania).

Según el investigador, hay un sesgo geográfico en su disponibilidad, especialmente en las primeras décadas del siglo XX. "Esto hace que sea muy complicado estimar una media global que no esté contaminada por las características locales de las regiones con mejor cobertura, y en consecuencia ha habido debates importantes sobre las tasas de incremento global del nivel de la mar prealtimétricos", subraya.

Las grandes discrepancias entre las anteriores reconstrucciones del nivel global medio del mar (1,3-2 mm/año para el siglo XX) tienen a los investigadores perplejos. "Las que muestran mayores tasas de aumento antes de 1990 son inconsistentes con las observaciones independientes y las estimaciones de las contribuciones individuales a partir de modelos climáticos, como por ejemplo la expansión térmica o la fusión del hielo de glaciares y de las capas polares", añade Sönke Dangendorf.

La reconstrucción de la evolución del nivel global del mar muestra un aumento más lento hasta 1993, momento en el que el incremento se acelera debido al calentamiento global. (Foto: Leny K Photograhy)

Por esta razón, el científico y sus colegas observaron más atentamente en su estudio los registros disponibles de los mareógrafos y la información auxiliar de los posibles factores de contaminación, y reconstruyeron la evolución del nivel global medio del mar desde 1902.

"Se seleccionaron solo los registros más largos y de más calidad, que son los que mejor cubren los océanos. A continuación, corregimos cada uno de estos registros del nivel del mar con respecto a todos los factores potenciales de contaminación, antes de hacer la media global. Esto minimiza el riesgo de traducir sesgos geográficos a la media global y añade todavía más confianza a nuestros resultados", explica Marta Marcos, investigadora en la Universidad de las Illes Balears y coautora del estudio.

La nueva reconstrucción muestra un aumento significativamente más lento del nivel global medio del mar antes de 1993, cuando empezaron las medidas de satélites, mientras que desde entonces coinciden con estas observaciones independientes de los satélites de 1993 a 2012. "El factor más sensible fue la corrección del movimiento de tierras vertical", explica Guy Wöppelmann, de la Universidad de La Rochelle (Francia).

"Mientras las anteriores reconstrucciones solo podían corregir un determinado proceso de movimiento de tierras vertical, el denominado ajuste isostático glacial, ahora ya somos capaces de añadir otros efectos locales", añade Wöppelmann. En la mayoría de las regiones, estas contribuciones han dado lugar, junto con algunos ajustes metodológicos, a una significativa corrección a la baja de las tasas de nivel relativo del mar antes de 1990 (1,1 mm/año).

Como resultado de esta corrección a la baja para el periodo anterior a 1990, toda la forma de la curva del nivel global medio del mar ha cambiado significativamente. Debido al carácter más plano al principio y a las altas tasas inalteradas durante las últimas dos o tres décadas, la aceleración del siglo XX se hace más pronunciada.

Una mayor aceleración demuestra una sensibilidad más grande del nivel del mar al calentamiento global, que ha aumentado debido a factores antropogénicos desde la década de 1970. "Esta aceleración ahora es más coherente con nuestra comprensión de los procesos individuales que contribuyen al aumento del nivel del mar que se observa. Durante el siglo XX, la fusión de los glaciares de montaña y la expansión térmica han dominado el desarrollo del nivel global medio del mar. Esto ha cambiado en las últimas décadas, cuando las capas polares de hielo empezaron a canalizar cada vez más masa de agua a los océanos", indica Dangedorf.

En la actualidad, las contribuciones de las capas de hielo de Groenlandia y la Antártida ya han superado la contribución de los glaciares de montaña. "Dado que las capas de hielo almacenan el equivalente a un incremento del nivel del mar cien veces superior que los glaciares, el aumento de su contribución amenaza muchas localidades costeras de todo el mundo", concluye el investigador. (Fuente: UIB)Al Índice.

MICROBIOLOGÍA - Una proteína "diseñada" por la naturaleza hace cuatro mil millones de años es eficaz hoy en día

En un experimento de validación del concepto, una proteína que apareció por vez primera en la naturaleza hace 4.000 millones de años y que ahora ha sido modificada para poder ser introducida en la bacteria moderna E. coli y funcionar en ella, protegió a esta de ser asaltada por un virus que la infecta. Si hablásemos de ordenadores, sería como si la E. coli se hubiera vuelto analógica de pronto, mientras que el virus solo supiera hackear dispositivos digitales. La primitiva proteína, una forma ancestral de la tiorredoxina, era lo bastante parecida a sus homólogas actuales como para poder funcionar en la E. coli, pero lo bastante diferente como para que el virus bacteriófago no pudiera usarla en su provecho. Los resultados del experimento podrían ser útiles en la bioingeniería vegetal.

El fenómeno refleja una carrera armamentística en la que compiten la bacteria y el virus. La tiorredoxina ha estado modificándose durante la evolución para evitar ser intervenida con éxito por el virus, y este último ha estado evolucionando para conseguirlo, tal como destaca José Sánchez Ruiz, de la Universidad de Granada en España y miembro del equipo de investigación.

Esta figura muestra dos posibles resultados de un intento vírico de infectar la célula. A la izquierda, el virus se une a la bacteria, le inyecta información genética y se detiene porque no puede reclutar las proteínas necesarias. A la derecha, el virus se une a la célula, inyecta la información genética, recluta las proteínas y empieza a copiarse, lo que resulta en el estallido de la célula y la liberación de más virus. (Imagen: José Sánchez Ruiz)

El laboratorio de Sánchez se especializa en la reconstrucción de secuencias genéticas antiguas que codifican para proteínas. Dado que las proteínas no se conservan durante miles de millones de años, los investigadores realizaron la mejor estimación posible sobre su composición basándose en datos genéticos procedentes de muchos taxones diferentes. La tiorredoxina, una proteína esencial y versátil que traslada electrones posibilitando reacciones químicas cruciales en la célula, es muy utilizada en el laboratorio porque ha estado presente desde casi el inicio de la vida en la Tierra y la poseen todos los organismos modernos. No podemos vivir sin ella, como tampoco la E. coli.

La tiorredoxina también resulta ser una de las proteínas de cuyo control los virus bacteriófagos deben apoderarse para sobrevivir y replicarse. Sin una tiorredoxina que pueda ser secuestrada, el virus se encuentra con un callejón sin salida. En una serie de experimentos liderados por Asunción Delgado, el equipo de investigación ensayó siete reconstrucciones de tiorredoxinas primigenias, con edades oscilando entre los 1.500 y los 4.000 millones de años, para ver si podían funcionar en la E. coli moderna.

Las tiorredoxinas de la vieja escuela pasaron la prueba con grados diversos de éxito. Delgado confiesa que eso sorprendió al equipo, ya que el organismo moderno es un entorno celular completamente diferente; las tiorredoxinas ancestrales tuvieron socios moleculares distintos, diferentes a todo lo actual. "Cuanto más atrás vayamos, menos funcionan en un organismo moderno. Pero incluso cuando nos acercamos al origen de la vida, aún muestran algún tipo de funcionalidad”.

Sin embargo, las tiorredoxinas ancestrales sí eran lo bastante diferentes como para que el virus bacteriófago moderno no pudiese reconocerlas o hacer uso de ellas.

Resucitar proteínas primitivas es mucho más que una mera curiosidad científica. Puede tener usos prácticos muy importantes. Los virólogos tienden a centrar su labor en combatir a los virus que infectan a los humanos, pero la humanidad también se beneficiaría del éxito en la protección de los cultivos agrícolas ante los ataques de virus que infectan a vegetales. Estos virus son y han sido culpables de la pérdida de cosechas, lo cual amenaza el sustento de la gente que depende de ellas y ha provocado grandes hambrunas. Delgado, Sánchez y sus colegas especulan con la posibilidad de que las proteínas primitivas puedan ser introducidas en vegetales agrícolas para conferirles protección contra virus que arruinan cosechas. Sin embargo, esta idea aún debe ser probada en los vegetales de interés.Al Índice.

MEDICINA - Un nuevo mecanismo inhibe efectos secundarios de la quimioterapia

El uso de algunos antitumorales, como la vincristina, produce una disminución de la motilidad gastrointestinal, alterando su correcto funcionamiento. Investigadores de la Universidad Rey Juan Carlos (URJC) han estudiado el papel de los receptores cannabinoides CB1 y CB2 en el desarrollo de dicha dismotilidad intestinal en los tratamientos contra el cáncer.

El resultado es un mecanismo que inhibe esta disfunción y que permitirá el desarrollo de nuevas terapias para tratar este problema.

El uso de algunos antitumorales, como la vincristina, produce una disminución de la motilidad gastrointestinal, alterando su correcto funcionamiento. (Foto: ingimage.com)

“Mediante técnicas radiográficas hemos confirmado el efecto de la vincristina en la motilidad gastrointestinal y a través de técnicas histológicas hemos observado el daño que el antitumoral ocasiona en la mucosa gastrointestinal”, explica Raquel Abalo, investigadora del área de Farmacología y Nutrición de la URJC.

“Para ver la implicación de los receptores cannabinoides CB1 y CB2 en la dismotilidad que produce la vincristina hemos utilizado los antagonistas selectivos de dichos receptores”, añade Abalo.

Los investigadores han observado cómo el bloqueo de receptores CB1 mejora la motilidad intestinal alterada por la vincristina. Los resultados se publican en Frontiers in Pharmacology.

“Mediante la utilización del antagonista del receptor cannabinoide CB1, el AM251, podemos afirmar que la inhibición de este tipo de receptor podría ser una herramienta terapéutica para prevenir los indeseados efectos secundarios que sobre el sistema digestivo tiene el tratamiento con vincristina”, afirma la experta. (Fuente: URJC)Al Índice.

INGENIERÍA - Un atrapamoscas artificial activado con luz

La sofisticación y complejidad de los sistemas biológicos es una fuente constante de inspiración para los científicos. Ahora investigadores de la Universidad Tecnológica de Tampere (Finlandia) se han fijado en la popular planta carnívora Dionaea muscipula (conocida como venus atrapamoscas) para desarrollar un atrapamoscas artificial, que en lugar de cerrarse por el contacto del insecto, se activa con un mecanismo de luz.

“Este dispositivo está formado por un elastómero (compuesto elástico) de cristal líquido sensible a la luz, colocado sobre la punta de una fibra óptica, que actúa como fuente de energía y como una sonda sin contacto que tantea el ambiente”, explican los autores en su estudio, que se publica esta semana en Nature Communications.

Cuando un objeto pasa por delante del campo de visión, la fibra óptica lo ilumina, y la luz reflejada induce la flexión del elastómero. El resultado es que el atrapamoscas artificial se cierra y captura al ‘intruso’ si pasa cerca. Después, cuando se desconecta la luz, se abre el mecanismo y sale el objeto, que puede tener formas diferentes y una masa cientos de veces mayor que la del dispositivo.

Esquema del atrapamoscas artificial. Cuando entra el ‘insecto’ o el objeto en el campo de visión, se refleja la luz (emitida desde el dispositivo) sobre el elastómero y se cierra, atrapando al objeto. (Foto: Arri Priimagi et al./ Nature Communications)

Los investigadores destacan que este atrapamoscas “se autorregula y puede reconocer de forma autónoma objetos diferentes”, por lo que se podría aplicar en la construcción de robots blandos a pequeña escala. Dentro del campo de la microrobótica inteligente, estas diminutas pinzas activadas con luz podrían ser ideales para manipular objetos pequeños y delicados.

Los robots blandos tienen un gran potencial para proporcionar contactos más seguros y amigables con el ser humano, pero hasta ahora su automatización suponía todo un desafío para los científicos.

Una de las maneras en que se abordaba este problema era emplear materiales que cambiaban su forma en respuesta a estímulos de luz, pero utilizando iluminación externa. Ahora el nuevo atrapamoscas artificial ya la lleva incorporada y simplifica el proceso. (Fuente: SINC)

Al Índice.

https://www.youtube.com/watch?v=rYxrVZysCG8

SOCIOLOGÍA - Nuevo sistema científico para evaluar los desequilibrios entre los barrios de una ciudad

Un equipo de investigadores de la Universidad Carlos III de Madrid (UC3M), en colaboración con el Ayuntamiento de Madrid, en España, ha desarrollado una herramienta que analiza las necesidades socioeconómicas de las áreas de la ciudad y establece un ranking de los barrios más vulnerables.

Para desarrollar este nuevo sistema, los investigadores han aplicado el proceso de análisis jerárquico (conocido por sus siglas en inglés como AHP, Analytic Hierarchy Process) al ámbito de la toma de decisiones públicas, en este caso, al reparto del  Fondo de Reequilibrio Territorial (FRT). “Esta estrategia innovadora en el ámbito de las políticas públicas ofrece considerables ventajas al decisor público, entre las que destaca la posibilidad de que, en la decisión final adoptada, se hayan tenido en cuenta gran diversidad de opiniones”, comentan los investigadores de la UC3M, que provienen tanto de las áreas de Ciencia Política como de la Ingeniería Informática. “La aplicación de esta metodología en un ámbito tan sensible hace que la decisión final de reparto de fondos sea vista como un resultado objetivo, dotado de legitimidad y validez”, señalan.

El modelo diseñado para el Ayuntamiento de Madrid permite elaborar un ranking final de barrios (y, por tanto, de distritos) en función de las necesidades identificadas en cada uno de ellos. Para ello, se han valorado distintos indicadores sociales y económicos de relevancia, como la tasa de empleo, tasa de dependencia, nivel educativo, esperanza de vida, estado de las infraestructuras, renta bruta per cápita, etc. “Si, gracias a la herramienta, identificamos que un barrio tiene una situación especial de vulnerabilidad o un desarrollo inferior al resto de la ciudad por cuestiones que tienen que ver con el desempleo o con la educación, aparecerá en los puestos altos del ranking y nos ofrecerá una línea de acción pública para corregir ese desequilibrio”, explica uno de los investigadores, Roberto Losada Maestre, del departamento de Ciencias Sociales de la UC3M.

(Foto: UC3M)

El proyecto de investigación, denominado “Diseño de nueva metodología de determinación del grado de desequilibrio de distritos y barrios y sus necesidades de reequilibrio y obtención de nuevo indicador sintético destinado a mejorar la dotación del Fondo de Reequilibrio Territorial”, ha permitido conocer cuáles son los barrios más desfavorecidos de la capital. Este índice de vulnerabilidad ordena los 128 barrios de mayor a menor por su necesidad de reequilibrio. En la parte alta de este ranking aparecen barrios como San Diego y Entrevías (Puente de Vallecas) o San Cristóbal y San Andrés (Villaverde), mientras que en el otro extremo figuran barrios como El Plantío y Valdemarín (Moncloa-Aravaca), El Viso y Nueva España (Chamartín), Recoletos (Salamanca) o Jerónimos (Retiro).

“Estos resultados confirman la percepción de que la mayor parte de los desequilibrios se concentran en la zona sur de Madrid, aunque gracias al nivel de detalle de la herramienta, hemos confirmado la existencia de barrios en situación de vulnerabilidad dentro de algunos distritos que están muy bien posicionados en los indicadores económicos”, indica otro de los investigadores, Rubén Sánchez Medero, del departamento de Ciencias Sociales de la UC3M. Por ejemplo, este es el caso del distrito de Salamanca, donde a pesar de tener una renta media superior a los 55.000 euros, hay barrios que necesitan intervención del FRT, como Guindalera. Algo similar a lo que ocurre con Adelfas, de Retiro.

Esta herramienta, además, ha permitido confirmar correlaciones halladas en investigaciones previas, como la que se establece entre “el nivel educativo y el paro, que determinan en buena medida la aparición de zonas vulnerables en las que, a su vez, se observan unos valores de desarrollo urbano sostenible más reducido”, según los investigadores.

El empleo de fondos de reequilibrio territorial en los entornos urbanos que experimentan un desarrollo desigual se ha convertido en una herramienta indispensable para corregir las desigualdades sociales, económicas y medioambientales, etc. La adjudicación de estos fondos es una tarea compleja que se enfrenta a un entorno dinámico y cambiante, en el que las necesidades evolucionan con rapidez y exigen la toma en consideración de un número cada vez mayor de indicadores.

La aplicación, por primera vez en Madrid, de este método que puede ser de utilidad para los responsables de la toma de decisiones abre una vía prometedora, al permitir una mayor participación de diversos actores en este proceso. “Hemos empleado una tecnología conocida en el ámbito empresarial, como el análisis jerárquico, y la hemos aplicado mediante Inteligencia Artificial a un entorno donde habitualmente no se suele utilizar: la toma de decisiones públicas. Gracias a ello, resulta posible fusionar las opiniones de multitud de personas, que no tienen que ser expertas en el reparto de presupuestos ni en indicadores de desarrollo”, explica José Manuel Molina, del Grupo de Inteligencia Artificial Aplicada de la UC3M. “En un futuro, podremos integrar las opiniones de millones de personas para adoptar una decisión lo más consensuada posible”. De hecho, el equipo de investigación tiene previsto ampliar la aplicación del modelo a los procesos participativos que incorporen a los actores objetivo (principalmente a los ciudadanos), de un modo ordenado que permita la implementación de modelos de gestión pública participativa. Se trata, en definitiva, de explorar los desarrollos potenciales en un área donde confluyen la Inteligencia Artificial y la Ciencia Política. (Fuente: UC3M)Al Índice.

https://www.youtube.com/watch?v=EAKff39Xk_w

BIOQUÍMICA - Una cocción más larga y añadir cebolla potencian los beneficios del sofrito

Un equipo científico ha comprobado por primera vez los efectos positivos de la sinergia entre los distintos ingredientes del sofrito de tomate y sus efectos en la producción de isómeros  –moléculas con la misma fórmula molecular pero con distintas propiedades– del licopeno, el carotenoide con mayor presencia en el tomate y sus derivados.

Según el trabajo, la cebolla es el ingrediente más significativo en la elaboración del sofrito casero, ya que potencia la formación de moléculas isómeras del licopeno. Además, combinar el uso de la cebolla con un tiempo de cocción adecuado está relacionado con una mayor producción de los isómeros de tipo cis (5-cis-licopeno, 9-cis-licopeno y 13-cis-licopeno), moléculas de alta biodisponibilidad y más beneficiosas por su potente acción antioxidante.

Tal como explica Rosa M.ª Lamuela Raventós, investigadora del Departamento de Nutrición, Ciencias de la Alimentación y Gastronomía de la Universidad de Barcelona y miembro del CIBERobn (España), "este es un estudio novedoso, porque casi no existen investigaciones científicas que aborden el tema de los efectos del cocinado en la salud".

El objetivo era evaluar cómo el procesado casero del sofrito de tomate y las sinergias entre los distintos ingredientes que se usan para elaborar esta salsa mediterránea, como el aceite de oliva virgen extra, la cebolla y el ajo, interactúan y aumentan la presencia de determinados carotenoides.

La cebolla es el ingrediente más significativo en la elaboración del sofrito casero, ya que potencia la formación de moléculas isómeras del licopeno. (Foto: Gabriel Flores Romero)

Para estudiar las sinergias entre los ingredientes, los investigadores utilizaron un diseño factorial completo que analizaba la contribución de cada uno al aumento de carotenoides en el sofrito y determinaba si era posible mejorar su presencia en relación con el tiempo de cocción y las sinergias de los componentes.

El análisis reveló la presencia de nueve tipos de carotenoides y sus isómeros, que registran el nivel más alto con la cebolla y con un cocinado de sesenta minutos, según el estudio liderado por Lamuela, que es directora del Instituto de Investigación en Nutrición y Seguridad Alimentaria de la Universidad de Barcelona.

La dieta mediterránea se muestra eficaz en la prevención primaria de enfermedades cardiovasculares, tal como ya revelaron las conclusiones del conocido estudio PREDIMED, un ensayo clínico multicéntrico llevado a cabo de 2003 a 2011 y en el que también participó Lamuela.

El sofrito casero de tomate, rico en carotenos que se asocian con la regulación lipídica y los biomarcadores inflamatorios, es una de las salsas más clásicas de la dieta mediterránea. Además, los polifenoles que contienen la cebolla y el ajo, que también forman parte de esta receta, presentan efectos beneficiosos frente a las enfermedades cardiovasculares, la hipertensión, la diabetes y ciertos tipos de cáncer.

Este estudio ha sido financiado por el Ministerio de Economía, Industria y Competitividad, la Generalitat de Cataluña y el Centro de Investigación Biomédica en Red de Fisiopatología de la Obesidad y la Nutrición (CIBERobn), una institución perteneciente al Instituto de Salud Carlos III y cofinanciada por el programa operativo del Fondo Europeo de Desarrollo Regional (FEDER) de la Unión Europea. (Fuente: Universidad de Barcelona)Al Índice.

SALUD - El consumo de chocolate se asocia con un menor riesgo de arritmias

El chocolate es uno de los principales enemigos de cualquier dieta debido a su alto contenido calórico. Sin embargo, son varios los estudios que asocian su consumo con efectos saludables tales como mantener el cerebro sano o la disminución del riesgo de sufrir cáncer de colon e ictus.

A esta lista se une ahora la fibrilación auricular, una dolencia cardiaca que afecta a más de 33 millones de personas en todo el mundo. Uno de cada cuatro adultos puede desarrollar esta afección durante el transcurso de su vida.

Un equipo internacional de científicos ha realizado un estudio en el que afirman haber encontrado una fuerte asociación entre el consumo de chocolate y  un menor riesgo de padecer este tipo de arritmia, uno de los más comunes.

Los investigadores apuntan que esa relación es mayor en mujeres que ingieren una ración a la semana, y de dos a seis porciones en ese mismo periodo en el caso de los hombres. El estudio se publica esta semana en la revista Heart.

El consumo de chocolate, especialmente el chocolate negro, se ha relacionado en otros estudios con varios indicadores de salud cardiaca. Los investigadores querían saber si también podía asociarse con una tasa menor de riesgo de sufrir fibrilación auricular.

Para realizar las pruebas se usaron los datos tomados a 55.500 personas (26.400 hombres y 29.100 mujeres aproximadamente) de edades comprendidas entre los 50 y los 64 años, que participaban en el proyecto Dieta, Cáncer y Salud del Centro de Investigación de la Sociedad Danesa contra el Cáncer.

Se trata de un estudio de cohorte realizado en Dinamarca que investigaba la asociación entre los hábitos alimentarios, el estilo de vida y el desarrollo de cáncer en individuos reclutados entre 1993 y 1997, que vivían en el área de Copenhague y Aarhus.

Los científicos encontraron una relación entre el consumo de chocolate y el riesgo de sufrir fibrilación auricular. (Foto: Pixabay)

Los sujetos aportaron información sobre su consumo semanal de chocolate, donde una porción equivalía a unos 30 gramos, aunque no especificaban el tipo que comían. El más común en Dinamarca es el chocolate con leche, que suele tener como mínimo un 30% de cacao.

Los datos sobre factores de riesgo que influyen a la hora de sufrir una enfermedad cardíaca, como la dieta y el estilo de vida –aproximadamente uno de cada tres sujetos eran fumadores– se obtuvieron al seleccionar a los participantes del estudio. Se controlaba su estado de salud usando el registro nacional de datos que recoge tanto los tratamientos hospitalarios como los fallecimientos.

El periodo de monitorización de los individuos duró una media de 13,5 años. Durante ese tiempo se diagnosticaron 3.346 nuevos casos de fibrilación auricular entre todos los participantes.

Tras tener en cuenta otros factores relacionados con enfermedades cardíacas, se estableció que el número de personas que con esta afección era un 10% menor en el grupo que consumía de una a tres porciones al mes en comparación con las que tomaban una sola ración durante el mismo periodo.

La diferencia también era llamativa en otros niveles de consumo. El riesgo era un 17% menor al tomar una ración diaria; un 20% menos comiendo de dos a seis porciones a la semana; y un 14% menos tomando una o más porciones al día.

También se encontraron diferencias al ordenar los datos según el sexo de los participantes. La incidencia de fibrilación auricular en mujeres era mucho menor que en hombres independientemente de la dieta, pero el vínculo entre un alto consumo de chocolate y un menor riesgo de sufrir esta arritmia se mantenía incluso después de eliminar el resto de factores estudiados.

En el caso de las mujeres, la asociación más fuerte, según el estudio era de un 21% menos de riesgo al consumir una ración semanal, mientras que para los hombres era del 23% tomando entre dos y seis raciones a la semana.

Los propios autores toman estos resultados con cautela y advierten de que este es un estudio observacional del que no se pueden sacar conclusiones de causa y efecto y que, además, cuenta con varios problemas añadidos.

Uno de ellos es que la leche incluida en determinados tipos de chocolate pueden reducir los compuestos de cacao que son los que se cree que pueden asociarse a efectos favorables para la salud cardiovascular.

Otro problema es que, en la mayoría de los casos, el chocolate se usa en productos altamente calóricos que contienen grasas y azúcar que precisamente no son saludables para la mantener un corazón sano. De hecho, la obesidad es un factor de riesgo asociado a las arritmias cardíacas.

Aun así, los investigadores apuntan: “A pesar de que la mayoría del chocolate consumido en nuestras muestras probablemente contenían concentraciones bajas de ingredientes potencialmente protectores, seguimos observado una asociación significantemente robusta en términos estadísticos”.

También en Heart, los doctores Sean Pokorney y Jonathan Piccini, del Centro para la Fibrilación Auricular de la Universidad de Duke, en Carolina del Norte (EE UU) publican un editorial en el que se pone la nota de precaución respecto al estudio danés.

Advierten en primer lugar que los consumidores de chocolate incluidos en el estudio llevaban una vida saludable y tenían una educación superior, factores normalmente asociados a un mejor estado de salud general, lo que podría haber influenciado los datos.

En segundo lugar, los autores del trabajo no fueron capaces de tener en cuenta otros factores de riesgo para la fibrilación, como las enfermedades renales o problemas respiratorios como las apneas del sueño.

Además, el estudio solo incluía los casos diagnosticados de fibrilación, haciendo más difícil determinar si el consumo de chocolate se asocia efectivamente a un riesgo menor de sufrir esta arritmia o solo a los síntomas obvios de la misma.

Por último, los niveles de cacao en el chocolate varían en distintas partes del mundo, así que los resultados podrían no poder aplicarse en países con niveles más bajos.

No obstante, Pokorney y Piccini creen que: “a pesar de las limitaciones del estudio danés, los resultados son interesantes y habría que tenerlos en cuenta dada la importancia de identificar estrategias de prevención para la fibrilación auricular”. (Fuente: SINC)Al Índice.

ENTOMOLOGÍA - Insectos en la escena del crimen

Científicos desarrollan un proyecto para la georreferenciación y generación de una base de datos de insectos de diversas regiones de México, con relevancia para investigaciones forenses y esclarecimiento de diferentes delitos.

“Nuestro trabajo consiste en tratar de ubicar cada especie de insecto que sea de importancia forense de acuerdo con la localidad o su distribución en el país. Todo esto es una base, solo un inicio realmente que va a apoyar mucho esta rama, ya que nos puede ayudar a decir, por ejemplo, si un cuerpo fue trasladado post mortem (después de la muerte), a fijar posibles rutas por donde pasó un vehículo e incluso para conocer procedencia de drogas de origen vegetal como la mariguana, etcétera”, explicó la doctora Carolina Núñez Vázquez, catedrática Conacyt y especialista en entomología forense.

La investigadora comentó que la entomología forense es un área que lleva algunos años tratándose de implementar en México; sin embargo, todavía falta mucho para que sea realmente aceptada y puesta en funcionamiento en el sistema penal; este tipo de investigaciones busca fortalecer su presencia en el país.

“Lo que estamos haciendo ahora es que, con la colaboración de diferentes instituciones e investigadores de diferentes ramas, estamos tratando de recolectar insectos por medio de trampas, así como con el apoyo de estudiantes que realizan sus tesis, los cuales generalmente efectúan investigaciones basándose en la descomposición de cadáveres de animales, en diferentes partes del país”, comentó la doctora Núñez Vázquez.

La científica agregó que cada investigador va recolectando insectos tomando en cuenta factores como la región geográfica, la época o estación del año y factores ambientales, entre otros, con la finalidad de ubicarlos e identificarlos para generar una base de datos que esté disponible para consulta de los profesionales que trabajan en el sistema judicial o de investigación, como los peritos.

La identificación taxonómica de insectos no es muy fácil, sobre todo cuando se trata de moscas o insectos de tamaño muy pequeño, por lo que investigadores que trabajan en el sistema de justicia, por ejemplo, en el Semefo (Servicio Médico Forense, actualmente: Instituto de Ciencias Forenses, Incifo), no tienen acceso a esta información, la cual es muy poca y/o restringida, ni tienen el tiempo ni los recursos para generar ellos mismos esta información.

Proyecto georreferenciación de insectos de importancia forense para México. (Foto: Conacyt)

“Nos estamos dando a la tarea de generarles esa información y que esté disponible para su consulta, con esta base de datos buscamos que nos pueda dar ubicación de cada especie de insecto, la temporada del año en que lo puedes encontrar y complementarlo con lo que son fotografías, claves taxonómicas apropiadas para la región e imágenes 3D que tengan buena calidad; porque hay características que en una foto simple no se distinguen, es necesario que ellos puedan reconocer a qué se refiere cada característica taxonómica para identificar correctamente al insecto”, puntualizó la catedrática Conacyt.

La especialista Núñez Vázquez enfatizó que, a pesar de las semejanzas que puede haber entre insectos, la entomología forense es muy rigurosa para lograr una identificación integral de la especie y colaborar con las investigaciones forenses y no desviarlas.

“Muchos dirán que una especie se parece a la otra, a nosotros no nos sirve decir que se parece o no, tenemos que determinar correctamente qué especie es y reconocer sus características para dar una validez científica, ya que dependiendo de la especie que sea, podemos dar un posible intervalo post mortem. Si nosotros equivocamos la especie, va a ser erróneo este cálculo y esta es una de las aplicaciones más importantes de la entomología forense”, destacó la investigadora.

Actualmente el proyecto presenta avances, un investigador desarrolla la plataforma que en un futuro estará disponible en Internet, además de que, a través de colaboraciones, han sido recolectados los primeros datos sobre este tema.

“Es un trabajo muy grande para tratar de abarcar todo el país, pero es lo que se busca. Ahora la mayor parte de la información se está generando en el sureste, abarcando parte de Yucatán, y Oaxaca; Saltillo en el norte del país y, próximamente, en Chiapas y Campeche, todos han sido con colaboraciones, uno solo no podría sacarlos”, indicó la científica.

La doctora Núñez Vázquez considera que para fortalecer la aplicación de la entomología forense hace falta, y se está buscando desde hace tiempo, la colaboración entre instituciones tanto gubernamentales como educativas, ya que normalmente se carece de tiempo y presupuesto. Los primeros resultados de esta investigación fueron presentados en febrero de 2017 en la Academia Americana de Ciencias Forenses.

“Seguiremos buscando colaboración para tratar de abarcar lo mejor posible el país, incluso otra de las finalidades de este proyecto es hacer mapas o trazados de rutas carreteras por medio de esta información, poder saber qué rutas podemos encontrar, qué tipos de insectos, y la colaboración es algo indispensable”, añadió la científica.

La investigadora hace la invitación abierta a todo aquel que esté interesado en colaborar con este proyecto, con trabajos en el tema de biodiversidad, enfocado en insectos carroñeros asociados a la descomposición de animales o incluso de seres humanos.

“Realmente es mucho el trabajo que hay que hacer, me gustaría que se ampliaran los trabajos de colaboración para poder seguir expandiendo el proyecto y, de todo esto, se derivarían otros trabajos, por ejemplo, la biodiversidad de este tipo de insectos en diferentes zonas de México. No es limitado nuestro trabajo, por lo que tenemos toda una vida y mucho más para seguir con esto y no vamos a acabar, ya que estará en constante actualización”, precisó la doctora. (Fuente: AGENCIA INFORMATIVA CONACYT/DICYT)Al Índice.

ASTROFÍSICA - Académicos participan en investigación que permite simular agujeros negros en un laboratorio

Dos investigadores del Departamento de Física (DFI) de la FCFM (Chile) establecieron una analogía entre el comportamiento de los agujeros negros y sistemas en la escala de un nanómetro (la millonésima parte de un milímetro), lo que podría utilizarse en la construcción de futuros dispositivos electrónicos como chips ultra pequeños.

La investigación se titula "Magnonic Black Holes" (Agujeros Negros Magnónicos) y fue desarrollada por Alejandro Roldán, post-doctorado del DFI y del Centro para el Desarrollo de la Nanociencia y Nanotecnología (CEDENNA), actualmente profesor de la Universidad de Aysén; Álvaro Núñez, académico del DFI; y Rembert Duine de la Universidad de Utrecht, Holanda.

El trabajo se basa en cálculos teóricos sobre la interacción del magnetismo con las corrientes eléctricas, “usando principalmente la imaginación de los tres autores”, como explicó Núñez, en un desarrollo que duró seis meses, donde estudiaron las propiedades cuánticas de la radiación emitida por los agujeros negros.

“Descubrimos que es posible construir sistemas sumamente pequeños (nanométricos) cuyo comportamiento es análogo al de los agujeros negros. La característica fundamental de un agujero negro es que su gravedad es tan grande que nada, ni siquiera la luz, puede escapar a su atracción. En nuestro sistema creamos un efecto análogo que impide que las excitaciones magnéticas escapen de una región, comportándose como la luz en la cercanía de un agujero negro. Esto nos lleva a la posibilidad de estudiar las propiedades de la naturaleza en condiciones extremas, como las que se predicen en la vecindad de una agujero negro, en un laboratorio”, agregó el físico.

Agujero negro supermasivo. (Imagen: UCHILE)

La idea consiste en crear excitaciones magnéticas (magnones) en un sistema sometido a corrientes eléctricas, logrando que se comporten de la misma manera que la luz en torno a un agujero negro. Este fenómeno, podría ser replicado en una nueva generación de dispositivos magneto-electrónicos.

Para los científicos, el gran aporte de este trabajo es tender un puente entre dos áreas de la ciencia hasta ahora disconexas: la de lo muy pequeño (nanotecnología) y la de lo muy grande (cosmología).

El siguiente paso en la investigación es lograr que, una vez implementado, este método pueda utilizarse en la construcción de piezas nanométricas para futuros dispositivos, lo que podría tener aplicaciones en el contexto de la informática.

Roldán explicó que “desde un punto de vista clásico, un agujero negro es una región del espacio en la que se concentra una cantidad de materia tan grande que nada puede escapar de ella, ni siquiera la luz. No obstante lo anterior, Stephen Hawking demostró que, debido a efectos cuánticos, los agujeros negros no son tan negros y en realidad se están evaporando”, lo que ha sido denominado como radiación de Hawking.

Estas radiaciones han sido un tema fundamental de investigación sobre los agujeros negros y han generado un debate en el mundo científico, ya que no han podido ser estudiadas experimentalmente. El aspecto fundamental de este trabajo es que ofrece un sistema experimental donde observar la radiación de Hawking. Este resultado permite poner a prueba las predicciones de Hawking y puede ser de gran ayuda para lograr una mejor comprensión de estos objetos astronómicos.

Por tanto, en este trabajo “hemos tomado la teoría de Hawking como una inspiración y la hemos aplicado a sistemas nanométricos”, explicó el investigador. “Hemos demostrado que es posible construir sistemas nanométricos cuyo comportamiento es análogo al de los agujeros negros, pero cuya radiación de Hawking es medible en un laboratorio”, concluyó el físico. (Fuente: UCHILE/DICYT)Al Índice.

DERECHOS DE AUTOR Todas las fotografías son propiedad de sus respectivos dueños. Todas las fotografías que aparecen en esta página Web son para uso no comercial. Las imágenes que se ven son enviadas por los autores de las respectivas notas y/o extraídas en su mayoría de Internet a los efectos meramente ilustrativos de las entradas como así otras que componen el entorno de la publicación. No se pretende violar ningún derecho de autor. Si alguna de ellas tiene derechos reservados como así algún texto, favor comunicarse y se procederá a su remoción. ------------------------------------------------------------------------------------------------- Nos colocamos bajo la protección del artículo 19 de la Declaración de Derechos Humanos, el cual estipula: “Todo individuo tiene derecho a la libertad de opinión y de expresión; este derecho incluye el de no ser molestado a causa de sus opiniones, el de investigar y recibir informaciones y opiniones, y el de difundirlas, sin limitación de fronteras, por cualquier medio de expresión”. Declaración Universal de los Derechos Humanos, adoptada por la Asamblea General de las Naciones Unidas el 10 de diciembre de 1948 en París