lunes, 30 de septiembre de 2013

RAC: Coche que funciona con el “poder” de la mente

RAC

¿Cansado? ¿Dolorido? ¿Distraído por alguna razón? ¿Crees que no son factores que te impidan conducir? Con este nuevo coche desarrollado por el RAC (Royal Automobile Club of Western Australia), deberás pensarlo dos veces, o incluso más. Básicamente, el coche requiere que el conductor utilice una especie de interfaz cerebral a través de la cual se registran sus niveles de concentración, y si no se encuentran en los niveles requeridos, el coche reduce la velocidad automáticamente.

Aunque estemos convencidos en nuestro interior de que podemos hacer más de una cosa a la vez, el mundo científico nos ha dicho en varias ocasiones que el cerebro humano no está diseñado para aplicar el concepto de “multitarea”. Obviamente, eso no impide que lo intentemos de todas maneras, incluso en situaciones potencialmente riesgosas, como conducir. Los accidentes viales causados porteléfonos móviles, GPS, y otras distracciones no son un invento de los medios. Sin embargo, el Royal Automobile Club reconoce que no todo es culpa de la tecnología. Los niños que gritan en el asiento trasero, las mascotas, la comida, la bebida, los anuncios publicitarios, otros coches y otros conductores también son factores causantes de inatención.

Al ser un punto tan crítico para la seguridad del conductor y los pasajeros, el RAC decidió desarrollar un coche que tenga a la atención como una de las condiciones esenciales para su funcionamiento. Cada vez que el conductor reduce sus niveles de atención sobre el camino ya sea atendiendo el móvil o mirando el GPS, el coche pierde velocidad. Esto requiere el uso del headset Emotiv EPOC(disponible comercialmente a un valor de 300 dólares en su sitio oficial) combinado con un algoritmo especial que mide hasta un máximo de cuarenta variables, y también se ha instalado un giróscopo en el headset que ayuda a determinar la posición de la cabeza del conductor.

El coche no es más que un prototipo por el momento, pero será puesto a prueba en las carreteras australianas próximamente. No sería una mala idea que el coche posea un modo más agresivo de detención en vez de bajar la velocidad cuando la falta de atención es muy grave (por ejemplo, quedarse dormido), y el hecho de usar el headset tal vez no sea algo muy atractivo para los conductores, pero no deja de ser una excelente línea de investigación. Neoteo

La ingeniosa mesa "flotante" hecha de cubos magnéticos

La ingeniosa mesa "flotante" hecha de cubos magnéticos

Hay pequeños objetos que cautivan por su originalidad y diseño. Este es uno de ellos. Se llama Float Table y es la idea de los ingenieros y diseñadores de Rock Paper Robot: una mesa hecha a base de cubos unidos por imanes y alambres que le dan flexibilidad y parecen hacerla flotar.

La idea de esta compañía es mezclar diseño, muebles e ingeniería para crear productos que nunca has visto. Y esta mesa flotante lo consigue. Está más bien pensada para decorar que para utilizar de forma funcional, aunque como mesa de café, por ejemplo, y con cuidado, puede servir. Lo que es inigualable es el efecto de flexibilidad que consigue, realmente hipnótico. Gizmodo


Premio de los NIH de EEUU para el neurobiólogo español Rafael Yuste

La agencia de investigación médica más importante de EEUU, los NIH, ha concedido al español Rafael Yuste (Madrid, 1963) su premio más relevante: el NIH Director’s Pionner Award.

 El actual catedrático de Ciencias Biológicas y Neurociencias en la Universidad de Columbia (Nueva York) empleará los 2,5 millones de dólares del galardón para descifrar los circuitos neuronales de la corteza visual del ratón con técnicas innovadoras, una vía para conocer mejor las enfermedades mentales y el propio pensamiento humano. 
Yuste, ideólogo del proyecto BAM o iniciativa BRAIN del gobierno de Obama, explica a SINC los detalles. (SINC)

Un grupo de físicos pone a prueba la criptografía cuántica para dispositivos móviles portátiles

Hasta ahora solo ha sido posible usar la criptografía cuántica entre lugares que cuenten con equipamiento apropiado, como por ejemplo laboratorios de óptica cuántica. Sin embargo, un grupo de físicos ha estado trabajando en un modo de poder usarla con dispositivos móviles de mano.

THE PHYSICS ARXIV BLOG 


La criptografía cuántica utiliza las leyes de la física para garantizar el secreto de los mensajes enviados desde un lugar a otro. Es una de las pocas tecnologías cuánticas lo suficientemente maduras como para dar el salto desde el laboratorio al mundo comercial.

Así que los Gobiernos y las organizaciones militares y comerciales (como por ejemplo los bancos) están interesados ​​en utilizar este tipo de secretismo perfecto. De hecho, en los últimos 10 años han surgido una serie de empresas para vender el servicio.

Un problema es que la criptografía cuántica únicamente es posible entre lugares que tengan el tipo de equipamiento que por lo general solo se encuentra en los laboratorios de óptica cuántica. Por lo general, requiere que tanto el transmisor y el receptor tengan una fuente de fotones individuales, una forma de controlar y modificar los fotones y detectores de fotones superconductores.

Es más, el equipamiento en cada extremo tiene que estar alineado cuidadosamente para que ambas partes sean capaces de detectar la polarización de los fotones que envían. Y si se produce algún ruido que cambie la polarización de los fotones, la criptografía simplemente deja de funcionar.
Eso descarta cualquier posibilidad de utilizar la criptografía cuántica con dispositivos de mano ya que, obviamente, son difíciles de alinear.

Jeremy O'Brien, desde la Universidad de Bristol y junto a algunos colegas, acaba de revelar una forma de resolver este problema que, según afirma, podría hacer que la criptografía cuántica pudiera usarse en máquinas portátiles.

Con la nueva técnica solo una de las partes, por ejemplo Alicia, tiene que poseer el engranaje de óptica cuántica, es decir, una fuente de fotones y todo lo demás. Alicia crea los fotones y luego los envía por una fibra óptica común a Roberto, que es quien está al otro lado.

Roberto solo tiene que modificar los fotones para codificarlos con información antes de enviarlos de nuevo a Alicia. Esto simplifica drásticamente las necesidades de equipamiento de Roberto, y permite encajarlo todo en un dispositivo de mano.

O'Brien y compañía también usan una forma robusta de distribución de claves cuánticas que no requiere que Alicia y Roberto alineen sus equipos antes de realizar una medición.
En su lugar, Alicia y Roberto hacen mediciones en direcciones al azar y luego publican la lista de direcciones para que cualquier pueda verla. Solo aquellas mediciones que hayan resultado estar alineadas contribuyen al código.

Mientras que la alineación entre Alicia y los dispositivos de Roberto cambie lentamente en comparación con la tasa a la cual los fotones van y vienen entre ellos, el mecanismo funciona bastante bien. O'Brien y compañía denominan la nueva técnica como rfiQKD (siglas de 'reference frame independent quantum key distribution').

O'Brien y sus colaboradores comparan la nueva técnica con un protocolo de criptografía cuántica convencional conocido como BB84. Cuando el equipo añade ruido deliberadamente para simular un cambio en la alineación, el protocolo BB84 inmediatamente deja de funcionar.

Por el contrario, el rfiQKD es mucho más robusto. Funciona cuando los niveles de ruido son altos e incluso cuando se sobrecarga, y comienza a funcionar de nuevo tan pronto como los niveles de ruido descienden, a diferencia del protocolo BB84. "Hemos demostrado la capacidad de recuperación automática y pasiva de nuestro sistema después de períodos de ruido rápido y sustancial que fuerzan un fallo de protocolo", señaló el equipo.

El resultado final es un sistema que tiene el potencial de llevar la criptografía cuántica a una gama mucho más amplia de aplicaciones de lo que ha sido posible hasta ahora, señalan O'Brien y sus colegas. "Los resultados amplían significativamente el potencial operativo del QKD fuera del laboratorio y abren el camino al uso de la seguridad cuántica mejorada para el público en general con dispositivos móviles portátiles".

Ref: arxiv.org/abs/1308.3436 : Reference Frame Independent Quantum Key Distribution Server With Telecom Tether For On-Chip Client

De qué es capaz el chip sensor de movimiento M7 de Apple

El chip sensor de movimiento permanentemente encendido de Apple señala el camino para una era de reconocimiento de gestos móviles e "inteligencia ambiental".
POR DAVID TALBOT TRADUCIDO POR LÍA MOYA (OPINNO)

Según Apple, el chip M7 procesador de movimiento que lleva el nuevo iPhone 5S será una ayuda para las aplicaciones de ejercicio. Pero según los investigadores, a largo plazo, el chip podría servir para hacer avanzar las aplicaciones de reconocimiento de gestos y formas sofisticadas de que tu smartphone se anticipe a tus necesidades o incluso a tu estado mental.

Aunque los teléfonos inteligentes tienen sensores de movimiento desde hace tiempo -acelerómetros para detectar la velocidad, giroscopios para detectar la orientación y brújulas-, estos se mantienen apagados cuando el teléfono está en reposo para evitar tener el procesador principal ocupado y agotar la batería. El M7, que opera por separado del procesador principal, agrega todos los datos de esos sensores y permite que se mantengan activos y se analicen todo el tiempo, incluso cuando el teléfono está en reposo.

"Creo que el nuevo procesador M7 puede ser algo grande", afirma Tanzeem Choudhury, profesora asociada de la Universidad de Cornell (EE.UU.). "Ahora las aplicaciones que usan sensores de movimientos podrán funcionar con mucha más eficiencia energética. Al añadir nuevos sensores en el futuro se podría hacer un seguimiento más completo no solo de la actividad física, sino de la emocional".

A un nivel muy sencillo, el usuario podría programar un gesto que sirviera de contraseña, un meneo u giro único del teléfono podría convertirse en la clave que desbloqueara la pantalla, una instrucción para llamar a casa o una señal de socorro. Ya hay algunos teléfonos, como el Moto X, que permiten a los usuarios llamar con una firma de movimiento concreta (ver "El Moto X de Motorola: una innovadora interfaz pero con curva de aprendizje").

Tener las firmas de movimiento siempre encendidas "permitiría reconocer la actividad actual y posiblemente la intención del usuario, basándose en patrones de gestos únicos, y cambiar lo que hace el teléfono en respuesta a esos patrones", afirma Pattie Maes, profesora del Media Lab del Instituto Tecnológico de Massachusetts (EE.UU.). "El usuario podría asociar gestos únicos con arrancar una aplicación o cambiar algunos ajustes".

Los gestos pueden ser herramientas muy potentes. En un proyecto de investigaciónreciente, investigadores de la Universidad de Rice (EE.UU.) y de Motorola estudiaron si el software sería capaz de detectar con precisión una serie de ocho gestos predefinidos -como dibujar un círculo en el aire o mover el teléfono para formar un cuadrado- sin importar quién lo hacía. Después de que ocho usuarios repitieran los gestos un total de 4.000 veces, los investigadores descubrieron que el software identificaba los movimientos con precisión el 98,6 por ciento de las veces.

Choudhury trabajó en un proyecto con smartphones dirigido a la promoción del bienestar mediante la detección de determinados comportamientos, como caminar, participar en una conversación o dormir. Sin embargo el proyecto se vio limitado por el hecho de que muchas veces los teléfonos de los usuarios estaban en reposo para evitar que los sensores agotaran la batería.

Ya han aparecido algunas aplicaciones relacionadas con el deporte que usan el M7, entre ellas aplicaciones de Nike y de Argus. Pero incluso sin aplicaciones especiales para los entusiastas del ejercicio y quienes se dedican a hacer un seguimiento de sus constantes vitales, un teléfono que detectara el movimiento constantemente podría seguir y analizar los niveles globales de actividad a lo largo de meses, algo para lo que en la actualidad hace falta un dispositivo adicional, como el Fitbit.

Dado que se rumorea que Apple está trabajando en un reloj inteligente, el iPhone 5S puede ser un banco de pruebas importante para un nuevo procesador diseñado para detectar el movimiento permanentemente. En un futuro reloj inteligente, la detección de movimiento podría ser una forma especialmente importante de interactuar con un dispositivo que casi siempre llevas puesto y tiene una pantalla diminuta, haciendo que la interacción táctil sea un desafío mayor. Y si un procesador futuro para reloj inteligente añadiera otros sensores capaces de detectar señales fisiológicas como el pulso y la conductividad de la piel, podría ser una potente tecnología para hacer un seguimiento de tu bienestar (ver "Un sensor para la muñeca te indica tu nivel de estrés").

La jugada de Apple creando el M7 es parecida a lo que hizo Motorola Mobility de Google con el Moto X. Eso incluye un chip de bajo consumo cuya única función es procesar los datos de un micrófono, lo que puede ayudar a establecer el contexto (ver "La era de los aparatos que todo lo escuchan").

Un micrófono siempre encendido puede hacer cosas como detectar si estás en un entorno ruidoso y responder haciendo que tu señal de llamada entrante sea más alta, por ejemplo. Choudhury ha demostrado nuevas formas de utilizar el hecho de que se puede detectar el estrés a través de cambios en el tono de voz o la velocidad a la que hablamos. Un micrófono siempre encendido en un smartphone, por ejemplo, podría ayudarte a identificar qué es lo que te estresa.

Estas pequeñas decisiones en el campo del hardware de Motorola Mobility y Apple podrían ser los primeros pasos para crear teléfonos más inteligentes y conscientes de lo que el usuario intenta hacer. "Apple y otras empresas de teléfonos pueden añadir más sensores a los coprocesadores, haciendo que las aplicaciones potenciales sean aún más diversas", afirma Choudhury.

Arsat-1: un futuro cercano para la conectividad argentina


Las pruebas del satélite de telecomunicaciones Arsat-1 en el Centro de Ensayos de Alta Tecnología-Ceatsa, inaugurado esta semana por la presidenta Cristina Fernández de Kirchner, acercan a Argentina a un futuro de conectividad en telefonía, internet y televisión en todo el territorio, afirmó el presidente de Arsat, Matías Bianchi.

Los satélites y el cableado de fibra óptica "son proyectos complementarios que tienden a disminuir la brecha digital, porque un incremento del 10% en la conectividad representa entre el 1,5 y el 3% de aumento del Producto Bruto Interno, según Naciones Unidas", afirmó Bianchi, en diálogo con Télam.

"Es una forma de generar conectividad y dar igualdad de posibilidades en aspectos que en la economía y la vida cotidiana se van haciendo cada vez más importantes para la sociedad", dijo.
Argentina es el séptimo país en el mundo en construir satélites de telecomunicaciones y el único en Latinoamérica, lo que demandó una inversión estatal de 6.500 millones de pesos.

En un acto realizado el viernes en la empresa rionegrina Invap, que construye los satélites argentinos, Cristina dio por iniciados los ensayos de Arsat-1, cuyo lanzamiento está previsto para el segundo trimestre de 2014, desde la base que una empresa francesa tiene en Guayana.

"Arsat-1 está equipado con una antena para Televisión Digital Terrestre, Internet y telefonía sobre IP, y en la misma órbita estacionaria tenemos un satélite alquilado del que irán migrando clientes" hacia la facilidad nacional, informó Bianchi, presidente desde hace seis meses de la empresa estatal de telecomunicaciones.

El Sistema Satelital Geoestacionario Argentino de Telecomunicaciones brindará servicios de conectividad en todo el territorio nacional, incluidas las Islas Malvinas y la Antártida, y países limítrofes.
La constelación de tres satélites proyectada -que se completará con la puesta en órbita de Arsat-2 en 2015 y Arsat-3 en 2017- llegará a cubrir Latinoamérica y trazará un haz sobre Estados Unidos.

"Hoy, el 80% del tráfico que se consume en internet se produce en el exterior; al tener esa infraestructura montada, Argentina incrementará además la porción de contenidos en la producción de televisión de habla hispana".
El sistema fue privatizado en los `90 y explotado por la alemana Nahuelsat que, por incumplimientos, estuvo a punto de hacer perder al país dos posiciones orbitales.

Fundada en 2006, Arsat fue creada por el expresidente Néstor Kirchner para impedir que Argentina perdiera las órbitas geoestacionarias 72° y 81° (grados) asignadas por la Unión Internacional de Telecomunicaciones, es responsable de la expansión de la red de fibra óptica y encargada de administrar el espectro radioeléctrico en poder del Estado.

Respecto a la extensión del cableado de fibra óptica, Bianchi refirió que “desde los `90 y hasta 2010, entre todas las operadoras se hicieron 10.000 kilómetros; en nuestra red, en dos años ya tenemos 20.000 kilómetros tendidos, de los 58.000 kilómetros que vamos a alcanzar en total”.

Arsat va a “empezar a poner los equipos y transportar información sobre las primeras trazas y la velocidad es la misma que la de la red telefónica”, contó.
Los efectos beneficiosos sobre el servicio al cliente serán una tendencia “hacia la baja de tarifa por la competitividad” y la homogeneización del precio en el territorio por la instalación en zonas alejadas.

También la “interconexión entre países limítrofes como Bolivia, Uruguay, Chile”, este último, interesado en dar seguridad a su red en caso de terremoto, usando parte de la red argentina.
“Entrar a la sala limpia de Invap, que se hizo en dos años, y ver el satélite `en vivo` es impactante y produce emoción, porque de las cuatro fases -diseño, construcción, ensayo y lanzamiento-, hoy Argentina puede cumplir tres”, contó respecto al recorrido por las instalaciones, en Bariloche.

“La pasión que se respira ahí es increíble, va más allá del trabajo de empresa”, observó Bianchi entre los hacedores de los complejos equipos industria nacional.

El personal “calculó la curva sostenida de inversión del Estado en tecnología espacial, dividiendo por quinquenio los kilos lanzados al espacio, y el resultado arrojó que en los anteriores representaban menos de mil kilos, y entre 2011 y 2016, serán unos 13.000”, concluyó. (Télam)

Abogan por utilizar paja para recuperar suelos afectados por incendios forestales

Los incendios constituyen una amenaza global para la conservación de los ecosistemas forestales
Investigadores españoles han demostrado que la paja reduce de forma significativa las pérdidas por erosión del suelo quemado y que es más eficaz que otras técnicas utilizadas como la siembra de herbáceas. La superficie arrasada por incendios de alta intensidad no se recupera de manera natural.

El Consejo Superior de Investigaciones Científicas (CSIC) aboga, amparándose en los resultados obtenidos en un proyecto de investigación de cuatro años realizado en Galicia, por emplear paja para proteger y regenerar suelos afectados por incendios forestales.

La investigación, que se realizó en el marco del proyecto “Evaluación de técnicas de protección de suelos y revegetación para restaurar ecosistemas forestales quemados”, estuvo financiada por el Ministerio de Economía y Competitividad (Plan Nacional). Contó con la colaboración del Grupo de Edafología de la Universidad de Santiago de Compostela (USC) y del Centro de Investigaciones Forestales de Lourizán (Xunta de Galicia).

“Los incendios constituyen una amenaza global para la conservación de los ecosistemas forestales. Entre sus daños figura la degradación de los suelos, con el consiguiente descenso de su fertilidad, la destrucción total o parcial de su materia orgánica y la modificación de su composición. Cuando hay un incendio el suelo queda desprotegido y para su recuperación es fundamental la regeneración de la cubierta vegetal pero, como puede tardar en producirse, suele ser necesario adoptar medidas que eviten su erosión”, explica Montserrat Díaz Raviña, del Instituto de Investigaciones Agrobiológicas de Galicia (IIAG) e investigadora principal del proyecto.

En la investigación, que comenzó en 2009 y concluyó recientemente, se evaluó la eficacia de dos de las principales medidas: la adición de paja y la siembra de herbáceas como gramíneas y leguminosas.

“Hay muy pocos estudios referentes al efecto de estas técnicas en las propiedades de los suelos y en los que se hayan abordado estos tratamientos. Por tanto, es necesario intensificar la investigación sobre la efectividad del control de la erosión y los impactos en el ecosistema de estas medidas, con el fin de integrarlas en la gestión sostenible de los montes quemados”, destaca Montserrat Díaz Raviña (IIAG-CSIC).

Acciones y principales resultados

La investigación se dividió en dos grandes bloques.Por una parte, se estudió en parcelas experimentales en Vilardevós (Ourense) la recuperación natural de suelos forestales afectados por incendios no controlados en zonas susceptibles de erosión y sin protección inmediata del suelo contra la erosión post-incendio.

“Tanto las propiedades como las funciones del suelo se alteraron notablemente tras el incendio, y estos cambios persistieron durante más de 1 año”, apunta Montserrat Díaz.

Los científicos, además, constataron a partir de este caso que con incendios de moderada y alta severidad y suelos susceptibles de erosión post-incendio es necesario adoptar tratamientos de estabilización del suelo, tales como la siembra de herbáceas y el acolchado con material de limpieza de montes o paja de cereales. Esta técnica contribuye a reducir el impacto del fuego y de las lluvias post-incendio.

Por otra parte, se estudió la eficacia de la aplicación de dos técnicas de protección y recuperación de suelos (la adición de paja y la siembra de herbáceas) en parcelas experimentales sometidas a quema controlada en A Estrada (Pontevedra) y a incendio no controlado en Laza (Ourense).

“Si bien las dos técnicas no tienen efectos negativos a corto plazo sobre la calidad del suelo, la cubierta del suelo con paja es el método a través del que se consiguió una mayor reducción de la erosión post-incendio”, dice Montserrat Díaz.

También se observó que la adopción inmediata de cubierta de paja en el suelo contribuye a retener los macro y micro-nutrientes de la capa de cenizas en el sistema suelo quemado-planta, acelerar la recuperación de la comunidad microbiana, restaurar el ciclo del nitrógeno y preparar el suelo para la subsiguiente implantación de especies forestales, acelerando la recuperación de los ecosistemas forestales.

Para llegar a estas conclusiones el equipo analizó los datos de la evolución (0, 3, 6 y 12 meses) de la cobertura vegetal y de las propiedades físicas, físico-químicas y químicas, bioquímicas y microbiológicas.
La metodología incluyó, además, el muestreo del suelo quemado y no quemado y el procesado y la caracterización de las muestras. El trabajo de laboratorio se realizó en las instalaciones del IIAG (Santiago de Compostela).

“Esperamos que estos resultados, que hemos publicado ya en revistas científicas de impacto, contribuyan en Galicia a reducir el impacto negativo que los incendios producen en los ecosistemas forestales, proteger el suelo quemado frente a la erosión post-incendio, prevenir los riesgos de inundaciones catastróficas post-incendio y adoptar medidas que promuevan tanto la regeneración de la vegetación como la rehabilitación del suelo”, concluyen los miembros del equipo del proyecto.

Patentan biomoléculas que facilitan la predicción de problemas cardiacos

Investigadores del Grupo Biología Molecular y Fisiopatologías Cardiacas de la Universidad de Jaén (UJA) / Fundación Descubre
Investigadores de de la Universidad de Jaén han llevado a cabo un estudio con el objetivo de reducir el número de personas afectadas por problemas cardiacos como síncopes o muerte súbita a través del control del funcionamiento de los canales iónicos del corazón. El equipo ha patentado dos biomoléculas (microRNA modificadas) capaces de controlar la subida o bajada de sodio, muy importante en la correcta contracción de las aurículas y los ventrículos.

Un grupo de investigadores del Grupo Biología Molecular y Fisiopatologías Cardiacas de la Universidad de Jaén (UJA) ha desarrollado un trabajo que tiene como finalidad reducir el número de personas afectadas por problemas cardiacos como síncopes o muerte súbita a través del control del funcionamiento de los canales iónicos del corazón. De hecho, estos canales son los encargados de regular el flujo de entrada y salida de iones como el sodio, el potasio o el calcio, señalan los autores.

Según Diego Franco, uno de los autores, este proceso cumple una función muy importante en la correcta contracción de las aurículas y los ventrículos, ya que si se produce una alteración en este tránsito, la contracción no se regula adecuadamente y tiene como resultado las conocidas arritmias cardiacas.

El equipo de trabajo ha obtenido recientemente la patenteMicroRNA útil para el tratamiento de canalopatías arritmogénicas donde han identificado la importancia del estudio de las diferentes estrategias terapéuticas capaces de modular la función del corazón adulto y se han centrado especialmente en el papel regulador de los microRNAs (moléculas reguladoras) dentro del canal de sodio.

“Los principales resultados asociados a esta investigación han derivado en el descubrimiento y patente de biomoléculas (microRNA modificados) capaces de controlar la subida o bajada de sodio y, por ende, de disponer de un alto potencial terapéutico”, indica Franco.

En primer lugar, los investigadores determinaron cuáles eran los microRNAs encargados de regular el funcionamiento de los factores asociados al canal de sodio mediante programas de predicción informáticos. Los ensayos preliminares en cultivos celulares demostraron que la mayoría de las moléculas estudiadas disminuían la actividad de este canal mientras que sólo uno la incrementaba, añade el investigador.

Por ello, decidimos centrarnos en aquel microRNA que aumentaba, así como en otro que observamos disminuía de forma drástica”, describe Franco. Y añade: “El siguiente paso fue introducir pequeñas modificaciones en estas biomoléculas, obteniendo como resultado una eficaz capacidad para controlar la subida o bajada de sodio tanto en células en cultivo como posteriormente en ratones”.

Aplicación terapéutica
Estas biomoléculas pueden ser importantes en síndromes arritmogénicos donde se produce una alteración en la actividad o función del canal de sodio. “Podrían servir para generar interés en las industrias farmacéuticas y tratar dos clases de arritmia altamente asociadas a este tipo de proceso, en concreto, las patologías conocidas como el Síndrome de Brugada y el QT largo, ambos relacionados con el síncope y la muerte súbita”.

Asimismo, este estudio ha permitido al equipo de trabajo abrir nuevas líneas de investigación con el objetivo de desarrollar estrategias semejantes en otras patologías cardiacas como la fibrilación auricular, un problema de salud muy frecuente y que, según la Revista Española de Cardiología, afecta a un diez por ciento de personas mayores de 80 años.

“En la actualidad nuestro interés está centrado en determinar mediante microRNAs los mecanismos que regulan uno de los diferentes factores asociados con la fibrilación auricular. De hecho, ya hemos determinado cuáles son los biomoléculas que modulan la expresión de estos factores y estamos en fase de realizar experimentos en animales”, concluye Franco. (SINC)

La medicina y los grandes volúmenes de datos

Joel Dudley investigador del hospital Mount Sinai
  habla sobre cómo la secuenciación del ADN
podría cambiar la atención sanitaria.
Varios expertos de Facebook y laboratorios de genética colaboran para ayudar a los médicos a hacer predicciones personalizadas sobre sus pacientes.
POR COURTNEY HUMPHRIES TRADUCIDO POR FRANCISCO REYES (OPINNO)

En la planta baja del nuevo y gigantesco edificio hospitalario y de investigación en Manhattan del Centro Médico Mount Sinai, varias filas de bastidores de metal negro vacíos esperan la llegada de procesadores y discos duros. Acogerán el nuevo cluster de computación del centro, que se añadirá al superordenador de 2,2 millones de euros que ya está en funcionamiento en el sótano de un edificio cercano.

La persona que dirige el diseño del nuevo ordenador es Jeff Hammerbacher, de 30 años y conocido por ser el primer científico de datos de Facebook. Hammerbacher está aplicando las mismas técnicas de cálculo de datos utilizadas para dirigir los anuncios en línea, pero en este caso se aplican en un motor de gran alcance que usará la información médica para ofrecer predicciones que podrían reducir el coste de los cuidados sanitarios.

Cada año se gastan 3 billones de dólares (2,2 billones de euros) en servicios de salud en EE.UU., así que este podría ser el mayor reto al que se han enfrentado los grandes volúmenes de datos, o big data, hasta ahora. "Nos vamos a concentrar en ello, porque creemos que puede ser valioso para los hospitales", señala Hammerbacher.

Mount Sinai tiene 1.406 camas y una escuela de medicina, y da tratamiento a medio millón de pacientes al año. Cada vez más, su gestión es parecida a la de un negocio dedicado a la información: ha creado un biobanco de muestras de ADN y plasma de 26.735 pacientes, este año ha terminado la instalación de un sistema de registros médicos electrónicos valorado en 120 millones de dólares (89 millones de euros), y ha hecho una fuerte inversión para reclutar a expertos informáticos como Hammerbacher.

Todo esto es parte de una "apuesta monstruosamente grande por la importancia de los datos", afirma Eric Schadt, biólogo computacional y director del Instituto Icahn de Biología Genómica y Multiescala en Mount Sinai, donde tiene su sede Hammerbacher, y que reclutó a la empresa de secuenciación de genes Pacific Biosciences hace dos años.

Mount Sinai espera que los datos le permitan lograr el éxito dentro un sistema de salud que está cambiando de forma radical. Resulta perverso, pero los hospitales tienden a ganar más cuanto más enfermen sus pacientes, ya que emiten facturas por cada procedimiento. No obstante, la reforma de salud iniciada en Washington está presionando a los hospitales para que sigan un nuevo modelo, denominado 'cuidado responsable', por el que reciben dinero por mantener a la gente sana.

Mount Sinai ya forma parte de un experimento que la agencia federal que supervisa Medicare (uno de los programas públicos de salud en EE.UU.) ha organizado para poner a prueba estas ideas económicas. El año pasado logró que se unieran 250 consultorios médicos, clínicas, hospitales y otros centros para acordar un seguimiento más detallado de los pacientes. Si las organizaciones médicas logran reducir los costes y obtener mejores resultados, reciben una porción de los ahorros. Si los costes suben, pueden enfrentarse a sanciones.

Los nuevos incentivos económicos, asegura Schadt, ayudan a explicar el hambre repentina que tiene el hospital por los datos, y los grandes gastos de contratación de 150 personas durante el último año solo en el instituto que dirige. "Lo que queremos es utilizar todos los recursos y datos para evaluar mejor a la población a la que estamos tratando", afirma.

Mount Sinai ya lo está haciendo mediante un modelo de computación en el que se utilizan factores como las enfermedades, las anteriores visitas al hospital, e incluso la raza, para predecir qué pacientes tienen mayores probabilidades de volver al hospital. Ese modelo, construido con datos de reclamaciones hospitalarias, indica a los médicos qué personas con enfermedades crónicas deben recibir más llamadas de seguimiento y ayuda adicional. En un estudio piloto, el programa redujo los reingresos a la mitad, y la puntuación de riesgo se está utilizando actualmente en todo el hospital.

Las nuevas instalaciones de computación de Hammerbacher están diseñadas para impulsar el descubrimiento de tales conocimientos. Se va a utilizar una versión de Hadoop, un software que distribuye los datos en varios ordenadores y es muy popular en varias industrias, como la del comercio electrónico, que generan grandes cantidades de información de rápido cambio.

En comparación los datos de los pacientes son escasos, y no muy dinámicos. Se añaden registros con poca frecuencia, y no se añade ninguno en absoluto si el paciente visita otro hospital. Eso supone una limitación, afirma Hammerbacher. Sin embargo, espera que la tecnología de big data se utilice para buscar conexiones entre, por ejemplo, las infecciones hospitalarias y el ADN de los microbios presentes en una UCI, o para hacer un seguimiento de los flujos de datos procedentes de pacientes que utilicen monitores en el hogar.

Una de las personas con las que va a estar trabajando es Joel Dudley, director de informática biomédica en la Facultad de Medicina de Mount Sinai. Dudley ha estado gestionando información recogida de pacientes con diabetes (como por ejemplo niveles de azúcar en la sangre, altura, peso y edad) a través de un algoritmo que la agrupa en una red de nodos. En aquellos 'puntos álgidos' donde los pacientes diabéticos muestran similitudes, trata de averiguar si comparten atributos genéticos. De ese modo la información del ADN podría usarse para las predicciones sobre los pacientes.

Uno de los objetivos de este trabajo, que todavía no está publicado, es reemplazar las directrices generales que los médicos a menudo usan para decidir cómo tratar a los diabéticos. En su lugar, unos nuevos modelos de riesgo basados en genómica, análisis de laboratorio, registros de facturación y datos demográficos, podrían hacer predicciones actualizadas sobre el paciente que el médico está viendo, de forma muy similar a cómo un anuncio web se adapta en función de quiénes somos y los sitios que hemos visitado recientemente.

Ahí es donde entra en juego el big data. En el futuro, cada paciente estará representado por lo que Dudley denomina como un "gran dossier de datos". Y antes de ser tratados, o incluso diagnosticados, el objetivo será "compararlos con todos los pacientes que hayan entrado anteriormente por la puerta del Mount Sinai", asegura. "[Entonces] podrás afirmar cuantitativamente cuál es el riesgo de esa persona en base a los otros pacientes que ya hemos visto".

domingo, 29 de septiembre de 2013

Conexión transcraneal para suministro eléctrico (cardíaco)


Un tercio de los pacientes con insuficiencia cardíaca que sobreviven con la asistencia de un dispositivo implantado en el corazón para ayudar a éste a bombear sangre, es decir una bomba cardíaca, desarrollan infecciones en el sitio del abdomen en donde el cable que le lleva corriente entra en la piel. Típicamente, estos dispositivos reciben energía de esta manera.

Un equipo de expertos de diversas disciplinas, incluyendo cardiólogos y cirujanos cardíacos del Centro del Corazón, adscrito a la Universidad de Maryland, en Baltimore, Estados Unidos, se ha ocupado de hacer un ensayo clínico que evalúa la eficacia de bombas cardíacas alimentadas eléctricamente a través de un conector que se sostiene en el cráneo, detrás de una oreja.

La conexión abdominal, propensa a la infección, limita además algunas actividades, tales como la natación o el tomar baños de inmersión, dado que el agua puede contribuir a la infección.
Las bombas cardiacas, llamadas dispositivos de asistencia ventricular izquierda (LVADs por sus siglas en inglés), ayudan a la cámara bombeadora principal del corazón, el ventrículo izquierdo. Los LVADs son implantados en el pecho y se les energiza mediante baterías externas.

La principal diferencia entre el diseño clásico y el transcraneal probado por el equipo del Dr. Bartley P. Griffith, de la Universidad de Maryland, está en el modo en que la alimentación brindada por el conjunto de pilas eléctricas especiales llega a cada bomba implantada en el pecho.
En el diseño clásico, el cable interno de alimentación eléctrica pasa a través de una abertura en la pared abdominal.

En el nuevo diseño, el cable se lleva por dentro a través de un minúsculo "túnel" que pasa por el cuello y llega a la cabeza. Allí, el cable interno se conecta a un enchufe especial instalado en el cráneo, detrás de una oreja, en la misma área utilizada para hacer pasar hacia dentro del cuerpo los cables de los electrodos en los implantes cocleares. En el exterior del cráneo, un cable a prueba de agua que proviene del conjunto de pilas eléctricas se conecta al enchufe especial. Fuente: NCYT

sábado, 28 de septiembre de 2013

La trayectoria de las partículas se puede variar cambiando la geometría del espacio

La trayectoria de las partículas se puede variar cambiando la geometría del espacio
Un equipo internacional de científicos, con participación de la Universidad de Sevilla, ha demostrado por primera vez que se puede controlar el espín o 'giro' de las partículas por medios geométricos. El avance, que aparece en la revista Nature Communications, se podría aplicar en el desarrollo de nanocircuitos.

La revista Nature Communications publica esta semana un estudio donde se demuestra por primera vez "la manipulación controlada e independiente de fases geométricas en electrónica cuántica de espines". El trabajo es fruto de una colaboración entre el profesor Diego Frustaglia de la Universidad de Sevilla e investigadores de las universidades de Tohoku (Japón) y Regensburg (Alemania).

El espín electrónico (momento magnético intrínseco) de una partícula responde a la presencia de campos magnéticos según dos configuraciones: dinámica (magnitud de los campos) y geométrica (dirección de los campos).

“Normalmente, las fases dinámicas y geométricas están acopladas, esto es, no puede modificarse una sin la otra”, explica Frustaglia, quien considera que con este trabajo se demuestra la “sorprendente” posibilidad de controlar las fases geométricas independientemente de las fases dinámicas gracias a una ingeniosa disposición de campos múltiples.

“Es como si en vez de cambiar la trayectoria de las partículas mediante la aplicación de una fuerza, modificáramos directamente las propiedades geométricas del espacio en que se mueven”, apunta el científico.

Aplicaciones para procesar la información
Esto resulta de interés tanto desde el punto de vista básico como aplicado, ya que las propiedades geométricas son más estables que las dinámicas. A lo largo del tiempo el espín adquiere una fase cuántica correspondiente en cada caso, dando lugar a fenómenos de interferencia que resultan fundamentales para el desarrollo de nuevas tecnologías cuánticas de la información, por lo que el estudio puede tener posibles aplicaciones en el desarrollo de nanocircuitos para el procesamiento de información.

La colaboración que ha permitido este trabajo ha constado de tres partes: un trabajo experimental realizado por el grupo japonés, un desarrollo teórico efectuado en Sevilla y simulaciones numéricas por ordenador generadas en Alemania.

“En 2010, el profesor japonés Nitta compartió conmigo unos resultados experimentales preliminares en busca de una interpretación. Durante los meses siguientes desarrollé una teoría que explicaba los experimentos y hacía nuevas predicciones, frente a lo cual se llevó a cabo una nueva serie de experimentos cuyos resultados respondían perfectamente a la teoría. A la vez, contactamos con el profesor alemán Richter para que realizara unas simulaciones numéricas independientes. Y el resultado ha sido excelente", destaca Frustaglia. Fuente: Vicerrectorado de Investigación de la Universidad de Sevilla

El primer ordenador de nanotubos de carbono

Esta imagen de microscopía electrónica de barrido
 muestra una sección del 1er ordenador de nanotubos de
carbono. La imagen ha sido coloreada para identificar
las diferentes partes del chip
Un procesador de ordenador hecho de nanotubos de carbono es comparable a un chip de la década de los 70, y podría ser el primer paso para ir más allá de la electrónica de silicio.
POR KATHERINE BOURZAC TRADUCIDO POR FRANCISCO REYES (OPINNO)

Por primera vez, un grupo de investigadores ha construido un ordenador cuyo procesador central está basado enteramente en nanotubos de carbono, una forma de carbono con notables propiedades electrónicas y de material. El ordenador es lento y simple, pero sus creadores, un grupo de ingenieros de la Universidad de Stanford (EE.UU.), aseguran que demuestra que la electrónica de nanotubos de carbono supone un potencial y viable reemplazo para el silicio cuando este alcance su límite en los circuitos electrónicos, que cada vez son más pequeños.

El procesador de nanotubos de carbono es comparable en capacidad al Intel 4004, el primer microprocesador de dicha compañía lanzado en 1971, afirma Subhasish Mitra, ingeniero eléctrico de Stanford y uno de los colíderes del proyecto. El ordenador, descrito en la revista Nature, ejecuta un sencillo conjunto de instrucciones de software llamado MIPS. Puede llevar a cabo diversas tareas (contar y clasificar números) y realizar un seguimiento de las mismas, además de recuperar datos de una memoria externa, y volverlos a escribir en ella.

El procesador de nanotubos se compone de 142 transistores, cada uno de los cuales contiene nanotubos de carbono de alrededor de 10 a 200 nanómetros de largo. El grupo de Stanford afirma que ha creado seis versiones de ordenadores de nanotubos de carbono, entre ellos uno que puede ser conectado a hardware externo, como un teclado numérico para introducir números a sumar.

Aaron Franklin, investigador del Centro de Investigación Watson de IBM en Yorktown Heights, Nueva York, señala que la comparación con los procesadores 4004 y otros parecidos de silicio resulta acertada. "Esta es una demostración excelente para aquellas personas en la comunidad electrónica que hayan dudado de los nanotubos de carbono", afirma.

El grupo de Franklin ha demostrado que los transistores de nanotubos de carbono individuales, de menos de 10 nanómetros, son más rápidos y más eficientes energéticamente que los fabricados con cualquier otro material, como por ejemplo el silicio. El trabajo teórico también ha sugerido que un ordenador de nanotubos de carbono sería una orden de magnitud más eficiente en cuanto a la energía que los mejores ordenadores de silicio. Además, la capacidad del nanomaterial para disipar el calor sugiere que los ordenadores de nanotubos de carbono podrían ser vertiginosamente rápidos sin calentarse, un problema que fija los límites de velocidad en los procesadores de silicio de los ordenadores actuales.

Sin embargo, algunas personas dudan de que los nanotubos de carbono puedan sustituir al silicio. Trabajar con nanotubos de carbono es un gran reto. El modo habitual de cultivarlos hace que acaben formando una maraña, y alrededor de un tercio de los tubos son metálicos, en lugar de semiconductores, lo que provoca cortocircuitos.

En los últimos años, Mitra ha colaborado con el ingeniero eléctrico de Stanford Philip Wong, que ha desarrollado formas de eludir algunas de las dificultades materiales que han impedido la creación de complejos circuitos de nanotubos de carbono. Wong ha desarrollado un método para el cultivo de nanotubos mayoritariamente rectos sobre cuarzo, para a continuación, transferirlos a un sustrato de silicio con el que crear los transistores. El grupo de Stanford también cubre las áreas activas de los transistores con una capa protectora, y después elimina todos los nanotubos expuestos que no se hayan creado correctamente.

Wong y Mitra también aplican voltaje para hacer que todos los nanotubos semiconductores en un chip pasen a posición 'off'. Luego pulsan una gran cantidad de corriente a través del chip: los metálicos se calientan, se oxidan y se desintegran. Todas estas correcciones específicas en los nanotubos, así como el resto del proceso de fabricación, se pueden realizar con los equipos estándar que se utilizan para hacer chips de silicio hoy día. En ese sentido, el proceso es escalable.
A finales del mes pasado en Hot Chips, una conferencia de ingeniería de diseño que tuvo lugar, casualmente, en Stanford, el director de la Oficina de Tecnología de Microsistemas de la agencia estadounidense DARPA provocó un gran revuelo al discutir el final de la electrónica de silicio. Durante su discurso, Robert Colwell, exarquitecto jefe de Intel, predijo que incluso en 2020 la industria de la computación ya no será capaz de seguir haciendo mejoras de rendimiento y coste duplicando la densidad de los transistores de silicio en los chips cada 18 o 24 meses, una hazaña conocida como la ley de Moore después de que el cofundador de Intel, Gordon Moore, observara por primera vez la tendencia.

Mitra y Wong esperan que su ordenador muestre que los nanotubos de carbono pueden ser una respuesta seria a la cuestión del reemplazo del silicio. Hasta el momento ninguna nueva tecnología emergente se acerca mínimamente al silicio. De todos los materiales emergentes y nuevas ideas consideradas como posibles salvadores (los nanocables, la espintrónica, el grafeno, los ordenadores biológicos), nadie ha creado una unidad central de proceso basada en ninguno de ellos, afirma Mitra. En ese contexto, ponerse al día con el rendimiento que tenía el silicio alrededor de 1970, a pesar de suponer que aún queda mucho trabajo por hacer, resulta emocionante.

Victor Zhirnov, especialista en nanoelectrónica en Semiconductor Research Corporation, con sede en Durham, Carolina del Norte (EE.UU.), es optimista pero mantiene la cautela. El procesador de nanotubos posee 10 millones de veces menos transistores que los microprocesadores típicos de hoy día, funciona mucho más lentamente y usa un voltaje cinco veces mayor, lo que significa que utiliza una cantidad de energía casi 25 veces más alta, señala.

Parte de la lentitud del ordenador de nanotubos se debe a las condiciones en las que ha sido construido: en un laboratorio académico y usando aquello a lo que el grupo de Stanford tenía acceso, y no en una fábrica estándar de la industria. El procesador está conectado a un disco duro externo, que sirve como memoria, a través de un gran paquete de cables eléctricos, cada uno de los cuales se conecta a un pasador metálico de grandes dimensiones en la parte superior del procesador de nanotubos. Cada uno de los pasadores a su vez se conecta a un dispositivo en el chip. Este embalaje tan torpe hace que los datos tengan que viajar distancias más largas, lo que reduce la eficiencia del ordenador.

Con las herramientas que tienen a mano, el grupo de Stanford tampoco puede crear transistores con dimensiones menores a aproximadamente un micrómetro. Esto hay que compararlo con el anuncio de Intel a principios de mes de que su próxima línea de productos se basará en tecnología de 14 nanómetros. Sin embargo, si el grupo tuviera acceso a una fábrica de última generación, los rendimientos de fabricación mejorarían lo suficiente como para ser capaces de crear ordenadores con miles de transistores más pequeños, y el ordenador podría funcionar más rápido.

Para alcanzar el extraordinario nivel de rendimiento teórico ofrecido por los nanotubos, los investigadores tendrán que aprender a construir circuitos integrados complejos hechos de transistores de nanotubos prístinos e individuales. Franklin señala que los expertos de dispositivos y materiales, como su grupo en IBM, tienen que empezar a trabajar en colaboración más estrecha con diseñadores de circuitos como los de Stanford para hacer progresos reales.

"Somos muy conscientes de que el silicio está perdiendo fuerza, y dentro de 10 años tocará a su fin", afirma Zhirnov. "Para que los nanotubos de carbono sean prácticos, tienen que empezar a usarse rápidamente". MIT

MintyBoost: Cargador de emergencia para smartphones

MintyBoost

Mientras continúo esta especie de batalla personal contra la pobre autonomía de mi smartphone, una vez más me han recomendado chequear el proyecto MintyBoost, y descubrí que por alguna razón no hay un artículo dedicado aquí. ¿De qué se trata? MintyBoost es un cargador USB que utiliza dos baterías AA como fuente de energía, y es lo suficientemente compacto como para ser instalado en una lata de pastillas Altoids o similar. El proyecto es open source, y puedes modificar su diseño sin inconvenientes.

“¡Wo-wop!”… sí, el demonio quiere comer de nuevo. He aprendido a no salir de casa sin mi batería de emergencia (para quienes deseen saberlo, es una Sony CP-EL), pero lo que me ha sorprendido es la cantidad de personas que me preguntaron sobre su funcionamiento. Evidentemente no estoy solo en esta guerra con los smartphones que nos abandonan a mitad de camino, y por ese motivo hay que mantenerse “armado”. Sin embargo, hay circunstancias en las que un usuario debe salir rápidamente del apuro. Mi batería de emergencia me ha rescatado en más de una ocasión, pero una vez agotada, requiere un cargador como cualquier otro smartphone. Como alternativa, las baterías AA tienen una amplia disponibilidad, y un dispositivo que hace muy buen uso de ellas es elMintyBoost, de la gente de Adafruit.

Toda la información necesaria para crear un MintyBoost está disponible sin cargo en el sitio oficial. Por otro lado, si deseas un formato más conveniente, también existe un archivo PDF con 99 páginas explicando hasta el más mínimo detalle sobre construcción y compatibilidad. Este último punto es muy importante para los dispositivos Apple, ya que las primeras dos ediciones del MintyBoosttenían inconvenientes al intentar cargarlos. La última revisión 3.0 soluciona esto (sus desarrolladores debieron realizar un poco de ingeniería inversa sobre un cargador Apple original para estudiar las modificaciones), y es la que se recomienda construir. Puedes tratar de obtener los componentes por tu cuenta, pero si no hay interés en esa clase de cacería, el sitio de Adafruit vende el kit completo para ensamblar al MintyBoost a un precio de veinte dólares. Neoteo

viernes, 27 de septiembre de 2013

Arca Nova, sala de conciertos inflable

Arca Nova 2013 (1)

Diseñado por el arquitecto japonés Arata Isozaki , que se asoció con el escultor anglo-indio Anish Kapoor , el Arca Nova se promociona como la primera sala de conciertos inflable del mundo.

Kapoor no es ajeno a las estructuras inflables, habiendo creado el Leviatán en París en 2011. Pero esa estructura fue diseñada para estar dentro de la ciudad de Grand Palais, mientras que el Arca Nova está diseñado para viajar por todo Japón, para el Festival de Música de Lucerna,y  visitando zonas del país que aún se recuperan del tsunami. 

Buscando algo así como un gigantesco vientre embarazada color ciruela  , el Arca Nova demora alrededor de dos horas para inflarse completamente, y es lo suficientemente amplio para una audiencia de cerca de 500 personas.
Y en vez de asientos de cine, una serie de bancos de madera hechos a mano de madera de cedro dañadas por el tsunami, proporciona un lugar fácilmente transportable para sentarse.

Diseño único de la sala de conciertos no sólo hace que sea fácil de instalar y transportar, es de suponer que proporciona una mejor acústica que la tradicional.
Y el diseño casi rosquilla  resulta en una columna de soporte integrado en el interior, lo que garantiza que pueda soportar las inclemencias tiempo y los fuertes vientos.
Organizadores sólo tiene que asegurarse de que no vender alfileres de sombrero de recuerdos o abrecartas, y el Arca deben sobrevivir a su tour.


El IPCC advierte que el nivel del mar podría aumentar hasta 82 cm en 2100

El IPCC advierte que el nivel del mar podría aumentar hasta 82 cm en 2100

El calentamiento climático es inequívoco y la influencia humana cada vez más clara. Ese es el principal mensaje que han transmitido hoy los representantes del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), reunidos en Estocolmo. Además, los expertos advierten que el nivel del mar podría subir entre 26 y 82 centímetros y la temperatura aumentar, hasta 4,8ºC a finales de siglo.

“La influencia humana en el sistema climático es clara. Esto es evidente en la mayoría de las regiones del mundo”, asegura la evaluación llevada a cabo por el Grupo de Trabajo I delGrupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que han presentado los últimos datos en una rueda de prensa celebrada en Estocolmo (Suecia).

Desde 1950 se han observado muchos cambios en el clima que no tienen precedentes. “Cada una de las últimas tres décadas ha sido, sucesivamente, más caliente en la superficie de la Tierra que cualquier otra década anterior desde 1850”, apunta el resumen de evaluación para responsables de políticas de este primer grupo que trabaja sobre la base científica del cambio climático y cuyo texto ha sido aprobado este viernes por los miembros del IPCC en la capital sueca.

Asimismo, el informe advierte que que el nivel del mar podría subir entre 26 y 82 cm y la temperatura aumentar entre 0,3 y 4,8 ºC a finales de siglo.
"Nuestra evaluación científica señala que la atmósfera y el océano se calientan, la cantidad de nieve y hielo ha disminuido, el nivel medio global del mar se ha elevado y las concentraciones de gases de efecto invernadero han aumentado", ha señalado Qin Dahe, copresidente del Grupo de Trabajo I del IPCC.

En opinión de Thomas Stocker, otro de los copresidentes del grupo, "las continuas emisiones de efecto invernadero causarán un mayor calentamiento. Limitar el cambio climático requerirá una reducción sustancial y sostenida de las emisiones de estos gases".

El responsable también ha añadido que es probable que las olas de calor se produzcan con más frecuencia y sean de mayor duración. “Como la Tierra se está calentando, se espera que las regiones actualmente húmedas reciban más precipitaciones, y las regiones áridas menos, aunque habrá excepciones", ha subrayado.

Cuatro escenarios posibles
Los expertos han realizado estas estimaciones basándose en cuatro escenarios posibles de futuro, de las más optimistas a las más extremas, según las concentraciones de gas de efecto invernadero y aerosoles, que suponen una amplia gama de futuros posibles.

Por su parte, Dahe también ha destacado que "a medida que se calienta el océano, y los glaciares y capas de hielo se reducen, el nivel medio global del mar seguirá en aumento, pero a un ritmo más rápido de lo que hemos experimentado en los últimos 40 años".

El informe concluye que el calentamiento del océano domina el aumento de la energía almacenada en el sistema climático, que representa más del 90% de la energía acumulada entre 1971 y 2010.
Rajendra Pachauri, presidente del IPCC subrayó que este grupo de trabajo ha suministrado “una base firme sobre las consideraciones de los impactos del cambio climático en los sistemas humanos y naturales, y las formas de afrontar el desafío que supone”.

El Grupo de Trabajo II y el Grupo de Trabajo III del IPCC, se reunirán en marzo y abril de 2014. La Quinta Evaluación del Informe concluirá con la publicación de una síntesis a modo de resumen que saldrá a la luz en octubre de 2014.

Las muestras recogidas por Curiosity confirman la presencia de agua

Las muestras recogidas por Curiosity confirman la presencia de agua en Marte
Los fragmentos de roca y granos de arena marciana analizados por el rover Curiosity contienen moléculas de H2O. El vehículo también ha descubierto por primera vez en Marte la presencia de ‘mugearita’, un basalto asociado a las islas y fosas en la Tierra. Son algunos de los resultados que cinco equipos de científicos publican esta semana en la revista Science.

Los instrumentos del rover Curiosity, que aterrizó en Marte en agosto de 2012, han permitido a los científicos recoger y analizar muestras de suelo y roca en el entorno del cráter Gale. Los resultados aparecen ahora en Science, donde cinco estudios ayudan a caracterizar la diversidad geológica marciana, además de confirmar la existencia de un elemento esencial para la vida: el agua.

"Uno de los resultados más interesantes que revela la primera muestra sólida tomada por Curiosity es el alto porcentaje de agua en el suelo", destaca Laurie Leshin, investigador del Instituto Politécnico Rensselaer (EEUU) y coordinador del primer equipo. “Cerca del 2% de la tierra en la superficie de Marte se compone de agua, lo que supone un gran recurso y es científicamente muy interesante".

Este grupo analizó materiales de la corteza marciana mediante pirólisis, una técnica en la que se calientan las muestras sin oxígeno para registrar qué gases liberan. El instrumento Sample Analysis at Mars (SAM) ha permitido detectar compuestos volátiles como el dióxido de carbono y oxígeno.

Por su parte, otro grupo liderado por el investigador Pierre-Yves Meslin desde la Universidad de Toulouse (Francia), ha disparado el láser del denominado ChemCam Remote Micro-Imager para identificar dos tipos de granos en el suelo, unos finos y otros gruesos.

Los de grano grueso probablemente proceden de la alteración física de los conglomerados fluviales que se encuentran cerca del lugar de aterrizaje, y cuya composición (silicio, aluminio y compuestos alcalinos) nunca se había registrado en Marte”, explica a SINC Meslin.

El investigador destaca que el polvo y el grano fino –representativo de todo el suelo de Marte por transporte eólico– es portador de hidrógeno, que se puede relacionar o formar parte del H2O que han identificado las sondas que orbitan el planeta rojo.

Los científicos han analizado la
solitaria roca Jake_M. / NASA
“Las evidencias experimentales confirmando la presencia de agua son siempre importantes, especialmente en relación con la habitabilidad pasada de Marte”, valora el geólogo planetario Jesús Martínez Frías, del Instituto de Geociencias (IGEO, CSIC-UCM), y miembro del equipo científico de la misión MSL que ha llevado a Curiosity al planeta rojo.

“Se confirman así los datos observados desde los orbitadores”, añade el geólogo, “aunque en relación con el agua, no se ha observado intercambio entre las composiciones del regolito –capa superficial– y la atmósfera”.

Aparece mugearita
Otro de los hallazgos del rover ha sido el descubrimiento de un tipo de roca ígnea que nunca se había localizado en Marte. Su composición se asemeja mucho a la mugearita, que en la Tierra se encuentra en las islas y grandes fosas o rifts. Los científicos consideran que su procedencia es diferente a la de otras rocas marcianas.

Esto lo ha estudiado el grupo dirigido por el investigador E.M. Stolper del Instituto Tecnológico de California (EE UU) al utilizar por primera vez el espectrómetro de rayos X y partículas alfa de Curiosity. En concreto han analizado una roca piramidal bautizada como Jake_M en honor al ingeniero Jake Matijevic del laboratorio JPL.

"El proceso mediante el cual se forman estas rocas a menudo sugiere la presencia de agua bajo la superficie", de acuerdo con Martin Fisk, un geólogo marino de la Universidad Estatal de Oregon y coautor de varios de los trabajos.

"En la Tierra, tenemos una idea bastante buena de cómo se forman las mugearitas y otras rocas semejantes", dice Fisk. "Se inicia en el magma profundo cuando cristaliza en presencia de un 1% o 2% de agua. Los cristales se asientan fuera del magma y lo que no se cristaliza es la mugearita magmática, que eventualmente puede salir a la superficie en una erupción volcánica".

Los otros dos estudios que aparecen en Science analizan los limos y arenas de el terreno arenosa Rocknest que ha recorrido el rover. Un equipo, liderado por el investigador David L. Bish de la Universidad de Indiana (EE UU) utilizó los datos de difracción del instrumento CheMin de rayos X para estimar el porcentaje de material basáltico cristalino magmático frente al material amorfo. Sus resultados sugieren que el 71% del material de Rocknest tiene un origen basáltico .

Sin embargo, otro estudio coordinado por el científico David F. Blake del centro de investigación Ames de la NASA, utilizando una técnica de rayos X diferente, sugiere que el componente basáltico es más bajo, alrededor del 55%. En cualquier caso, la composición general de este material es similar a la de otros limos y arenas que mueve el viento por toda la superficie marciana.

“En resumen, todos estos estudios enfatizan la relevancia y el éxito del laboratorio remoto multianalítico del Curiosity y su importancia para desentrañar la compleja historia geológica marciana, así como la geodiversidad ambiental y de procesos, a veces solapados en el espacio y en el tiempo”, concluye Martínez-Frías.

Referencia bibliográfica: E. M. Stolper et al.: “The Petrochemistry of Jake_M: A Martian Mugearite”. P.-Y. Meslin et al. "Soil Diversity and Hydration as Observed by ChemCam at Gale Crater, Mars". David L. Bish et al.: “X-ray Diffraction Results from Mars Science Laboratory: Mineralogy of Rocknest at Gale Crater”. David F. Blake et al.: “Curiosity at Gale Crater, Mars: Characterization and Analysis of the Rocknest Sand Shadow”. Laurie Leshin et al.: ”Volatile, Isotope, and Organic Analysis of Martian Fines with the Mars Curiosity Rover”. Science, 26 de septiembre de 2013

La estructura de los cromosomas no tiene realmente forma de X

Un nuevo método de imágenes en 3D sobre la estructura de los cromosomas está dibujando un cuadro más real de su forma, que rara vez es como una X. Científicos del Consejo de Biotecnología y Ciencias Biológicas de Investigación (BBSRC), en Reino Unido, en colaboración con la Universidad de Cambridge, en Reino Unido, y el Instituto Weizmann, en Israel, han producido modelos en 3D que muestran con mayor precisión su compleja forma y cómo se pliegan en el interior del ADN.


La forma de X, que a menudo se utiliza para describir los cromosomas, es sólo una instantánea de su complejidad. El doctor Peter Fraser, del Instituto Barbraham, que financia BBSRC, explicó: "La imagen de un cromosoma, una mancha con forma de X del ADN, es familiar para muchos, pero esta imagen microscópica de un cromosoma en realidad muestra una estructura que se produce sólo transitoriamente en las células, en un punto cuando están a punto de dividirse". "La gran mayoría de las células en un organismo se termina dividiendo y sus cromosomas no se parecen en nada a la forma de X. Los cromosomas en estas células existen en una forma muy diferente y hasta ahora ha sido imposible crear imágenes precisas de su estructura", agregó este investigador.

El equipo de Fraser ha desarrollado un nuevo método para visualizar su forma que consiste en miles de mediciones moleculares de los cromosomas en las células individuales, utilizando la última tecnología de secuenciación del ADN. Mediante la combinación de estas pequeñas mediciones, con el uso de potentes ordenadores, han creado un retrato tridimensional de cromosomas. Esta nueva tecnología ha sido posible gracias a la financiación del BBSRC, el Consejo de Investigación Médica (MRC) y el Wellcome Trust, todos en Reino Unido. "Estas imágenes únicas no sólo nos muestran la estructura del cromosoma, sino también el camino del ADN en él, lo que nos permite mapear genes específicos y otras características importantes mediante el uso de estos modelos 3D. Hemos comenzado a desentrañar los principios básicos de la estructura de los cromosomas y su papel en el funcionamiento de nuestro genoma", agregó Fraser.

Esta investigación, publicada en la revista 'Nature', pone el ADN en su propio contexto en una célula, transmitiendo la belleza y la complejidad del genoma de los mamíferos de una manera mucho más eficaz. Al hacerlo, se muestra que la estructura de estos cromosomas y la forma en que el ADN en su interior se pliega hacia arriba, están íntimamente relacionadas con el momento y la cantidad de genes que se expresan, lo que tiene consecuencias directas en la salud, el envejecimiento y la enfermedad.

Douglas Kell, directivo de BBSRC, sentencia que "hasta ahora, nuestra comprensión de la estructura cromosómica se ha limitado a imágenes más borrosas, junto con los diagramas de la muy conocida X que se ven antes de la división celular. Estas imágenes más verdaderas nos ayudarán a entender más sobre a qué se parecen los cromosomas en la mayoría de las células de nuestro cuerpo. Los intrincados pliegues ayudan a desentrañar cómo los cromosomas interactúan y cómo se controlan las funciones del genoma". Fuente: El Mundo.es

jueves, 26 de septiembre de 2013

QF-16: USA transformará sus cazas en drones

QF16
Entre la Fuerza Aérea de USA y la compañía Boeing llevan adelante el proyecto de transformar los aviones de combate F-16 en aviones no tripulados. El primer vuelo de prueba se realizó la semana pasada en la base aérea Tyndall, en Florida. Los drones de vigilancia no sólo se están usando para vigilar la actividad de los enemigos de USA en Afganistán e Irak, sino que también comienzan a usarse
en grandes ciudades y hasta se ofrecen en alquiler.

 (U24) - La compañía Boeing y la Fuerza Aérea de USA tomaron la decisión de transformar los aviones de combate F-16 en aviones no tripulados y designarlos como QF-16.

El primer vuelo de prueba del avión no pilotado se llevó a cabo la semana pasada en la base aérea Tyndall, en Florida, informa el sitio oficial de Boeing. Dos pilotos de pruebas de la Fuerza Aérea pilotaron QF-16 desde la estación de control en tierra.

En el aire la misión del nuevo modelo no pilotado incluyó una serie de maniobras simuladas, alcanzó velocidades supersónicas, regresó a la base y aterrizó exitosamente. Hasta ahora, Boeing ha modificado seis aviones F-16 hacia la configuración QF-16.

"Fue un poco raro verlo sin nadie dentro, pero fue un gran vuelo en todos los sentidos. Es una réplica de las situaciones actuales del mundo real y es una plataforma de aeronave que puede disparar contra un objetivo. Ahora tenemos un dispositivo aéreo altamente sostenible", dijo Ryan Inman, teniente coronel de la Fuerza Aérea y comandante de la 82 ª escuadrilla aérea.

El Ejército afirma que este modelo se va a utilizar ampliamente en combates aéreos. Previo al QF-16, el Ejército estadounidense usó el modelo QF-4, que fue una modificación del avión F-4 Phantom utilizado durante la guerra de Vietnam.

La siguiente etapa de pruebas será en la base aérea Holloman, en Nuevo México, donde se harán pruebas de armas y otras actividades de formación aérea del QF-16.

Alquileres
El viceministro de Tecnología en Guatemala, Juan Carlos Argueta, explicó que la vigilancia aérea no tripulada se utiliza en tareas militares y de seguridad, y consiste en el uso de aeronaves de diferentes tamaños manejadas a control remoto para sobrevolar áreas con discrecionalidad, acompañadas con equipo de videovigilancia para, en tiempo real, ver qué ocurre en el área supervisada.

“Estamos pensando en dos tipos, un aeroplano, y de tres a cinco drones más móviles, que son para situaciones más controladas, como para ciudades, una especie de helicópteros, que llevan tres hélices. Se miran como que son juguetes”, explicó el funcionario.
USA utiliza los drones en tareas de vigilancia de ataques contra rebeldes en Iraq y Afganistán, entre otros países.

“Toda la línea que hemos usado en el tema tecnológico es en arrendamiento de equipos, porque con esto garantizamos no solo tener la continuidad del servicio, sino que todos los costos de mantenimiento se incluyen dentro de los procesos”, indicó Argueta.

Sin embargo, aún no se tiene el monto de lo que podría requerirse.

Embarazo y la exposición a la cocaína

La exposición prenatal de cocaína afecta tanto a la conducta y el cerebro. Los estudios en animales han demostrado que la exposición a la cocaína durante el desarrollo en el útero causa numerosos trastornos en el desarrollo normal del cerebro y afecta negativamente el comportamiento desde el nacimiento y hasta la edad adulta.
.

Por razones éticas , los estudios similares en humanos han sido más limitados, pero algunas investigaciones han demostrado que los niños expuestos prenatalmente a la cocaína tienen deficiencias en la atención , el control , el estrés , la regulación de las emociones y la memoria. La investigación también sugiere que estos niños pueden estar más predispuestos a iniciar el consumo de sustancias .

Dado que la adolescencia es el período típico en la vida cuando se inicia el consumo de sustancias , los investigadores de la Universidad de Yale School of Medicine, dirigido por el Dr. Rajita Sinha, llevaron a cabo un estudio para evaluar las diferencias en la sustancia gris y la probabilidad de consumo de sustancias en los adolescentes que fueron expuestos a la cocaína antes de nacer frente a los que no lo eran.

Para ello , reclutaron a 42 adolescentes entre las edades de 14 y 17 , expuestos en el útero , que son parte de una cohorte a largo plazo que se han seguido desde su nacimiento . También estudiaron 21 adolescentes no expuestos a la cocaína para la comparación . Todos los participantes se sometieron a exploraciones de neuroimagen estructural y sus respuestas a las preguntas sobre su uso de todo tipo de drogas ilegales , además de presentar muestras de orina para análisis toxicológicos .

Lo que encontraron fue preocupante, pero exactamente lo que había planteado la hipótesis . Los adolescentes con la exposición prenatal a la cocaína tenían un menor volumen de materia gris en regiones clave del cerebro implicadas en la emoción , la recompensa , la memoria y la función ejecutiva , en comparación con los adolescentes no expuestos.

Volumen de la materia gris se asoció también con el inicio del consumo de sustancias . Sorprendentemente , cada disminución de 1 ml en volumen de la materia gris se incrementó la probabilidad de iniciar el uso de sustancias por 69,6 % a 83,6 % dependiendo de la región del cerebro .

. “Este estudio puede tener un mensaje importante para las mujeres embarazadas que usan cocaína Parece que tenemos que tener una perspectiva a largo plazo sobre los riesgos asociados con la exposición prenatal a la cocaína : las personas cuyos cerebros pueden aparecer estructuralmente típica al nacer pueden desarrollar anormalmente , ” , dijo el doctor John Krystal, editor de Biological Psychiatry . “A pesar de la importancia de estos cambios estructurales no está claro, que merecen mayor estudio. ”

La materia gris es la parte del sistema nervioso que procesa la información , y los déficit en la materia gris se documentan en muchos otros trastornos , incluyendo la esquizofrenia , la anorexia , y el trastorno de déficit de atención infantil . Es importante señalar que , como parte de los criterios del estudio , estos participantes no tenían enfermedad médica o mental importante y sólo difieren en si sus madres habían consumido cocaína durante el embarazo.

” Por lo tanto , por primera vez en los niños que vemos cómo las madres en el útero el consumo de cocaína puede traducirse en cambios cerebrales en la descendencia que el conocimiento del impacto, el estado de ánimo y la salud de la descendencia afectada en el futuro “, dijo Sinha . ” Uno puede especular que en el futuro, con la validación adicional, tales alteraciones específicas del cerebro pueden servir como biomarcadores de riesgo que pueden ser objetivo de prevenir el consumo de drogas y el abuso. “ Medical Press

Ver y no reconocer: ¿cómo viven quienes tienen ceguera de cara? (prosopagnosia)

Imagine que de la noche a la mañana no pueda reconocer a su madre, a su pareja, a su hijo. Que los vea pero que no sepa quiénes son, ni si ríen, o llevan el ceño fruncido. Eso es lo que le pasó a David Bromley. Tras sufrir una lesión en el cerebro quedó ciego de cara.
Bromley, un inglés de 67 años, sufre de prosopagnosia desde hace 11 años. Las personas con este trastorno pueden ver los ojos, la nariz, la boca... el contexto. Pero no pueden ver o comprender el rostro de la persona. No reconocen los gestos o las emociones.

"Puedo reconocer a mi esposa si entro a la casa y sé que está allí. Pero si en la calle pasa a mi lado y no sé que va a estar ahí, no la reconocería", le cuenta a BBC Mundo.
Quizás lo más complicado de esta enfermedad sea que las personas no se dan cuenta de inmediato que la tienen.
"Descubrí que tenía el problema cuando asistí a un reencuentro con unos amigos que no veía desde hace 30 años. Dos de ellos habían sido muy buenos amigos, fuimos juntos a todos los festivales de música, viajamos juntos a España para trabajar en verano. Éramos muy unidos, pero por cuestiones de la vida los dejé de ver".
Hacía meses que Bromley se había recuperado de la lesión y hasta ese momento pensaba que la única secuela que le había quedado era la pérdida parcial de la visión, lo que le imposibilitaba conducir. Es por ello que su cuñado lo acompañó a la reunión. La conversación que tuvo después con él fue lo que hizo activar las alarmas.
"Mientras conducía a la vuelta recuerdo que le comenté: 'Frank y Miky no han cambiado nada, se ven exactamente igual'. Luego me quedé pensando y le pregunté 'espera, ¿ellos llevaban puestas unas teentop?' (un suéter que estuvo de moda en los setenta)".
Lo que David estaba viendo era el recuerdo de sus amigos de esa época. "Mi cerebro me estaba diciendo que allí estaban Frank y Miky y que así era como lucían, pero esa no era la realidad". Fue entonces cuando descubrió que era ciego de cara.

La de nacimiento y la adquirida
Existen dos formas de prosopagnosia: una de desarrollo, en la que la persona tiene el problema de nacimiento, y la adquirida, que ocurre después de algún tipo de daño en el cerebro.
Se estima que el 2% de la población sufre del primer tipo de prosopagnosia. David forma parte del rarísimo grupo de los que la sufren tras una lesión.
"Esto es extremadamente raro, pues el tipo de daño que debe ocurrir en el cerebro es muy específico", le cuenta a BBC Mundo el doctor Ashok Jansari, experto en el trastorno y lector en Neuropsicología Cognitiva de la Facultad de Psicología de la Universidad de East London.
"La verdad es que no sé que es peor, si nunca haber podido reconocer a la gente o si a los 56 años –como me pasó a mí–, de repente, no poder reconocer a nadie", reflexiona Bromley, quien cuenta que lo peor de la prosopagnosia es la vergüenza social.

"Estuvimos de vacaciones en Cuba. Un día me puse a hablar con un hombre de Dinamarca cuando una mujer se nos acercó y dijo 'buenos días', a lo que yo respondí: 'hola, encantado de conocerte', pensando que era la esposa del danés, cuando en realidad era la mía", cuenta David.
Situaciones como éstas abundan en su vida. "En otra ocasión, en una piscina, vi a esta mujer rubia en un jacuzzi y le silbé pensando que era mi mujer, cuando de repente escuché una voz detrás de mí: 'David, ¿qué haces?'. Le estaba silbando a la mujer equivocada".
David puede ver a una persona perfectamente bien. Ese no es el problema. Lo que ocurre es que si se vuelve a cruzar con esa persona 10 o 15 minutos después, no podría reconocerla.
"Una vez tuve una reunión para un proyecto importante. Todo salió muy bien hasta que después de la reunión me encontré con otro cliente con el que solía hacer negocios y trabajaba para la misma empresa. Me invitó a tomar un café cuando entró un hombre. El cliente con el que estaba nos presentó, a lo que contesté 'encantado'. Su respuesta fue '¡pero si tuvimos una reunión hace 10 minutos!'".

Vergüenza social
Desde entonces Bromley tomó la decisión de explicar su situación cuando lo ve necesario. "Cada vez que voy a ver clientes les digo que tuve una lesión cerebral que me dejó sin poder reconocer caras, 'así que si los ignoro, no estoy siendo antipático, es sólo que no los puedo reconocer'".
Esa vergüenza también la sufre Sandra, también inglesa, quien no quiso dar su apellido a BBC Mundo para evitar ser identificada. Hace 14 años tuvo una encefalitis que la dejó con ceguera de cara.
A pesar de que la prosopagnosia que desarrolló es moderada, pues puede reconocer a la gente que conocía antes de la enfermedad, prefiere no contarlo para evitar que la gente piense que tiene alguna discapacidad.
"La vida con prosopagnosia es muy vergonzosa, porque la gente se me acerca y me saluda y no sé quienes son. Si se trata de alguien que está en el lugar donde trabaja (como el carnicero o el panadero), entonces puedo adivinar quién es. Pero si no está donde debe, entonces no los reconocería", le explica a BBC Mundo.
Sandra es profesora de escuela, donde no saben que es ciega de cara. "Si veo a alguien cada día, lo puedo reconocer. Pero si me encuentro a uno de los estudiantes en la calle y me saluda, sabría que es un niño de la escuela, pero no sabría necesariamente de quién se trata".
"Yo no le digo nada a los niños, sencillamente me las arreglo en el día a día para aprenderme sus caras", agrega.
Los especialistas comprenden los sentimientos de David y Sandra. "El problema de no reconocer a las personas que deberías reconocer pueden causar vergüenza social", señala Jansari, quien ha trabajado con Sandra y David.
"Hipotéticamente, si alguien tiene prosopagnosia de desarrollo pero no lo sabe, y su trabajo requiere reconocer a las personas (como sería el caso de un guardia de seguridad), entonces podrían equivocarse mucho. Pero dudo que este tipo de escenarios ocurra, pues alguien que tiene este trastorno, incluso sin saberlo, probablemente le dirá a los demás que 'no son muy buenos' reconociendo caras", explica el experto.
No obstante, Jansari sabe de casos en que la persona ha tenido que dejar su trabajo. "Un ejemplo fue un maestro de escuela que estaba teniendo dificultades para reconocer a los niños, lo que estaba causando problemas a la hora de determinar si el padre apropiado lo estaba recogiendo".

¿Discapacidad?

Tras la enfermedad, los colegas de trabajo de Sandra supieron que había estado mal. "Pero ahora la mayoría del personal se ha ido y hay pura gente nueva, así que en realidad nadie lo sabe".
"Me imagino que la razón por la que no lo digo, es que no quiero que piensen que no puedo hacer mi trabajo, porque no es así. No quiero sentirme avergonzada o que crean que hay algo raro en mí".
Si bien la prosopagnosia no está reconocida como una discapacidad, Jansari concede que en algunos casos debería ser tratada como tal.
Este trastorno tampoco tiene cura. "En el caso de la adquirida, una vez que se daña una parte del cerebro, no va a 'crecer' de vuelta, así que es imposible 'curar' el problema", explica el especialista.
"Con el trastorno de nacimiento, no sabemos qué es lo que lo causa. Pero hipotéticamente, en el futuro, si descubren que la causa es genética, podría ser corregido, ¡aunque estamos hablando de mucho camino por recorrer!".
Así a que quienes padecen de prosopagnosia sólo les queda una cosa por hacer: perfeccionar sus estrategias para reconocer a las personas.
"Si salgo de compras con mi esposa, recuerdo la chaqueta que lleva. Así que si veo a alguien con una chaqueta amarilla y cabello rubio, ese es mi punto de partida", cuenta Bromley.
Es tal la atención que pone David en estudiar el rostro de la persona con la que habla que una vez, en una entrevista de trabajo, el entrevistador le comentó que lo estaba mirando "como si quisiera hacerle daño".
"Le dije, 'te puedo asegurar que no', tras lo cual me di cuenta que estudio las caras de las personas con tal intensidad que quizás a veces puede parecer intimidatorio. Intento recoger algo, ya sea el cabello o una cicatriz... sencillamente trato de quedarme con algo de manera tal que si lo vuelvo a ver tenga una posibilidad de reconocerlo".
Pero esta estrategia no es 100% efectiva. El doctor Jansari cuenta que a pesar de que David se fija en todo, incluso en el lenguaje corporal, una vez vio una fotografía de quien pensó era el cantante George Michael, "pero en realidad era mía, era una imagen de cuando usaba barba de candado y un pendiente de oro".
"Es muy agotador", reflexiona David. "Todo el tiempo me tengo que concentrar en la gente y en los lugares, porque (este trastorno) también afecta tu sentido de la ubicación".
"Necesito mejorar mis estrategias de reconocimiento", concluye. Fuente: BBC Salud