jueves, 28 de junio de 2012

Alimentarse a intervalos regulares adelgaza aunque no se haga ejercicio

Comer a intervalos regulares permite a los adolescentes mantenerse más delgados con independencia del ejercicio físico que hagan, ha revelado un estudio realizado por científicos del Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN), perteneciente CSIC. La investigación ha revelado, asimismo, que los jóvenes que comen muy rápido acumulan más grasa corporal. Estos datos resultan importantes para establecer fórmulas contra la obesidad y el sobrepeso, condiciones que actualmente afectan a más del 25% de los jóvenes españoles.

Nuevos indicios de que los dinosaurios eran reptiles de ‘sangre caliente’

Aunque los huesos de los dinosaurios tengan líneas de paro de crecimiento propias de los animales de sangre fría, investigadores del Institut Català de Paleontologia Miquel Crusafont concluyen que pudieron ser de sangre caliente por el estudio óseo de un centenar de mamíferos rumiantes actuales.

La migración de los elefantes marca mejor las estaciones del año que el calendario

El comportamiento de los grandes herbívoros de la sabana africana se rige por la disponibilidad de comida, que depende a su vez de las lluvias. Un estudio, publicado en PLoS ONE, propone utilizar el movimiento de los paquidermos para determinar mejor el principio y el final de la época de precipitaciones y sequía en este ecosistema.

La ecología explica la marginación de las mujeres en los entornos académicos

Un equipo de investigadoras de la Universidad de Queensland, en Australia, ha empleado un modelo ecológico para tratar de explicar por qué las mujeres son marginadas en los entornos académicos. Los resultados de su estudio demuestran que diversos factores, como la elección de trabajar a tiempo parcial o las evaluaciones demasiado generales, provocan una reducción de la diversidad y el talento de los centros de investigación.

Una nueva técnica desvela el secreto de la atmósfera de los exoplanetas

Una nueva técnica ha permitido a los astrónomos estudiar por primera vez, de forma fidedigna, la estructura de la atmósfera del exoplaneta Tau Boötis b y deducir su masa de un modo preciso. El equipo utilizó el instrumento CRIRES , instalado en el Observatorio Paranal de ESO, en Chile, y combinó observaciones infrarrojas de alta calidad con un nuevo e ingenioso truco para extraer la débil señal del planeta a partir de la luz mucho más potente emitida por la estrella anfitriona.

No-Mix Vacuum Toilet, el retrete que lo aprovecha todo

No es la primera vez que se busca una nueva solución más ecológica a los residuos humanos, pero probablemente es la más ambiciosa hasta ahora.
Ya hemos visto multitud de sistemas pensados para gastar menos agua e incluso transformar nuestros conguitos en estiércol o energía, pero normalmente son sistemas autónomos. La idea de No-Mix Vacuum Toilet es crear el futuro de los retretes en instalaciones urbanas.

Gracias a este nuevo sistema se gasta un 90% menos de agua, ya que las “aguas menores” van por un lado y las “aguas mayores” por otro, utilizando vacío para su absorción.
Los líquidos se llevan a unidades de proceso donde se recuperan el nitrógeno, fósforo y potasio para ser luego usados como fertilizantes.
Por otro lado los sólidos se envían a un bioreactor para obtener metano, que luego se utilizaría como gas natural directamente en los hogares o en centrales para producir electricidad.
El desarrollo ha sido llevado a cabo por la Universidad Tecnológica de Nanyang, y ha recibido un fondo de 10 millones de dólares del gobierno de Singapur para llevar a cabo tests durante 2 años y ser probablemente la instalación que se utilice en una nueva ciudad que van a construir.
Viendo el grado de recuperación y aprovechamiento de fluidos humanos al que estamos llegando, lo mismo con el calor que hace vamos a tener que empezar a usar trajes a lo Dune. Miedo me da pensar que harán entonces con los aficionados a pornotube....

En Chile los próximos mineros de cobre serán… ¡bacterias!

El mineral extraído de las minas que tiene una baja pureza y cuyo proceso para extraer el cobre suele resultar caro y complejo está a punto de experimentar una revolución biológica. Y es que a pesar de hablar de minerales carentes de vida será precisamente una minúscula forma de ídem la que efectuará un curioso trabajo minero. La denominada biolixivación conseguirá convertir en sostenible y limpia una forma de minería que hasta ahora era todo lo contrario. Se basa en “regar” centenares de miles de toneladas de mineral de baja ley con bacterias especiales que separan el cobre del resíduo inservible.

Aunque la biolixivación (acción de microorganismos sobre minerales) no es nueva ni mucho menos, ya que viene empleándose desde hace miles de años, ha sido reciente el descubriminento por parte de científicos chilenos del genoma de estas bacterias que actúan sobre el cobre, que se convierte en fuente de energía para las mismas.
El alto coste de explotación impedia que pudiese aprovecharse el mineral con baja concentración de cobre o poca pureza. A partir de 2013 se conocerán los resultados de esta solución, lo que en caso de ser positivo supondría la ampliación al resto de reservas chilenas de cobre.
Recordemos que Chile posee el 30% de las reservas mundiales de este mineral. Con la aplicación de este nuevo proceso se incrementarían las mismas, reduciendo además el coste de explotación.
Las bacterias, por cierto, no son anónimas, tienen nombre: Huenelén, Lacarantay y Yagán. No son tóxicas ni nocivas para el hombre ni el medio ambiente.

Puedes aprender mientras duermes

Por fin se harán tus sueños realidad: aprender mientras duermes, si nos perdonáis la redundancia. Hay quien mantiene la creencia de que se puede aprender, por ejemplo, un idioma, mientras se duerme, y por fin la Ciencia ha corroborado en parte esa creencia. Neurólogos acaban de constatar que durante el sueño, si no adquirir conocimientos al menos sí se puede reforzar los conocimientos previamente adquiridos.
Si eres de los que se ponía una cinta de inglés por las noches con la esperanza de despertarse en plan Matrix exclamando “ya sé inglés” la cosa sigue igual, no podrás aprender algo que no sabías.
Pero sorprendentemente resulta que lo que sí puedes hacer es reforzar durante el sueño la memoria de lo que conoces. Aprender no, pero repasar parece que sí.
Es el resultado de un trabajo realizado en la Universidad Northwestern de Chicago en que se dejaba que unos estudiantes de música se echaran una siestecica de 90 minutos después de practicar con una nueva pieza musical. A un grupo se les puso a modo de hilo musical mientras dormían esa misma pieza, a otro grupo otras piezas musicales.
Tras la siesta se pudo comprobar que mejoraban en la interpretación de la pieza aquellos que la habían escuchado mientras dormían. Y es que al parecer en la fase de sueño profundo se refuerzan los recuerdos, y si coincide que, a nivel subconsciente, se recibe el estímulo de lo recién aprendido se facilita dicho recuerdo. Además resulta que el auditivo es en la práctica el sentido más fácilmente estimulable durante el sueño.
Será cuestión de que, aquellos que ya conocen algún idioma, se pongan por la noche grabaciones de dicho lenguaje para mejorar, pero nunca podrás aprender algo nuevo. No se puede tener todo.

La cámara capaz de captar a la vez el Sol y las estrellas

PC o Mac, papá o mamá, letras o ciencias, Madrid o Barça, tigres o leones, incluso leones o huevones… la vida es un continuo devenir entre diversas opciones, parece que constantemente hay que estar como Dos Caras, lanzando una moneda para elegir una cosa u otra. En lo que se refiere a la fotografía astronómica parece que no había forma de aunar el capturar en una misma instantánea el Sol y las estrellas. La potente luz de nuestro astro rey eclipsaba el tenue brillo de sus distantes colegas. Finalmente no ha sido ninguno de los gigantes (Canon o Nikon) sino una pequeña empresa, Spectral Instruments, la que ha logrado desarrollar una óptica capaz de conseguir con éxito ese reto.

Los amantes de la fotografía reconocerán en la siglas HDR la técnica del Alto Rango Dinámico que en esencia permite sumar la captura de varias fotografías con diferentes exposiciones en una única instantánea en la que el efecto algo irreal consigue resultados espectaculares.
Pero ni con esas era posible hacer una foto a plena luz del día y que en ella, junto al Sol, se pudieran apreciar las estrellas. Hasta ahora.
Con un sensor CCD de 112 megapíxels y sin ningún tipo de filtro o máscara que pueda modificar la precisión en la captura de la luz emitida, la lente es tan avanzada que puede tomar exposiciones de hasta cuatro horas sin que aparezca el más mínimo ruido. De esa forma puedes conseguir captar la luz de las estrellas en medio del más soleado de los días.
El sensor mide 95×95 mm. Para hacernos una idea, una cámara réflex digital suele tener sensores de unos 24×36 mm. Se puede decir, por tanto, que este chisme se traga la luz como si fuese un agujero negro.
Hasta ahora estos avanzados instrumentos fotográficos que fabrica Spectral Instruments terminan en órbita, dentro de algún satélite o en avanzados laboratorios alrededor de todo el mundo, pero ahora quieren que fotógrafos profesionales puedan acceder a ellas para que todos probamos comprobar qué espectaculares imágenes son capaces de captar.
Se han propuesto fabricar una versión para fotógrafos “normales”, nada de satélites ni laboratorios, así que a través de su página web quieren conocer la predisposición que hay entre los profesionales (y aficionados avanzados) por semejante dispositivo antes de ponerse manos a la obra, dado que el proceso de elaboración supone (sólo para el sensor) una inversión de unos 70.000€, teniendo en cuenta que ese será el único propósito de la óptica resultante.

Un nuevo tipo de conexión inalámbrica permite 2,5 Tb por segundo

Ni ADSL de 20Mb, ni 3G, ni 4G, lo que realmente estás esperando que te ofrezca tu operadora es una conexión como la que han conseguido obtener un grupo de científicos estadounidenses e israelís. Con este nueva conexión inalámbrica tendrás en tus manos la increíble velocidad de 2,5Tb por segundo, suficiente para descargarte miles de horas televisivas invernales y poder huir de los refritos del verano.

En concreto ha sido fruto del trabajo conjunto de la University of Southern California, el Jet Propulsion Laboratory de la NASA y la Universidad de Tel Aviv.
La teoría consiste en “retorcer” las ondas electromagnéticas en vórtices. Para ello modulan las ondas usando no sólo el momento angular de rotación (SAM) sino también el momento angular orbital (OAM), permitiendo una densidad de datos mucho mayor.
Tal velocidad de transmisión se consiguió uniendo 8 conexiones de datos de 300Gbps que en conjunto alcanzaban los 2,5 Tb por segundo. Cada una de las señales tenía un nivel diferente de torsión OAM, bastando luego con, al recibirlas, “desretorcerlas” y procesarlas.
Eso sí, sólo han conseguido un alcance de 1 metro por ahora, aunque aseguran que 1 kilómetro es posible, siendo probablemente su alcance máximo en la superficie terrestre, mientras que en el espacio, para las conexiones entre satélites serían posible alcances mucho mayores.
Una de sus ventajas es que usando esta misma técnica se podría juntar teóricamente infinitas conexiones más lentas, como por ejemplo las señales 3G y LTE, permitiendo que la red actual cree conexiones ultrarrápidas sin necesidad de usar espectros diferentes, cada vez más escasos.
Sinceramente en vez de buscar conexiones mucho más rápidas yo preferiría que las que ya hay tuvieran mucho más cobertura....

En caso de pandemia zombie, probablemente todo empezará en alguno de estos sitios

En multitud de películas y libros se nos habla de laboratorios en el que se hacen experimentos con agentes biológicos peligrosos, pero ¿dónde están en el mundo real?
En este mapa podéis ver la posición de los laboratorios de nivel de bioseguridad 3 y 4 legales y conocidos en todo el mundo. Si empiezas a ver por la tele que cierta gente se empieza a comer a los demás, posiblemente te interese estar lo más lejos posible de estas zonas.
Dejando ya el cachondeo, ¿qué significa en nivel de bioseguridad 3 y 4? ¿Qué se supone que se hace allí? Pues bien, a partir del nivel 3 estamos hablando de agentes que podrían ser mortales y tienen bastante riesgo de contagio.
En este nivel es donde vemos las típicas zonas de contención, trajes de protección, accesos restringidos y sistemas de ventilación con flujos de aire controlado.
Pero es en el nivel 4 donde ya se empieza a manejar material altamente contagioso y mortal, por lo que se utilizan medidas extremas, como trajes sobrepresurizados, aislamiento perfecto del ambiente e incluso una ligera presión negativa en los laboratorios para evitar escapes. Hablamos de amigüitos de la humanidad como el ébola, el virus Junin o el Marburg.
Pero no penséis que estos laboratorios sólo existen para que alguien se la líe parda a la población mundial, justamente están para todo lo contrario, para contener los agentes más peligrosos que existen y utilizarlos como base para entender y contener algo que surja bien natural o artificialmente, y que pueda poner en riesgo a la humanidad.
Claro que, eso es lo que supuestamente hacen en estas zonas conocidas. Resulta un poco inquietante que en Rusia sólo exista un laboratorio así, y que en China estén ahora construyendo el primero. Aunque aún más extraño es que no haya absolutamente nada parecido en Oriente Medio.
Algo ya más normal es que ni España ni Hispanoamérica cuenten con esta clase de laboratorios. Pero es natural, ya bastantes recursos se necesitan para contener otros patógenos de alta virulencia, como la cultura del pelotazo, la canción del verano y las telenovelas, y aún así se nos cuelan y lo exportamos sin remedio.

Un acelerador de partículas consigue la temperatura más elevada jamás creada por el hombre: 4 mil billones de grados

En concreto serían 3.999.999.999.982,222 grados centígrados. Y te quejas del calor que está haciendo estos días. Se trata la mayor temperatura jamás producida por el hombre y se debe al choque atómico que ha tenido lugar en el RHIC, acrónimo en inglés del Colisionador Relativístico de Iones Pesados. El microondas de los dioses.

Una temperatura 250.000 veces más elevada que la del núcleo de nuestro Sol.
Se alcanzó cuando el núcleo de una partícula de oro chocó con otro del mismo material en el interior de ese Scalextric a la bestia. Circulando a gran velocidad y en sentido opuesto, el choque dejó un reguero de quarks y gluones y de paso el record Guinness de temperatura producida por el hombre.
El plasma subatómito resultante del choque permite a los científicos estudiar las concidiones que debieron darse en los primeros instantes de existencia de nuestro Universo, hace unos 14.000 millones de años. Lo mejor es que si esta temperatura te parece elevada no tienes más que esperar unas semanas al próximo experimento en el CERN y su famoso Gran Colisionador de Hadrones para ver cómo la superan. No podían hacerlo en invierno y aprovechar ese calorcito para la calefacción de toda Europa.....

El ejército estadounidense quiere darle a Android seguridad militar

Parece ser que el ejército de EEUU quiere adaptar los smartphones y tablets Android para sus operaciones militares, por lo que están poniendo en marcha un proyecto para mejorar ostensiblemente su seguridad y fiabilidad, volviéndolo teóricamente inexpugnable en el campo de batalla y permitiendo a las tropas su uso sin que sea posible interceptar las comunicaciones. Conoce el proyecto militar Mobile Armour.
Con un contrato de 21,4 millones de dólares proveniente de DARPA y ARL, la empresa de software Invincea, especialista en seguridad avanzada y detección/prevención de malware y brechas en redes, se pone a cargo del proyecto seguridad androide.
Pero al parecer el sistema no sólo afectará al uso militar del robotillo verde, sino que facilitará también la seguridad para las fuerzas de seguridad civiles y, en menor medida, el uso empresarial y de usuarios privados.
No hay datos específicos sobre si serán unas aplicaciones que podrán usarse en cualquier dispositivo Android o si serán ROMs personalizadas que añadirán nuevas capas de seguridad imposibles de aplicar desde ROMs vanilla.
Veremos en que queda todo esto y, sobre todo, cuanto tiempo tardará un adolescente imberbe aburrido en chulear el sistema sin apenas despeinarse. La pena es que en el mundo real no viene Bruce Willis a salvarte cuando agentes del gobierno quieren eliminarte...

No podrás ganar nunca a este robot a piedra, papel o tijera

Aunque los políticos usan sistemas de selección extremadamente simples como a dedo o cuñadisimo, para el resto de los mortales, el sistema piedra, papel o tijera se ha perfilado como una opción muy socorrida para decantarse por una solución rápida. Pero claro, eso era porque no tenían que enfrentarse a esta mano robótica capaz de ganar a cualquiera siempre. ¿Cómo lo hace?

¿Será capaz de leerte el pensamiento?
¿Tendrá un sistema de detección de gestos faciales que le permitirá conocer el siguiente movimiento reflejado en tu rostro?
¿Utiliza un sistema probabilístico basado en redes neuronales que han contemplado millones de partidas?
Pues va a ser que no, a pesar de que se nos diga siempre que la mano es más rápida que la vista, en este caso es al contrario. Este robot dispone de un sistema de visión de alta velocidad capaz de distinguir el gesto de tu mano en un milisegundo y tardar un par más en hacer él el gesto ganador.

Da igual lo rápido que creas que puedas ir, y que intentes confundirle cambiando de gesto en el último momento, te va a pillar siempre. Es obra del Ishikawa Oku Lab de la Universidad de Tokyo, y por ahora nadie ha sido capaz de ganarle.
¿Para qué sirve? Pues aparte de para picarte a lo buscaminas, para demostrar que pueden crearse sistemas que se anticipen a los movimientos humanos y puedan asistirles en el trabajo.
Eso sí, la pregunta existencial surge si ponemos dos robots de estos frente a frente. Los cambios constantes en milisegundos para tratar de ganarse mutuamente posiblemente crearían una paradoja espaciotemporal infinita hasta que a uno le de por poner la mano de Spock o haga de lagarto Juancho..

La jarra cervecera espumosa te permitirá siempre cerveza perfectas

¿Cuántas veces has tenido que vislumbrar con pesadumbre que tu cerveza ha perdido su
“frescura espumosa”
cuando todavía te queda más de la mitad? ¿Cuántas veces has increpado al camarero la ausencia o exceso de la misma cuando te la sirve? Por fin podrás ser libre del yugo espumil impuesto por el entorno y controlar tú mismo con esta jarra cuando quieras la cantidad de espuma.
Esta jarra de cerveza con el nombre raruno como él solo de Jokki Hour, cuenta con un sistema de válvulas y resorte, que comunica una cámara de aire en su parte inferior con el resto.
Con sólo pulsar un botón, el aire pasa a la jarra creando espuma en la cerveza instantáneamente al subir. De esta forma no necesita pilas ni que tengas que ir haciendo el guarrete con una pajita soplando.
Está disponible en dos colores, amarillo y negro, para su mecanismo interno y aunque no está tan recargada como una jarra tradicional alemana; cuesta 22,50 dólares. ¿Merece la pena?

miércoles, 27 de junio de 2012

Nuevo avance en el diseño de 'bits cuánticos' con gadolinio

Un equipo internacional, con investigadores de centros de Zaragoza, ha desarrollado moléculas que tienen un único átomo de gadolinio (elemento químico con efecto magnético-calórico) encapsulado en el interior de dos estructuras moleculares diferentes. El trabajo, que ha sido seleccionado como sugerencia del editor en el último número de la revista Physical Review Letters, abre una "nueva y prometedora" vía para el desarrollo de 'qbits' o 'bits cuánticos', los componentes básicos de futuros ordenadores cuánticos.
Uno de los hallazgos "más importantes" según los autores es que la velocidad y la frecuencia de operación de estos qubits dependen de la forma de la molécula. Conocer este dato es importante para determinar su aplicación práctica. En concreto se han analizado las orientaciones del denominado espín, que define los estados del qubit entre el 0 y el 1.
Métodos más sencillos, baratos y reproducibles
El hallazgo abre la puerta al 'diseño' racional de qubits mediante métodos químicos, considerablemente más sencillos, baratos y reproducibles que las costosas tecnologías de micro y nanolitografía utilizadas en la fabricación de qubits basados en dispositivos semi o superconductores.
Se plantea como un paso hacia la realización de arquitecturas de computación cuántica integradas en chips, mayores que las existentes actualmente y capaces, por tanto, de llevar a cabo tareas más complejas.
Los ordenadores cuánticos utilizan las leyes de la física cuántica para realizar operaciones lógicas. Se espera que revolucionen el mundo de la informática, gracias a su capacidad de resolver tareas que son imposibles para los ordenadores actuales, o 'clásicos', como la simulación de nuevos materiales, la búsqueda en grandes bases de datos o la codificación segura de mensajes secretos, entre otros.
Los científicos se enfrentan, desde hace años, al reto de dar con materiales adecuados para fabricar estas unidades de memoria, los qubits, y puertas lógicas con las que construir ordenadores cuánticos. En este ámbito se enmarca la nueva investigación, en la que participan el Instituto de Ciencia de Materiales de Aragón (centro mixto CSIC-Universidad de Zaragoza), el Instituto de Nanociencia de Aragón (Universidad de Zaragoza), el Instituto de Ciencia Molecular de la Universidad de Valencia, la Universidad de Stuttgart (Alemania) y la Universidad de Nottingham (Reino Unido).

El deshielo del Ártico es una “emergencia planetaria”, advierten expertos

Científicos del Grupo de Emergencia del Metano en el Ártico (AMEG por sus siglas en inglés) aseguran que la masiva liberación del metano 'encerrado' en la masa de hielo del Ártico a la atmósfera constituye una situación de “emergencia planetaria”, por los efectos negativos de esta liberación sobre el calentamiento global. En una reunión mantenida en el Parlamento británico los ingenieros han propuesto como solución a esta situación la instalación de unas torres que generen unas nubes que condensen las concentraciones en el aire de dicho gas, cuyo efecto invernadero es veinte veces más potente que el dióxido de carbono.

El misterio del bosón de Higgs se desvela el 4 de julio

El CERN ha anunciado que el 4 de julio desvelará la información obtenida durante este año sobre el bosón de Higgs, el último ingrediente que falta para completar el Modelo Estándar de Física de Partículas. Con más datos recogidos entre abril y junio de 2012 que en todo 2011, si se descubre una nueva partícula como el bosón de Higgs se necesitará tiempo para asegurar que no se trata de una forma más exótica de esta partícula que pudiera abrir la puerta a una nueva física.




Nueva vida para las baterías de níquel-hierro de Thomas Alva Edison

Un grupo de ingenieros e investigadores de Stanford University se ha decidido a dar una nueva vida a las baterías de níquel-hierro, una tecnología de baterías recargables desarrollada por Thomas Alva Edison hace más de un siglo. Los especialistas descubrieron que era posible optimizar esta vieja tecnología, agregando a su natural durabilidad una mayor velocidad de carga y descarga, que se ha logrado multiplicar en alrededor de 1.000 veces.
Se prevé que este desarrollo podría ser una alternativa de bajo coste y alto rendimiento en coches eléctricos.

Hongjie Dai, profesor en Stanford University y uno de los líderes del grupo de investigación, indicó que la batería de Edison tiene una elevada durabilidad, pero a su vez registra distintos inconvenientes. Por ejemplo, su velocidad de carga y de descarga es muy lenta en su versión original.
Fue diseñada en 1900 pensando en brindar potencia a los vehículos eléctricos, y a su vez fue ampliamente utilizada sobre mediados de la década de 1970. En la actualidad sobrevive únicamente un puñado de compañías fabricantes de baterías de níquel-hierro, siendo utilizadas principalmente para almacenar el excedente de electricidad de paneles solares y turbinas eólicas.
El desarrollo de los especialistas de Stanford University se ha difundido a través de una nota de prensa de este centro de estudios, y además ha merecido un artículo recientemente publicado en el medio especializado Nature Communications, bajo el título An ultrafast nickel–iron battery from strongly coupled inorganic nanoparticle/nanocarbon hybrid materials.

El Alzheimer se 'contagia' de neurona a neurona

A medida que el Alzheimer progresa, va afectando cada vez a más áreas del cerebro. Sin embargo, hasta ahora no se conocen plenamente los mecanismos que van guiando este avance más o menos progresivo. Un nuevo estudio publicado esta semana en la revista 'Journal of Neuroscience' aporta ahora nuevas pistas.

Como explica el principal autor del trabajo, Martin Hallbeck, hasta ahora la atención se había centrado sobre todo en las placas que forma la proteína beta amiloide; pero los acúmulos más pequeños (oligómeros) también tienen su papel.
"Por primera vez hemos descubierto cómo los oligómeros de beta amiloide se 'propagan' de una neurona a otra, lo que les permite ir 'enfermando' unas partes del cerebro y no otras",
explica el investigador sueco.
El patrón de expansión del Alzheimer en el cerebro de un paciente sigue siempre un modelo similar, que se correlaciona con la pérdida progresiva de memoria y otras habilidades, a medida que más y más áreas cerebrales se van viendo afectadas y colonizadas por las placas de proteínas tóxicas.
 "Queríamos saber cómo las pequeñas acumulaciones de beta amiloide (oligómeros) son capaces de propagarse de unas neuronas a otras",
resume el especialista.

jueves, 21 de junio de 2012

Disfruta creando patatas fritas transparentes

Las patatas fritas, esos baluartes de las grasas saturadas, los dedos llenos de pizcos y los paluegos sempiternos… Estos símbolos del tapeo y las reuniones improvisadas podrían sufrir una crisis de identidad gracias a una receta que te permite “hacerlas transparentes”
y asemejándose al hielo, como si tuvieras los poderes deconstructivos del propio Ferran Adrià.
Bueno, en realidad no son patatas fritas propiamente dichas, sino fécula de patata frita con sabor a patata frita. Algo así como los preparados lácteos con omega-3 que supuestamente son leche. Es una receta original de Hamid Salimian, chef del restaurante Diva en el Museo Metropolitano de Nueva York, o al menos eso dicen.
Una madre usuaria de Instructables ha tomado la receta y ha explicado como hacerla en casa de manera sencilla. Tan sólo necesitarás varias patatas, sal, aceite de oliva, especias, fécula de patata, papel de horno y mucha paciencia.
La idea básicamente es hornear unas patatas con aceite y luego recoger su “esencia” y sabor con agua hirviendo. Tras dejar reposar varias horas y congelarlo, el líquido patatero se mezcla con fécula de patata para darle consistencia.
El “gel” se distribuye como si fueras a hacer galletas en papel de horno, se deja secar y luego se fríen poco a poco al gusto con una sartén y aceite de oliva a una temperatura baja.
Ya está, no necesitas sopletes de cocina, ni nitrógeno líquido, ni ingredientes obscenamente caros. Basta con ponerse manos a la obra y podrás crear patatas fritas dignas de Narnia..

Apple patenta la clonación de tu identidad virtual

Cada cierto tiempo Apple registra periódicamente una remesa de patentes, algunas con sentido y geniales, otras absurdas, varias no se llegarán a materializar nunca y unas pocas forman parte real de los productos que van a crear. Entre este barullo de tecnología en estado nebuloso destaca una patente “curiosa”, describe un sistema para crear clones de tu identidad virtual en Internet con el fin de que rastrearte sea más complicado.

De todos es sabido que hoy en día, cualquier cosa que haces en Internet es observada, registrada y analizada, ya sea para crear un perfil de tus gustos y acribillarte con publicidad diseñada para ti, para controlarte, ver si eres un terrorista o por algún inquietante y oscuro propósito.
Sea por lo que sea, lo normal es que nos resulte un poco molesto, así que en Apple contemplan la idea de permitirte configurar clones virtuales que pululen por la web basados en parte en ti.
La razón de que tengan cierto parecido contigo es para que no cante mucho y no se pueda descubrir quien eres tú realmente. Podrás elegir en que quieres que se parezca, que intereses tiene y que quieres que haga. Algo de agradecer si no quieres luego descubrir redadas en tu casa porque tu clon sea haya convertido en un ultraanarquista que pretende cargarse el Congreso o en un pedófilo empedernido.
Veremos si realmente sigue adelante y se convierte en un añadido a las simples navegaciones privadas de los navegadores actuales. Eso sí, mientras tanto seguirás pudiendo hacerte pasar por multimillonario, supermodelo o emo atormentado en tus múltiple perfiles para ligar

¿Estarán basadas las pantallas del futuro en agua y aire?

Parece ser que en la universidad finlandesa de Aalto, además de darle pie a Linus Torvald para expresar sus sentimientos de cariño, también es un centro de investigación donde se desarrollan cosas bastante curiosas. Una de ellas es esta pantalla “monocromo” que combina aire y agua gracias a un material superhidrofóbico que permite nanocápsulas de aire de doble estado.

Utiliza una boquilla que inyecta agua en unas microestructuras con nanofilamentos que permiten mantener una capa de aire biestable que hace que las “celdas” cambien de un estado seco a otro húmedo al inyectar el agua de manera reversible.
La estructura de la superficie no cambia, por lo que puede reutilizarse tantas veces como se quiera y permite una gran precisión que debido al contraste óptico del estado seco y húmedo funciona prácticamente como una pantalla de tinta electrónica.
La universidad de Aalto ha desarrollado este sistema en colaboración con la Universidad de Cambridge y el Nokia Research Center. La superficie además guarda la información de forma pasiva mientras siga sumergida, por lo que no necesita energía.
Se podría utilizar como una memoria biestable fácilmente legible a simple vista, algo que no tiene mucho sentido a no ser que necesites crear la versión submarina de los diez mandamientos o que los peces de tu acuario tenga su propio telesketch.

Haría falta todo Internet para confeccionar el mapa del cerebro de un ratón

Parece mentira todo lo que tenemos ahí arriba. pero si tratásemos de crear un mapa del cerebro la tarea sería titánica. Tanto que, si nos limitásemos a trazar el mapa del cerebro de un ratón necesitaríamos todas las páginas web de Internet para replicar el diagrama de dicho esquema neuronal. Es lo que están tratando de hacer en los laboratorios de Cold Spring Harbor, en Long Island (Nueva York), y no les está resultando nada sencillo.

Conociendo un esquema de la organización y el funcionamiento del cerebro podríamos ubicar el funcionamiento de los códigos biológicos que hay tras nuestra personalidad: recuerdos, habilidades, temores…
Para crear imágenes precisas del cerebro que permitan reconstruir el diagrama de su estructura neuronal los científicos han introducido una serie de marcadores químicos en el mismo y a continuación seccionan en “lonchas” extremadamente delgadas el tejido. Después, con microscopios de gran aumento se obtienen imágenes de gran resolución capaces cada una de captar mil millones de píxels con lo que de cada cerebro se llega a almacenar 1 Tb de información gráfica.
Pero esa es la parte fácil.
Desde ahí la cantidad de datos a manejar es tan ingente que en la práctica se puede afirmar que los científicos no saben qué hacer con la misma, de modo que la están compartiendo con el resto de la comunidad científica. Por el momento han compartido desde su propia web más de 500 Tb de imágenes, y cada semana continúan añadiendo más.
Con el tiempo el propósito es componer un mapa de todas las neuronas, sus conexiones y el esquema de funcionamiento de las mismas, pero el escollo principal es que no hay dos cerebros iguales con lo que mapeando un único cerebro, aunque será un gran avance y sin duda ayudará a entender el funcionamiento del mismo, no supone que los conocimientos extraídos sean directamente extrapolables a otro cerebro.
El primer boceto más o menos razonable del mapa del cerebro de un ratón se espera que pueda estar disponible en el año 2014.

Los altavoces más delgados del mundo: 0,5 mm y además se pueden doblar

Aún no ha terminado sus estudios en el Royal College of Art y Hannes Harm ya es capaz de crear diseños tan originales, atractivos y prácticos. Qué será de él cuando alguna empresa contrate a alguien con tanto talento. Se trata de unos altavoces que se pueden doblar de forma que varían su forma ultradelgada, fácilmente escamoteable si hay que guardarlos o en las inevitables mudanzas. Están realizados en acero inoxidable y presentan un grosor de medio milímetro.
Como si se tratase de un juego de papiroflexia, poco más que doblar y desdoblar sin muchas complicaciones por unas líneas permarcadas de manera que de una delgada lámina de acero pasamos a tener unos muy decorativos altavoces con su propio soporte incorporado en la estructura
Además el coste debería ser muy bajo debido a que estamos hablando de una lámina de acero perforada con láser. El propio soporte incluye los botones con los que poder accionar el volumen.

Tampoco sería muy costoso el envío al poder hacerse en un sobre.

Y en cuanto al altavoz en si, al emplearse uno con membrana de tipo plano, ni se abultaría el dispositivo ni el embalaje y además estéticamente no rompería la línea. ¿A qué esperan para construirlos y venderlos?




Un nuevo método permite producir hidrógeno rápidamente

Un grupo de ingenieros e investigadores del Pacific Northwest National Laboratory de Estados Unidos ha hallado una nueva metodología para producir hidrógeno con mayor velocidad, incrementando al mismo tiempo la eficiencia del proceso. La innovación se sustenta en el empleo de líquido iónico y agua en los catalizadores utilizados, una mezcla que mejora ostensiblemente el rendimiento de estos dispositivos. Optimizar la velocidad y la eficiencia en la producción de hidrógeno es una de las claves para lograr un mayor desarrollo de esta fuente energética. Ahora, el uso de líquido iónico y agua en catalizadores por parte de un grupo de especialistas del Pacific Northwest National Laboratory de Estados Unidos ha marcado un importante avance en este campo. La importancia de la nueva metodología radica en que hace posible incrementar la velocidad de la producción sin sacrificar por eso una mayor eficiencia.

Hasta el momento, se habían logrado avances en los catalizadores de hidrógeno que se circunscribían a un único campo: o mayor velocidad o más eficiencia. Resultaba imposible aunar ambas características. Pero los ingenieros norteamericanos parecen haber encontrado la clave para integrar las dos ventajas: el uso de líquido iónico y agua.
Los avances obtenidos en esta investigación han sido difundidos a través de una nota de prensa del Pacific Northwest National Laboratory, y además se han desarrollado en un artículo publicado recientemente en el medio especializado Proceedings of the National Academy of Sciences (PNAS), bajo el título “Acidic ionic liquid/water solution as both medium and proton source for electrocatalytic H2 evolution by [Ni(P2N2)2]2 complexes”.
La metodología en cuestión proporciona una nueva visión en torno a la producción de esta fuente alternativa y ecológica de energía. Básicamente, el trabajo demuestra que el medio líquido puede mejorar el rendimiento de los catalizadores de hidrógeno, según afirmó el químico John Roberts, uno de los responsables de la investigación.
Líquido iónico y agua

La solución que permitió combinar la velocidad y la eficiencia en el nuevo catalizador llegó de la mano de la introducción del dispositivo en un medio dominado por líquido iónico. Los líquidos iónicos son sales líquidas que contienen moléculas o átomos con carga negativa o positiva mezclados entre sí.
Los investigadores mezclaron el catalizador, el líquido iónico y una gota de agua. El catalizador comenzó a incrementar su velocidad en la producción de hidrógeno a medida que se incorporaba más agua, y además se consiguió que lo haga sin sacrificar la efectividad del proceso.

Crean un robot con un sentido del tacto más sensible que el de los humanos

Hasta ahora, los robots no sentían nada al tocar materiales u objetos. Una tecnología desarrollada por científicos estadounidenses podría cambiar esta realidad. Basada en sensores especiales y en un programa informático específico, la técnica ha permitido crear un robot que es capaz de distinguir materiales solo con tocarlos, con una capacidad de acierto del 95%. La sensibilidad de la máquina es tal que supera incluso a la de los dedos humanos. El avance ayudará al desarrollo de prótesis sensibles, robots de asistencia personal más especializados, y pruebas específicas de productos de consumo.
Todo gracias al avance realizado por unos investigadores de la Viterbi School of Engineering de la University of Southern California (USC) de Estados Unidos.

Los científicos, cuyo trabajo ha aparecido publicado en la revista Frontiers in Neurorobotics, demostraron que un robot especialmente diseñado pudo incluso superar a los humanos en la identificación de una amplia gama de materiales naturales, a partir únicamente de su textura.
Más sensible que los dedos humanos

El robot desarrollado en esta investigación fue equipado con un nuevo tipo de sensor táctil creado para imitar las puntas de los dedos humanos.
Asimismo, también lleva incorporado un algoritmo de nuevo diseño que permite tomar decisiones sobre cómo explorar el mundo exterior, siguiendo estrategias también humanas.
El sensor puede indicar además dónde y en que dirección aplicar la fuerza de la punta de los dedos, así como las propiedades térmicas de un objeto que está siendo tocado.
Al igual que los dedos de las personas, el sensor BioTac® tiene una piel suave y flexible, que rodea un líquido de relleno. Esta piel cuenta con huellas dactilares en su superficie, que permiten elevar la sensibilidad a las vibraciones.
De este modo, a medida que el dedo se desliza sobre una superficie con textura, la piel vibra de diversas maneras. Estas vibraciones son detectadas mediante un hidrófono situado en el interior del núcleo, y que es similar al hueso del dedo.
Aunque el dedo humano también utiliza vibraciones de este tipo para identificar diversas texturas, el dedo del robot es aún más sensible

La dopamina está implicada en la regulación del sueño, revela un estudio

Hasta ahora, se pensaba que la noradrenalina era la única hormona involucrada en la regulación de la melatonina, relacionada con los ciclos de vigilia y sueño. Sin embargo, investigadores españoles han descubierto que la noradrenalina necesita asociarse con los receptores de dopamina para hacer su función. Este hallazgo abre nuevas perspectivas para el diseño de futuros tratamientos que regulen alteraciones del sueño relacionadas con el ritmo circadiano, como el jet lag, los horarios laborales nocturnos y los trastornos del sueño.
La dopamina, conocida como la hormona del placer, es un neurotransmisor que actúa desde el núcleo accumbens del cerebro para activar el sistema de recompensa.

Investigadores españoles han publicado un nuevo hallazgo en PLoS Biology sobre su función en el organismo: la dopamina también está implicada en la regulación del sueño desde la glándula pineal.
“Habíamos visto anteriormente cómo el receptor 4 de dopamina podía formar regulaciones complejas con otros receptores y modificar su función”,
ha explicado Peter J. McCormick, coordinador del estudio, en el que participan investigadores de la Universidad de Barcelona (UB) y del Centro de Investigación Biomédica en Red de Enfermedades Neurodegenerativas (CIBERNED), a través del Instituto de Salud Carlos III.
La glándula pineal es una región del sistema nervioso sensible a la luz en la que se sintetiza la melatonina, hormona relacionada con los ciclos de vigilia y sueño.
Ya se sabía que su síntesis y liberación estaba regulada por otra hormona, la noradrenalina. Ahora, los científicos han descubierto que en este proceso también interviene la dopamina.

La ESA aprueba una misión para explorar el lado oscuro del Universo

La ESA aprobó hoy la misión Euclides, que se lanzará en 2020 con la misión de estudiar el lado oscuro del Universo. Dispondrá de un telescopio espacial que confeccionará un mapa tridimensional de la distribución de hasta dos mil millones de galaxias, y de la materia oscura que contienen. Extendiéndose más de diez mil millones de años-luz, esta misión estudiará la evolución de la estructura del Universo durante tres cuartas partes de su historia




Científicos consiguen atrapar y manipular la luz usando grafeno

Un equipo de científicos de instituciones españolas ha logrado confinar la luz a escala nanométrica (con un espesor de tan solo un átomo) en grafeno. El logro confirma las predicciones teóricas sobre las propiedades de esta alotropía del carbono para procesar información óptica y para la detección ultra-sensible. La nueva técnica podría tener aplicaciones en diversas áreas, como la medicina, la biodetección, las células solares y los sensores de luz, así como los procesadores de información cuántica.
Esta visualización prueba lo que físicos teóricos habían predicho desde hace tiempo: que es posible atrapar y manipular luz de manera muy eficiente usando grafeno como una nueva plataforma para procesar información óptica y de detección ultra-sensible.

El estudio, que pública esta semana la revista Nature, ha sido posible gracias a las sinergias establecidas entre el Instituto de Química-Física Rocasolano (IQFR-CSIC) de Madrid, el Instituto de Ciencias Fotónicas (ICFO) de Barcelona y nanoGUNE, en San Sebastián.

Crean una cámara de 50 gigapíxeles, cinco veces más precisa que la visión humana

Una cámara de 50 gigapíxeles. O lo que es lo mismo, de 50.000 megapíxeles. Un dispositivo capaz de conseguir imágenes con un detalle sin precedentes. Por ahora es un prototipo, un trabajo de un grupo de ingenieros eléctricos de las universidades de Duke y Arizona, pero en unos años estará probablemente en los comercios.
Esta imagen pluscuamperfecta se logra mediante la sincronización de 98 cámaras diminutas en un único dispositivo. La resolución de la cámara es cinco veces mayor que la visión humana normal, según se detalla en la revista Nature.
La nueva cámara puede capturar hasta 50 gigapíxeles de datos. Hay que tener en cuenta que la mayoría de las cámaras de los consumidores oscilan, en el mejor de los casos, entre 8 y 40 megapíxeles, lo que da idea del salto logrado en este prototipo.
No es el primer dispositivo que toma fotografías que se pueden medir en gigapíxeles. Cada día se difunden proyectos de este tipo tanto en el área civil como en el militar. En el primer caso, destacan iniciativas como 360world, dentro del cual se consiguió una imagen de 70 GB con dos cámaras. En el lado militar, hace unos meses supimos que los aviones estadounidenses sin piloto que sobrevuelan Afganistán pueden tomar imágenes con una resolución de 1,8 gigapíxeles.
En el futuro, mucho más pequeñas
Los autores del trabajo conocido hoy creen que dentro de cinco años se habrá logrado que los componentes electrónicos de las cámaras puedan ser mucho más pequeños y eficientes, de forma que la próxima generación de cámaras gigapixel podría llegar entonces al público en general.
«La cámara es así de grande -como se aprecia en la foto que ilustra esta noticia- debido a los tableros de control electrónico y a la necesidad de añadir componentes para evitar que se sobrecaliente»,
aseguró David Brady, uno de los coautores del experimento.
Tradicionalmente, la mejora de las cámaras se conseguía añadiendo elementos de cristal, haciéndolas más complejas. Sin embargo, en un determinado momento -según los investigadores- la complejidad satura el mecanismo y eleva demasiado los costes. En este nuevo ingenio hay un software que combina el trabajo de las microcámaras, y una lente-objetivo común que recoge la luz y dirige esas 98 cámaras diminutas.
«Cada una de ellas trabaja en una zona concreta de la imagen. Y algunas se superponen, de forma que no nos perdemos nada»,
según Michael Gehm, profesor de la Universidad de Arizona.

martes, 19 de junio de 2012

EEUU recupera la primera posición en la lista de los superordenadores más rápidos

El superorodenador Sequoia de IBM encabeza la lista de los más rápidos del planeta, y devuelve la corona a EEUU. Destrona al ordenador K Computer de Fujitsu, que se sitúa ahora en segunda posición.

Sequoia, instalado en el Laboratorio Nacional Lawrence Livermore National del Departamento de Energía de EEUU en California, se utilizará para realizar simulaciones que ayuden a extender la vida del arsenal nuclear estadounidense, sin necesidad de realizar test reales.
Para hacernos una idea de su poder de procesamiento, este equipo es capaz de calcular en una hora el equivalente al trabajo constante de 6.7 millones de personas con calculadoras de mano durante 320 años.
Estados Unidos tiene tres equipos en la selecta lista de los 10 ordenadores más rápidos del mundo. China y Alemania tienen dos supercomputadores cada uno en dicha lista, mientras que Japón, Francia e Italia tienen uno cada.
No obstante, IBM es el líder en la fabricación de estos equipos, al ser responsable de cinco de los 10 primeros.
Sequoia es 1,55 veces más rápido que el modelo de Fujitsu, y utiliza más de 1,5 millones de procesadores. No obstante, en comparación con el modelo japonés, tiene menos de la mitad de CPU, y es sensiblemente más eficiente energéticamente que el Fujitsu: 7,9 megavatios en comparación con el equipo K, que utiliza 12,6 megavatios.
Sr. Turek Sequoia descrito como el "pináculo de la eficiencia energética" y dijo que la reacción había sido "muy entusiasmado".
Hace dos años, EEUU perdió el primer puesto de esta lista a manos de una máquina china, Tianje-1A, que logró batir a Jaguar.

Las zonas «prohibidas» de la NASA en la Luna

El primer hombre que pisó la Luna, Neil Armstrong, decía a una televisión australiana que un día alguien regresará allí arriba y «recogerá» la cámara que dejó olvidada. Quizás no sea así. La NASA ha hecho público un documento oficial en el que especifica los
«artefactos históricos»
abandonados en la Luna que deben ser preservados. La lista, que incluye los lugares de alunizaje de las misiones Apolo y el cráter de impacto de la sonda LCROSS, donde se encontró agua, incluso señala la distancia a la que deben mantenerse los astronautas o turistas espaciales que viajen en el futuro hasta nuestro satélite natural. Por ejemplo, recomienda no acercarse a más de 75 metros de la zona del módulo de descenso del Apolo 11.

La agencia espacial norteamericana ha elaborado esta lista ante el constante aumento de las actividades espaciales de entidades privadas y naciones en todo el mundo, con proyectos para regresar a la Luna en misiones científicas o con fines comerciales. Reconoce que algunas de ellas están cerca de aterrizar en la superficie lunar. Las recomendaciones son solamente eso, recomendaciones, y no suponen ninguna obligación legal, pero pueden ayudar a los próximos exploradores de la Luna a planificar sus vuelos y controlar sus alunizajes con el fin de conservar las piezas originales de otros artefactos que, además de tener un valor histórico, pueden ayudar en futuras investigaciones científicas.
Estos artefactos y zonas incluyen:
-Los lugares de aterrizaje de las misiones Apolo y su hardware móvil.
-Lugares de aterrizaje de robots lunares (por ejemplo, del Surveyor).
-Lugares de impacto (Ranger, S-IVB, LCROSS...).
-Experimentos dejados en la superficie lunar (herramientas, equipos, hardware...).
-Indicadores específicos de la presencia de ciudadanos o máquinas de EE.UU., incluidas huellas humanas o de rovers...
La NASA ha abierto un diálogo con las agencias espaciales comerciales e internacionales para compartir el documento y abrir un debate para mejorar sus recomendaciones.

Descubierto el sistema de «mensajería» de los insectos

Por increíble que parezca, los insectos son capaces de usar plantas como si fueran teléfonos y comunicarse, a través de ellas, con otros insectos. Pero no sólo eso. Un nuevo estudio llevado a cabo por investigadores holandeses ha revelado que, por medio de esas mismas plantas, los insectos pueden
"grabar mensajes"
en el terreno circundante. Mensajes que pueden después ser "escuchados" por otros insectos. Los resultados de este sorprendente estudio se publicarán próximamente en la prestigiosa revista Ecology Letters.

Los investigadores, del Instituto Holandés de Ecología (NIOO-KNAW) y de la Universidad de Wageningen (WUR), descubrieron que este inimitable "servicio de mensajería" funciona, entre otras, en la Senecio jacobaea, una planta silvestre muy común en toda Europa y conocida en España como Hierba de Santiago o Hierba cana. Según el estudio, los insectos consiguen almacenar sus mensajes gracias a los efectos que provocan en los hongos del subsuelo.



La tortuga fósil hallada en el Parque Güell cuestiona la clasificación de especies

Investigadores del Instituto Catalán de Paleontología (ICP) han dado a conocer por primera vez detalles de la morfología del 'Testudo lunellensis', la tortuga fósil que se descubrió en el yacimiento de la Cova de Gràcia durante las obras de construcción del Parque Güell, que "cuestiona la clasificación de las especies actuales".
Según ha informado la institución, la investigación, que se acaba de publicar en la revista 'Amphibia-Reptilia' muestra la plasticidad fenotípica de las tortugas, por lo que cuestiona dicha clasificación. Los restos de tortuga terrestre fósil recuperadas en el Parque Güell fueron adscritas a 1903 y fueron relacionados con unos restos del pueblo francés Lunel-Viel, pero con el tiempo se han considerado adscritas a otro tipo de tortuga aún sin describir.
En este trabajo, los investigadores describen por primera vez la morfología de esta especie e identifican sus rasgos característicos, entre los que destacan los huesos periféricos altos y una peculiar forma de lóbulo.
El estudio identifica rasgos de diferentes especies, lo que significa que si la tortuga del Parque Güell no se hubiera extinguido y se clasificara a partir de sus rasgos morfológicos, entonces esta especie se parecería a nivel superficial a T.Hermanni, mientras que un estudio detallado mostraría rasgos propios de especies diferentes.
Esta especie de caracteres en una tortuga del Pleistoceno subraya aún más la plasticidad fenotípica de estos organismos y refuerza la idea de que habría que centrarse en los datos morfológicos como en los moleculares si se quieren entender las relaciones filogenéticas entre los taxones actuales y los extintos.



Una galaxia casi tan antigua como el Universo

En escala astronómica, lejano significa antiguo. Observar una galaxia situada a 12.900 millones de años luz de la Tierra es poner la vista casi en los orígenes del Universo. Los telescopios Subaru y Keck han hallado una nueva galaxia, de nombre SXDF-NB1006-2 a esta distancia, lo que la convierte en la más lejana jamás descubierta. Sólo tiene unos pocos miles de millones de años desde el Big Bang, es decir, probablemente sea una de las primeras galaxias que se formaron tras la creación del Universo.

Los astrónomos que han llevado a cabo este trabajo, publicado en 'Astrophysical Journal', esperan que el estudio de SXDF-NB1006-2 y otros objetos lejanos ayuden a reconstruir lo que ocurrió en los albores del cosmos. Para tal propósito también cuentan con el hallazgo, realizado a principios de mayo por la Universidad de Arizona, de una galaxia que podría encontrarse a 13.000 millones de años luz de la Tierra, aunque los datos aún no están confirmados.
Del mismo modo, el equipo del telescopio espacial Hubble anunciaba en 2011 el descubrimiento de una galaxia que podría estar a 13.200 millones de años luz de la Tierra, pero, tras varias investigaciones, sigue siendo un "candidato galaxia" y está pendiente de confirmación. Para observar un objeto tan lejano y débil, los científicos tuvieron que recoger la luz a través de los telescopios durante más de 37 horas, dejando que la luz se acumule para lograr ver lo más profundo posible. Los investigadores, dirigidos por Takatoshi Shibuya de la Universidad de Postgrado para Estudios Avanzados en Japón, explicaron que hay 58.733 objetos en la imagen, y que se redujo a dos los posibles candidatos a galaxias extremadamente distantes.

Científicos advierten de un colapso planetario inminente e irreversible

Las llamadas de atención ya han sido muchas pero ésta, por el prestigio de las voces que la realizan y lo tajante de su mensaje, quizás consiga, por fin, hacerse escuchar. Un renombrado plantel de 22 científicos de todo el mundo, entre ellos algunos españoles del Consejo Superior de Investigaciones Científicas (CSIC), ha advertido de que la Tierra se aproxima a un colapso inminente e irreversible. En cuestión de décadas, si no se toman las medidas adecuadas -algo para lo que, por fortuna, aún estamos a tiempo-, la humanidad se enfrentará sin remedio a un
«nuevo régimen para el que no estamos preparados».
El panorama desolador incluye carencia de alimentos y de agua potable, enormes sequías, extinción de especies y migraciones masivas de gente en busca de su propia supervivencia
«como nunca hemos visto en la historia».
Las causas, según explican en la revista «Nature», son el brutal crecimiento de la población, la destrucción de los ecosistemas naturales en todo el mundo y el cambio climático.

Desde sus comienzos, la Tierra ha sufrido cinco grandes episodios de extinciones masivas asociados a cambios climáticos que han transformado las características de todo el planeta. El último gran gran cambio se produjo hace unos 14.000 años, cuando el 30% de la superficie terrestre perdió la capa de hielo que la cubrió durante el último período glacial. Desde entonces, el planeta se ha mantenido más o menos estable hasta la aparición y el desarrollo de la civilización humana. Sin embargo, los científicos creen que esto está a punto de cambiar. Y la culpa es nuestra.
Para empezar, somos muchos y consumimos demasiados recursos. La tasa de crecimiento anual de la población es de unos 77 millones de personas, casi mil veces superior a la experimentada hace entre 10.000 y 400 años. Hemos alterado el paisaje gravemente y emitimos a la atmósfera cantidades ingentes de CO2. «Sí, tenemos motivos para asustarnos. Hay grandes posibilidades de llegar a un punto de no retorno, catastrófico, para el que no hay marcha atrás, y las consecuencias pueden ser enormes para nuestra calidad de vida como especie. Tendremos problemas muy grandes»,
afirma  Jordi Bascompte, biólogo de la Estación Biológica de Doñana, que ha participado en el trabajo.
El científico compara al mundo con una taza en el borde de una mesa a punto de caer y hacerse añicos. No parece que se produzcan grandes cambios mientras se acerca al filo, pero un ligero movimiento al final (léase, por ejemplo, una subida de temperaturas) y, de repente, el golpe puede ser terrible. La lista de fatales consecuencias es interminable. Perderíamos la polinización de los campos agrícolas -un proceso natural que hacen insectos como las abejas y del que dependen los cultivos-, muchas especies se extinguirían y otras se adaptarían, la provisión de agua potable y de alimentos sería mucho menor a consecuencia de la disminución de la biodiversidad y aumentarían las zonas mundiales desérticas.
«Las grandes sequías conllevarían grandes migraciones y el regreso de enfermedades infecciosas que en el mundo occidental creemos erradicadas»,
apunta el biólogo. En palabras de Anthony Barnosky, profesor de biología en la Universidad de California Berkeley y principal autor de la revisión,
«realmente será un nuevo mundo, desde el punto de vista biológico».
A tiempo de evitarlo
Y todo esto puede estar a la vuelta de la esquina. Los estudios realizados por los científicos, según han podido observar en ecosistemas locales, su particular bola de cristal, predicen que puede ocurrir alrededor del año 2025. Alrededor de esa fecha, si seguimos al mismo ritmo, habremos destruido el 50% de los hábitats naturales mundiales. Y en 2045, el 55% (ahora vamos por el 43%).
«Es rápido, sabemos las causas y las implicaciones. Es un buen momento para actuar y evitarlo. Si la taza está en el borde es infinitamente más sencillo empujarla hacia el lado adecuado, aunque suponga un gran esfuerzo, que intentar repararla cuando ya haya caído»,
dice Bascompte.
Los investigadores creen que todavía estamos a tiempo de revertir la situación. Para ello, apuestan por frenar el crecimiento de la población, reducir el uso de energía per capita en los países del primer mundo y optar por las sostenibles, emplear los recursos de forma más racional e intentar proteger las zonas vírgenes de la Tierra.
Algunos quizás consideren estas conclusiones demasiado alarmistas. A ellos, Bascompte les diría que
«esa es la realidad. Puede ser dura, pero es mucho mejor enfrentarse al problema que obviarlo. Es similar a alguien que tiene un cáncer y pretende ignorar lo que le dice el médico. Ignorar la información nunca es una buena decisión».

La Tierra ha sufrido dos tormentas solares en tres días

La Tierra ha sufrido en los últimos tres días dos tormentas magnéticas, según ha informado la Administración Oceánica y Atmosférica (NOAA) de Estados Unidos.

La primera de ellas comenzó en la noche del sábado y concluyó la noche del día siguiente. Sin embargo, la situación se calmó durante doce horas y este lunes comenzaba una nueva tormenta magnética. Las tormentas magnéticas surgen en la Tierra cuando el plasma arrojado por el Sol alcanza la magnetosfera terrestre.
Las partículas cargadas provocan perturbaciones geomagnéticas. Si son fuertes, pueden ocurrir fallos en el funcionamiento de los aparatos electrónicos, la comunicación radial y redes eléctricas. En este caso, la tormenta magnética es resultado de la combinación de dos expulsiones de la masa coronaria solar que se produjeron el pasado 9 de junio en la mancha solar conocida como 1504, situada en la superficie visible del Sol.
También, el 13 y el 14 de junio fueron registradas en dicha mancha otras dos potentes llamaradas seguidas de emisiones del plasma solar. Según ha explicado NOAA, la velocidad de la primera emisión fue relativamente moderada, de 604 kilómetros por segundo. Pero la segunda se caracterizó por una "alta" velocidad, de 1.360 kilómetros por segundo. Ambas nubes alcanzaron la Tierra casi simultáneamente, el 17 de junio.
Las perturbaciones magnéticas que se han registrado este lunes y el pasado fin de semana son, con mucha probabilidad, el resultado de ese "ataque combinado", según lo ha definido NOAA

Formato Blu ray ya tendría fecha de muerte

Si bien la recomendación viene de muy cerca, pues el ejecutivo que efectuó declaraciones contra el sistema Blue ray es el representante de un fabricante de "cajitas" para conectar la TV a internet, podemos darle cierto grado de credibilidad.
Es innegable que el boom de servicios de streaming (ver un video on line desde cualquier dispositivo con acceso a internet) se está capitalizando a través de los grandes de la industria como Netflix y otros, también hay que darle méritos a los sitios "no oficiales" que empujaron a los usuarios a dejar de descargar, convertir y quemar en un disco para simplemente "ver".
Cuevana y otros entendieron mucho antes que los grandes a que la red era capaz de reemplazar el televisor y que el usuario tenía apetito de consumo ahora y no cuando Hollywood se acordara, especialmente de nuestro continente, donde el proceso de estreno de un título demora meses y hasta un año en estar a disposición del comprador luego de pasar por PPV, tienda física, TV Cable y luego nuestro reproductor.
Hoy si bien el Blu ray ha subido sus ventas globales gracias a sus bondades de ver contenido en óptima calidad, quizás la reacción de sus creadores no fue a tiempo.
Anthony Wood, CEO de la firma que vende decos para TV - Internet bajo la marca Roku asevera que pese al "buen momento" del formato Blu ray, éste desaparecerá en cuatro años más.
Ya los grandes como Apple y Microsoft le han puesto el dedo pulgar hacia abajo y apuestan a la nube, a lo virtual y dejan el formato físico como un recuerdo y que de acuerdo a su visión, hoy los SmartTV marcan la pauta de lo que será el consumo de contenidos en los próximos años.
Puede tener cierto grado de razón, pero lamentablemente la tendencia no es global pues no se pueden comparar países como EE.UU , México, España o Chile ya que los estudios de cine determinan cuándo y dónde se estrena un título y en qué formato.
Cuando Hollywood entienda mejor el concepto de aldea global podríamos dejar de lado los envases y realmente apreciar contenido de alta calidad.

Científicos japoneses hallan la fórmula del éxito cinematográfico

Un grupo de científicos dice haber dado con la fórmula del éxito... cinematográfico. Un estudio ha publicado un modelo matemático que permite predecir el resultado en taquilla de una película atendiendo la actividad en internet y las redes sociales.
El estudio, capitaneado por el profesor Akira Ishii del departamento de Matemática Aplicada y Física de la Universidad de Tottori, ha ideado una fórmula matemática capaz de avanzar el rendimiento en taquilla de una película a partir de del nivel de actividad relacionada con ella en las redes sociales, blogs y otros sitios web, antes y durante su lanzamiento.
«Hemos encontrado una correlación directa entre el número de mensajes en redes sociales acerca de una película en un día determinado, y el número de personas que tenían la intención de comprar entradas»,
dijo el profesor Ishii a The Hollywood Reporter.
El responsable del estudio también apunta que tal es el peso que tienen estas variables, que pueden influir más en el éxito de una película que la propia publicidad.
"No hemos encontrado una relación directa entre el gasto en publicidad y la intención de compra",
apunta en este sentido. Según el profesor, en el ámbito publicitario la clave es el momento en el que se lanza la campaña y apunta
"de dos semanas a diez días antes del estreno",
como el momento perfecto para ponerla a toda máquina.
En todo caso, Ishii quiso dejar claro que el modelo no fue desarrollado para predecir el éxito o el fracaso de las películas y que el uso de datos sobre la actividad en la red social y las páginas web sirve unicamente como
"experimento para probar la ecuación".

El Voyager-1 se convierte en el primer artefacto en adentrarse en el espacio interestelar

En estos días el Voyager-1, la sonda espacial lanzada por la NASA en 1977 está abandonando nuestro sistema solar, adentrándose en las profundidades interestelares.
La heliopausa es la zona del espacio donde el viento solar comienza a entremezclarse con el viento procedente de otras estrellas. En la práctica se considera como el límite, la frontera de nuestro sistema solar. Y justo en esa zona, a unos 18.000 millones de kilómetros de la Tierra, es donde se encuentra ahora el Voyager-1, el objeto construido por el hombre más lejano.
Desde allí envía señales que indican que está detectando picos de radiación de rayos cósmicos correspondientes a lugares externos a la influencia del viento solar de nuestro Sol.

La Voyager 1 es una Sonda espacial robótica de 722 kilogramos, lanzada el 5 de septiembre de 1977, desde Cabo Cañaveral, Florida.
La sonda obtiene su energía eléctrica de tres RTGs, (Generador termoeléctrico de radioisótopos) de los cuales se espera que estén generando suficiente energía para que las sondas estén en comunicación con la Tierra hasta por lo menos el año 2025.

Se aleja con una velocidad de 3,6 unidades astronómicas (29 minutos-luz) por año del Sol, lo que corresponde a 17 km/s. Medidas exactas apuntan a que la velocidad disminuye muy lentamente de forma imprevista. Las causas de este frenado son objeto de diversas controversias.

Este es el páncreas artificial que puede solucionar la diabetes tipo 1

La diabetes mellitus tipo 1 produce una deficiencia en la producción de insulina que normalmente realizaría el páncreas, ocasionando un aumento en los ácidos grasos circulantes en sangre que, a la larga, puede producir problemas circulatorios, en riñones, ojos… Todo eso puede llegar a controlarse gracias a este páncreas artificial desarrollado por la Fundación para la Investigación de la Diabetes Juvenil gracias a la colaboración de varias universidades.
Las universidades norteamericanas de Virginia, la de California-Santa Bárbara, las de Padua y Pavía en Italia y el Hospital universitario de Montpellier en Francia son las instituciones que han aunado sus esfuerzos para la consecución de este revlucionario dispositivo que solucionará la vida a los jóvenes que padezcan este tipo de diabetes, que suele aparecer en la infancia o adolescencia, o bien hasta los 30 años.
El dispositivo consta de dos partes, un monitor continuo que controla el nivel de glucosa y un sistema de bombeo de insulina subcutáneo. El monitor alerta al paciente cuando el nivel de azúcar baja y este sólo tiene que proceder a añadir la dosis necesaria para equilibrar el nivel de insulina.
El control del sistema se produce de forma automática y en tiempo real gracias al dispositivo semejante a un smartphone que se encarga de las funciones de “cerebro” del conjunto. Ya ha recibido la aprobación de la FDA (equivalente estadounidense al Ministerio de Sanidad) para comenzar con los ensayos clínicos con pacientes, cuya primera fase de pruebas acaba de comenzar.
Justin Wood, de 40 años, ha sido la primera persona en utilizarlo y cuenta las facilidades que aporta en cuanto a que el páncreas automatizado realiza las funciones de control que habitualmente realizaba ella, con lo que se gana en independencia además de precisión por no hablar de que ya no es necesario realizar varias veces al día múltiples pequeños pinchazos en las yemas de los dedos para tomar una muestra de sangre con la que verificar el nivel de glucosa.
La siguiente fase se iniciará en 2013 sobre un total de 120 pacientes de Estados Unidos, Francia e Italia.

El nuevo y sorprendente diseño de Airbus: aviones siameses

Y nos creíamos que el Airbus A380 ya era un titán de las nubes. Lo será hasta que el consorcio europeo que lo ha construido decida ponerse manos a la obra y alumbrar lo que de momento ya tienen inscrito en el Registro de Patentes y Marcas de los Estados Unidos de América: un singular avión de doble fuselaje y doble ala con un cuerpo central donde va el rotor. Curiosamente sería una nave con menor peso al requerir menos superficie alar para la sustentación, y menos peso significa menos combustible.

El método empleado de turpopropulsión para facilitar el empuje horizontal contribuye a reducir el consumo de combustible, y junto con el original diseño de la doble ala y el doble fuselaje, aunque a nosotros nos parezca un ladrillo, los que saben de ingeniería aeronáutica afirman no solo que es capaz de volar sino que además lo hará gastando menos queroseno.
Añadamos el factor de que doble fuselaje significa doble capacidad de pasaje y esto puede contribuir a que los billetes de avión experimenten un notable descenso en su precio. Si las cuentas saliesen así de sencillas y realmente tanto ahorro se repercutiera en los bolsillos de los viajeros estaríamos hablando de pasajes a un 25% de los precios actuales.

Lo curioso es que, a diferencia de los actuales turboreactores, la hélice abierta de esta propuesta significaría una reducción del consumo adicional.





Nokia da un golpe en la mesa con un móvil de... ¡41 megapíxeles!

Los que esperaban que Nokia, antaño reina incólume de la telefonía móvil, languideciese en silencio s equivocaban. Y es que la finlandesa desveló anoche el as que guardaba en la manga: el Nokia PureView 808, un 'monstruo' tecnológico concebido para lugar contra los titanes de Apple y Samsung. ¿Sus armas? Ni más ni menos que 41 megapíxeles de resolución de cámara canalizados a través de una lente Carl Zeiss (24 mm f2.4).
El nuevo artilugio busca, de una vez por todas, derribar el muro que separa los teléfonos de las cámaras digitales (de las compactas al menos). Hereda lo mejor del modelo N8, que causó furor con sus 12 megapíxeles, pero sublima el resto del hardware: procesador de 1.3 Ghz, pantalla de 4 pulgadas, resolución nHD (640x360 píxeles), 512 megas de RAM y 16 GB de memoria interna (ampliables con una tarjeta SD).


lunes, 18 de junio de 2012

Te faltarán dedos para manejar este ratón de 20 botones

No necesitarás un teclado para jugar teniendo a mano este ratón de Logitech. Hasta 20 botones disponibles, totalmente programables, para que aproveches ese pulgar prensil que Dios te ha dado en cualesquiera funciones que necesites en el momento más preciso: saltar, recargar, cambiar arma, empujar, cambiar de marcha… tu imaginación y tu destreza ponen el límite. Logitech los 20 botones del ratón.
Este objeto de deseo para los más jugones se llama G600 y representa un hito a la hora de aprovechar las posibilidades de tan reducido espacio como es el lateral de un ratón colocándole 12 botones programables.
El resto, hasta completar los 20, se encuentran repartidos por el resto del cuerpo del ratón.
En la parte frontal tienes los habituales botones izquierdo y derecho pero además se ha añadido un botón más, digamos, de
“extrema derecha”.
La rueda central de scroll permite subir, bajar, presionar y desplazamiento lateral, y además hay dos botones adicionales bajo la misma.
Así los atajos de teclado de los más jugones van a pasar al olvido y de lo único que tendrás que acordarte es de para qué sirve cada botón.
Dejamos lo mejor para el final. Cada uno de los 12 botones laterales puede tener una doble función, que puedes activar o desactivar, con lo que ya estamos en 24 acciones que puedes utilizar con sólo 12 botones y un pulgar especialmente habilidoso. Cuesta menos de 60€ y entre otras cosas tiene botones retroiluminados capaces de mostrar hasta 16 millones de colores.
Como en otras ocasiones, la fiesta está en tu mano....

Consiguen curar el virus Ebola en monos

El Ébola, uno de los filovirus más temibles que hay por su letal tasa de mortandad (90% de los infectados) y por su terrible efecto provocando fuertes hemorragias que terminan produciendo la muerte.
hoy puede estar algo más lejos gracias a que el Laboratorio Nacional de Microbiología de Winnipeg (Cánada) ha desarrollado un cóctel de anticuerpos capaces de curar unos monos que habían sido infectados con la modalidad Zaire del mortal virus.

Ébola, Zaire y Marburgo son algunos de los nombres que ponen los pelos de punta si están escritos con rotulador en la etiqueta de un frasco.
Hasta ahora la única forma de contrarrestar los efectos de uno de estos virus era la administración de un retroviral a los pocos minutos de haber sido infectado, algo que en la práctica resulta totalmente inviable.
Ahora se ha descubierto un tratamiento que puede administrarse hasta 24 horas después del contagio y tiene una tasa de supervivencia del 100% en los monos en los que se ha probado. Incluso la mitad de los monos a los que se les administró 48 horas después también lograron salvarse. Por contra, los monos a los que no se les suministró el remedio murieron antes de cumplirse 5 días, tal y como se publica en Science Translational Medicine.
Los anticuerpos empleados proceden de ratones que han sido vacunados con parte del virus y los investigadores esperan que esto pueda funcionar también en seres humanos. La fase I de pruebas clínicas con humanos no empezará antes de 2014.




Booster Brolly, el paraguas-cargador que mejora la señal de tu móvil

Normalmente, lo único que hace un paraguas es resguardarnos de la lluvia o el Sol, aunque ocasionalmente también se usa como arma para ir por la calle a lo Final Fight o hacer composiciones musicales aleatorias 8-biteras. Pero por fin alguien ha pensado en darle una utilidad adicional con cierto sentido, permitiendo que pueda cargar el móvil y que se mejore su recepción de señal.
Booster Brolly ha sido desarrollado por un equipo de estudiantes del University College London bajo supervisión del Dr. Kenneth Tong, como prototipo para Vodafone, que lo probará a finales de este mes en el festival Isle Of Wight.
Por un lado cuenta con una serie de 12 paneles solares flexibles de 2 voltios, que suministran energía a una batería que permite recargar dispositivos por USB y usar una luz LED que lleva incorporada en el mango.
Por otro combina una antena y un repetidor para amplificar la señal móvil, tanto a quien esté debajo como los que estén alrededor, por lo que ya no sólo se te acoplará gente para escapar de la lluvia sino también para poder hablar sin perder la señal.
El conjunto completo pesa tan sólo 800 gramos, lo que no está nada mal, aunque no hay ninguna información si sólo se tratará de un dispositivo publicitario o si piensan comercializarlo en algún momento. ¿Harán una edición especial con puntas de ricina y bombín corta cabezas a juego?

Rumores sobre pantalla flexible para el Samsung Galaxy Note 2

Un periódico coreano parece que ha metido en una coctelera conceptos inconexos como la creciente profusión de procesadores tetranucleares, la aparición de cámaras para smartphones de 12MP y la promesa de Samsung de sacar al mercado este año los primeros móviles con pantalla flexible, para asegurar que el supuesto nuevo Samsung Galaxy Note II tendrá todo eso y saldrá a la venta antes de finales de año.
Según news.mk.co.kr sería uno de los primeros dispositivos del mundo en disponer de una pantalla flexible de 5,3″, con cámara de 12MP y procesador Exynos quadcore además de funcionar con Android Jelly Bean.
¿Tiene algo de esto algún sentido? Así de primeras podría parecer que sí, pero pensándolo un poco no sólo resultaría increíblemente incómodo tener un Galaxy Note flexible (¿has probado a escribir en un papel sin apoyo?) sino que sería una locura que Samsung se arriesgara en uno de sus productos estrella con una tecnología cuya aceptación se desconoce.
Después de todo lo que se ha rumoreado sobre el Galaxy SIII que luego no se ha cumplido, la verdad es que estos pronósticos sobre el Note II no tienen mucho sentido y probablemente sólo veamos una mejora en el procesador y mayor resolución de pantalla, si es que sale este año.
O puede que sea peor y hagan algo como la Galaxy Tab 2, que han tenido la desfachatez de hacer incluso un poco peor que la Galaxy Tab, aunque al menos más barata, probablemente para vendérsela a incautos que sólo se fijen en el numerito después del nombre.

El bloguero Enrique Dans gana la demanda que le puso Promusicae

La libertad de expresión ha podido más que el derecho al honor para el Juzgado de Primera Instancia número 2 de Madrid. La asociación de productores musicales y discográficas españolas Promusicae ha perdido la demanda que interpuso tras la publicación el verano pasado de un texto del conocido bloguero Enrique Dans en que acusaba a dicha asociación de constituir un monopolio en su artículo “Siete motivos por los que el caso SGAE es mucho más que la propia SGAE’. En él afirmaba que Promusicae vulneraba las leyes antimonopolio con su sistema RitmoNet”.

La sentencia (contra la que cabe recurso ante la Audiencia Provincial) estima que los comentarios de Dans “se proyectan en aspectos de interés publico, con lo que adquiere una importancia mayor la libertad de expresión e informacion frente al derecho al honor”.
Dans criticaba en su artículo el sistema de funcionamiento de RitmoNet, plataforma creada para organizar la distribución de contenidos musicales a través de Internet con el objetivo de que las obras lleguen a radios, televisiones y prensa. La critica se centraba en el funcionamiento monopolístico (a juicio de Dans), excluyendo a quienes no forman parte de dicha asociación.
Promusicae consideró que estas manifestaciones lesionaban su honor y reclamaba judicialmente 20.000€ además de una rectificación del propio Dans. Aunque Su Señoría sostiene que no se puede probar vorazmente que RitmoNet sea un monopolio
“la libertad expresión tiene un campo de acción más amplio que la de información”
 y dado que el trasfondo del artículo es esencialmente la personal opinión de Dans no cabe sino desestimar la demanda.

El grifo que te habla y ajusta el nivel de pH a tu gusto

¡Qué ganas tiene algunos de complicarnos la vida! Me refiero a los diseñadores de griferías principalmente. Hubo un tiempo que cuando entrabas en un aseo desconocido te bastaban tus conocimientos básicos para lavarte las manos ¿Es un grifo monomando o hay una rosca a cada lado? ¿A ver dónde está la señal de color azul, y la roja de agua caliente? Pero ya no… en muy poco tiempo necesitaremos de altos conocimientos de ingeniería y tres carreras universitarias para poder higienizarnos un poco después de cumplir en el “trono”, pues grifos como este con pantalla táctil, aviso por voz y niveles ajustables de pH a mi casi me asustan. ¿Más botones que en una nave espacial para lavarme las manos? Me pierdo, ¿Será este el botón del jabón o si lo aprieto saltaremos a velocidad hiperespacial?

Sí que es cierto que hay gente muy especial para esto de los hábitos higiénicos, y que aplaudirán con alegría al saber que este grifo cuenta con un ionizador que nos permitirá regular a nuestro gusto los niveles de pH del agua que emane de nuestras tuberías caseras. La pantallita táctil es solo la parte visible de este sofisticado accesorio, pues el Tyent UCE-9000 Turbo Ionizador necesitará de un poco de espacio bajo la pila del baño o la encimera para albergar tantas prestaciones.

Según su fabricante el UCE-9000 es capaz de producir agua con unos niveles de pH que oscilan entre 2,0 (más o menos como el jugo de un limón) y 12,0 (como agua jabonosa), todo con solo pulsar un botón; resaltar que evidentemente el agua que sale por este sistema está pensada para la limpieza y la desinfección, y no para ser consumida. Además del control del pH otras características de esta futurista grifería son el aviso por voz, la pantalla táctil con retroiluminación a color, el sistema antibacteriano electrolítico, etc.
Lo único que se echa en falta es un sensor que detecte aquell@s que no se lavan las manos después de acudir al baño, y aprovechando los del aviso por voz le grite algo parecido a “por favor so guarro caballero/señorita, haga el favor de lavarse las manos antes de salir a tocar gente”

Tanta tecnología y sofisticación elevan el precio de este exclusivo accesorio hasta los $2.795. Con este coste no sería de extrañar que si mediase una avería en vez de llamar a un fontanero (con el riesgo de que aparezca un Otilio cualquiera) te plantees pagar los servicios y la minuta de un ingeniero de la NASA. ¡Todo sea por lavarse las manos con el pH adecuado!

La nueva Xbox para 2013, con Kinect 2 y gafas a lo Google por 300 dólares

Tras un E3 un poco flojillo en lo que lo más destacable por parte de Microsoft fue su genial sistema Smart Glass, un extenso documento filtrado sobre la posible Xbox 720 vaticina que la nueva consola de Microsoft estaría lista para el año que viene. Con un precio competitivo, una renovación de Kinect y unas sorprendentes gafas al más puro estilo Google Glasses.

A pesar de que el documento de 56 páginas es del 2010, parece que algunas de las cosas que estamos viendo se adecuan con lo que podría pasar realmente en el futuro. Entre las novedades se ve un sistema similar a SmartGlass, además de interfaz Metro a lo Windows 8.
La nueva Xbox 720, cuyo nombre no es todavía oficial, se convertiría en un centro de ocio, que conectaría ordenadores, tablets, smartphones y televisores, para que compartieran servicios.
En cuanto al hardware se habla de soporte directo Blu-ray, salida directa en full HD 3D y con gafas, aplicaciones, sensores, multinúcleo a 2GHz con 4GB de RAM y 3 núcleos PPC a 3,2GHz con retrocompatibilidad para Xbox 360.
Kinect 2 plantea mejoras también sustanciales utilizando dos sensores simultáneos, con mayor resolución, imagen estereoscópica, soporte para 4 jugadores, mejora del reconocimiento de voz y el uso de objetos especiales físicos para interactuar.
El supuesto precio final del pack con ambos sería de 300 dólares, demasiado bonito para ser verdad, aunque con la competencia feroz que están creando los móviles y tablet podría ser una realidad.
Pero quizás lo más curioso sea lo que llaman “Fortaleza” Kinect Glasses, muy similares a las de Google pero con un formato más grande y visión 3D, permitiendo realidad aumentada y virtual, con conexión WiFi y que supuestamente estarían listas para el 2014, y luego en el 2015 con 4G para usar por separado cuando estemos por la calle.
¿Será algo de esto realidad? ¿Nos podemos fiar de un documento de hace 2 años con la costumbre que tiene Microsoft de cambiar las cosas y cancelar proyectos sin que ni siquiera salgan a la venta?

Nuevo avance hacia la consecución de energía nuclear de fusión

Ingenieros de la University of Tennessee, Knoxville, en Estados Unidos, han desarrollado una nueva tecnología de gran importancia para la futura puesta en marcha de un reactor experimental, que pueda demostrar la viabilidad de la energía de fusión para su empleo alimentando la red eléctrica. La fusión nuclear lograría obtener más energía que la fisión nuclear empleada en la actualidad, pero con muchos menos riesgos asociados.
Los profesores David Irick, Madhu Madhukar y Masood Parang de la University of Tennessee, Knoxville, especializados respectivamente en ingeniería mecánica, aeroespacial y biomédica, han concretado un importante avance tecnológico que incrementaría las posibilidades de desarrollar un reactor experimental de fusión en un futuro cercano.

Este proyecto forma parte de una iniciativa denominada ITER, que involucra a los Estados Unidos, a la Unión Europea y a otros cinco países. Los resultados de la investigación se han difundido mediante una nota de prensa de la University of Tennessee, Knoxville, y también se desarrollaron en un reciente artículo publicado en el medio especializado Science Daily.
Los ingenieros han logrado aislar y estabilizar el solenoide central, que vendría a ser la columna vertebral del reactor.

Detalles de la innovación tecnológica

El reactor emplea campos magnéticos para proteger el plasma, un gas caliente y eléctricamente cargado que sirve como combustible. El solenoide central, en tanto, consta de seis bobinas gigantes apiladas una encima de la otra, desempeñando un papel primordial al encender y dirigir la corriente de plasma.
La clave para optimizar la tecnología fue encontrar el material adecuado para aislar el solenoide central. La elección recayó en una combinación de fibra de vidrio y una mezcla química de epoxi que se vuelve líquida a temperaturas elevadas y se endurece en otras condiciones.
Vale destacar que la mezcla especial proporciona aislamiento eléctrico y resistencia a la estructura, siendo vital el proceso correcto de inserción de este material en todos los espacios necesarios dentro del solenoide central. El equilibrio a lograr no es sencillo, ya que mientras más aumente la temperatura menor será la viscosidad de la mezcla, pero al mismo tiempo una temperatura extrema reducirá la vida útil de la resina epoxi.
El reactor desarrollado en el proyecto ITER, diseñado para demostrar la viabilidad científica y tecnológica de la energía de fusión, será el más grande en su tipo a nivel mundial. Se necesitaron dos años para desarrollar la tecnología, y los costes de construcción han sido compartidos entre las naciones asociadas.

Los caracoles venenosos permiten sintetizar nuevos analgésicos

Investigadores europeos están utilizando el veneno de una especie de caracol marino para sintetizar un nuevo analgésico. El veneno de los cónidos presenta péptidos que pueden interrumpir el circuito del dolor. Es parecido a un tapón. Una vez colocado, no se puede transmitir la señal al cerebro y no se siente dolor.
Utilizando técnicas informáticas punteras para sintetizar un analgésico derivado de la proteína XEP-018, identificada en el veneno de Conus consors, una especie de caracol marino.





Una pila de combustible española bate el récord de potencia

Investigadores españoles han desarrollado una pila de combustible que supera la potencia exigida por Estados Unidos a partir de 2017. Con una carga ultra-baja de platino de 0,01 mg/cm2 en los electrodos, la nueva pila ha alcanzado una alto aprovechamiento de platino que permite generar 10 kW/g de este metal, unas cifras que superan las previstas por el Gobierno norteamericano (8 kW/g con una carga de platino diez veces superior, de 0,125 mg/cm2).
El Departamento de Energía de EEUU ha marcado una meta de potencia para las pilas de combustibles a cumplir en 2017, pero investigadores de la UNED ya lo han conseguido. El secreto es un nuevo método de fabricación desarrollado y patentado por el equipo español para uno de sus componentes.

“En el área de las pilas de combustible, el Departamento de Energía de EEUU planteó unos objetivos que deberían alcanzarse entre 2017-2020, y algunos de estos ya los hemos superado en nuestro laboratorio”, explica Pedro Luis García Ybarra, investigador del departamento de Física Matemática y de Fluidos de la UNED. Su equipo ha desarrollado un método de fabricación para uno de los componentes que permite a la pila superar la meta de potencia marcada en EEUU.

Así, con una carga ultra-baja de platino de 0,01 mg/cm2 en los electrodos, han alcanzado una alto aprovechamiento de platino que permite generar 10 kW/g de este metal, unas cifras que mejoran sensiblemente las previstas por el departamento norteamericano (8 kW/g con una carga de platino diez veces superior, de 0,125 mg/cm2).
Normalmente, las pilas de combustible generan electricidad a partir de hidrógeno y aire. Este proceso es limpio, ya que expulsan vapor de agua en lugar de producir CO2, como los motores de combustión interna de gasolina y gasoil. Además, si el hidrógeno se obtiene a partir de energías renovables (por hidrólisis de agua, por ejemplo, con energía eólica o solar) la contaminación en este ciclo energético se reduciría a niveles mínimos.
Para superar el rendimiento marcado por las autoridades norteamericanas, los científicos han optimizado un elemento de la pila polimérica denominado 'ensamblaje membrana-electrodos' (MEA).
“Este componente es común a todas las pilas de combustible poliméricas”,
afirma José Luis Castillo, investigador también del departamento de Física Matemática y de Fluidos de la UNED.
Controlar las propiedades del material
El resultado ha sido patentado por los investigadores como una metodología para depositar capas delgadas y nanoestructuradas de electrocatalizador sobre los electrodos, que se unen por simple contacto a ambos lados de la membrana polimérica, constituyendo el MEA.
Gracias a la metodología utilizada para la deposición de la capa catalítica (electrospray) se consigue aumentar considerablemente el rendimiento.
“Hemos sido capaces de controlar las propiedades morfológicas (porosidad y rugosidad) del material generado por las partículas cuando se depositan, aumentando sustancialmente la superficie activa”,
asegura Castillo, y añade:
“Como el rendimiento depende de la superficie de las partículas catalíticas expuesta al gas reactivo, y esta se ha hecho muy grande, hemos alcanzado un elevado rendimiento”.
Otra de las ventajas del procedimiento es su facilidad para ser escalado, es decir, que estos componentes de las pilas pueden reproducirse a escala industrial a bajo coste, evitando las dificultades registradas con otras metodologías.

El coste del catalizador de platino supone más del 30 % del valor total de una pila. De ahí que construir pilas de combustible a precios competitivos sea uno de los retos perseguidos por la comunidad investigadora. Con pilas baratas podría generalizarse su uso en automoción, sustituyendo los motores de combustión interna por motores eléctricos alimentados por una pila de combustible.
Adecuación a la demanda energética
Abaratando costes, también podría explotarse otra de sus posibles aplicaciones: dar solución al problema de la discontinuidad y la adecuación a la demanda energética que presentan las energías renovables. Actualmente, los acumuladores eléctricos (baterías) solucionan el problema, pero las pilas de combustible serían una medida más sencilla y económica.
“Una de las ideas es utilizar el exceso de electricidad generado en las horas valle de demanda para, mediante la hidrólisis del agua, producir hidrógeno y almacenarlo. Así, cuando llegue una hora pico de demanda, se conectaría la pila de combustible para conseguir una generación adicional de electricidad”, detalla García Ybarra.
“De esta forma, se consigue estabilizar la producción de energía mediante fuentes renovables”,
añade el investigador.
Junto al reto de abaratar componentes, los científicos tienen por delante conseguir que estos sean duraderos. De momento, una de las pilas desarrolladas por los investigadores ya lleva funcionando más de 1.000 horas de forma ininterrumpida.