domingo, 27 de marzo de 2011

Carretera japonesa reparada en tan sólo 6 días

De todo lo sucedido en Japón, y más allá de las víctimas y del pánico nuclear que nos ha acompañado en todas los periódicos y telediarios durante estos días, una de las constantes que más se han comentado es la virtud que ha mostrado el pueblo japonés para aplacar las duras consecuencias del terremoto que sufrió el pasado 11 de Marzo. La tranquilidad (o la falta de histeria, que a muchos sí nos invadiría) con la que ha actuado, su perfecta organización y su determinación para empezar inmediatamente la reconstrucción han maravillado a la opinión pública.
Y para muestra un botón. Este tramo de una carretera japonesa que presentaba grandes daños fue reparado en tan sólo 6 días. Ahora lo ves, y ahora no lo ves.
Las imágines que aquí podéis contemplar corresponden a la zona de Naka, y como se aprecia perfectamente en las fotografías el temblor (recordemos, de magnitud cuasi 9,0) dejó aquí una espectacular recuerdo, una grieta de más de 150 metros a lo largo de la sección principal de la carretera.

Los trabajos de reparación comenzaron el 17 de marzo, y tan sólo seis días más tarde este tramo de la vía ya estaba en condiciones de ser reabierto al tráfico de vehículos. No hay más que decir, chapeau para los obreros japoneses del servicio de carreteras, que como muchos otros trabajadores regresaron a sus puestos justo el día después del terremoto y posterior tsunami, para empezar con las labores de desescombro y limpieza. Destacar también que algunas empresas de las regiones más afectadas ya han reabierto.
Estoy seguro que muchos de vosotros tenéis ya memorizados todos los socavones y baches que encontráis en vuestras rutas más habituales, y seguramente muchos de ellos ya hace varios meses que os acompañan. No podemos negar pues que los japoneses, además de ser uno maestros construyendo con medidas antisísmicas, también se defienden muy bien en las reparaciones.
LO MISMO EN ESPAÑA...:
para lo mismo se haría un proyecto para empezar a trabajar a los 6 meses, después de otros 6 meses pararían la obra porque se han quedado sin presupuesto y un año más tarde, una vez duplicado el presupuesto, demorarían otros 6 meses para terminar. Después, por supuesto, la carretera quedaría cerrada unas semanas o meses hasta que el político de turno tenga un rato libre para sacarse la foto...

viernes, 25 de marzo de 2011

Descubren cómo mantener intacto el ADN

La identificación del proceso natural de protección genética permitirá crear medicamentos que nos harán vivir más tiempo y mejor.
Un equipo de investigadores de la Universidad de Rochester señala haber descubierto el mecanismo natural por el que la replicación del ADN corrige los errores genéticos. Los científicos esperan que este descubrimiento propicie la aparición de medicamentos que potencien dicho mecanismo, con el fin de proteger mayores proporciones de ADN a lo largo del tiempo. Esta protección genética artificial ralentizaría el envejecimiento y permitiría erradicar enfermedades relacionadas con él, asegurando “vidas más sanas y duraderas”. El medicamento podría estar listo en 25años, señalan los investigadores.
El ADN contiene todas las instrucciones genéticas que nos constituyen, y el mantenimiento o no de su integridad a lo largo de la vida es una parte clave, aunque muy compleja, del proceso de envejecimiento.
Recientemente, científicos de la Universidad de Rochester, en Estados Unidos, han descubierto un mecanismo natural de preservación del ADN, lo que abriría la posibilidad de desarrollar intervenciones para mejorar la preservación de la información genética.
Dichas intervenciones consistirían en reprimir la pérdida o el daño de nuestra constitución genética para mantener nuestro ADN intacto durante más tiempo. De esta manera, podrían eludirse enfermedades relacionadas con el envejecimiento, como el cáncer o los trastornos neurodegenerativos.
Dos rutas genéticas
Según explica uno de los autores de la investigación, el director del Departamento de bioquímica y biofísica del Centro Médico de la Universidad de Rochester, Robert Bambara, en un comunicado emitido por dicha universidad, la presente investigación se encontraría “en sus primeros estadios” pero presenta ya “un gran potencial”, como factor de cambio de la experiencia humana.
En el Journal of Biological Chemistry, Bambara y sus colaboradores explican que un proceso conocido como acetilación es el que regula el mantenimiento del ADN. Los investigadores han descubierto que este proceso es el que determina el grado de fidelidad, tanto de la replicación como de la reparación genéticas.
Ya se sabía que, a medida que el ser humano ha ido evolucionando, se han generado dos “rutas” para la replicación y reparación de la materia genética: una de esas rutas, la vía “estándar”, elimina algunos daños y una cantidad moderada de errores del ADN, pero la otra, la vía “de élite”, elimina la inmensa mayoría de daños y errores genéticos durante la replicación del ADN.
Pero esta ruta de élite sólo la siguen pequeñas porciones de ADN encargadas de la creación de todas las proteínas que nos componen (de las células sanguíneas, cardiacas, del hígado, etc.) porque requiere de mucha energía y, por tanto, “cuesta” más al organismo. El resto del ADN, que no genera proteínas, toma la ruta “estándar”, que requiere de menos recursos.
Aunque, como hemos dicho, todo esto ya se conocía, hasta ahora los científicos no habían podido comprender qué es lo que determina o controla cuál de las rutas seguirá una porción de ADN concreta.
Medicamento en 25 años
Esta nueva investigación, en cambio, se ha centrado en una pequeñísima parte del proceso del envejecimiento, que podría tener una gran importancia.
Bambara y su equipo están investigando ahora más a fondo el recién identificado proceso regulatorio de la acetilación para determinar cómo sería posible intervenir para aumentar la protección que de la información genética hace el cuerpo, de manera natural.
En concreto, los científicos están analizando sistemas celulares humanos y del hongo de la levadura, para establecer cómo las proteínas de las células trabajan en conjunción para activar la acetilación.
Bambara afirma que “hoy día, el trascurso entre un descubrimiento inicial y el desarrollo de un medicamento relacionado es rápido”. El científico cree que podría tener algún tipo de medicamento que ayude a vivir más tiempo y de manera más saludable en unos 25 años.

Adif ensayará con trenes a 500 kilómetros por hora

Creará el primer circuito de pruebas de estas características en la localidad de Bobadilla, Málaga.
Adif desarrollará en la provincia de Málaga un circuito de pruebas para trenes a velocidades superiores a los 500 kilómetros por hora, el primero de estas características a nivel mundial, como complemento del Centro de Tecnologías Ferroviarias ubicado en la capital andaluza. En el marco de una inversión de 400 millones de euros, Adif recibió apoyo en el financiamiento por parte de la Unión Europea y de distintas empresas privadas.

La localidad de Bobadilla, en la provincia de Málaga, albergará el primer circuito ferroviario de ensayo a nivel mundial para unidades que superen los 500 kilómetros por hora de velocidad. Será construido por Adif, con el apoyo de la Unión Europea y de firmas privadas. La infraestructura funcionará como complemento del Centro de Tecnologías Ferroviarias localizado en la ciudad de Málaga.
El desarrollo marcará una importante innovación tecnológica para el sector ferroviario de alta velocidad en España, ya que actualmente existen nueve centros de este tipo en el mundo, pero limitados al ensayo de trenes que pueden alcanzar velocidades de hasta 270 kilómetros por hora. El proyecto incluye tres anillos ferroviarios, con una extensión total de 80 kilómetros.
El circuito de pruebas está pensado para ensayar y hallar soluciones en torno a los inconvenientes que puede provocar la circulación de servicios ferroviarios ultra rápidos, a velocidades que superan los 500 kilómetros por hora. Estos nuevos trenes de “muy alta velocidad” exigen cambios en distintos segmentos de la tecnología ferroviaria.
Por ejemplo, es necesario evaluar una nueva generación de desvíos, se hace imprescindible la reducción del ruido y de las vibraciones y existe un gran desafío en torno a las tecnologías para el levantamiento del balasto, además de la introducción de la vía en placa.
Detalles de la obra
En la actualidad se tramitan las distintas etapas de la evaluación de impacto ambiental, y la obra cuenta con un plazo de edificación de 39 meses. En consecuencia, debería estar terminada en 2015. La elección de Bobadilla para su emplazamiento tiene que ver con la convergencia en ese punto de la línea de alta velocidad Córdoba-Málaga y la convencional Bobadilla-Granada.
Esto facilitará el acceso de cualquier tipo de tren al circuito de ensayo en forma independiente. Por otro lado, un segundo punto a favor es que se encuentra a 50 kilómetros del puerto de Málaga, una condición clave para el traslado del equipamiento y la tecnología que se requiera para el desarrollo de las pruebas.
Además, la cercanía del Centro de Tecnologías Ferroviarias de Adif permitirá complementar los ensayos con todos los estudios necesarios en el laboratorio del mencionado centro. En cuanto al financiamiento, Adif recibió 344 millones de euros provenientes de fondos tecnológicos de la Unión Europea, junto a 60 millones aportados por 36 empresas privadas.
Entre los problemas tecnológicos asociados a la nueva generación de trenes de “muy alta velocidad” que se trabajarán en este circuito, también pueden destacarse las disfunciones que se concretan en las unidades cuando los trenes superan los 300 kilómetros por hora o los inconvenientes relacionados con el fenómeno del viento lateral, que obliga a los trenes de máxima velocidad a frenar cuando afrontan este tipo de vientos.

Crean baterías que se cargan rápidamente, gracias a una nanoestructura 3D

Este desarrollo permitirá fabricar ordenadores portátiles, teléfonos y vehículos eléctricos que se recarguen en cuestión de minutos.
Científicos estadounidenses han desarrollado una nanoestructura tridimensional para baterías, que permite que éstas se carguen muy rápidamente, en tan solo unos minutos. El sistema sirve para cualquier tipo de baterías y se puede aplicar en fabricaciones a escala industrial. Esta minúscula solución servirá para reducir drásticamente el tiempo de recarga de las baterías de los vehículos eléctricos, y también para la fabricación de teléfonos u ordenadores portátiles que se carguen casi instantáneamente.

Científicos de la Universidad de Illinois, en Estados Unidos, han desarrollado una nanoestructura tridimensional (el nanómetro es la unidad de longitud que equivale a una milmillonésima parte de un metro ) para baterías, que permite que éstas se carguen muy rápidamente, en sólo cuestión de minutos.
Además de este aumento en la velocidad de carga, las baterías ganan con esta nanoestructura una capacidad mayor de almacenamiento de energía, explican los investigadores.
Ambas características son esenciales para el funcionamiento óptimo de diversos aparatos, como los vehículos eléctricos, algunos dispositivos médicos o militares, y para la tecnología láser.
Aunar batería y condensador
En un comunicado de la Universidad de Illinois, el principal desarrollador de la tecnología, el profesor de ciencias de los materiales e ingeniería, Paul Braun, explica que este sistema permitirá crear baterías con la misma potencia que los condensadores, pero con una gran capacidad de almacenamiento energético.
Los condensadores contienen electrodos que forman campos eléctricos cuando se hace pasar una corriente eléctrica a través de ellos. Aunque este campo eléctrico puede almacenar energía para ser liberada posteriormente, la capacidad de almacenamiento energético de los condensadores es escasa.
Sin embargo, dada las ventajas que presentan los condensadores frente a las baterías (además de ser capaces de recibir y suministrar energía rápidamente, son más baratos que las baterías, no contienen elementos tóxicos o inflamables y presentan una vida útil mucho más duradera) los científicos llevan tiempo intentando desarrollar condensadores con una mayor capacidad de almacenamiento energético, algo que podría conseguirse gracias a la nanotecnología.
Según Braun: “La mayoría de los condensadores almacenan muy poca energía. La pueden liberar rápidamente, pero no guardar mucha. Por su parte, la mayoría de las baterías almacenan una cantidad de energía razonablemente abundante, pero no pueden proporcionarla ni recibirla rápidamente”. Gracias a la nanoestructura tridimensional creada, un sistema que incluya ambas capacidades ya es posible.
Posibles aplicaciones
El resultado obtenido fue una estructura bicontinua, con pequeñas interconexiones que permiten que los iones de litio se muevan rápidamente (el material activo es una película fina, lo que hace que la difusión cinética sea rápida), pero también un entramado metálico con buena conductividad eléctrica.
Braun y su equipo han demostrado que dicha nanoestructura sirve tanto con baterías de ión de litio como con baterías de níquel, y afirman que puede usarse con cualquier material de batería que pueda depositarse en el entramado, es decir, que el sistema no está vinculado con un tipo específico de batería, sino que es un nuevo paradigma tridimensional destinado a mejorar cualquier tipo de batería existente.
El sistema podría propiciar la creación de teléfonos u ordenadores portátiles que se carguen en sólo unos minutos. También serviría para dispositivos láser de alta potencia o desfibriladores (aparatos que aplican descargas eléctricas para restablecer el ritmo cardiaco normal), de manera que éstos no necesiten tiempo de recarga antes o entre cada descarga o pulso, en el caso del láser.
Braun se muestra especialmente optimista en las aplicaciones del sistema en vehículos eléctricos. La duración y el tiempo de recarga de las baterías son importantes limitaciones para este tipo de vehículos que no resultan prácticos para viajes largos, debido a que su batería sólo aguanta unos 160 kilómetros y, además, requiere una hora de recarga.
“Si se puede recargar la batería rápidamente, se pueden tener vehículos eléctricos que tarden en cargarse lo mismo que se tarda en poner gasolina”, afirma el científico. Los investigadores han detallado los aspectos de su invento en un artículo publicado por Nature Nanotechnology.

La criosauna hará que una ducha de agua fría parezca una tarde de agosto

Meterte en un tubo con nitrógeno líquido en forma de gas que baje la temperatura a -93 grados centígrados no es algo que parezca muy saludable, y si no preguntádselo al T-1000, pero al parecer puede convertirse en el último grito en sesiones de recuperación para deportistas.
El procedimiento ha sido ideado por un conocido entrenador de atletas de alto rendimiento, Alberto Salazar, y aunque asegura que todavía están probándolo para controlarlo y conocerlo mejor, podría ser toda una revolución en el campo del deporte y la fisioterapia.
La teoría es que al bajar la temperatura hasta -93ºC durante un tiempo breve, el cuerpo interpreta esto como que se está muriendo y bombea gran cantidad de sangre enriquecida a los órganos vitales. Al salir 2 minutos después, la sangre vuelve al resto del cuerpo generando un alivio y limpieza inmediatos.
Según parece sería como los baños de hielo pero en lugar de durar 20 minutos bastaría sólo con 2. No sé, no me queda muy claro que sea seguro y que por algún fallo técnico no termines como un polo flash, pero al menos el nombre está chulo, criosauna, y es lo suficiente pegadizo para que las sesiones cuesten un pastizal.

En menos de un año todos los móviles de EEUU usarán micro-USB

Por fin algo que todos estábamos esperando se hará una realidad, a partir de enero de 2012 todos los móviles en EEUU llevarán un puerto micro-USB para crear un interfaz de carga estándar para todos los dispositivos. Esto se une al estándar que ya existe en Europa y que finalmente lo terminará haciendo el estándar universal.
Al menos eso es lo que se ha asegurado en la CTIA, pero lo curioso es que a pesar de que ya es algo presente en Europa y casi todos los móviles lo siguen, Apple en su día firmó el tratado junto con los grandes fabricantes de móviles, pero como podréis ver vuestro iPhone4 no lo tiene.
¿Supondrá esto que al fin Apple se bajará del burro y adoptará un estándar como buen vecino o seguirá pasando del tema? Viendo como el iPad2 se lo ha pasado también por el forro todo apunta a que seguirán ignorando al universo, pero lo mismo al ser ya algo más global el próximo iPhone5 y iPad3 terminan con la norma de la casa.
¿Tendrán en ese caso el puerto de Apple y el microusb? ¿Lo areglarán todo como siempre a base de adaptadores a precio de oro? En un año las posibles respuestas

Paneles solares flotando en el agua

Eliminan el problema de las grandes extensiones de tierras que se requieren en los parques solares actuales.
Una nueva tecnología desarrollada en conjunto por la firma israelí Solaris Synergy y el grupo francés EDF, en el marco del proyecto Aquasun de Eureka, permitirá la creación de parques solares en superficies acuáticas, con paneles flotantes que captarán la energía del sol sobre el agua. La innovación permite disminuir los costos de producción de esta energía renovable y, al mismo tiempo, elimina la necesidad de contar con grandes extensiones de tierra para este tipo de desarrollos.

Una nueva etapa en el campo de la energía solar podría abrirse con el desarrollo de paneles solares flotantes, los cuales brindarían la posibilidad de poner en funcionamiento parques solares sobre el agua. La nueva tecnología, creada en el marco del proyecto Aquasun de Eureka por las firmas Solaris Synergy (Israel) y EDF (Francia), tiene dos grandes ventajas con respecto a los paneles empleados en la actualidad: no se requieren amplios terrenos para su ubicación y, además, se reducen los costos de producción.
No cabe duda que la energía solar cumple un papel primordial en la búsqueda de opciones energéticas sostenibles, en el camino por disminuir los gases de efecto invernadero y todas las implicancias negativas para el medio ambiente que suponen los combustibles fósiles.
Sin embargo, los sistemas de energía solar se enfrentan en la actualidad a dos grandes inconvenientes, que han frenado un mayor desarrollo de esta fuente renovable. Por un lado, los costos elevados de la fabricación de los paneles solares y, por otro, la necesidad de disponer de grandes extensiones de tierras para poder desarrollar los parques solares.
Las nuevas plantas solares flotantes podrían solucionar estos inconvenientes, según establece una nota de prensa de Eureka y un artículo del medio especializado Science Daily. Terminada la fase de diseño sobre marzo de 2010, actualmente se lleva a cabo la fabricación de un prototipo. La fase de ejecución se iniciaría en septiembre de 2011.
Disminución de costos e impacto ambiental
Además de solucionar la problemática de las tierras requeridas en un parque solar tradicional, la nueva tecnología reduce también en gran medida los costos de los proyectos. Una de las razones es que los desarrolladores lograron reducir la cantidad de células solares utilizadas, gracias a un sistema solar de concentración de energía sobre la base de espejos, que permite mantener constante la cantidad de energía producida.
Por otra parte, las nuevas plantas flotantes emplean células solares de silicio, que son más eficientes, confiables y económicas que las células empleadas en los proyectos convencionales. Para poder utilizarlas se diseñó un nuevo sistema de enfriamiento, que soluciona los habituales problemas relacionados con el sobrecalentamiento que se manifiestan en las células solares de silicio.
Otro punto vital de la nueva tecnología es su carácter modular, que la hace más eficiente y versátil en cuanto a su inserción en el mercado energético. El sistema está diseñado para que en una plataforma solar sea posible reunir la cantidad exacta de módulos necesarios para la potencia deseada. Cada módulo produce una cantidad fija de electricidad (200 kilovatios), y de acuerdo a esto se incorporará un número determinado de módulos hasta alcanzar la producción buscada.
Asimismo, el equipo de investigadores trabajó en el impacto ambiental de las nuevas plantas solares flotantes. Para garantizar el equilibrio ecológico de los ecosistemas submarinos y la vida de plantas y animales, las plataformas estarán preparadas para “respirar” a través de la superficie acuática, logrando que el oxígeno pueda penetrar en el agua. La elección de los materiales empleados apunta en el mismo sentido.

Una mosca inspira el desarrollo de pequeñas antenas de gran alcance

Se utiliza el fuerte sentido de la audición direccional de este insecto
Un ingeniero de la Universidad de Wisconsin-Madison se ha inspirado en las características auditivas de la mosca parasitaria Ormia ochracea para encarar un enfoque novedoso en el campo de las antenas de gran alcance de pequeñas dimensiones, que hasta el momento no registran la efectividad buscada. Los nuevos desarrollos podrían propiciar importantes avances en el área de las comunicaciones y la electrónica.

El estudio del sistema auditivo de una diminuta mosca parasitaria, cuyo nombre científico es Ormia ochracea, ha permitido a un ingeniero de la Universidad de Wisconsin-Madison desarrollar un innovador enfoque en el terreno de las antenas pequeñas de gran alcance, que podría ser vital para motorizar nuevas tecnologías en comunicaciones móviles y dispositivos electrónicos.
La mosca parasitaria Ormia ochracea es conocida por su fuerte sentido de la audición direccional. Teniendo la capacidad para ubicar con precisión a un grillo por su canto, la mosca deposita sus huevos sobre el mismo. Posteriormente, las larvas de Ormia ochracea se alimentan del grillo.
La increíble capacidad auditiva de este insecto ha inspirado a Nader Behdad, profesor asistente de ingeniería eléctrica e informática de la Universidad de Wisconsin-Madison, para encarar la investigación de nuevos diseños de pequeñas antenas de gran alcance, que hasta el momento han sido un problema imposible de resolver en el campo de la electromagnética, a pesar de distintos esfuerzos concretados desde hace unas cuantas décadas.
Behdad ha recibido una beca de la National Science Foundation para avanzar en este nuevo enfoque, que podría significar un cambio importante con respecto a la eficacia que registran actualmente las antenas de pequeñas dimensiones. El trabajo fue difundido mediante una nota de prensa de la Universidad de Wisconsin-Madison, y además mereció un artículo en el medio especializado Physorg.com.
Importantes aplicaciones
Es así que esta mosca parasitaria puede detectar la dirección y ubicación específica de un grillo cantando con una precisión de uno a dos grados. De esta forma, Behdad analizó este sistema natural e inició el diseño de circuitos que puedan imitar el mecanismo auditivo de la mosca Ormia ochracea.
Según el especialista, no se han desarrollado trabajos tendientes a diseñar antenas que imiten el mecanismo auditivo de los insectos más avanzados en este terreno. El resultado final sería el desarrollo de pequeñas antenas capaces de funcionar con mayor eficacia que las empleadas en la actualidad.
Ya se ha diseñado una antena de prueba, con interesantes resultados preliminares. Sin embargo, aún queda un largo camino por recorrer hasta poder diseñar modelos comercialmente viables, debiendo estudiarse distintos parámetros que hagan posible trasladar el concepto a la realidad.
En el futuro, estas antenas diminutas de gran alcance podrían propiciar importantes avances en la capacidad y la velocidad de la banda ancha inalámbrica, en una optimización de la recepción y cobertura de los teléfonos celulares, en el desarrollo de nuevos radares, sistemas de imágenes y otras trascendentes aplicaciones en la industria de la electrónica de consumo.

Una pequeña ciudad canadiense acoge la mayor instalación fotovoltaica del mundo

Con 80 megavatios de capacidad de generación, se encuentra en Sarnia, Ontario
Sarnia Solar Project es la instalación fotovoltaica de mayores dimensiones a nivel mundial, con 1,3 millones de paneles solares en una superficie de 950 hectáreas, que entregan anualmente 120.000 MWh. El proyecto tiene asimismo amplias posibilidades de seguir incrementando su capacidad e impacto a futuro, gracias a la aplicación de una serie de incentivos y tarifas especiales por parte de la administración de Ontario.

Canadá posee en su territorio la mayor instalación de energía solar fotovoltaica del planeta, un gigantesco parque con 1,3 millones de paneles solares que entrega 120.000MWh en forma anual. Asimismo, el proyecto localizado en Sarnia, Ontario, cuenta con nuevas etapas a futuro que prevén incrementar su producción energética.
Llama la atención que la instalación fotovoltaica más importante del planeta no se encuentre en California, España, Italia o cualquier otro lugar caracterizado por la presencia constante del sol. Por el contrario, se ubica en las afueras de la localidad de Sarnia, en Ontario, Canadá.
Esta pequeña ciudad de alrededor de 80.000 habitantes se localiza en un área más conocida por sus largos inviernos nevados que por su clima soleado. A pesar de esto, el Sarnia Solar Project, desarrollado principalmente por las firmas Enbridge y First Solar con el apoyo de medidas de estímulo por parte del gobierno de Ontario, se ha convertido en la infraestructura de aprovechamiento energético fotovoltaico más grande del planeta.
Como lo establece un reciente artículo del medio especializado Technology Review, el megaparque solar cuenta actualmente con 80 megavatios de capacidad de generación, en expansión hacia los 97 megavatios. La infraestructura fue construida por First Solar, y es operada desde octubre del año pasado por Enbridge, una compañía gasífera con sede en Alberta, el centro neurálgico de la producción hidrocarburífera canadiense.

Condón USB


Claro, si es que vas por ahí metiéndolo en cualquier sitio y luego pasa lo que pasa.
No tomas las precauciones debidas, te dejas llevar por el calentón, no piensas más que en el trasvase urgente, en el intercambio, en el calorcito… y luego vienen las infecciones, los ays y los madresmías.
Hablamos de conectar pendrives USB a ordenadores susceptibles de contener virus. ¿En qué estábais pensando?
Eso que aparece en la foto es un pendrive USB.
Sí, ya sé que te recuerda a otra cosa. Es que ese es “el conceto”, que diría Pazos. Concienciarte de que si te preocupas de la seguridad de tu herramienta más preciada y procuras mantenerla a salvo de infecciones no deseadas también deberías mentalizarte y hacer lo propio con tu otra herramienta favorita de trasvase de información genética.

logran crear espermatozoides en el laboratorio

Investigadores de la Universidad de la Ciudad de Yokohama (Japón) han conseguido producir espermatozoides en laboratorio, un hito científico que los biólogos de la reproducción perseguían desde el origen de los tratamientos de reproducción asistida en los años 70. El avance, que se ha presentado la revista científica Nature, abre una vía de esperanza para el tratamiento de la infertilidad masculina.
Por ahora, la investigación se ha realizado en ratones, por lo que la producción de espermatozoides en laboratorio aún no puede ofrecerse a hombres infértiles. Pero el equipo de Yokohama ya ha comprobado que la técnica que han desarrollado produce espermatozoides funcionales. Y que las crías concebidas con estos espermatozoides crecen con normalidad, sin problemas de salud aparentes, y que son fértiles al llegar a adultas.
"Necesitamos extender nuestros métodos a otras especies, incluida la humana, antes de poder aplicar estos resultados al tratamiento de personas". Aunque es posible que la técnica exacta que ha permitido obtener espermatozoides de ratón en laboratorio no sea efectiva en otras especies, admite Ogawa, "confío en que podremos lograrlo con alguna modificación del medio de cultivo".
Producir espermatozoides es "uno de los procesos más largos y complejos (…) que tienen lugar en el cuerpo", escriben los investigadores en Nature. Se trata de un proceso que pasa por varias etapas y que, en el cuerpo humano, requiere más de un mes.
Para reproducirlo en el laboratorio, Ogawa y su equipo extirparon minúsculos fragmentos de testículos de ratones de menos de tres días de edad. "Nos bastan fragmentos muy pequeños, de menos de un miligramo", explica Ogawa. Recurrieron a ratones tan jóvenes porque la producción de células precursoras de espermatozoides se inicia pocos días después de nacer y los investigadores querían asegurarse de que podían realizar todo el proceso en el laboratorio.
Situaron el tejido extirpado en un medio de cultivo a 34 grados, la temperatura óptima para el crecimiento de espermatozoides de ratón. Dos detalles técnicos facilitaron el éxito del experimento. Uno es que colocaron el tejido de manera que una parte estuviera en contacto con un medio de cultivo líquido y otra parte, en contacto con el aire; el líquido le aportó los nutrientes necesarios para que vivieran las células y el aire le permitió el intercambio de gases necesario para la espermatogénesis.
El segundo detalle es que, tras un primer intento fallido, añadieron una proteína llamada KSR al medio de cultivo. Esta proteína se había empleado anteriormente en investigaciones de células madre. En este caso, permitió obtener espermatozoides maduros, dotados de una cola móvil, tras cultivar el tejido en el laboratorio entre 27 y 45 días.
Los investigadores mantuvieron el experimento en curso durante unas semanas más para averiguar si el tejido que habían utilizado se agotaba tras haber producido su primera hornada de espermatozoides o bien seguía produciendo células sin cesar como ocurre en un ser vivo. Según los resultados presentados en Nature, "nuestro sistema de cultivo ha sido capaz de inducir y mantener la espermatogénesis durante más de dos meses".
Llegados a este punto, faltaba demostrar que los espermatozoides obtenidos con esta técnica pudieran utilizarse para fertilizar óvulos y que fueran capaces de engendrar crías sanas. Entraban en la fase decisiva de la investigación. Si no nacían crías, o no nacían sanas, habría que renunciar a utilizar la técnica para tratar la infertilidad en personas.
Los investigadores recuperaron algunos de los espermátides y espermatozoides que habían obtenido en laboratorio y con ellos intentaron fertilizar 58 óvulos in vitro. Los espermátides son células precursoras de los espermatozoides y son igualmente útiles para la fecundación in vitro, ya que tienen el mismo número de cromosomas, aunque deben manipularse de manera diferente. Los embriones obtenidos se implantaron en hembras. Según los resultados del experimento, la tasa de nacimiento fue algo más alta con espermátides que con espermatozoides. En total, nacieron cuatro machos y ocho hembras.
Un sus primeros días de vida, aún no estaba claro si estas crías estaban sanas o si iban a ser enfermizas. Los investigadores dejaron que crecieran hasta llegar a la edad de reproducción y, durante su crecimiento, no apreciaron que tuvieran ningún problema relevante de salud. Para comprobar si eran fértiles, dejaron que se aparearan entre ellas. Los doce ratones concebidos con espermatozoides de laboratorio resultaron ser fértiles.
Finalmente, con el objetivo de aplicar esta técnica a pacientes infértiles en el futuro, los investigadores estudiaron si podían congelar el tejido en nitrógeno líquido y después repetir el experimento con éxito. Este es un requisito imprescindible para que la técnica pueda ofrecerse a niños que corren el riesgo de quedar infértiles a causa del tratamiento que reciben por un cáncer. En estos casos, sería preciso extirpar tejido testicular antes del tratamiento, conservarlo en nitrógeno líquido y descongelarlo cuando el paciente quisiera tener hijos años más tarde.
El experimento mostró que, incluso tras la congelación con nitrógeno líquido, el tejido testicular conserva la capacidad de producir espermatozoides en el laboratorio. Estos resultados, concluyen los investigadores, "contribuirán a desarrollar nuevas técnicas de diagnóstico y de tratamiento para la infertilidad masculina".

miércoles, 23 de marzo de 2011

Fukushima, la mejor publicidad nuclear

El desastre de Japón tendría un mayor peso si hubiera alternativas menos dañinas. El veterano escritor y activista George Monbiot expone que la energía atómica es parte de las opciones energéticas
Seguro que no les sorprenderá escuchar que los eventos ocurridos en Japón han cambiado mi visión sobre la energía nuclear. Pero lo que sí les sorprenderá es de qué modo ha cambiado. Como consecuencia del desastre en Fukushima, ya no soy neutral con respecto a la energía nuclear. Ahora estoy a favor de ella.
Una planta antigua y con medidas de seguridad inadecuadas se ha visto afectada por un terremoto monstruoso y un gran tsunami. Falló el suministro eléctrico y el sistema de refrigeración quedó dañado. Los reactores comenzaron a explotar y a fusionarse. El desastre reveló una conocida herencia de diseño precario e imperfecto. Aún así, por lo que sabemos, nadie ha recibido aún una dosis letal de radiación.
Algunos ecologistas han exagerado enormemente los peligros de la contaminación radioactiva. Si hubiera otras formas de producción energética que no causaran ningún daño, estos impactos tendrían aún más peso. Pero la energía es como la medicina: si no hay efectos secundarios, lo más probable es que no funcione.
Las energías renovables tienen un alto coste e impacto
Al igual que la mayoría de los ecologistas, estoy a favor del uso extendido de las energías renovables. También entiendo las quejas de sus detractores. No son sólo los parques eólicos tierra adentro lo que molesta a las personas, sino también las nuevas conexiones a la red de suministro, con torres de alta tensión y líneas eléctricas. A medida que aumenta la proporción de electricidad renovable en la red, se necesitarán más plantas de almacenamiento por bombeo para mantener las luces encendidas. Esto implica la creación de reservas en las montañas, que tampoco son muy populares.
Los impactos y los costes de las energías renovables crecen con la proporción de electricidad que suministran, al igual que aumenta la necesidad de almacenamiento y redundancia. También puede suceder (tengo que comprobarlo con un estudio comparativo) que hasta un cierto nivel de penetración en la red de suministro (¿quizás entre el 50% y el 70%?) las energías renovables tengan menos impacto en las emisiones de carbono que la energía nuclear, mientras que más allá de ese punto, la energía nuclear tenga un menor impacto que las energías renovables.
Como otras personas, he defendido el uso de la energía renovable tanto para sustituir la electricidad producida con combustibles fósiles como para ampliar el suministro total y desbancar al petróleo utilizado en el transporte y al gas empleado como combustible de calefacción. ¿Debemos también exigir que sustituya a la capacidad nuclear actual? Cuantas más tareas esperemos que realicen las energías renovables, mayor será el impacto en el entorno y más difícil resultará convencer al público sobre su uso.
La falacia de producir energía localmente
Pero la ampliación de la red de suministro para conectar a las personas y a la industria a fuentes de energía distantes y limpias también es algo que rechaza la mayoría de ecologistas que se quejaban y expongo que la energía nuclear es más segura que el carbón. Según me decían, lo que pretenden es algo bastante diferente: debemos consumir menos y producir nuestra energía localmente. Algunos incluso apostaban por abandonar la red de suministro. Su visión bucólica suena genial, hasta que se empieza a leer la letra pequeña.
En altas latitudes como la nuestra, la mayoría de la producción energética ecológica y a pequeña escala implica grandes pérdidas. La generación de energía solar en el Reino Unido conlleva un gasto espectacular de recursos escasos. Resulta totalmente ineficaz y no se ajusta al patrón de demanda. La energía eólica en áreas muy pobladas en general no vale de nada. Esto se debe en parte a que hemos construido nuestros asentamientos en lugares protegidos y en parte a que la turbulencia que producen los edificios interfiere en el flujo de aire y perjudica a los mecanismos. La energía hidráulica a pequeña escala podría funcionar en una granja en Gales, pero no sirve de mucho en Birmingham.
Aprender de la Revolución Industrial
¿Y cómo podemos hacer funcionar las fábricas de textiles, los hornos de ladrillos, los altos hornos y los ferrocarriles eléctricos, por no mencionar los procesos industriales avanzados? ¿Con paneles solares en los tejados? En el momento en el que se tienen en cuenta las demandas de toda la economía, nos deja de gustar la opción de la producción energética local. Una red de suministro nacional (o mejor aún, internacional) es el requisito previo esencial para un suministro energético que proceda en su mayoría de fuentes renovables. Algunos ecologistas incluso van más allá: ¿por qué malgastar los recursos renovables convirtiéndolos en electricidad? ¿Por qué no utilizarlos directamente para proporcionar energía? Para responder a esta pregunta, observemos qué ocurrió en Gran Bretaña antes de la Revolución Industrial.
La construcción de diques y presas en los ríos británicos para los molinos de agua era una forma de producción energética a pequeña escala, renovable, pintoresca y devastadora. Al bloquear los ríos y al obstruir con sedimentos los cauces donde desovaban los peces, contribuyeron a extinguir los gigantescos bancos de peces migratorios que constituían uno de nuestros grandes espectáculos naturales y que alimentaban a gran parte de Gran Bretaña. Así se exterminaron esturiones, lampreas y sábalos, así como la mayoría de truchas y salmones.
La tracción estaba estrechamente ligada con el hambre. Cuanta más tierra se dedicaba para alimentar a los animales de arrastre destinados a la industria y al transporte, había menos terreno disponible para alimentar a las personas. Era el equivalente del siglo XVII a la crisis actual de los biocombustibles. Y lo mismo ocurría con el combustible para calefacción.
El carbón es 100 veces más dañino que la energía nuclear
Antes de que se extendiera el uso del carbón, se empleaba la madera no sólo para calentar los hogares, sino también para los procesos industriales: si se hubiera cubierto la mitad de la superficie terrestre de Gran Bretaña con terreno para producir madera, podríamos haber fabricado 1,25 millones de toneladas de hierro en barra al año (una fracción del consumo actual) y nada más. Incluso con una población inferior a la actual, los productos fabricados en la economía basada en la tierra eran dominio exclusivo de las élites. La producción intensiva de energética ecológica, descentralizada, basada en los productos de la tierra, es mucho más dañina para la humanidad que la fusión de un reactor nuclear.
Pero la fuente energética a la que volverán la mayoría de las economías si cierran sus plantas nucleares no es la madera, ni el agua, ni el viento, ni el sol, sino el combustible fósil. En todos los ámbitos (cambio climático, impacto en la minería, contaminación local, daños industriales y muertes, incluso vertidos radioactivos) el carbón es 100 veces más dañino que la energía nuclear. Con la expansión de la producción del gas de esquisto, los impactos del gas natural están llegando rápidamente a niveles similares.
Sí, sigo despreciando a los mentirosos que dirigen la industria nuclear. Sí, preferiría que todo el sector cerrara, si hubiera alternativas menos perjudiciales. Pero no existen soluciones ideales. Todas las tecnologías energéticas implican un coste, al igual que la ausencia de tecnologías energéticas. La energía atómica acaba de someterse a una de las pruebas más rigurosas posibles y el impacto en las personas y el planeta ha sido limitado. La crisis en Fukushima me ha convertido y ahora estoy a favor de la energía nuclear.

En los próximos 50 años la tecnología cambiará nuestras vidas

BT dibuja los escenarios tecnológicos más plausibles del próximo futuro: será necesaria una nueva mentalidad.
En 2046 se habrá consolidado la energía nuclear de fusión, en 2041 existirá una pequeña ciudad en la Luna, en 2036 tendremos el primer ascensor espacial, en 2031 los robots serán más inteligentes que nosotros, en 2026 habrá combates de boxeo entre androides, en 2021 los yogurts nos contarán chistes, en 2016 los coches serán pilotados automáticamente, en 2017 podremos ir de vacaciones a un hotel en órbita, en 2011 los robots cuidarán nuestros jardines, y el año que viene el ordenador ya procesará más rápidamente que una persona. Son algunos de los escenarios elaborados por el equipo de prospectiva tecnológica de British Telecom, que prevé asimismo para 2051 comunicaciones telepáticas generalizadas y la transferencia de la información contenida en un cerebro humano a una máquina.

Las innovaciones tecnológicas que se avecinan en el horizonte de los próximos cincuenta años modificarán de tal manera nuestras vidas actuales que sólo un cambio de mentalidad global podrá asimilarlas. Lo afirma el 2005 BT Technology Timeline, el ejercicio de prospectiva tecnológica elaborado por expertos de British Telecom, que anticipa las posibles innovaciones tecnológicas en campos tan dispares como la salud, la economía, la demografía, la energía, la robótica, el espacio, las telecomunicaciones y los transportes.
Los autores se apresuran a aclarar en toda lógica que los escenarios que dibujan son meras posibilidades, así como las previsibles implicaciones sociales de tales innovaciones. Para dibujar estos escenarios han consultado a expertos de diversos campos de todo el mundo. Con ellos han perfilado un consenso respecto a qué tecnologías tienen más posibilidades de emerger en los próximos años, en qué momento harán irrupción en la sociedad y qué impacto social puede esperarse de ellas.
El resultado son unas mil tecnologías emergentes clasificadas por especialidades y por el período de tiempo en el que supuestamente estarán disponibles para la sociedad, tal como explica BT en un comunicado. Existe una versión panorámica del informe, así como otra interactiva, que resultan muy elocuentes.
Los autores reconocen que muchas de las tecnologías dibujadas parecen de ciencia ficción, pero recuerdan al respecto la tercera ley del escritor de ciencia ficción Arthur C. Clarke, formulada en 1962: Cualquier tecnología suficientemente avanzada es indistinguible de la magia.
Nanotecnología y biotecnología, cruciales
Señalan al respecto que dentro de 60 años veremos cómo la nanotecnología y la biotecnología provocarán impactos en nuestras vidas que hoy consideraremos como mágicos, pero que serán normales para los hijos de nuestros hijos, debido a que nuestra escala temporal actual sólo puede aprehender una pequeña parte de lo que está en camino.
Si comenzamos por descubrir las tecnologías más remotas, lo que nos auguran estos expertos es que en 2051 el Reino Unido tendrá un equipo de fútbol formado íntegramente por robots, que para ese entonces habrá desaparecido completamente el agujero de la capa de ozono, que las comunicaciones telepáticas se habrán hecho corrientes entre las personas y que la información contenida en un cerebro humano podrá desde esa fecha ser transferida a un soporte artificial (los cerebros artificiales existirán desde 2040).
El viaje a través del tiempo, los primeros contactos con inteligencias extraterrestres, la circulación de personas a través del ciberespacio, los viajes a una velocidad superior a la de la luz o el colapso de la economía internacional, son escenarios relegados más allá de 2050, sin fecha posible. Son los más especulativos.
Futuro y presente
Lo más probable, sin embargo, es que en 2046 se haya consolidado la energía nuclear de fusión (un aliento para el proyecto ITER), que en 2041 exista una pequeña ciudad en la Luna, que en 2036 tengamos el primer ascensor espacial, que en 2031 los robots sean ya más inteligentes que nosotros, que en 2026 haya combates de boxeo entre androides, que en 2021 los yogurts (que incorporarán circuitos electrónicos de ADN en sus bacterias) nos cuenten chistes (ver al respecto lo que dice The Guardian, que en 2016 los coches sean pilotados automáticamente, que en 2017 podamos ir de vacaciones a un hotel en órbita, que en 2011 los robots cuiden nuestros jardines, o que el año que viene el ordenador procese más rápidamente que una persona.
Todo esto no es sino una caricatura de los escenarios tecnológicos previsibles descritos en el informe BT, que menciona también la posibilidad de que en 2012 existan azulejos de vídeo en el cuarto de baño para entretener a los niños, o paredes pintadas en el hogar que cambian de aspecto para estimular la energía vital, la felicidad o la calma.
No es la primera vez que BT realiza este ejercicio: uno anterior realizado en los años noventa alcanzó un grado de exactitud de entre el 80% y el 90%. En cualquier caso, no debemos olvidar que el objetivo de estos ejercicios no es hacer una quiniela para acertar o no respecto a lo que puede ocurrir.
La finalidad principal de la prospectiva es diseñar escenarios de futuro posibles con la finalidad de que estas perspectivas razonables de evolución nos permitan adoptar las mejores decisiones en el presente. Hay que imaginar qué puede ocurrir en los próximos años para adaptar nuestra mentalidad, nuestra profesión o nuestra actividad empresarial a esas posibles evoluciones. Es la mejor manera de vivir el presente.
Escenarios más destacados
Esquemáticamente, este es el resumen de las evoluciones tecnológicas de los próximos años que nos han parecido más llamativas:
2006-2010: juguetes emotivos, un grupo pop de inteligencia artificial se sitúa entre los 10 primeros del mundo, Internet llega al teatro, un superordenador más rápido que el cerebro humano, teléfonos móviles que transmiten emociones, pantallas flexibles...
2008-2012: mediacamentos suministrados a través de fruta modificada genéticamente, vídeotatuajes, tejidos sensibles que informan de la salud de una persona, clases mediante telepresencia, publicidad holográfica, aparato que traduce una conversaciòn en tiempo real...
2011-2015: coche pilotado automáticamente, regeneración dental gracias a la terapia genética, desaparición del papel moneda, el 60% de la población mundial vive en ciudades, robots-insectos ayudan a la polinización, robots jardineros, control de velocidad automático en las calles, ordenadores que duermen...
2013-2017: maquillaje electrónico que cambia de color, robots que guían a los ciegos por las calles, el 50% de la población mundial accede a Internet, juguetes nanotecnológicos, vídeos holográficos, hoteles en órbita, el genoma individual forma parte del historial médico, reconocimiento internacional de la cybernacionalidad…
2016-2020: se protegen jurídicamente las formas de vida electrónicas, los espectadores se convierten en los actores de las películas que ven, los objetos electrónicos permiten controlar las emociones, los androides representan al 10% de la población mundial, la policía se privatiza, las flores son kaleidoscópicas…
2021-2025: traducción inmediata automática, televisión en 3D, primera olimpiada biónica, almacenamiento bioquímico de la energía solar, primera misión a Marte, yogurt chistoso, tecnología antiruidos en los jardines…
2026-2030: impresoras 3D en los hogares, primer e-bebé emsamblado genéticamente, plena conexión con el cerebro, circuitos hechos con bacterias, combates deportivos de androides, factorías espaciales para el comercio interestelar…
2031-2035: posibilidad de ralentizar el metabolismo humano para permitir los viajes espaciales, ordenadores más inteligentes que las personas, animales domésticos diseñados a medida, juegos que usan la genética real, creación de “The Matrix”...
2036-2040: inauguración del primer ascensor espacial, estaciones de energía solar, escaparates virtuales, primer kil mecano-fractal…
2041-2045: primera ciudad lunar con servicio regular de transbordador, la poblaciòn mundial alcanza los 10.000 millones, la energía de las olas cubre el 50% de la demanda en el Reino Unido…
2046-2050: una pequeña colonia de cientificos se establece en Marte en una ciudad autosuficiente, llega el cerebro artificial, se impone la energía nuclear de fusión, se extraen minerales de los asteroides,
2051 + : los pensamientos, sentimientos y recuerdos se transfieren a un ordenador, desaparece el agujero de la capa de ozono, la expectativa de vida llega a los 100 años, la comunicación telepática se generaliza, se consigue el viaje a través del tiempo, colapso financiero internacional, desplazamientos de personas en el ciberespacio…
Otros escenarios
La prospectiva ofrecida por BT no es la única. Social Technologies ha realizado también un amplio diseño de escenarios que pinta cómo será el mundo en 2025 a partir de quince categorías. Es una visión más social que tecnológica no exenta de atractivo y rigor. Está realizada por la consultora Coates & Jarratt, Inc. De Jpseph Coates ya publicamos en esta revista (2002) Un programa de Ciencia y Tecnología para el Siglo XXI.
En un horizonte aún más amplio podemos consultar los Escenarios 2100 realizados por Thierry Gaudin. Se trata de una obra realizada el siglo pasado pero de gran envergadura: 2100: récit du prochain siècle. Publicada en 1993, esta obra conserva hoy toda su vigencia. Thierry Gaudin, que pertenece al Consejo Editorial de Tendencias21, acaba de publicar ahora un nuevo libro: La Prospective, en el que señala que el tránsito de una civilización industrial a otra cognitiva transforma las profesiones y las actividades sociales.
En su relato del próximo siglo, Thierry Gaudin describe la probable evolución de la sociedad humana hasta el año 2100. Dos grandes etapas caracterizarán este proceso: a una etapa de degradación social que ahora estaríamos atravesando, le seguiría un período de reacción social positiva basado en programas de educación masivos, rediseño de las ciudades y la reforestación. El siglo XXI termina según estos escenarios con el predominio de los valores femeninos, religiosos y de sensibilidad. La principal riqueza de esta obra radica en su amplitud temática, su carácter interdisciplinar y el hecho de que en su elaboración han participado expertos de todas las culturas.

El LHC podría ser la primera máquina del tiempo

Un nuevo modelo teórico sugiere que permitirá enviar mensajes al futuro
Un equipo de físicos de la Universidad Vanderbilt de Estados Unidos ha desarrollado una nueva teoría de viaje en el tiempo que, según ellos, “no viola ninguna ley de la física”. Si el LHC de Ginebra consigue producir una partícula conocida como el bosón de Higgs, al mismo tiempo ésta dará lugar a una segunda partícula denominada “Higgs singlet”, que será capaz de viajar hacia el futuro o hacia el pasado, afirman los físicos. La posibilidad que la partícula Higgs singlet viaje en el tiempo no será trasladable a los humanos, pero sí podría permitir “el envío de mensajes del pasado hacia el futuro”, aseguran los científicos.

El Gran Colisionador de Hadrones o LHC (acelerador y colisionador de partículas del CERN situado en Ginebra) podría convertirse en la primera máquina capaz de hacer que la materia viaje en el tiempo.
Esto al menos es lo que sugiere una teoría creada por los físicos Tom Weiler y Chui Man Ho, de la Universidad Vanderbilt de Estados Unidos, que “no viola ninguna ley de la física”, según los propios investigadores.
Elusión de la paradoja del abuelo
Uno de los principales objetivos del LHC es encontrar una escurridiza partícula llamada bosón de Higgs, que ha sido predicha por el modelo estándar de la física de partículas y utilizada por los científicos para explicar por qué otras partículas subatómicas como los protones, los neutrones o los electrones tienen masa.
Weiler y Ho creen que si el LHC lograse producir el bosón de Higgs, al mismo tiempo éste daría lugar a una segunda partícula denominada Higgs singlet. Según la teoría de los físicos, esta nueva partícula tendría la capacidad de pasar a una dimensión extra, a una quinta dimensión, donde se podría mover hacia el pasado o hacia el futuro.
En un comunicado emitido por la Universidad Vanderbilt, Weiler explica que uno de los atractivos de dicha teoría es que “elude todas las grandes paradojas” que se derivan de la posibilidad de viajar en el tiempo.
La razón, según él, sería que “el viaje en el tiempo estaría limitado a estas partículas en concreto, y que no sería posible para un ser humano”. De esta forma se evitaría, por ejemplo, la llamada paradoja del abuelo, que señala que si una persona realiza un viaje a través del tiempo y mata al padre de su padre o de su madre (abuelo del viajero), antes de que éste conozca a su abuela y ambos puedan concebir, entonces, el padre o la madre del viajero del tiempo y el propio viajero nunca llegarían a ser concebidos, de tal manera que el viajero no habría podido ir al pasado.
Al no viajar al pasado, su abuelo entonces no sería asesinado, por lo que el hipotético viajero sí habría sido concebido; entonces sí habría podido viajar al pasado y asesinar a su abuelo, pero no sería concebido… y así indefinidamente.

La Física Cuántica se pone de moda

La película ¿Y Tú qué sabes? populariza el ancestral debate sobre la naturaleza de la realidad
Después de recorrer multitud de círculos y foros, llega a las grandes pantallas de España la película ¿Y Tú qué sabes? (What The Bleep Do We Know?), avalada por el éxito de taquilla en las salas comerciales de Estados Unidos. La película está poniendo de moda la Física Cuántica, ya que trae a colación un importante debate filosófico y científico que se remonta a Platón, si bien tiene connotaciones metafísicas que trascienden el mundo de la ciencia. Los Creativos Culturales encuentran en ella una nueva fuente de inspiración porque la película les ofrece un posible modelo de integración, al mismo tiempo que populariza la duda sobre la naturaleza de la realidad, restringida hasta ahora a ámbitos académicos.

La película documental ¿Y Tú qué sabes? (What The Bleep Do We Know?) lleva por fin a la gran pantalla un importante debate filosófico y científico. Lo hace con lucidez, aunque no está exenta de un cierto aire californiano que ha irritado a algunos medios académicos.
Sin embargo, la película constituye un nuevo intento por acercar al gran público las cuestiones sobre las que se está planteando una profunda revolución cultural, surgida de los conocimientos sobre las partículas elementales, englobados en lo que ha dado en llamarse la Física Cuántica.
La Física Cuántica, tal como explicamos en otro artículo, es una manera de describir el mundo. Su campo de actuación es el de las partículas elementales, que se desenvuelven de manera misteriosa para la percepción ordinaria, ajenas a las leyes de los objetos físicos, dando lugar a diferentes interpretaciones.

La Teoría Cuántica, una aproximación al universo probable

Es un conjunto de nuevas ideas que explican procesos incomprensibles para la física de los objetos
La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. Su marco de aplicación se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de altas energías, en el diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina.
Breve cronología de la Teoría Cuántica
1900. “Hipótesis cuántica de Planck” (Premio Nobel de Física, 1918). Carácter corpuscular de la radiación.
1905. Einstein (Premio Nobel de Física, 1921) explica el “efecto fotoeléctrico” aplicando la hipótesis de Planck.
1911. Experimentos de Rutherford, que establecen el modelo planetario átomo, con núcleo (protones) y órbitas externas (electrones).
1913. Modelo atómico de Niels Bohr (Premio Nobel de Física, 1922). Tiene en cuenta los resultados de Rutherford, pero añade además la hipótesis cuántica de Planck. Una característica esencial del modelo de Bohr es que los electrones pueden ocupar sólo un conjunto discontinuo de órbitas y niveles de energía.
1923. Arthrur Comptom (Premio Nobel de Física, 1927) presenta una nueva verificación de la hipótesis de Planck, a través de la explicación del efecto que lleva su nombre.
1924. Hipótesis de De Broglie (Premio Nobel de Física, 1929). Asocia a cada partícula material una onda, de manera complementaria a cómo la hipótesis de Planck dota de propiedades corpusculares a la radiación.
1925. Werner Heisenberg (Premio Nobel de Física, 1932) plantea un formalismo matemático que permite calcular las magnitudes experimentales asociadas a los estados cuánticos.
1926. Erwin Schrödinger (Premio Nobel de Física, 1933) plantea la ecuación ondulatoria cuyas soluciones son las ondas postuladas teóricamente por De Broglie en 1924.
1927. V Congreso Solvay de Física, dedicado al tema “Electrones y fotones”. En él se produce el debate entre Einstein y Bohr, como defensores de posturas antagónicas, sobre los problemas interpretativos que plantea la Teoría Cuántica.
1928. Experimentos de difracción de partículas (electrones) que confirman la hipótesis de de Broglie, referente a las propiedades ondulatorias asociadas a las partículas. El fenómeno de difracción es propio de las ondas.
1932. Aparición del trabajo de fundamentación de la Teoría Cuántica elaborado por el matemático Jon von Neumann.

Nuevos láseres en miniatura abren una nueva era de Internet

Podrían hacer más rápido y fiable el intercambio de datos en la Red, según un estudio
Científicos de la Universidad de Florida Central han desarrollado un nuevo dispositivo láser capaz de acelerar la velocidad de computación y aumentar la eficacia en la transmisión de grandes cantidades de datos por Internet. La tecnología también puede ser aplicada a diversos aparatos de uso común como reproductores de discos compactos o ratones ópticos, entre otros.

Un nuevo dispositivo láser creado por investigadores de la Universidad de Florida Central podría acelerar la velocidad de computación y hacer más fiable el intercambio de datos en la Red, según un comunicado de la institución americana.
La nuevos diodos láser en miniatura, diseñados por el profesor Dennis Deppe, emiten una luz mucho más intensa que la que arrojan los que se utilizan actualmente. Esta luz es lanzada en una sola longitud de onda, lo que la hace idónea para su uso en reproductores de discos compactos, para los punteros láser o para los ratones ópticos de los ordenadores, por ejemplo, además de permitir la transmisión de datos a alta velocidad.
Según la nota difundida por la universidad estadounidense, hasta ahora, el desafío más grande había sido superar la tasa de fracaso de estos pequeños dispositivos, ya que no suelen funcionar muy bien cuando se enfrentan a enormes cargas de trabajo. El “estrés” puede con ellos.
La reducción del tamaño de estos aparatos y la eliminación de los materiales no semiconductores significaría que podrían ser utilizados en la transmisión de gran cantidad de datos pesados, algo que resulta fundamental en el desarrollo de la próxima generación de Internet.
Si se incorporasen diodos láser en los cables que sostienen la infraestructura de Internet, podrían ser movida gran cantidad de información a través de largas distancias de manera casi instantánea. Por otra parte, si se utilizasen estos láseres diminutos en relojes ópticos, la precisión del GPS y la velocidad de intercambio de datos en las comunicaciones inalámbricas también aumentarían.

Adif inicia las obras del viaducto del AVE sobre el río Almonte, una referencia en todo el mundo

Se convertirá en récord mundial de luz en su tipología de arco para uso ferroviario de alta velocidad
El viaducto del AVE sobre el río Almonte, cuyas obras ya han sido iniciadas por Adif, se convertirá en una referencia en todo el mundo. Una vez finalizado, se convertirá en récord mundial de luz en su tipología de arco para uso ferroviario de alta velocidad.

La compañía Adif ha iniciado las obras del viaducto del AVE sobre el río Almonte, correspondiente al tramo Talayuela-Cáceres de la Línea de Alta Velocidad Madrid-Extremadura-frontera portuguesa, que aspira a convertirse en una referencia mundial. Según informa Europa Press, pertenece al subtramo Embalse de Alcántara-Garrovillas, con una longitud de 6,3 kilómetros y que discurre por los municipios cacereños de Garrovillas de Alconétar y Santiago del Campo. El plazo de ejecución es de 32 meses.
El viaducto tiene una longitud de 996 metros y ha sido proyectado con un vano central de tipo arco, de 384 metros. La luz principal del viaducto hará que se convierta en el puente con arco, de hormigón o acero, de alta velocidad con mayor luz del mundo, superando al puente Dashegguan en China, con 336 metros. En España, el referente más cercano es el viaducto de Contreras, entre las provincias de Cuenca y Valencia, con un arco ferroviario de hormigón de 261 metros de luz.
En este mismo subtramo se han proyectado también otros tres viaductos, uno sobre el arroyo de Santa Ana, de 341 metros de longitud, y otros dos sobre los arroyos de Villaluengo y Cagancha, de 431 m cada uno.

Desarrollan artificialmente las neuronas que destruye el Alzheimer

El avance, alcanzado gracias a la transformación de células madre embrionarias, posibilitará el transplante de células nerviosas y la recuperación de recuerdos
Un equipo de investigadores estadounidenses ha conseguido por vez primera transformar una célula madre embrionaria humana en una neurona específica, del mismo tipo que destruye la enfermedad del Alzheimer en sus estadios iniciales. El avance permitirá probar nuevos medicamentos contra esta enfermedad y, con el tiempo, se espera que posibilite los transplantes de nuevas neuronas en pacientes con Alzheimer, para que éstos puedan recuperar sus recuerdos.


Un equipo de investigadores de la Universidad Northwestern de Estados Unidos ha conseguido por vez primera transformar una célula madre embrionaria humana en una neurona específica, del mismo tipo que destruye la enfermedad del Alzheimer en sus estadios iniciales.
La destrucción de este tipo de células nerviosas del cerebro es lo que ocasiona la pérdida de la memoria en pacientes con este trastorno.
Tanto la pérdida de memoria como la desorientación son los primeros síntomas del Alzheimer, una enfermedad neurodegenerativa que se manifiesta como deterioro cognitivo y trastornos conductuales.
Evitar la muerte neuronal
Según publica la citada universidad en un comunicado, la posibilidad de reprogramar las células madre para dar lugar a un suministro ilimitado de neuronas humanas propiciará la aparición de nuevos medicamentos de prueba contra el Alzheimer.
Por otro lado, el avance permitirá a los científicos analizar las causas de la muerte de las neuronas y, con el tiempo, posibilitará los transplantes de nuevas neuronas en pacientes con Alzheimer.
Concretamente, los investigadores de la Northwestern University consiguieron desarrollar, a partir de las células madre, unas neuronas conocidas como “neuronas colinérgicas del cerebro anterior basal”.
Estas células nerviosas son las que ayudan a una región del cerebro llamada hipocampo a retener los recuerdos. En el cerebro existe una población relativamente pequeña de estas neuronas, pero su pérdida provoca un efecto veloz y devastador en la capacidad de recordar.
Según uno de los autores de la investigación, el neurólogo de la Universidad Northwester, Jack Kessler, ahora que ya se sabe cómo desarrollar estas células nerviosas en laboratorio, éstas podrán ser estudiadas en cultivos, para averiguar cómo se puede evitar su muerte.
Funcionamiento corriente
Otro de los autores del estudio, el también neurólogo Christopher Bissonnette, añade que “esta técnica para producir neuronas permite hacer crecer un número casi infinito de estas células en laboratorio, lo que permitirá a otros científicos analizar porqué esta población de células muere selectivamente como consecuencia del Alzheimer”.
La posibilidad de generar neuronas también supone que los investigadores puedan testar rápidamente miles de medicamentos distintos para comprobar cuál de ellos mantiene a las células vivas en un entorno nocivo. Esta técnica de experimentación rápida es conocida como “cribado de alto rendimiento”.
Kessler y Bissonnette han demostrado ya que las neuronas producidas con su método funcionan igual que las neuronas originales. Los científicos transplantaron las neuronas generadas en el hipocampo del cerebro de ratones, en el que se constató que presentaban un funcionamiento corriente.
Otra forma de producir células nerviosas
Las neuronas desarrolladas a partir de células madre produjeron axones o prolongaciones neuronales que conducen el impulso nervioso dirigidos hacia el hipocampo, y liberaron acetilcolina, que es un neurotransmisor que liberan específicamente las neuronas colinérgicas, y que es necesario para que el hipocampo retenga los recuerdos procedentes de otras partes del cerebro.
En otra investigación reciente, estos mismos científicos descubrieron una segunda técnica de desarrollo de nuevas neuronas. En este caso, los investigadores generaron en primer lugar células madre embrionarias (conocidas como células madre pluripotentes inducidas o iPS ) a partir de células de piel humana y, después, transformaron las iPS en neuronas.
Estas neuronas y sus células madre precedentes fueron desarrolladas a partir de células de piel de tres grupos de personas: pacientes con Alzheimer, pacientes sanos sin antecedentes de casos de Alzheimer en sus familias, y pacientes sanos con una propensión incrementada a padecer la enfermedad, por antecedentes familiares (por razones genéticas o desconocidas).
Según Kessler, este método de obtención de células constituye una “nueva forma de estudiar células humanas enfermas por el Alzheimer”.
Buscarle un hogar a las neuronas
En la primera investigación mencionada, los científicos tuvieron que desarrollar y probar millones de células para descubrir cómo convertir una secuencia exacta de genes, para transformar las células madre en neuronas colinérgicas.
Según explica Bissonnette: “una célula madre tiene el potencial de convertirse en cualquier célula del cuerpo, desde una célula del corazón hasta una de la piel. Su desarrollo final está ocasionado por una gran cantidad de factores que lentamente la dirigen hacia un tipo concreto de célula”.
Además, los científicos tuvieron no sólo que generar las células, sino también aprender cómo estabilizarlas, de manera que viviesen al menos 20 días para poder probar que eran las células que esperaban.
A pesar de la importancia de los avances obtenidos, aún queda por averiguar en qué tipo de cultivo de tejido las neuronas humanas maduras podrían vivir. Una vez que se descubra esto, los científicos podrán hacer que las neuronas duren un tiempo indefinido. Los resultados de la presente investigación han aparecido publicados en la revista especializada Stem Cells.

Creadas las primeras vacunas nanométricas

Pruebas realizadas en ratones han demostrado que son tan eficaces como las vacunas virales, pero más seguras
Ingenieros del MIT han diseñado unas nanopartículas o partículas microscópicas que servirán, en un futuro, para vacunar contra diversas enfermedades. Estas nanopartículas son esferas adiposas concéntricas que contienen proteínas sintéticas como las que producen los virus. Una vez inoculadas en el organismo, las esferas dejan salir su contenido, contra el que se defiende el sistema inmune con una respuesta similar a la que producen las vacunas virales. Así, estas nanopartículas “enseñan” al cuerpo a protegerse contra los patógenos. En pruebas realizadas con ratones, se ha comprobado la efectividad de esta tecnología contra la malaria. Los científicos trabajan ahora para desarrollar nanopartículas para crear con ellas otras vacunas, como la del SIDA o el cáncer.

Ingenieros del Instituto Tecnológico de Massachussets (MIT), en Estados Unidos, han diseñado unas nanopartículas o partículas microscópicas que servirán, en un futuro, para vacunar contra enfermedades como el SIDA o la malaria.
Según publica el MIT en un comunicado, estas nanopartículas son esferas adiposas concéntricas, en las que son introducidas versiones sintéticas de las proteínas que normalmente producen los virus.
Gracias a este modo de suministro, dichas proteínas sintéticas provocarían una potente respuesta del sistema inmune, similar a la que provocan las vacunas virales, pero de manera más segura para el paciente.
Protección del organismo
En la actualidad, estas nanopartículas-vacuna están ya siendo probadas en ratones, para la enfermedad de la malaria, que se calcula es contraída cada año en el mundo por más de 210 millones de personas.
Pero los autores de la investigación, el ingeniero del MIT, Darrell Irvine y sus colaboradores del Walter Reed Army Institute of Research, esperan que esta tecnología permita crear vacunas contra otras enfermedades, como el cáncer o las enfermedades infecciosas.
En general, las vacunas protegen al organismo porque provocan la producción de anticuerpos contra los patógenos que se inoculan, generando así una respuesta de defensa que queda “grabada” en el cuerpo.
En muchos casos, como con las vacunas de la polio o de la viruela, para despertar esta respuesta orgánica se utiliza una forma desaparecida o neutralizada del virus, con la que se “enseña” al organismo a defenderse de éste.
Otras vacunas, como la de la difteria, están hechas con una versión sintética de una proteína u otra molécula que normalmente producen los propios patógenos.
Muchas dificultades
Cuando se diseña una vacuna, los científicos intentan que ésta active la respuesta de al menos uno de estos dos tipos de células del sistema inmune: los linfocitos T, que son los que atacan las células del cuerpo que han sido infectadas por el virus; o los linfocitos B, que son los que segregan los anticuerpos que atacan a los virus o bacterias presentes en la sangre y otros fluidos orgánicos.
Pero, para luchar contra enfermedades cuyos patógenos tienden a permanecer dentro de las células, como en el caso del virus del SIDA, la situación es más complicada: la vacuna debe activar una respuesta inmunológica más potente de lo normal o hacer reaccionar a las llamadas células T “asesinas”.
La mejor manera de garantizar que las células T asesinas entren en acción es usar en las vacunas un virus, pero esto no puede hacerse siempre porque ciertos virus, como el VIH, son muy difíciles de neutralizar para que resulten inofensivos.
Por eso, en casos como el del SIDA o la hepatitis B, los científicos trabajan con vacunas sintéticas. El problema de éstas, sin embargo, es que no provocan una respuesta de las células T lo suficientemente fuerte.
Para tratar de superar todos estos problemas, algunos científicos han intentado introducir las vacunas en vesículas adiposas conocidas como liposomas, que se pensaba podrían impulsar la respuesta de las células T, llevando la proteína en una partícula similar a un virus. Sin embargo, estos liposomas han demostrado tener poca estabilidad en sangre y fluidos corporales.
Una solución posible
Lo que Irvine y sus colaboradores han logrado es crear una estructura más estable, aplicando la metodología del liposoma pero con algunas variables.
Concretamente, los investigadores reunieron muchas vesículas adiposas o liposomas en esferas concéntricas. Una vez que estos liposomas son reunidos, sus respectivas paredes quedan químicamente ligadas unas a otras, dando lugar a una estructura menos propicia a romperse demasiado rápido, tras la inoculación.
Sin embargo, una vez que las nanopartículas son absorbidas por una célula, se degradan rápidamente, dejando salir la vacuna contenida en ellas y provocando una potente respuesta de las células T.
En pruebas realizadas con ratones, los investigadores utilizaron estas nanopartículas para suministrar una proteína de la clara de huevo llamada ovalbúmina, que se usa comúnmente en estudios de inmunología, porque los instrumentos bioquímicos son capaces de rastrear la respuesta inmune que la ovalbúmina provoca en el organismo.
Descubrieron así que tres inmunizaciones de dosis bajas de la vacuna contra la malaria produjeron una potente respuesta de las células T (después de la inmunización, más del 30% de las células T asesinas de los ratones eran específicas para la proteína de la vacuna o estaban listas para responder al virus de la malaria).
Ésta es una de las respuestas de células T más fuertes generadas por una vacuna de proteínas sintéticas, y es comparable a la respuesta que provocan vacunas virales fuertes. Sin embargo, este método resulta más seguro porque no precisa de virus vivos, explica Irvine.
Además de los estudios sobre malaria, los científicos están trabajando ahora mismo en nanopartículas que se utilizarán para desarrollar vacunas contra el cáncer y el VIH. Los resultados de la presente investigación han aparecido publicados en Nature Materials.

Consiguen mejorar los síntomas de la artritis reumatoide con una proteína de diseño

Científicos han demostrado que una nueva proteína diseñada para inhibir las moléculas que causan la inflamación típica de la artritis reumatoide no sólo reduce los síntomas de esta enfermedad en ratones, sino que también podría tener el potencial de revertir su curso.
Los investigadores esperan que los hallazgos permitan crear una nueva terapia para esta enfermedad de difícil tratamiento, que ocurre cuando el sistema inmune ataca las articulaciones del propio cuerpo. Incluso los medicamentos más eficaces para frenar la inflamación articular solamente son compatibles en aproximadamente la mitad de los pacientes que los prueban.
Los científicos, de diversos centros de investigación constataron que, al administrar una proteína llamada progranulina a ratones con artritis reumatoide, sus síntomas se redujeron e incluso desaparecieron por completo.
Seguidamente, el grupo determinó qué fragmentos de la progranulina eran los responsables de estos cambios, y los combinaron para diseñar una proteína que funciona aún mejor que la progranulina como supresor de la enfermedad. Según los investigadores, esta proteína modificada serviría para prevenir por completo la inflamación en los casos de artritis leve y temprana.

Crean un chip fotónico que transfiere datos a un Terabit por segundo

La nueva tecnología es más pequeña, menos costosa y consume mucha menos energía
Una empresa estadounidense ha diseñado y fabricado el primer circuito fotónico integrado capaz de lograr un récord de un billón de bits por segundo de velocidad en un solo chip. El sistema permite que las redes en el corazón de Internet sean más rápidas a la hora de reaccionar ante cambios repentinos en la demanda, como la posibilidad de desviar el tráfico en caso de una rotura en la fibra, reduciendo el coste y el consumo de energía.


Con el tráfico de datos en Internet en todo el mundo creciendo un 50 por ciento cada año, las compañías de telecomunicaciones que manejan este torrente digital deben ser capaces de expandir la capacidad de sus redes al mismo tiempo que se adaptan a un uso más eficiente de las tecnologías de datos. En la última década, un equipo de investigadores de la compañía estadounidense Infinera Inc ha sido pionero en el diseño y fabricación de Circuitos Fotónicos Integrados (PICs) destinados a satisfacer esa necesidad. Esta tecnología ha permitido al grupo lograr un récord de un billón de bits por segundo (1 Terabit / s) de velocidad en un solo chip integrado de fosfuro de indio, según un comunicado de la Sociedad Óptica de América.
En palabras de uno de los investigadores de la empresa norteamericana, miembro senior del equipo de desarrollo de PICs de Infinera, Radhakrishnan Nagarajan, “las arquitecturas de sistemas tradicionales basadas en transpondedores son inflexibles y costosas y requiere mucho tiempo mejorarlas. Nuestras investigaciones en el campo de los Circuitos Fotónicos Integrados nos permiten hacer de las redes ópticas instrumentos más potentes, flexibles y fiables que nunca, usando un equipamiento significativamente más pequeño, menos costoso y que consume mucha menos energía."
La nueva tecnología contiene más de 150 componentes ópticos - tales como láseres de oscilación local de frecuencia variable, dispositivos para la mezcla de osciladores locales y señales de entrada, atenuadores ópticos variables para el control de potencia de los osciladores locales, un demultiplexor espectral para separar canales de distintas longitudes de onda y 40 pares de fotodetectores (receptor / transmisor), todo integrado en un chip más pequeño que una uña.
100 Gbit/s por canal
La clave que está detrás del funcionamiento de este importante avance técnico es la tecnología 100-Gbit/s-per-channel (100 Gbit/s por canal) y su capacidad para detectar los datos de entrada codificados utilizando la técnica de modulación espectral más eficiente de la industria óptica, llamada PM-QPSK (Polarization Multiplexed Quadrature Phase-Shift Keying), o Polarización Multiplexada por Modulación en Cuadratura por Desplazamiento de Fase.
La Modulación en Cuadratura por Desplazamiento de Fase (QPSK) es una técnica de modulación en la que a través del desplazamiento de la fase de una señal, se crea una constelación con cuatro posibilidades distintas por lo que cada pulso de señal contiene dos bits de información (00, 01, 10 o 11). Esta técnica es ampliamente conocida y empleada en transmisión de señales digitales.
La Polarización Multiplexada (PM) es una técnica empleada en medios ópticos, que permite la emisión simultánea de varias señales haciéndolas ortogonales a través de procesos de polarización óptica.
PM-QPSK es una técnica que unifica las dos anteriores y permite transmitir cuatro veces más información cada segundo de lo que era posible anteriormente.
Sin embargo, aquí la noticia no es el esquema de modulación PM-QPSK en sí, sino lo que Infinera ha logrado por primera vez: unificar todo ese esquema en un solo Circuito Fotónico Integrado de 10x100 Gbit /s.
"Pero tan importante como el método inteligente y eficiente de codificación de un transmisor es proporcionar una manera rápida y fiable para que el receptor pueda volver a transformar la señal recibida en la información original", afirma el Dr. Nagarajan. "Para PM-QPSK, hemos diseñado e integrado un láser de ancho de haz estrecho que detecta muy eficientemente la fase de codificación de los datos”.
500 Gbit/s para 2012
Infinera espera que su sistema de un Terabit esté comercialmente disponible dentro de unos años. Ya el año que viene la compañía lanzará al mercado un Circuito Fotónico Integrado de 500 Gbit/s. Mientras esto llega, los PIC de 100 Gbit/s de Infinera ya son utilizados actualmente en las redes de larga distancia y de metro de todo el mundo.
El transmisor y el receptor PIC se instalan normalmente en los nodos críticos y en cada extremo de las redes ópticas de "largo recorrido". Al igual que los vuelos sin escalas entre nudos de comunicaciones aéreas, los enlaces interurbanos e intercontinentales de fibra óptica llevan la mayor parte del tráfico de Internet. Según el comunicado, se ha calculado que a nivel mundial, más de 20 exabytes -20 billones de billones de bytes (o 160 exabits)- pasan a través de Internet cada mes.
Los Circuitos Fotónicos Integrados PIC permiten grandes cantidades de ancho de banda rentable y facilitan que las redes en el corazón de Internet sean escalables y más rápidas a la hora de reaccionar ante cambios repentinos en la demanda. "En muchos sentidos, las redes ópticas basadas en PICs están empezando a asumir funciones de las redes (IP) de enrutado inteligente, como la posibilidad de desviar el tráfico en caso de una rotura en la fibra, pero reduciendo el costo y el consumo de energía”, añade Nagarajan.
Los resultados del trabajo se presentarán en la Conferencia Nacional de Ingenieros de Fibra Óptica (OFC / NFOEC) que se celebrará del 6 al 10 marzo en el Centro de Convenciones de Los Ángeles.

China opta por los trenes suspendidos para sus ciudades

También desarrolla una nueva línea de levitación magnética mientras Japón estrena la nueva línea Hayabusa
En China, un sistema automático de monorraíl suspendido se introducirá como una alternativa real frente a los atascamientos de tráfico y la contaminación del aire en las grandes ciudades, mientras que al mismo tiempo se ha comenzado a construir una nueva línea de levitación magnética. Por otro lado, en Japón la nueva línea Hayabusa marca una importante evolución en los sistemas ferroviarios de alta velocidad en ese país, con un modelo que puede alcanzar los 300 kilómetros por hora en solamente seis segundos.
La nueva era de la levitación magnética
Según se establece en un artículo de Environment News Service (ENS), el sistema H-Bahn funciona con cuatro motores eléctricos de tracción, que emplean corriente directa a través de un conductor de ferrocarril o de una línea aérea. El tren suspendido es una opción ideal para aquellas ciudades que no pueden desarrollar el proyecto de un metro, ya que resulta más económico y rápido de construir.
Pero esta alternativa de transporte urbano no es la única novedad en el campo ferroviario chino, porque también avanza la construcción de una línea de tren de levitación magnética entre el centro de Beijing y el montañoso distrito Mentougou, hacia el oeste del país.
Esta nueva línea de levitación magnética de baja velocidad es la primera que se desarrolla en China y la segunda a nivel mundial, de acuerdo a los especialistas chinos. Sin embargo, el proyecto se está construyendo sobre las objeciones de los residentes que viven en cercanías de la nueva infraestructura ferroviaria.
Los vecinos están preocupados por la exposición a la radiación electromagnética, pero los expertos chinos indicaron que los experimentos realizados certifican que el tren Maglev de baja velocidad prácticamente no emite radiación, y por lo tanto no acarrea peligros para la salud humana o para el medio ambiente.
Máxima velocidad japonesa
Ya está en actividad en Japón la nueva línea Hayabusa, que permite recorrer el trayecto entre Tokio y Aomori (714 kilómetros) en tres horas y diez minutos. De esta manera, el servicio de Japan Rail East marca un paso importante en los 46 años de historia de la alta velocidad japonesa, con un modelo que puede alcanzar los 300 kilómetros por hora en solamente seis segundos.
Este tren, que marca una nueva era en los servicios ferroviarios de alta velocidad en Japón, alcanzará su velocidad máxima de 320 kilómetros por hora en 2012. Las innovaciones concretadas en el tren, obtenidas luego de diez años de investigación, incluyen un nuevo sistema de suspensión activa que disminuye la vibración del tren y logra que la formación supere las curvas sin perder prácticamente velocidad.
Gracias a esto, la línea Hayabusa alcanza una media de velocidad de 270 kilómetros por hora. Al mismo tiempo, y para reducir el impacto acústico del tren, los pantógrafos han sido especialmente diseñados para generar el menor sonido posible. Además, toda la carcasa se encuentra revestida con paneles antirruido.
De acuerdo a un artículo de Physorg.com, la serie E5 Hayabusa de color verde y plata se convertirá en el tren más rápido de Japón en 2012. También vale destacar la optimización aerodinámica desarrollada, ya que los trenes incorporan un diseño de largos frontales que ha sido concebido para amortiguar los ruidos de entrada y salida, además de reducir el impacto del viento sobre las unidades.

La materia es en realidad energía oscura


Se ha llegado a sugerir que en Física estaba prácticamente todo inventado. Sin embargo, no se menciona que hay muchas imprecisiones, arreglos y trucos que los científicos han utilizado para explicar las realidades con las que se encontraban. Las teorías conocidas son incapaces de explicar las nuevas realidades y han llevado a los científicos a una vía muerta. La realidad es que no se conocen las características básicas de la naturaleza del universo, por lo que hay que descubrir nuevos principios mediante los cuales se puedan definir las primeras causas y explicar los resultados experimentales, tanto antiguos como actuales, dando un paso para progresar honestamente en el desarrollo de la ciencia y la tecnología. Para corregir esas deficiencias y explicar tantos misterios, he escrito un libro: “La materia, energía oscura”, que contiene las bases de la Física Cuántica, la Teoría Cuántica del Movimiento (TCM) y la Teoría Cuántica de los Campos Unificados (TCCU), y el paso de la microfísica a la macrofísica. Este nuevo paradigma establece un nuevo postulado: el Principio de la Energía Oscura, el cual define en primer lugar la energía: la energía es la única sustancia material disponible en la naturaleza física, determinando que la energía oscura ocupa todos los espacios, las partículas elementales y las cargas eléctricas, siendo susceptible de deformarse.
Por Mariano Gómez Olea.

DXT Precision Mouse te promete comodidad en ambas manos

Si usáis mucho el ordenador puede que os pase como a Jimbo de los Simpsons y tengáis las muñecas como una anciana con artritis, pero si queréis evitar que vaya a peor lo mejor es que os planteéis la compra de un ratón ergonómico.
Los mejores suelen ser los verticales, pero el problema es que suelen estar adaptados para ser usados con la mano derecha y a veces no existen con versiones para la izquierda. La solución, el DXT Precision Mouse, el primer ratón vertical ambidiestro.

Este minirratón vertical compacto ha sido desarrollado por City Ergonomics y permite con un espacio mínimo que puedas disponer de un ratón ergonómico que puedas cambiarte de mano con sólo pulsar un botón.
Su forma según ellos hace que se adapte a cualquier tipo de mano y dispone de un selector de resolución para 400,800 y 1600 dpi. Eso sí, lamentablemente sólo está disponible con cable por USB y el precio rondará los 80 euros.
Yo por mi parte no sé si funcionará muy bien al ser tan pequeño, mi ratón vertical es un poco grande sí, pero puedo apoyar mi meñique sin tener que arrastrarlo y con éste me parece a mi que los dos últimos dedos se te terminarán atrofiando dejándote con las manos de una tortuga ninja.

El edificio más alto de USA tendrá ventanas solares

La torre Willis de Chicago, antes conocida como torre Sears fue el edificio más alto del mundo entre 1974 y 1998, y actualmente con 442 metros sigue siendo el más alto de los Estados Unidos de América.
Actualmente se está planeando cambiar las ventanas del piso 56 de su fachada sur por cristales capaces de transformar la luz del sol en energía eléctrica.
Pitágoras fue un célebre matemático griego que vivió 500 años antes de Cristo y que además de su célebre teorema ha servido de inspiración para el nombre de Pythagoras Solar, la tecnología que usarán en este rascacielos para que las propias ventanas generen energía eléctrica además de contribuir a minimizar el calentamiento del edificio.
El uso de este tipo de tecnología permitiría aprovechar el limitado espacio de las ciudades para obtener energía solar gracias a estos cristales fotovoltáicos que obtienen energía de la luz del sol mientras permiten que el interior de los mismos permanezca también iluminado y con vistas. El sistema funciona mediante un prisma que deja pasar la luz pero al mismo tiempo refleja a un captador lateral para generar electricidad.

Lo que escriba en Facebook podrá usarse en su contra en un juicio

Las redes sociales se han convertido en una de las principales causas de infidelidad. El reencuentro con antiguas relaciones, junto con la intimidad y la apertura de sentimientos que fomenta el contacto por internet, están dando pie a uno de cada cinco divorcios. Es tal su auge, que el material que publican los usuarios en sus perfiles está ya siendo utilizado por los abogados en procesos matrimoniales y en la custodia de los hijos.
Si está en proceso de separación o divorcio, o tiene en mente hacerlo, ¡aléjese de Facebook! Es la urgente recomendación de la Asociación estadounidense de Abogados Matrimonialistas, motivada por el hecho de que, en casi siete de cada diez procesos, la red social es utilizada como fuente de pruebas. También se analizan otras redes como MySpace (en el 15 por ciento de los casos ) y Twitter (el 5 por ciento).
«Facebook es una gran fuente de evidencias», asegura el abogado estadounidense Ken Altshuler. «Estas evidencias son completamente sólidas porque el usuario es el propio autor de la prueba. ¿Cómo niegas que lo hiciste?». En efecto, las fotos consumiendo alguna droga, o bajo los efectos del alcohol, son recurrentes en los litigios por la custodia de los niños. «Es necesario familiarizarse con los controles de seguridad de los sitios para garantizar que la información personal no esté disponible para cualquiera», advierten los expertos.
En España, cualquier información publicada en Internet puede ser utilizada en un determinado juicio, como si fuera otro documento privado. «La parte contraria puede negar el contenido, ya que Facebook no es un archivo protegido, cualquiera puede hacerse con mi clave y publicar cosas que no son ciertas, por ejemplo. Y en este caso hay que probar que es verdad lo publicado», explica Adriana de Ruiter, abogada del grupo asesor TodaVIE.
«Además, salvo ejemplos muy exagerados, no parece que vaya a tener demasiada relevancia en los casos de familia: los jueces no están esperando las historias miserables de las personas, sino que buscan resolver una situación concreta. Una borrachera publicada en internet no hace de una persona mal padre si luego hay muchas pruebas a su favor y se acredita que cumple con sus obligaciones», indica la abogada.
«Un porro tampoco pone en peligro la guarda y custodia. Yo directamente ni lo menciono en los juicios aunque el cliente me lo pida, ya que no es relevante salvo que sea muy exagerado y estemos ante un situación grave de drogodependencia», afirma De Ruiter.
Aventuras pasados los 40
Pero no sólo Facebook podrá ser usado en su contra. La red es el propio detonante de muchas de las demandas de separación. En Gran Bretaña, un portal especializado en asesoría legal demostró que uno de cada cinco divorcios solicitados tiene a Facebook como uno de los principales motivos de ruptura.
Según los datos, quienes más aventuras amorosas están viviendo a través de Internet son las personas nacidas entre 1946 y 1964, que se están sumando a las redes sociales de forma masiva: su número aumenta por cinco cada año.
La red reconecta a las personas con viejos amores, principalmente de la juventud o la adolescencia y los mensajes inocentes acaban removiendo sentimientos del pasado que acaban por mermar la relación en pareja.
Espionaje matrimonial
El 61 por ciento de los abogados emplea las redes sociales como primera fuente para buscar información sobre el cónyuge de su cliente. Estos datos son empleados como pruebas durante el juicio para contradecir o rebatir afirmaciones.
La desconfianza en la pareja y la búsqueda de pruebas han provocado el aumento exponencial de aplicaciones de espionaje en el mercado, como «Stealth Computer Monitor», que ha aumentado sus ventas en un 242 por ciento. Esta pequeña herramienta de espionaje se inserta en un USB y este a su vez se inserta en cualquier computadora durante unos segundos y se retira sin dejar evidencia alguna. Graba todo lo que escriba el usuario en el ordenador y «fotografía» lo que va apareciendo en pantalla.
Los contactos con relaciones sentimentales del pasado se inician como un juego, pero en muchas ocasiones derivan en un acercamiento más serio. El «juego», según los expertos, comienza con las carencias dentro de la propia pareja: «Está en relación con sensaciones de ahogo por la pérdida de autonomía, o por conductas muy rutinarias con su actual pareja», asegura el psicólogo Sergio Valencia.
«Esta dependencia emocional bloquea la comunicación con la pareja, hasta que se generan encuentros ocasionales presenciales con la persona que se establece el contacto virtual, los que generalmente están muy cargados de pasión y llevan a la infidelidad física», dicen los expertos.

Un milagro del tamaño de un Ipod para dar voz a los mudos

Investigadores del Virginia Tech College of Engineering de Estados Unidos están desarrollando un sistema de estimulación eléctrica que podría devolver la voz a los mudos. El dispositivo, que será portátil y tendrá el tamaño de un iPod, hará llegar pequeños shocks eléctricos a cuerdas vocales paralizadas, para que éstas puedan moverse, emitir aire a presión y vibrar de nuevo para generar sonido. Esta tecnología, que podría estar lista en cinco años, se suma a otros prometedores avances que devolverán la capacidad de comunicación a pacientes con diversos tipos de trastornos.
Un investigador del Virginia Tech College of Engineering de Estados Unidos está desarrollando un sistema de estimulación eléctrica que podría permitir a los mudos volver a hablar.
Según publica el Virginia Tech en un comunicado, el científico Alexander Leonessa pretende así ayudar a aquellas personas que han perdido la voz por padecer una parálisis o por haber sufrido un ictus, entre otros trastornos
Mejorar la calidad de vida
El sistema consistirá en un pequeño dispositivo para la aplicación de estimulación eléctrica sobre las cuerdas vocales paralizadas. Esta estimulación ayudará a personas mudas a hablar, pero también incluso a tragar y a respirar correctamente.
Según Leonessa, el dispositivo podría mejorar la calidad de vida de pacientes con parálisis vocal o discapacidades neuromusculares, a personas con ciertos trastornos, como lesión cerebral por trauma, esclerosis múltiple, parálisis cerebral o Parkinson.
El concepto de estimulación eléctrica sobre los músculos tiene ya varias décadas, y se aplica regularmente sobre las extremidades, para prevenir la atrofia muscular. Cuando, por cualquier razón, el cerebro deja de enviar los impulsos eléctricos que hacen posible que se muevan las extremidades, los músculos y nervios de estas tienden a atrofiarse como consecuencia del desuso.
Por esta razón, los médicos utilizan estimuladores eléctricos artificiales que se colocan sobre la piel. Los pequeños shocks eléctricos que estos proporcionan hacen que los músculos se contraigan. Esta actividad sencilla puede salvar las piernas o los brazos.
Leonessa afirma que aplicar el mismo método a las cuerdas vocales permitirá inervar de nuevo sus músculos, mejorando así las capacidades de hablar, respirar y tragar de los pacientes.
Cinco años de pruebas
Los humanos somos capaces de hablar gracias a que los repliegues membranosos o cuerdas vocales, parte del aparato fonador directamente responsable de la producción de voz, se abren y se cierran de manera muy similar a como lo hacen los párpados. De esta forma, generan o liberan aire a presión que hace vibrar a las cuerdas vocales. Así se produce el sonido.
En muchas casos, una de las cuerdas vocales puede verse afectada por parálisis, explica Leonessa. Esto provoca que no pueda cerrarse y, en consecuencia, que no se genere el aire a presión necesario para que se cree el sonido.
En los próximos cinco años, Leonessa y sus colaboradores trabajarán con médicos del Center for Voice and Swallowing Disorders, de Centro Médico Baptista de Carolina del Norte, para probar cómo la estimulación eléctrica, en forma de pequeños shocks eléctricos aplicados a las cuerdas vocales, sirve para devolver a pacientes mudos la capacidad de hablar, gracias a contracciones forzadas.
En su trabajo los científicos se enfrentan a varios desafíos. Por un lado, los músculos de las cuerdas vocales son irregulares y presentan características que varían con el tiempo, dependiendo de cada paciente.
Por otro lado, un músculo estimulado cambia cuando se fatiga, y los modelos de cada músculo individual son distintos. Existe, además, una dificultad incluso mayor que todas éstas: el hecho de que hay una dilación significativa entre la estimulación y la contracción del músculo, que se añade a los retrasos en el procesamiento y la transmisión del propio sistema de estimulación eléctrica.

Así profetizaban en 1981 cómo serían hoy los «hackers»

Cualquier cosa que diga, podrá ser utilizada en su contra. Una enmienda que hace esclavo de sus palabras al periodista y al escritor, sobre todo cuando se publican predicciones de futuro a largo plazo que un día pueden ser rescatadas de la hemeroteca o de viejas ediciones. Aunque, en este caso, las profecías quedaron muy próximas a la realidad en la que vivimos tres décadas después.

Bajo estas circunstancias adivinatorias el texto a doble página «Computer criminals» firmado en 1981 presagiaba «el día de mañana» de la informática. El pronóstico retrataba una sociedad completamente computerizada. Sólo por el titular del artículo, hoy Google arroja 997 noticias publicadas sobre la materia en las últimas horas, un fiel reflejo del acertado vaticinio.
«Se va a acabar el dinero en efectivo, de modo que ya no existirá el miedo a los atracos», anunciaba el periodista. La seguridad quedaría en manos de los ordenadores: «Además, usted no tendrá que preocuparse de que su casa o su coche sean robados; las computadoras los custodiarán, permitirán entrar en él solamente al propietario o a alguien que tenga su permiso», asegura el autor del texto, incluido en el libro «School, work and play (World of Tomorrow)».
El perfil del «hacker»
Echando la vista atrás, el reportaje avanza un particular retrato del pirata informático del futuro (nuestro presente) y de la aparición de nuevas amenazas en el horizonte: «Un tipo de delito que puede existir en el futuro es la delincuencia informática. En lugar de asaltar gente en las calles o robando casas, en el futuro puede que traten de robar el dinero de los bancos y otras organizaciones que utilizan una computadora», profetizaba.
No menos desencaminada quedó la descripción del modus operandi de los piratas informáticos, que «trabajarán desde casa, utilizando su propia computadora para tener acceso a las memorias de los ordenadores utilizados por bancos y empresas hasta lograr interferirlos con el fin de transferir el dinero a su propio equipo sin que el banco o la empresa sepan que ha sido robado».
En 1981 los delitos informáticos ya eran un hecho, sin embargo la figura del «hacker» aún se veía, tal y como refleja la imagen que ilustraba el reportaje, como a un sofisticado espía robando datos a escondidas. Aunque el artículo subestimó el alcance de la actual sociedad de la información y de las habilidades de los piratas informáticos: «Es muy difícil llevar a cabo con éxito el robo en una computadora. Muchas tienen códigos secretos para evitar que acceda nadie más que su dueño. A medida que los ordenadores se utilicen cada vez más, es probable que la delincuencia informática encuentre más dificultades».
Con más lucidez se imaginó el futuro de la Policía, que se especializaría en las nuevas amenazas con unidades preparadas a tal efecto: «Aquí puedes ver (en referencia a la ilustración) una patrulla llegando a la casa de un criminal y arrestándolo mientras éste agarra una casete que contiene los detalles de los crímenes perpetrados desde su ordenador, una evidencia que la Policía utilizará para probar que es culpable».