27 mayo 2007

Aplazan lanzamiento de módulo de futuro hotel espacial con un cohete Dniéper

El lanzamiento del cohete ruso-ucraniano Dniéper destinado a poner en órbita el módulo Génesis-2, prototipo de un hotel hinchable en el espacio ha sido aplazado, informó hoy la empresa Kosmotras, responsable del lanzamiento.

"El lanzamiento del cohete Dniéper con el módulo Génesis-2 previsto para mayo se ha postergado para finales de junio", dijo un portavoz de Komostras citado por la agencia Interfax.

Según Kosmotras, el lanzamiento del Dniéper se realizará desde un silo emplazado en una base de las Fuerzas Estratégicas de Rusia, en la región de Oremburgo, en el sur de los montes Urales.

El Génesis-2, como el anterior, el Génesis-1, es una estructura fabricada con materiales hinchables y resistentes, que una vez en órbita se desplegará como un acordeón.

El julio del año pasado, otro cohete Dniéper puso en órbita con éxito el Génesis-1, lo que animó a sus fabricantes a seguir adelante con los planes de construir un hotel en la órbita terrestre.

El portavoz de Kosmotras explicó que el Génesis-2 estará dotado de paneles solares, sistemas vitales, cámaras fotográficas y de vídeo, un contenedor con insectos vivos y funcionará al menos cinco meses.

En ese tiempo, los fabricantes estudiarán el comportamiento de la estructura, los sistemas de navegación y otros parámetros relacionados con la ejecución del proyecto.

Los módulos Génesis 1 y 2 son copia a escala reducida del Hotel Nautilus, un proyecto perteneciente a la empresa estadounidense Bigelow Aerospace, con sede en las Vegas, y que contrató a Kosmotras para poner sus maquetas en órbita.

Bigelow Aerospace pertenece al magnate hotelero Robert Bigelow, quien en una primera fase tiene previsto la puesta en órbita de, al menos, otros dos módulos, ente ellos, el Guardian, que podrá alojar astronautas.

El Nautilus se perfila como la consumación del proyecto TransHab, inicialmente desarrollado por la NASA y adquirido posteriormente por Bigelow Aeroespace, que pretende desplegar una cadena de hoteles privados en la órbita terrestre para 2015.

Según la prensa rusa, el lanzamiento del Dniéper con el Génesis-2 corresponde al segundo contrato suscrito por el ministerio de Defensa de Rusia para poner satélites o carga a empresas particulares con ayuda de misiles balísticos intercontinentales.

Los cohetes Dniéper son portadores de la categoría ligera, una versión reconvertida de los misiles balístico intercontinental RS-20 (SS-18 o 'Satanás' según la clasificación de la OTAN).

Rusia comenzó la remodelación de los misiles RS-20 en portadores Dniéper en 1998 de acuerdo al programa estatal para la reconversión de su arsenal nuclear y Kosmostras, integrada por empresa rusas y ucranianas, está encargada de su comercialización.

Más información: 1, 2.

Fuente: Aqui.

El genoma también varía entre células de un mismo individuo

El hallazgo está relacionado con el origen de enfermedades como el cáncer o el envejecimiento.

Miembros del Centro de Ciencias Genómicas (CCG) de la Universidad Nacional Autónoma de México (UNAM) descubrieron que el genoma humano presenta rearreglos que comienzan en la etapa embrionaria y se acumulan durante la vida adulta. Con ello, los universitarios contribuyen a determinar que el genoma no sólo varía entre cada persona, sino entre poblaciones celulares de un mismo individuo.

El hallazgo del grupo, encabezado por el investigador emérito Rafael Palacios de la Lama, podría tener diversas implicaciones relacionadas con el origen de ciertas enfermedades, el envejecimiento e, inclusive, el cáncer.

Los resultados aparecen en el trabajo "Recurrent DNA Inversions in the Human Genome", en el más reciente número de la prestigiada revista Proceedings of the National Academy of Sciences. Se trata del artículo inaugural que el científico presentó a dicha publicación, luego de haber sido seleccionado recientemente miembro extranjero de dicha academia estadounidense.

Rafael Palacios destacó la participación de 12 estudiantes de la licenciatura del CCG, en este trabajo. Se trata de nueve mujeres y tres varones, quienes realizaron el análisis bioinformático de todo el genoma humano para encontrar las secuencias repetidas y seleccionar las que pudieran tener rearreglos viables de ser estudiados por sus propios métodos, lo que tomó cerca de dos años.

Fue una simbiosis fructífera entre la experiencia del doctor Palacios y la maestra en ciencias Margarita Flores, con algunos alumnos de la primera, segunda y tercera generaciones de la carrera, "entusiastas, talentosos y capaces", expresó.

El universitario recordó que la información genética de cualquier organismo está cifrada en el ADN. Está contenida en un código de tipo lineal. No obstante, en ocasiones puede sufrir rearreglos de distintos tipos. Por ejemplo, es factible que una región de la cadena se salga, a lo cual se le llama deleción, o un fragmento de la misma puede duplicarse y amplificarse, o bien, invertirse o ir a otro lugar del genoma, detalló.

Se sabe que los genomas no son estructuras estáticas; por un lado, mutan, es decir, se presentan transformaciones en las bases que los conforman, y por el otro pueden presentar rearreglos, hechos relacionados con la evolución de los organismos, dijo.

Gracias a la acción de ciertas enzimas, la doble hélice del ADN se replica en algún momento para dar lugar a células hijas con la misma información genética. No obstante, a veces la maquinaria presenta errores, aclaró.

Las enzimas que de forma natural reparan estos fragmentos encuentran porciones genéticas iguales unas a otras, y las juntan, pero lo hacen donde no deben. Se trata de la llamada "recombinación homóloga no alélica", detalló.

"Hemos trabajado sobre todo con las secuencias repetidas y producción de rearreglos en bacterias, y elaborado técnicas novedosas para identificarlos", que se basan en identificar las huellas que quedan en el ADN como consecuencia de la generación de un rearreglo.

El estudio requirió de un complejo análisis bioinformático de la totalidad de las secuencias repetidas con ciento por ciento de identidad en el genoma humano. Posteriormente fue necesario investigar todas las regiones repetidas, para seleccionar algunas que pudieran ser estudiadas por el enfoque experimental desarrollado previamente por el grupo de investigación del Centro de Ciencias Genómicas.

El concepto clásico que existía es que el ADN de las diversas células humanas, con excepción de algunas que participan en la respuesta inmune y que presentan rearreglos programados, es idéntico. Pero, puntualizó, "encontramos que hay rearreglos que se repiten en distintas personas".

Experimentos

Los experimentos se hicieron en células de la sangre y se vio que entre los leucocitos, algunos los presentan. Eso indica que el ADN no es idéntico en todas las células, sino que en algunas varía por la presencia de tales "modificaciones" genómicas, explicó.

Además, abundó, se encontró que su proporción es significativamente mayor en adultos que en recién nacidos (una entre mil y una en 100 mil, respectivamente, en algunas de las regiones del genoma estudiadas). La propuesta de Rafael Palacios es que tales cambios comienzan en la vida embrionaria o fetal y continúan acumulándose hacia la etapa adulta. Por eso se cree que podría relacionarse con el envejecimiento o el cáncer.

Asimismo, pronto se comenzará a estudiar si esas modificaciones en el genoma existen en espermatozoides, es decir, si ocurren en la línea germinal, expuso.

Más información: 1, 2.

Fuente: Aqui.

Marte tuvo agua 'en abundancia'


Spirit', el vehículo explorador de la NASA en Marte, ha revelado la existencia de sílice en el planeta, lo que demuestra que éste tuvo agua en abundancia.


El planeta rojo tuvo agua en abundancia durante su pasado remoto, según ha informado el Laboratorio de Propulsión a Chorro (JPL) de la agencia espacial estadounidense.


Este descubrimiento se agrega a las pruebas casi concluyentes de que en un momento de su evolución Marte albergó condiciones favorables al desarrollo biológico como lo conocemos en la Tierra.

Un boletín de JPL señaló que los yacimientos de sílice fueron descubiertos en las cercanías del cráter Gusev, donde 'Spirit' descendió hace más de tres años.

Científicos de ese organismo de la NASA indicaron que para que se produjeran concentraciones de hasta 90% de sílice el ambiente en las cercanías de Gusev tuvo que haber sido muy húmedo.

"Nuestra gente quedó asombrada" cuando se conocieron los resultados del analizador químico instalado en un extremo del espectrómetro de rayos X de 'Spirit', señaló Steve Squyres, responsable del programa de los robots exploradores de Marte.

'Spirit' y el vehículo explorador gemelo 'Opportunity' descendieron sobre la superficie marciana en enero de 2004 y a los pocos meses revelaron que el actualmente árido planeta tuvo agua en su pasado.

Esas pruebas estuvieron constituidas por la existencia de altas concentraciones de azufre, la alteración de minerales e indicios de actividad volcánica explosiva que hubiesen requerido agua.
Pero la presencia de sílice "es la mejor prueba de que hubo agua en el cráter Gusev", indicó Albert Yen, geoquímico de la NASA en JPL.

Según los científicos de JPL, es posible que el sílice se haya formado tras la combinación del suelo con vapores ácidos producidos por una actividad volcánica en presencia de agua.

La otra es que el material haya sido creado por un ambiente de aguas termales. "Lo más importante de esto es lo que nos dice acerca de la existencia de ambientes que tuvieron similitudes con lugares en la Tierra donde se han desarrollado algunos organismos", dijo David Des Marais, astrobiólogo del Centro Ames de Investigaciones de la NASA.

Doug McCuistion, director del Programa de Exploración de Marte, señaló que la presencia de sílice refuerza la idea de el agua fue abundante en Marte e "impulsa nuestra esperanza de que podamos demostrar que el planeta fue alguna vez habitable y tal vez posibilitó la existencia de vida".

Entre tanto, en la antípoda del planeta, 'Opportunity' ha completado la exploración del cráter Victoria, iniciada hace ocho meses.

John Callas, director del proyecto para los vehículos exploradores, dijo que el vehículo se desplaza ahora hacia una zona llamada 'Duck Bay' para buscar un sendero seguro hacia el cráter.


Más información: 1, 2.


Fuente: Aqui.

Google y ADN: miedo


El gigante de Internet adquiere una participación en una compañía de biotecnología.


23andMe Inc., una pequeña compañía de corta vida dedicada al campo de la investigación genética, es noticia mundial por el último movimiento de Google. El gigante de la Red acaba de informar al regulador del mercado de valores de Estados Unidos de que ha adquirido una participación en esa 'startup', por 3,9 millones de dólares (menos de tres millones de euros).


Si se atiende al volumen de esta inversión (literalmente, calderilla), y al hecho de que una de las fundadores de la empresa es Anne Wojcicki, esposa desde principios de mayo de Brin, presidente de Google, la cosa puede parecer anecdótica. Pero si se leen los propósitos de la 23andMe...

"Aunque tu cuerpo contiene billones de copias de tu genoma, probablemente nunca hayas leído nada sobre ello. Nuestra meta es conectarte con los 23 pares de volúmenes de tus huellas genéticas (además de tu ADN mitocondrial), dándote una visión más profunda sobre tus ancestros, tu genealogía, y tus rasgos heredados", dicen. Y siguen: "Para alcanzar esta meta, estamos desarrollando nuevas tecnologías de análisis del ADN para establecer un acceso seguro, privado, fiable y preciso a la información genética individual".


Más información: 1, 2.


Fuente: Aqui.

La meta, entender la conciencia humana


Científicos españoles lideran un proyecto europeo para modelar la complejidad cerebral en el Alzheimer y la epilepsia.


En la difícil lucha contra las enfermedades neurodegenerativas, ya no basta con la medicina para entender a ese complicado enemigo que es un cerebro desajustado. Los profesionales de la neurociencia se ven obligados a buscar nuevos aliados y los han encontrado en los físicos.


Investigadores de ambas disciplinas se han unido en un proyecto europeo con el objetivo de entender mejor los mecanismos de coordinación cerebral y así comprender algunos de los fallos que se desencadenan en el Alzheimer y la epilepsia. Todo ello con el objetivo de intentar generar nuevas herramientas para conseguir su detección precoz. El proyecto, que arrancó en enero pasado y durará hasta finales de 2009, se llama GABA (Global Approach to Brain Activity) y lo lidera un grupo español, de la Universidad Politécnica de Cataluña (UPC), encabezado por el físico Jordi García Ojalvo (Barcelona, 1968) como coordinador.

Su equipo intentará dar con modelos teóricos del funcionamiento del cerebro enfermo a partir de los datos aportados por otros grupos que ejercen como socios del proyecto. La información sobre el Alzheimer que utilizarán proviene de otro grupo español: el Laboratorio de Neurociencia Funcional de la Universidad Pablo de Olavide de Sevilla, que destaca por sus investigaciones sobre la detección precoz del Alzheimer con técnicas que permiten estudiar el funcionamiento cerebral in vivo. Los datos sobre epilepsia proceden de un laboratorio similar del hospital de la Pitié-Salpêtrière en París. También colabora el grupo de Wolf Singer, director del Instituto Max Planck de Investigación Cerebral de Francfort y uno de los más notables científicos alemanes.

"El cerebro es demasiado complejo como para intentar resolver sus problemas sólo desde una perspectiva médica", explica José Luis Cantero, fisiólogo de la Pablo de Olavide. La reciente teoría de la complejidad, que intenta explicar el funcionamiento de redes con muchos elementos, es el instrumento clave que quieren incorporar: "El cerebro es el sistema complejo por excelencia", dice García Ojalvo, "más que cualquier máquina hecha por el hombre. Un avión Boeing 777, quizás uno de los artefactos más complejos existentes, tiene unos 150.000 diferentes subsistemas formando una gran red de módulos organizada mediante elaborados protocolos a través de mil ordenadores que automatizan todas las funciones del avión". Pues bien, añade, "en el cerebro, la complejidad ocurre a una escala mucho mayor, con centenares de miles de millones de neuronas, cada una de ellas conectada individualmente con otras 10.000 neuronas como promedio".

Precisamente, la respuesta última a la complejidad del cerebro radica en esa pléyade de conexiones: "El cerebro es mucho más que la suma de sus partes, las neuronas, y eso ocurre porque están organizadas y acopladas mediante protocolos mucho más complicados que los del Boeing", dice García Ojalvo. "Queremos entender qué papel juega la sincronización entre poblaciones de neuronas y cómo regula las funciones cognitivas superiores, tales como la memoria, la atención, el aprendizaje, las emociones o el lenguaje", comenta Cantero.

Los objetivos son muy ambiciosos y García Ojalvo apunta que la meta teórica sería "entender qué es la conciencia humana". De hecho, el proyecto GABA ha sido apoyado con 1,6 millones de euros de un programa europeo cuyo objetivo es "financiar investigaciones científicas poco convencionales y visionarias". Esta singularidad es certificada por Cantero: "Este proyecto es muy novedoso, porque trata de avanzar en el conocimiento del funcionamiento cerebral a través de aquellos científicos que mejor conocen las leyes que describen la complejidad, desmitificando la separación entre la física y la neurociencia".

Las metas más inmediatas son descifrar los mecanismos que rigen comportamientos sincronizados en algunas áreas cerebrales con la esperanza de develar las incógnitas sobre dos grandes anomalías asociadas a una sincronización aberrante. La primera es aquella en la que se produce un exceso de coordinación cerebral: "Enfermedades como la epilepsia y el Párkinson se caracterizan porque hay un exceso de sincronización neuronal", explica García Ojalvo. "En un ataque de epilepsia, las neuronas se comportan de una forma similar a una orquesta en la que todos los intérpretes tocaran igual: sin distinciones, ni tonalidades". El grupo parisiense es el que está especializado en epilepsia y, mediante electroencefalogramas intracraneales y resonancias magnéticas del cerebro, trabaja en la detección del epicentro de la sincronización anormal, donde suele estar el foco del problema.

En la enfermedad de Alzheimer se produce el efecto opuesto. "Las neuronas corticales mueren, disminuyendo la conectividad anatómica cerebral y su capacidad para sincronizarse", resume García Ojalvo. "Estudiamos a personas entre 65 y 85 años, algunas con pérdidas de memoria normales propias del envejecimiento y otras que padecen deterioros cognitivos leves que suelen preceder a la enfermedad de Alzheimer", añade Cantero. "Estudiamos la integridad funcional de su cerebro mediante tomografía por emisión de positrones y registros electroencefalográficos con 64 sensores en la corteza cerebral".

Pero los análisis no acaban ahí: "Al mismo paciente se le realiza una resonancia magnética de cerebro, a partir de la cual calculamos el volumen de algunas estructuras del sistema nervioso claves para la cognición", dice Cantero. En la actualidad se puede cuantificar cómo la corteza cerebral, la parte más superficial del sistema nervioso, va perdiendo espesor y, por tanto, funcionalidad en algunos pacientes de Alzheimer. "Es un signo de que algo podría estar funcionando mal", advierte.

Cuatro físicos de la UPC estudian todos los datos y se aplican a construir con ellos modelos teóricos de la complejidad cerebral. Servirán para deducir estructuras y formas de conexión neuronal afectadas en el Alzheimer y otras patologías neurológicas. Con ellos, los especialistas médicos podrían disponer de marcadores dinámicos para predecir la enfermedad. Al calcularlos, los físicos se valen de ecuaciones diferenciales que modelan el comportamiento de conjuntos de neuronas, así como de la experiencia de este grupo en el estudio de la sincronización de láseres, un campo aparentemente muy lejano a la neurociencia pero con sorprendentes similitudes: "Los láseres de semiconductores tienen, bajo ciertas condiciones, un comportamiento dinámico parecido a las neuronas, ambos se activan y desactivan a medida que transcurre el tiempo, como si fueran interruptores; a veces lo hacen espontáneamente y otras cuando reciben señales", dice García Ojalvo.

Cantero tiene confianza en los resultados que se puedan obtener: "Los modelos procedentes de la física nos dan muchas herramientas para anticiparnos, porque la presencia de complejidad en el cerebro podría ser un signo de salud mental, mientras que su ausencia va unida a la enfermedad".


Más información: Aqui.


Fuente: Aqui.


Explosión "arrasó" Norteamérica


Una nueva y controversial idea indica que una gran roca espacial se estrelló en Norteamérica hace unos 13.000 años.


La explosión del cometa pudo haber aniquilado a una de las primeras culturas americanas de la Edad de Piedra, así como a los grandes mamíferos de esa parte del continente, como el mamut y el mastodonte, a raíz del consecuente largo período de enfriamento global, que también pudo haber afectado a grupos humanos que emergían en Europa y Asia.


La nueva teoría será presentada esta semana en la reunión del Gremio Geofísico Americano en Acapulco, México.

La evidencia proviene de varias capas de sedimento de más de 20 sitios de Norteamérica, los que contienen materiales exóticos, como pequeñas esferas de vidrio y carbón, pequeñísimas trazas de diamante, conocidas como nanodiamantes, y altas cantidades de iridio, un raro elemento cuya concentración en este caso es muy alta para ser de origen terrestre. Todo eso, arguyen, apunta hacia la explosión de hace 12.900 años de un objeto extraterrestre de hasta 5 kilómetros de diámetro.

No queda ningún cráter, posiblemente porque la capa de hielo Laurentide, que cubrió miles de kilómetros cuadrados en Norteamérica durante la última Era Glacial, era lo suficientemente gruesa para cubrir el impacto. Otra posibilidad es que la explosión haya ocurrido en el aire.

Las rocas estudiadas por los investigadores tienen una capa negra que, según afirman, es el carbón depositado por los incendios forestales que barrieron el continente después de la explosión. Ésta no sólo habría generado cantidades enormes de calor que pudieron haber estimulado los incendios, sino que también pudo haber disparado un periodo de enfriamiento global que duró 1.000 años, un evento que se conoce como el Younger Dryas.

El profesor James Kennett, de la universidad de California en Santa Bárbara (UCSB), dijo que la explosión pudo haber sido la culpable de la extinción de varios de los enormes mamíferos norteamericanos al final de la última Era de Hielo. "Todos los elefantes, incluidos el mastodonte y el mamut, todos los perezosos terrestres, incluido el perezoso gigante, todos los caballos se fueron", indicó Kennett a la BBC y agregó que esto pudo haber tenido un enorme impacto en las poblaciones humanas.

De acuerdo con la visión tradicional, los humanos pasaron del noreste asiático a América a finales de la última Era de Hielo, a través de un enorme puente terrestre natural que, en esa época, conectaba a Siberia con Alaska. La cultura Clovis fue una de las más antiguas que se conocen en el continente. Los arqueólogos han encontrado evidencia en el sitio Topper, en Carolina del Sur (EE.UU.), que indica que las poblaciones Clovis vivieron un colapso demográfico. Sin embargo, no hay evidencia de un declive similar en otras partes del continente.

Jeff Severinghaus, un paleoclimatólogo del Instituto Scripps de Oceanografía en California, le dijo a la revista Nature: "Su teoría del impacto no debería ser descartada, merece más investigación".


Más información: 1, 2.


Fuente: Aqui.

Confirma China lanzamiento de sonda lunar este año

China confirmó el lanzamiento de su primera sonda lunar para el segundo semestre de 2007, según declaraciones de una fuente oficial difundidas hoy por la prensa capitalina.

La Chang'e 1, nombre tomado de una diosa mitológica, entrará en órbita en torno al satélite natural de la Tierra para realizar investigaciones y recogida de datos y fotografías de alta resolución, con vista a futuras etapas de la exploración.

El jefe de la Administración Nacional del Espacio de China (ANEC), Sun Laiyan, dijo ante estudiantes de la Universidad Jiaotong de Beijing, que este es el tercer hito del programa espacial de la nación asiática.

Sun es además subdirector de la Comisión de Ciencia, Tecnología e Industria para la Defensa Nacional.

El primero fue dominar la tecnología de lanzamiento y control de satélites y la segunda consistió en la colocación en órbita de naves tripuladas en torno a nuestro planeta.

El proyecto de investigación de la Luna proseguirá en una segunda etapa con el alunizaje de un vehículo de exploración controlado en forma remota, para hacer análisis del suelo.

Posteriormente, otro explorador llegará la superficie lunar y volverá a la Tierra con muestras de rocas.

Más información: 1, 2.

Fuente: Aqui.

El Tamanoi Vinegar Robot anuncia vinagre y nos persigue en nuestras pesadillas


Te lo creas o no, el Tamanoi Vinegar Robot no se trata de un director de orquesta cibernético con falda, sino del primer androide diseñado para realizar presentaciones de vinagre.


Sí, vinagre. Japón tiene estas cosas. Nos queda la duda de cómo diablos Tamanoi Vinegar Corporation ha llegado a la idea de que realmente necesita al robomayordomo de Pinhead para vender vinagre a las amas de casa.


Aquí tenemos al muchacho, agitando la varita mientras interpreta su papel lo mejor que puede.
En teoría comenzará a trabajar en Osaka dentro de dos meses, pero ya puedes verlo en acción un poco más abajo.


Más información: 1, 2.


Fuente: Aqui.

Canadá estudia hacer una misión a Fobos, la misteriosa luna de Marte


Optech Incorporated, empresa líder en sistemas basados en LASER, anunció hoy que ha sido seleccionada por la Agencia Espacial Canadiense para liderar el estudio para la realización de una misión a Fobos, la luna más grande de Marte. La misión propuesta, llamada Phobos Reconnaissance and Internacional Mars Exploration (PRIME) ha sido seleccionada entre otras 12 proposiciones emitidas a la Agencia Espacial Canadiense el pasado año.


El estudio será perfilar una misión liderada por Canadá que pueda realizar un encuentro con la luna Fobos, estudiarla y aterrizar sobre ella, ya que se trata de uno de los objetos más misteriosos del Sistema Solar. Los científicos creen que Fobos puede tener interesantes pistas acerca del origen de la evolución de Marte y del Sistema Solar. Varias misiones realizadas por Rusia y otros países han ido muy cerca de esta luna, pero el director de la misión el Dr. Robert Richards, piensa que Canadá y los países interesados en esta misión tienen la tecnología necesaria para llegar hasta su superficie y desenterrar algunos de sus misterios.


La misión PRIME incluye instrumentación muy sofisticada basadas en la tecnología "lidar" de Optech, que ya está siendo usada en el espacio. Esta tecnología será usada para realizar un mapa de la superficie de Fobos y que ayudará a la sonda a aterrizar en su superficie. La misión será dirigida por un equipo internacional de científicos liderados por el Principal Investigador, el Dr. Pascal Lee, del Instituto de Marte y Responsable Principal Investigador Dr. Alan Hildebrand de la Universidad de Calgary, una de las personas más importantes en la actualidad en el estudio de la geología planetaria. El Dr. Lee es un científico planetario especialista en estudios sobre Marte y cuerpos menores del Sistema Solar.

"Los orígenes de Fobos son todavía desconocidos, aprender de que está compuesto y de donde viene es un paso muy importante y no solo para la exploración de Fobos y Marte, pero para entender el cosmos.

El equipo científico de la misión PRIME ha seleccionado un lugar muy específico para aterrizar en Fobos. El popularmente conocido "monolito de Fobos", es un objeto de gran tamaño que parece ser un pedrusco recientemente expuesto en un área desolada de esta luna. Los científicos están interesados en este tipo de rocas puesto que pueden representar oportunidades únicas para examinar y obtener muestras de la composición interna de la luna. El Dr. Alan Hildebrand cree que el monolito de Fobos podría tener las respuestas de la composición y la historia de esta particular luna. "Si podemos llegar hasta este objeto, es posible que no necesitemos ir a ningún otro sitio".


Más información: 1, 2.


Fuente: Aqui.

Revolución en diagnósticos médicos

Dentro de unos años, los micro robots se apoderarán de las salas de operaciones del mundo. Estos diminutos aparatos o nanobots, tendrán la responsabilidad de realizar operaciones o exploraciones por las venas de los seres humanos, sin la necesidad de ser operados por medio de la cirugía tradicional.

Eduardo Gómez, investigador de la Universidad de La Salle (México) y de la Universidad Complutense (Madrid), compartió algunos de estos avances durante la Jornada de Intercambio en Informática y Cibernética, realizada en la Universidad Tecnólogica de Panamá (UTP).

Gómez, en su exposición sobre "Robótica Evolutiva", mencionó que las nanotecnologías prometen grandes beneficios en las aplicaciones médicas.

Aunque el concepto no es muy conocido en la sociedad, actualmente se han dado los primeros avances, sentando las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.

Según el investigador, ya existen controles de pequeñas cápsulas, las cuales transmiten imágenes de las exploraciones, ya que un nanobot, más o menos de 50 nanómetros, tiene el tamaño de 5 capas de moléculas o átomos.

Inversión

Aunque Gómez desconoce el costo de los "robots del futuro", informes señalan que algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnologías.

En este campo, la nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico, mejores sistemas para la administración de fármacos y herramientas para el monitoreo de algunos parámetros biológicos, indicó el experto.

Actualmente, alrededor de 40 laboratorios en todo el planeta canalizan grandes cantidades de dinero para la investigación en nanotecnología, pero todavía hay muy pocos productos en el mercado.

Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel, están invirtiendo millones de dólares al año en el tema.

También el gobierno de Estados Unidos destinó este año 570 millones de dólares a su Iniciativa Nacional de Nanotecnología. No obstante, en España, los científicos hablan de "nanopresupuestos".

Futuras aplicaciones

Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, existen 10 aplicaciones prometedoras en nanotecnología.

Ellas son: almacenamiento, producción y conversión de energía, producción agrícola, tratamiento y remediación de aguas, diagnóstico y cribaje de enfermedades, sistemas de administración de fármacos, procesamiento de alimentos, remediación de la contaminación atmosférica, construcción, monitoreo de la salud, detección y control de plagas e informática.

Más información: 1, 2 y 3.

Fuente: Aqui.

Crean una "píldora del perfume" que hace que el sudor tenga aroma de lavanda


La "píldora del perfume", que tras ser ingerida libera aroma de lavanda a través del sudor, fue lanzada comercialmente por la brasileña Universidad Federal de Ceará (al noreste del país) después de tres años de investigaciones, informó el periódico Folha de Sao Paulo.


Las píldoras, comercializadas por Internet con el nombre de Fybersense, en frascos de 90 cápsulas por cerca de 18 dólares, fueron elaboradas con condimento de cilantro, que no provoca daños a la salud por ser comestible, explicó Afranio Craveiro, coordinador de la investigación.


También contiene quitosana, una fibra extraída de crustáceos como los camarones. Por eso las píldoras están contraindicadas para los alérgicos a los crustáceos y para niños y embarazadas. El mecanismo de las píldoras en el metabolismo humano "es similar al de quien come mucho ajo o aceite de pescado: el olor sale por el cuerpo, se elimina con el sudor", explicó Craveiro.


El producto tiene licencia de comercialización de la Agencia Nacional de Vigilancia Sanitaria (Anvisa) como auxiliar para la absorción de gorduras y del colesterol, una de las propiedades de la quitosana, pero todavía no como perfume. "Creo que Anvisa deberá abrir un debate sobre si es un cosmético que puede ser ingerido o un alimento que libera perfumes", sostuvo Craveiro.

Por ahora, el único perfume disponible para las píldoras es el de lavanda, porque hay pocas opciones de aceites esenciales comestibles. "Con nuevas pesquisas, queremos diversificar la oferta de aromas", comentó el investigador. Un efecto colateral e inesperado fue la supresión del mal aliento. "Fue un efecto sorpresivo, pero ya salvó hasta bodas", bromeó Craveiro.


Más información: 1, 2.


Fuente: Aqui.

La memoria latente de las células vuelve a la vida

Nuevas investigaciones danesas examinaron los mecanismos detrás de la memoria latente de las células, que vuelve a la vida y hace que aparezcan de repente capacidades previamente inexistentes. Células especiales de levadura, por ejemplo pueden cambiar abruptamente de ser de un solo sexo a hermafroditas.

Los investigadodes del Instituro Niels Bohr en la Universidad de Copenhage usaron modelos matemáticos y simulaciones por computadora para examinar los mecanismos fundamentales de la memoria de las células. La investigación es una cooperación interdisciplinaria entre los biólogos moleculares y los físicos y fueron publicados en la prestigiosa revista científica CELL, donde este artículo es la nota de tapa. (artículo de Dodd y otros, ejemplar del 18 de mayo).

Capacidades inactivas

Nuestro material genético —ADN— es un plano de cómo lucimos y cómo somos. Este material genético es muy estable y es fielmente transmitido a nuestros descendientes. Una vez cada tanto, se produce un cambio en el ADN, ya sea pequeño o grande. Tal cambio es el origen del inmensa variedad de animales y plantas sobre la tierra. Los cambios constructivos en el ADN, esto es, los que crean nuevas funciones por lo general tienden a ser procesos lentos y graduales que involucra la selección natural por muchas generaciones.

Sin embargo a veces se observan cambios dramáticos y muy repentinos en un individuo en la ausencia de cualquier cambio del ADN. De hecho esto sucede en todos nosotros en el momento en que nuestro cuerpo se desarrolla: las células con idéntica información adoptan destinos muy distintos, formando tejidos que aparentemente tienen muy poco en común uno con el otro, tales como la piel, el cerebro o los huesos. Los mecanismos de la así llamada diferenciación celular son algunos de los cuales en la Universidad de Copenhage hace una posible clarificación.

"La explicación para estos cambios repentinos es que no es el ADN en si mísmo el que se altera, son los cambios en el medio lo que cambia y por lo tanto causa que una célula active una de sus capacidades dormidas" dice Kim Sneppen, profesor en Biofísica en el Instituto Niels Bohr de la Universidad de Copenhage.

El entorno controla el ADN

La hélice de ADN en sí misma se rodea de proteínas complejas llamadas nucleosomas. De manera importante, los nucleosomas pueden llevar varias modificaciones químicas o aún permitir o prevenir la expresión del ADN armada alrededor de ella. Cada vez que una célula se divide en nuevas células, la doble hélice del ADN se divide en dos filamentes, cada uno de los cuales genera una nueva hélice doble.

Los nucleosomas no son duplicados como los filamentos del ADN, sin embargo. En su lugar se distribuyen entre las dos nuevas doble hélices de ADN y los espacios vacíos son llenados por nuevos nucleosomas. La división celular es por lo tanto una oportunidad para cambiar en la composición de los nucleosomos de una región específica del ADN. Los cambios también se producen durante la vida de una célula debido a las reacciones químicas que permiten interconversiones entre tipos distintos de nucleosomas. El efecto de estos cambios puede hacer que las capacidades inactivas vuelvan a la vida, o a la inversa, que capacidades activas anteriores se apaguen.

La misma herencia, diferente trato

En el expermiento práctico los biólogos moleculares usaron una célula mutante de levadura la cual estaba bi-estable, en la que podía volverse de un solo sexo o hermafrodita. El experimento mostró que el cambio espontáneo sucede en las células de levadura cada 2000 generaciones de células. Mediante la construcción de un modelo basado en retroalimentación positiva del estado microscópico de los nucleosomas, el grupo de investigadores podrían simular el resultado experimental y de ese modo profundizar dentro del mecanismo por el cual las células con idéntico ADN tienen diferenciaciones extremas.

Las investigaciones en el Centro de Investigacion Básico 'Modelos de Vida' en el Instituo Niels Bohr mostró que la comunicación entre los nucleosomas y la realimentación positiva parecen ser partes constituyentes fundamentales de los mecanismos de memoria de una célula individual. El mecanismo da a la vez estabilidad y apertura a nuevas influencias cuando la célula necesita cambiar de estado. La Naturaleza tiene un socio el cual controla las células.

Más información: 1, 2.

Fuente: Aqui.

Desarrollan "Nanopegamento"


Investigadores de Rensselaer Polytechnic Institutehan desarrollado lo que han denominado "nanoglue" (nano-pegamento).


La novedad es el tratamiento que se le aplica, que aumenta considerablemente la resistencia al calor y la capacidad de adhesión, haciendo posible adherir superficies que antes era imposible unir.


Durante años los investigadores estudiaron la forma de realzar la integridad estructural, la fiabilidad y la eficiencia de los chips, colocando nano-capas de cadenas moleculares entre diferentes materiales. El equipo demostró que las cadenas moleculares de carbono, con un final de cadena adecuado, como silicio, oxigeno, azufre, etc., podían mejorar considerablemente la adhesividad. Recientemente el equipo demostró que estas nano-capas podrían tener un uso como adhesivo, lubricante, protector superficial, etc.


El problema que limitaba las posibles aplicaciones de estas nano-capas era su susceptibilidad al calor, a temperaturas cercanas a 400 C° el material sufría un proceso de degradación. El equipo de Ramanath, con la idea de reforzar los enlaces y la capacidad de adhesión, colocó la nano-capa entre dos finas láminas de cobre y sílice. Después de repetir multitud de veces el experimento, los investigadores concluyeron que los enlaces de las nano-capas podían soportar temperaturas superiores a 700 C°, que los enlaces se reforzaban a medida que aumentaban la temperatura y que su capacidad de adhesión se veía reforzada.

Todas estas nuevas características, más el hecho de que los costes de producción son bajos, darán lugar a una nueva generación de pegamentos con nuevas aplicaciones. La Nano-electrónica, los sistemas de producción de energía, los motores de aviones, entre otros, serán los sectores beneficiados por este avance.


Más información: 1, 2.


Fuente: Aqui.

Japón lanzará su primer servicio ferroviario por levitación magnética en 2025




Unirá las ciudades de Tokio y Osaka, distantes entre sí 550 kilómetros, en sólo 70 minutos.




Japón ha anunciado que lanzará su primer servicio ferroviario por levitación magnética en 2025. Unirá las ciudades de Tokio y Osaka, distantes entre sí 550 kilómetros, en sólo 70 minutos. En la actualidad, casi 400.000 personas invierten dos horas y media cada día para recorrer esta distancia en un tren de alta velocidad, que será completamente superado por el nuevo servicio ferrovario. Sólo en infraestructuras la inversión superará los 50.000 millones de euros.




La Central Japan Railway ha anunciado que lanzará su primer servicio ferroviario por levitación magnética "maglev" (magnetic levitation) en el año 2025. Los trenes, que gracias a esta tecnología podrán alcanzar los 581 kilómetros por hora, unirán las ciudades de Tokio y Osaka, distantes entre sí 550 kilómetros, en sólo 70 minutos. La ciudad de Nagoya, que se encuentra en el trayecto, estará sólo a 40 minutos de Tokio.




El tren de levitación magnética o Maglev es un tren suspendido en el aire por encima de una vía, y que está propulsado por magnetismo (fuerzas repulsivas y atractivas). El sistema, desarrollado originalmente en Gran Bretaña, permite a los vagones flotar sobre los rieles y ser mucho más rápidos al reducir la fricción que tienen los trenes convencionales. La ausencia del contacto físico entre el carril y el tren hace que la única fricción que encuentra el vehículo sea la del aire. Eso posibilita la alta velocidad que alcanza, y que compite directamente con la del transporte aéreo.




En la actualidad, sólo la ciudad china de Shanghai mantiene una línea comercial "maglev" que une el centro de la ciudad con el aeropuerto. En Japón, el Railway Technical Research Institute lleva el desarrollo tecnológico del maglev.




Según Japan Times, el pasado abril el presidente de JR Central, Masayuki Matsumoto, anunció que la nueva tecnología ferroviaria superará al modelo ya existente de la línea Tokaido Shinkansen, el AVE japonés, que ya ha alcanzado sus límites en su capacidad tecnológica y de transporte. Sólo la que línea que une Tokio y Osaka transporta a diario a 390.000 pasajeros, con un total de 300 trenes cada día, que invierten dos horas y media en el trayecto.




Nuevo proyecto




Esta línea conforma una red de transporte de trenes de alta velocidad en Honshu, isla más importante del archipiélago japonés, conectando Tokio con la mayoría de las principales ciudades de la isla y con Fukuoka, ciudad situada en la isla de Kyushu (tercera isla más grande del Japón, al sur del archipiélago).




El nuevo proyecto de JR Central ha sido bautizado como Chou Shinkansen, y representa la culminación del desarrollo del Maglev. El Chou Shinkansen cubrirá la ruta que actualmente cubre la Chou Main Line entre Tokio y Nagoya, y la Kansas Main Line, entre Nagoya y Osaka, para solventar el problema de la saturación de las líneas.




Mayor velocidad




El Shinkansen que actualmente circula en estas líneas alcanza los 270 km/h, por lo que el aumento de velocidad con la nueva tecnología representará una gran ventaja.




Sin embargo, 220 de los 550 kilómetros de trayecto se encuentran en zonas de alto riesgo sísmico, por lo que se necesitará una segunda red ferroviaria para paliar una eventual interrupción de la línea, lo que supondría una verdadera catástrofe económica para Japón.




Se calcula que el coste económico aproximado de la nueva línea es de 50 mil millones de euros, sólo para las infraestructuras. Por esta razón, la JR Central ha solicitado la ayuda del Estado para financiar el proyecto que está considerado como de interés nacional. La compañía sólo se haría cargo de la construcción de las vías.




Inconvenientes y ventajas




El coste excesivo de esta inversión, que incluye fabricar túneles en las zonas montañosas del centro de Japón por los que pasaría la nueva línea, ha llevado a especular acerca del proyecto. Sus detractores señalan que no saldrá adelante a no ser que el gobierno lo apoye, y dado que la deuda pública excede actualmente el 170% del producto interior bruto del país, la inversión podría no ser recuperada jamás.




Entre las ventajas que alega la compañía estaría la posibilidad de aumentar el equilibrio de la densidad demográfica de Japón, evitando la excesiva concentración de la población en áreas urbanas.




Por otro lado, y aunque los sistemas actuales de transporte ferroviario facilitan las comunicaciones entre el este y el oeste de Japón, señalan que sería conveniente materializar rutas alternativas de transporte que aseguren el funcionamiento ferroviario en caso de accidentes o desastres naturales que paralizaran las comunicaciones.




Además, aseguran que el maglev, que levita mientras viaja, aprovecha al máximo la energía eléctrica, produce menos ruidos y vibraciones y minimiza el impacto medioambiental, es decir, que sería una forma de transporte muy ecológica.




A estas ventajas habría que añadir la velocidad récord del sistema Superconducting Maglev, que conformará los trenes Chou, que en una prueba realizada en 2003 alcanzó los 581 km/h, superando su propio récord anterior de 552 km/h, alcanzado en 1999. Este último récord fue incluso certificado por el Guinness World Records, Ltd.




Fuente: Aqui.

21 mayo 2007

Filmada por primera vez la vida y muerte de un fotón


Toda una proeza que impulsará la creación de ordenadores cuánticos.


Tras quince años de esfuerzos, un equipo de físicos franceses ha medido el estado de un fotón, o partícula cuántica de la luz, sin destruirlo. Gracias a una elaborada técnica, un único fotón ha podido ser atrapado dentro de una cavidad superconductora para observar, en tiempo real, su nacimiento, vida y muerte durante un intervalo de tiempo de segundos. Este experimento abre la posibilidad a extraer repetidamente información del mismo fotón, que de esta forma podría compartir su información con un conjunto de átomos y conformar un “entrelazamiento cuántico” de luz o materia que es la base de los ordenadores cuánticos.


Tras quince años de esfuerzos, un equipo de físicos del Laboratoire Kastler-Brossel de la École Normale Supérieure de París ha conseguido una auténtica proeza: medir el estado de un fotón, o partícula cuántica de la luz, sin destruirlo.


Uno de los artífices de este logro científico, el profesor Serge Haroche, de dicha escuela, explicó el pasado 10 de mayo en la Fondation Del Duca, del Insitut de France, cómo él y sus colaboradores, Jean-Michel Raimond y Michel Brune, entre otros, manipularon y controlaron un solo átomo y fotones individuales que interactuaron en una cavidad, que consistía en una caja formada por paredes altamente reflectantes.


Los sistemas cuánticos microscópicos tienen la característica de “saltar” de un estado cuántico a otro de una forma que aún no ha sido del todo comprendida por su rareza y aparente falta de lógica. Los físicos, sin embargo, habían conseguido hasta el momento detectar los saltos cuánticos de átomos, electrones, iones (átomos o moléculas cargados eléctricamente) y otras partículas, pero no habían podido “ver” los fotones, que normalmente son destruidos cuando llegan a ser detectados.


Ahora, gracias a una elaborada técnica, descrita en la revista Nature, un único fotón ha podido ser atrapado dentro de una cavidad superconductora para observar, en tiempo real, su nacimiento, su vida y su muerte durante un intervalo de tiempo de segundos.


Electrodinámica cuántica en cavidades


La proeza se ha basado en la llamada electrodinámica cuántica en cavidades, que es un campo de la óptica cuántica que permite instalar en cavidades pequeñas los átomos y los fotones, que en estas condiciones muestran un comportamiento distinto del que ofrecen en el espacio libre, ilustrando, en tal caso, ciertos principios de la física cuántica que permitirán el desarrollo de nuevos sensores, entre otras aplicaciones.


Estudiando el comportamiento de estos átomos y fotones en este entorno protegido, los físicos han podido ilustrar aspectos fundamentales de la teoría cuántica, como la superposición, la complementariedad y la decoherencia, informa la revista IOP, del Instituto de Física.


La superposición cuántica es la aplicación del llamado principio de superposición a la mecánica cuántica, y ocurre cuando un objeto posee simultáneamente dos o más valores de una cantidad observable, como la posición o la energía de una partícula. Este fenómeno fue representado por el físico Erwin Schrödinger en 1935 con el bien conocido ejemplo del gato de Schrödinger.


El principio de complementariedad, por su parte, supone que los sistemas cuánticos muestran características y propiedades “complementarias” que no pueden determinarse de manera simultánea (por ejemplo: el carácter onda-partícula, o la pareja de magnitudes posición-velocidad). Y, por último, la decoherencia sería la consecuencia inevitable del enredo incontrolable que tienen todos los sistemas físicos con su ambiente, tal y como explicó Dieter Zeh en una entrevista concedida a Tendencia21.


Fotones elusivos


Un fotón generalmente no es observable porque desaparece cuando se encuentra. El ojo, como la mayoría de los receptores de luz (denominados fotorreceptores electrónicos), absorben irremisiblemente los fotones que detecta y, por tanto, la información que porta la luz es destruida a medida que ésta se registra.


Por tanto, al intentar observarlos, estos fotones se “escapan”, de manera imprevisible y repentina, realizando un salto cuántico (es decir, cambiando de estado cuántico). Sin embargo, los científicos franceses han logrado, por vez primera, registrar en directo sus vidas, señala por su parte el CNRS (el Centre National de la Recherche Scientifique de Francia).


La clave de este experimento ha sido dicha cavidad, que está formada por dos espejos superconductores que fueron enfriados a una temperatura próxima al cero absoluto. Entre los espejos, situados uno frente a otro a una distancia de 2,7 centímetros, un fotón procedente de una radiación térmica residual rebotó más de un billón de veces antes de desaparecer, esto es, viajando una media del trayecto equivalente a la circunferencia de la Tierra.


Habitualmente, los fotones son detectados por absorción atómica. Un átomo puede existir en diversos estados de energía y puede absorber un fotón pasando así de un estado a otro de energía superior. Midiendo la variación de la energía de estos átomos que atraviesan la cavidad, se puede saber si contienen o no un fotón, pero se destruiría y no podría detectarse más que una vez.


Astucia y logros


La astucia de los investigadores ha sido elegir unos átomos cuya transición entre dos estados (0 y 1) energéticos se correspondían a una energía diferente de la de los fotones. La conservación de la energía es imposible cuando el átomo absorbe la luz. Por el contrario, la presencia del fotón modifica ligeramente la frecuencia de la transición atómica (medida con la ayuda de un campo de micro-ondas auxiliar presente en el exterior de la cavidad).


Por tanto, el átomo alcanza el estado 1 si la cavidad contiene un fotón y permanece en el estado 0 si ésta está vacía, como en el método clásico, pero en este caso la energía lumínica absorbida por el átomo es rastreada por dicho campo auxiliar en lugar de por la cavidad.


Así, los investigadores pudieron registrar numerosas secuencias de varios segundos durante las cuales los miles de átomos que atravesaron la cavidad fueron detectados en estado 0 (no habiendo absorbido fotones) ó 1 (habiéndolos absorbidos). Así pudieron saber cuándo un fotón había quedado atrapado entre los espejos, procedentes de la radiación térmica que hemos mencionado.


La permanencia de los fotones en la cavidad duraba una media de un décimo de segundo, pero en algunas secuencias el fotón sobrevivió más tiempo, incluso hasta medio segundo. Después, desaparecían repentinamente, dejando de nuevo vacía la cavidad.


Los momentos en que los fotones aparecían y desaparecían revelaron los saltos cuánticos de la luz que se producen por azar. Observando estos saltos durante varias horas, los investigadores consiguieron verificar de manera directa las propiedades estadísticas de las radiaciones térmicas establecidas hace un siglo por Planck y Einstein.


En el experimento, la información transportada por un cuanto de luz es transferida cientos de veces a un sistema material sin perderse. El mismo fotón controla el estado de un gran número de átomos, lo que supone un paso importante hacia el tratamiento cuántico de la información.



Información cuántica


Este logro aparentemente sencillo ha sido descrito por Le Figaro como “primicia mundial”. El haber podido observar el fotón y sus múltiples repeticiones antes de ser destruido abre posibilidades de aplicación para la fabricación de los futuros ordenadores cuánticos, que, gracias a la física cuántica, que permite a las partículas estar en dos sitios a la vez, posibilitarían cálculos mucho más complejos que los ordenadores actuales.


La presente investigación estaría relacionada con la física de la información cuántica, un nuevo dominio que se encuentra en la frontera de las ciencias de la información y de la física y que intenta utilizar la “lógica” del mundo cuántico para materializar tareas en comunicación y computación que los dispositivos clásicos no pueden realizar.


Tal y como explicó el professor Haroche en su conferencia, durante el siglo XX la física cuántica a permitido desarrollar tecnologías que han cambiado nuestras vidas (como el ordenador o la resonancia magnética o láser, entre muchas otras). Pero este campo de la física sigue conteniendo aspectos que desafían al sentido común y que aún hoy continúan provocando una enorme inquietud en los especialistas.


Los resultados de este nuevo experimento implican la posibilidad de extraer repetidamente información del mismo fotón, lo cual es extremadamente importante puesto que la mayor parte de toda la información que obtenemos del universo procede de la luz. Un fotón podría compartir por tanto su información con un conjunto de átomos y conformar un “entrelazamiento cuántico” de luz o materia, señala Haroche.


El intento de controlar los sistemas cuánticos da lugar a importantes preguntas sobre la transición entre el comportamiento cuántico y el macroscópico de la materia y de la realidad pero, también, la oportunidad de generar dispositivos cuánticos de comunicación, aseguran los científicos.


El ordenador cuántico


Tal y como explica el CNRS, los ordenadores cuánticos utilizarían esta “lógica” cuántica para que cada unidad base (bit, 1 ó 0) de información se convirtiera en una superposición de dos estados (1 y 0 a la vez). Es la unidad de información que ya se denomina qubit (que se diferencia del bit clásico en que puede asumir el 1 y el 0, no únicamente el 1 ó 0. Un estado qubital es, pues, la superposición cuántica de esos dos estados).


Reunidos miles de qubits, éstos podrían comunicarse entre sí y realizar cálculos que actualmente realizan los ordenadores normales pero todos al mismo tiempo, lo que aumentaría la velocidad de cálculo de manera exponencial.


Hasta ahora, estos ordenadores no han pasado aún del terreno de lo teórico, pero ya hemos hablado en Tendencias21 de algunos intentos prometedores. La investigación actual, al aclarar aún más el funcionamiento de los estados cuánticos, da un paso adelante en su consecución.


Fuente: Aqui.

Desarrollan un spray que transforma los techos de acero en placas solares


En cinco años podría suministrar el 5% de la energía consumida anualmente en Gran Bretaña.

Ingenieros británicos están desarrollando un spray que esparce un revestimiento de células solares nanocristalinas y convierte los techos de acero de almacenes, supermercados y fábricas, en placas solares. El revestimiento está construido con nanoestructuras de óxido de titanio que imitan la fotosíntesis. Sus células solares DSSCs son capaces de convertir la luz en electricidad con una eficiencia de más del 11%. El sistema, que estará listo en cinco años, podría suministrar el 5% de la energía consumida anualmente en el Gran Bretaña.

Cada día incide sobre la superficie de la Tierra mayor cantidad de energía solar de la que la humanidad entera podría consumir en 27 años. Sin embargo, aprovechar este potencial y suministrar una fuente de electricidad no contaminante que realmente cubra todas nuestras necesidades aún es un tema no resuelto del todo.


Los ingenieros trabajan en diversos lugares tratando de mejorar las técnicas de captación y aprovechamiento de esta energía. Ahora, la compañía británica Corus Colors ha lanzado una sorprendente iniciativa que podría ser comercializable en 2012.


Se trata de la concepción de un revestimiento de células solares nanocristalinas que se utilizaría para cubrir los techos de acero de almacenes, supermercados y fábricas, convirtiéndolos así en auténticos paneles solares.


Esfuerzo conjunto


Corus Colors desarrolla actualmente este invento, en un proyecto a tres años, en colaboración con la las universidades británicas de Bath, Bangor, Swansea y el Imperial College de Londres.


Se trata de una iniciativa co-financiada por el ministerio de comercio e industria británico que, según publica el Engineering and Physical Sciences Research Council (EPSRC), agencia gubernamental de investigación en ingeniería y ciencias físicas del Reino Unido, utilizará células solares de titanio nanoestructurado sensitivizado con colorante (Dye sensitised semiconductor cells o DSSCs), que son células semiconductoras formadas por nanoestructuras de óxido de titanio.


Estas células son capaces de convertir la luz en electricidad con una eficiencia de más del 11%, utilizando mecanismos de transferencia electrónica similares a los que ocurren durante la fotosíntesis en las plantas.


Ventajas


Las DSSCs presentan varias ventajas. Por un lado, su tamaño ínfimo permitiría proyectarlas en un spray (compuesto por un baño de polímeros) sobre las superficies de acero, convirtiéndolas en auténticos paneles solares.


Por otro lado, su fabricación es de bajo coste, pues carecen de silicio, un producto caro. Actualmente, la mayoría de las células fotovoltaicas son de silicio monocristalino de gran pureza, material que se obtiene de la arena. Sin embargo, su purificación es un proceso muy costoso.


Por último, esta técnica, que posee un buen rendimiento, permitiría equipar grandes superfices de techos disponibles, que en el caso de las fábricas, de los supermercados y almacenes muchas veces son de acero. A partir de ellos podrían generarse cantidades razonables de electricidad.


Producción significativa


Según el EPSRC, Corus Colors untaría directamente el acero con las mismas técnicas que la compañía utiliza ya para recubrimientos de edificios, mientras que la universidad de Swansea se dedicará a asegurar que el sustrato de acero será lo suficientemente duro como para resistir los componentes potencialmente corrosivos del recubrimiento y que el sol y las inclemencias climáticas no degradarán la pintura, informa la revista The Engineer Online.


De esta forma, podría llegar a producirse un millón de toneladas anuales de productos de acero pintados, dos tercios de los cuales se utilizarían para techumbres.


Teniendo en cuenta que la cantidad de radiación solar que recibe el Reino Unido al año es de 900 KW.hr/m2, con una eficiencia del 6% en estos revestimientos, 100 millones de m2 de tejados generarían 5.400 GW/hr de electricidad, esto es, más del 5% de la electricidad total consumida anualmente en Gran Bretaña.


Esta cantidad superaría los 2.400 MW de energía renovable procedente de las fuentes de energía eólica y, considerando que tal cantidad de techumbres como la mencionada se añade anualmente en el Reino Unido, resultaría muy significativa la producción de energía eléctrica a partir del recubrimiento de Corus Colors a gran escala.


Fuente: Aqui.

Proyectan obtener energía de la atmósfera gracias a un autogiro


Un 1% de los vientos de alta altitud podría cubrir la demanda energética de todo el planeta .


Con la ayuda de un autogiro, ingenieros norteamericanos pretenden situar a miles de metros de la superficie terrestre un aerogenerador de 240 kilowatios de potencia que costará unos cuatro millones de euros. Un cable de un material aún sin definir traerá la energía obtenida hasta la Tierra, para su distribución por las redes eléctricas. Las posibilidades de este sistema son casi ilimitadas, puesto que con sólo un 1% de la energía que producen los vientos de alta altitud, las necesidades eléctricas del planeta entero quedarían cubiertas. Pero todavía quedan muchos problemas técnicos por resolver para que este sueño se haga realidad.


Ingenieros norteamericanos consideran posible conseguir energía eléctrica a partir de las corrientes a presión de la atmósfera, instalando en el cielo dispositivos que capten la energía de dichas corrientes aéreas y la hagan descender a la Tierra para cubrir el 100% de nuestras necesidades.


Se trata de una fuente de energía que funciona noche y día y durante 365 días al año y que se encuentra a tan sólo unos kilómetros por encima de nuestras cabezas. Por tanto, lo único que se debe hacer es idear la manera de recogerla y traerla a la superficie terrestre a un coste efectivo y de manera segura.


Investigadores de la universidad de Standford, en Palo Alto (California), señalan en un artículo publicado en la revista IEEE Transactions on Energy Conversion que los llamados “Flying electric generators” (FEGs) servirán para aprovechar la potente y continua energía cinética presente en vientos de alta altitud.


Grandes cometas


Para ello, pondrán en marcha generadores de energía similares a las cometas que puedan sacar partido a las corrientes a presión que normalmente circulan de oeste a este a entre 10 y 15 kilómetros de altura, en el hemisferio norte del planeta, y a una velocidad de más de 500 km/h.


La electricidad capturada por los generadores sería posteriormente transmitida a la Tierra a través de cables de cobre o de aluminio, e incluso a través de rayos de microondas, aseguran los ingenieros. Así, llegaría hasta las centrales eléctricas para su distribución.


Al contrario que otras fuentes de energía eléctrica, además, estas grandes cometas no contaminarían, porque estarían a demasiada altura para oírlas e, incluso, para verlas desde aquí. Según ha declarado uno de los autores de dicho artículo al diario San Francisco Chronicle, el científico atmosférico Ken Caldeira, del Department of Global Ecology de la universidad de Standford, “sólo con lograr capturar el 1% de la energía de los vientos de alta altitud, tendríamos suficiente para suministrar al planeta entero”.


Antecedentes australianos


Ésta no es la primera vez que se investiga en máquinas que aprovechen los vientos de las alturas. En 2005, la revista Wired publicaba que un ingeniero australiano llamado Bryan Roberts, de la Universitu of Tecnology de Sydney, planeaba construir un estación de energía en el cielo, a 4.500 metros de altura.


Tras 25 años de investigación, Roberts había conseguido diseñar una especie de helicóptero capaz de elevar un aerogenerador a gran altura, allí donde los vientos son más persistentes y fuertes. Este proyecto aspiraba a producir tres veces más de energía que la planta nuclear más potente de Estados Unidos.


Roberts llegó incluso a probar un prototipo pequeño a no muy gran altura, con el que demostró que podía generarse electricidad con este sistema y transmitirla a la Tierra.


El proyecto de Caldeira y sus colegas consiste en crear un sistema mucho mayor y comercialmente viable y para cuyo desarrollo se necesitan millones de euros. La investigación sería larga, puesto que quedan varios elementos clave por definir.


Elementos clave


Según explica el mencionado artículo del San Francisco Chronicle, los ingenieros deberán decidir los materiales que deben componer la estructura del artefacto, para que pueda resistir los vientos de la atmósfera y encontrar la manera de ajustar la posición de los generadores en función de las direcciones e idas y venidas de las corrientes en el cielo.


Por otro lado, otro difícil desafío sería determinar el tamaño apropiado y la composición del cable que deberá trasladar la electricidad a la Tierra. Asimismo, antes de ponerlos en marcha habrá que determinar cuestiones como el peligro medioambiental de los dispositivos (que podrían afectar a los pájaros) y el peligro para los aviones.


El prototipo que pretenden crear los ingenieros de la Universidad de Standford, según el artículo aparecido en IEEE , pretende ser un aerogenerador de 240 kilowatios de potencia que costará unos cuatro millones de euros.


Origen de la energía


Tal y como explican los científicos en dicho artículo, existen dos corrientes a presión principales en nuestro planeta, una subtropical y otra en el llamado Frente Polar (frente casi permanente de las latitudes medias que separa el aire polar relativamente frío y el aire subtropical relativamente cálido).


Esta dos enormes corrientes de energía se forman por la combinación de la incidencia de la luz del sol en la región tropical y la rotación terrestre. El viento resultante está invariablemente disponible, por lo que podría ofrecer enormes beneficios si se llega a aprovechar.


Se han analizado ya diversos sistemas para capturar esta energía, como globos aerostáticos y aeronaves rotatorias, entre otros, pero estos ingenieros han optado por una variante del llamado autogiro con cuatro o más rotores para la realización de su prototipo.


El autogiro es una aeronave de ala rotativa que vuela como los aviones, aunque su ala es un rotor que gira por la acción del viento que lo atraviesa de abajo hacia arriba. Es un híbrido entre aeroplano y helicóptero. La diferencia con este último es que el rotor no está conectado al motor de la aeronave, sino que «autogira» impulsado por el aire, al contrario que en el helicóptero, en el que la propulsión y la sustentación se producen en un rotor impulsado por el motor.


Fuente: Aqui.

Un proyecto desarrollará casas "inteligentes" para afrontar el cambio climático

El programa Smart Energy Home, que es una iniciativa de SusChem (la Plataforma Tecnológica Europea para la Química Sostenible), se propone introducir más innovaciones en los edificios de viviendas para hacer un uso más sostenible de la energía.

El Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), en su reciente informe sobre cómo mitigar los efectos del cambio climático, destacó que la eficiencia energética en edificios es un ámbito en el que podrían lograrse reducciones de las emisiones de CO2 con un beneficio económico neto. La eficiencia energética de los edificios también resultaría beneficiosa al mejorar la calidad del aire tanto en el interior de los edificios como al aire libre, aumentar el bienestar social e incrementar la seguridad energética.

"Es posible recortar las emisiones de gases de efecto invernadero en el sector de la construcción a escala mundial", escribió el IPCC. "No obstante, son múltiples los escollos para aprovechar ese potencial, como la disponibilidad de tecnología, la financiación, la pobreza, los costes superiores de la información fiable, las limitaciones inherentes al diseño de edificios y la existencia de un paquete adecuado de políticas y programas."

Los socios de SusChem se proponen abordar estos retos con la iniciativa Smart Energy Home. Este proyecto abarcará todas las tecnologías que, según el IPCC, podrían reducir el consumo energético en edificios. En el mercado ya hay varias tecnologías que hacen más eficiente la iluminación y los electrodomésticos y mejoran el aislamiento, y se encuentran también la calefacción y la refrigeración solar y los líquidos de refrigeración alternativos. De aquí a 2030 es probable que aparezcan otras tecnologías, como el diseño integrado de edificios provistos de tecnologías como los contadores inteligentes que permitan un control energético y ofrezcan información pertinente.

No obstante, este proyecto no trata exclusivamente sobre la energía; sus socios confían también en integrar más innovaciones de los ámbitos de la salud y la comodidad en la construcción de edificios nuevos y el reacondicionamiento de los edificios ya existentes. Según los socios del proyecto, en gran parte de las viviendas recién construidas en Europa, aumentar su "contenido de innovaciones" de la media actual de 3.000 euros hasta 15.000 euros generaría unos beneficios ecológicos y económicos considerables sin un encarecimiento sustancial de los costes de la vivienda.

Aparte de estudiar las tecnologías y su integración en inmuebles, los socios del proyecto incrementarán la concienciación acerca de estas cuestiones en la industria de la construcción y del diseño de viviendas, así como en la sociedad en general.

Este proyecto constará de tres componentes principales. HomeLAB se centrará en la integración de productos, servicios y materiales nuevos que se están desarrollando para su aplicación en la vivienda, como la energía renovable, la seguridad y la eliminación de residuos y el seguimiento médico. DEMOhomes consistirá en construir viviendas que exhiban el concepto de Smart Energy Home. Serán verdaderas viviendas familiares ubicadas en tres lugares distintos de Europa y estarán equipadas con las tecnologías y los materiales desarrollados por el HomeLAB y otros proyectos. Las familias "pioneras de la sostenibilidad" que vivirán en estas viviendas darán su opinión acerca de las tecnologías al programa de I+D. Por último, el programa supportSMART se encargará de trasladar los conocimientos generados por este proyecto a la industria de la construcción. Esto lo hará mediante un portal de Internet, recursos informativos y materiales publicitarios.

Próximamente los socios del proyecto estudiarán los planes iniciales del mismo, que se espera dé comienzo en septiembre de 2007, mientras que los tres componentes del proyecto (homeLAB, DEMOhomes y supportSMART) iniciarían sus actividades en 2008.

Más información: Aqui.

Fuente: Aqui.

Cuando colisionen las galaxias el Sistema Solar se irá a dar un paseo

Las simulaciones por computadora de Cox y Loeb muestran que esto podría suceder en sólo 2 mil millones de años, cuando la Vía Láctea y Andrómeda experimenten su primer encuentro cercano.


Durante décadas, los astrónomos han sabido que nuestra galaxia, la Vía Láctea, está en curso de colisión con su vecina la galaxia espiral de Andrómeda. Lo que era desconocido hasta ahora es cuál será el destino del Sol y su sistema. Los nuevos cálculos realizados por los teóricos T.J. Cox y Avid Loeb del Centro de Astrofísica Harvard-Smithsoniano CfA muestran que el Sol y sus planetas serán expulsados hacia la parte externa de la galaxia resultante. Por otra parte, la colisión tendrá lugar dentro de la vida del Sol, antes de que éste se convierta en una estrella enana blanca que haya consumido todo su combustible.


"Se podría decir que seremos enviados a una casa de retiro en el campo" señala Cox, "actualmente vivimos en los suburbios de la Vía Láctea, pero nos mudaremos mucho más lejos después de la colisión".


Las simulaciones por computadora de Cox y Loeb muestran que esto podría suceder en sólo 2.000 millones de años, cuando la Vía Láctea y Andrómeda experimenten su primer encuentro cercano. Una vista desde la Tierra de este evento sería una tira de estrellas (la vía Láctea vista de perfil) mientras que Andrómeda saca de sus órbitas estables a las estrellas. En ese momento, el Sol estaría quemando hidrogeno y sería una estrella en la secuencia principal del diagrama de Hertzprung-Russel, aunque para entonces ya habrían hervido los océanos de nuestro planeta. Las dos galaxias girarían una alrededor de la otra un par de veces, intercambiando sus estrellas por las fuerzas gravitacionales de cada una.

Dentro de 5.000 millones de años a partir del momento actual, Andrómeda y la Vía Láctea estarán completamente mezcladas para formar una galaxia única elíptica y de forma de una pelota de rugby. El Sol quizá será una estrella vieja, en fase de gigante roja y acercándose al final de su vida.

El Sol y su sistema residirán a una distancia aproximada de 100.000 años luz del centro de la nueva galaxia, cuatro veces más lejano que la distancia actual que es de 25.000 años luz.

Cualquier descendiente de los humanos observará el cielo futuro con una experiencia muy diferente. La tira nubosa que vemos actualmente, la Vía Láctea, será reemplazada por un cúmulo enorme de estrellas (miles de millones de ellas).

"Éte es el primer trabajo que se presenta y se publica sobre ese futuro dentro de 5.000 millones de años", señala finalmente Loeb.

El trabajo será publicado en el Monthly Notices of the Royal Astronomical Society.


Más información: 1, 2.


Fuente: Aqui.

Investigadores crean nueva forma de la materia


Físicos de la Universidad de Pittsburgh han mostrado una nueva forma de la materia que une las características de los láser con las de los mejores conductores eléctricos del mundo: los superconductores.


El trabajo presenta un nuevo método para mover energía desde un punto hasta otro así como un medio para producir un haz de luz similar a un láser empleando poca energía. Los investigadores de Pittsburgh y sus colaboradores de los Laboratorios Bell de Alcatel-Lucent en Nueva Jersey, detallaron el proceso en la edición del 18 de mayo de la revista Science.


El nuevo estado es un sólido relleno de un grupo de partículas energéticas conocidas como polaritones que han sido atrapadas y ralentizadas, explicó el investigador líder David Snoke, un profesor asociado del departamento de física y astronomía del departamento de la Escuela de Artes y Ciencias de la Universidad de Pittsburgh. Snoke trabajó en el proyecto junto a los estudiantes de graduado Ryan Balili y Vincent Hartwell.

Empleando estructuras ópticas especialmente diseñadas con capas de espesor nanometrico que permitían a los polaritones moverse libremente por el interior del sólido, Snoke y sus colegas capturaron a los polaritones en la forma de un superfluido. En los superfluidos, y en sus homólogos sólidos: los superconoductores, la materia se consolida para actuar como una sola onda de energía en lugar de como partículas individuales.

En los superconductores, esto permite el flujo perfecto de la electricidad. En el nuevo estado de la materia mostrado en Pittsburgh - que podría llamarse superfluido de polaritones - el comportamiento de la onda conduce a un haz de luz pura similar al de un láser pero mucho más eficiente en el aspecto energético.

Los superfluidos y superconductores tradicionales requieren temperaturas extremadamente bajas, aproximadamente -280°F para un superconductor y -450°F para un superfluido respectivamente. El superfluido de polaritones es más estable a temperaturas más altas, y en el futuro cercano tal vez podría ser capaz de operar a temperatura ambiente.

La investigación realizada en Pittsburgh, basada en los esfuerzos actuales realizados en laboratorios de física de todo el mundo para crear materiales que mezclen las características de los superconductores y los láser. El trabajo de Snoke aporta un nuevo método para atrapar y manipular las partículas de energía. Aplicada a la tecnología, esta técnica podría facilitar nuevas vías para la transferencia controlada de señales ópticas a través de la materia sólida.

La trampa de polaritones de Snoke se ideó siguiendo una técnica similar a la empleada con los superfluidos hechos con átomos en un estado gaseoso, conocidos como condensado Bose-Einstein. En el año 2001, tres científicos compartieron el Premio Nóbel de física por este trabajo.


Más información: Aqui.


Fuente: Aqui.

20 mayo 2007

Cayó un meteoro y muchos lo confundieron con un ovni

Los destellos se observaron bien desde Buenos Aires, Córdoba, Santa Fe y La Pampa.

Un avión que se desintegraba en el cielo. Una estrella fugaz. Un objeto volador no identificado o un fogonazo que se asemejaba al de un relámpago. Hasta la luz mala. Las teorías entre los habitantes del sur santafesino, una de las zonas del país donde el fenómeno se advirtió en forma notoria, se multiplicaban ayer a la mañana hasta que llegó la respuesta de los entendidos: sólo se trataba de un meteoro desintegrándose al caer en la atmósfera.

Todo el mundo estaba entre alborotado y temeroso con el fenómeno —registrado cerca de las 7.05 y con dirección sudoeste-noroeste— y los llamados a las radios reflejaban el impacto de lo sucedido. Las decenas de testimonios fueron un termómetro exacto de lo que generó entre la gente la imagen que observaron en el cielo.

"Iba a tomar el colectivo y se iluminó toda la calle", apuntaron varios trabajadores y algunos escolares. "Fue algo precioso. Es más, en el momento que caía también sobrevolaba un avión, por lo que debe haber pasado cerca de la máquina y los pasajeros pudieron verlo mejor", comentó un joven alborotado por el inusual episodio. "Para mí pudo ser la luz mala que hace mucho que no aparecía", comentaba un misterioso hombre mayor. Rosarinos, pero también habitantes de los alrededores aportaron su visión sobre lo sucedido.

Los llamados al Observatorio Astronómico Municipal Profesor Victorio Capolongo se multiplicaron, por lo que debió prepararse un breve comunicado para llevar calma a la población. Entre otros párrafos se explica que se trata de "un meteorito que, al ingresar en la atmósfera terrestre, se consume incinerándose a gran altitud, entre los 70 y 80 kilómetros de altura".

Juan Olivera, técnico del Obser vatorio, explicó a Clarín que el fenómeno es periódico y natural, pero que al presentarse muchas veces en horario diurno, no logra observarse. Esta vez, en cambio, fue al amanecer.

"La gente ahora está más informada porque hace veinte o treinta años sólo preguntaban si se trataba de un ovni. Por eso, estamos muy contentos", explicó Rubén Piacentini, director del Instituto de Física de Rosario y ex titular del Observatorio.

En Córdoba también se sorprendieron. Allí, el fenómeno se registró cerca de las 7. Mariana Minetti, una cordobesa que viajaba desde Mendoza a esta capital le dijo a Clarín que cuando estaba llegando a la terminal vio desde el micro "como una especie de bola, con la forma de una gota de agua brillante, de colores azul y verde". Juan Puerta, del Observatorio Astronómico de Córdoba, explicó que el destello respondió a la entrada en la atmósfera de un meteorito o estrella fugaz que "se pone incandescente por el rozamiento y eso es lo que se ve como destello".

El fenómeno es común y también pudo ser observado desde algunos puntos de Buenos Aires (hubo varios llamados de curiosos al Planetario de la Ciudad) y La Pampa.

Fuente: Aqui.

El volcán Tvashtar en movimiento


La primera animación obtenida de un volcán en otro mundo.


Esta animación, realizada a partir de cinco tomas efectuada con la cámara LORRI de la sonda espacial New Horizons, muestra la gigantesca pluma del volcán Tvashtar de Io. Se trata de la primera animación obtenida un volcán en otro mundo diferente a la Tierra, que muestra el movimiento de la nube formada por materiales que son continuamente eyectados desde la caldera hasta una altura de unos 330 km. En la animación sólo es visible la parte más alta de la pluma, hallándose la fuente de material a unos 130 km por debajo del disco de Io.


El aspecto y movimiento de la pluma es curiosamente similar al de una fuente ornamental de nuestro planeta, aunque ampliada a una escala gigante. Las acumulaciones y filamentos de materia nos permiten seguir el movimiento de los materiales eyectados, si bien la naturaleza de los mismos no está clara. La animación, no obstante, permitirá a los científicos entender su origen y obtener datos acerca de la dinámica de las plumas volcánicas en esta luna de Júpiter.

La hiperactiva naturaleza de Io también se revela por la presencia de otras dos plumas volcánicas visibles en el borde del disco del satélite: en la parte inferior, ligeramente a la izquierda, se halla la pluma del volcán Masubi. Con un aspecto más tenue se puede distinguir también el abultamiento producido por la pluma del volcán Zal, situada en la parte izquierda del disco, ligeramente arriba.


En la imagen se puede apreciar perfectamente el hemisferio de Io no iluminado directamente por la luz solar, sino a través del reflejo de ésta en Júpiter. La forma más prominente es el volcán Loki, observable como una marca muy oscura con aspecto de herradura y que probablemente se trata de un enorme lago de lava. El monte Boosaule, de 18 km de altura, es la montaña más alta de Io -y del sistema solar- y se halla en el borde derecho del disco.

Las imágenes que conforman esta animación fueron obtenidas en un intervalo de tiempo total de 8 minutos, tomadas de dos en dos minutos, el 1 de marzo de 2007. Io se encontraba a 3.8 millones de kilómetros de New Horizons cuando se realizaron las fotografías.


De hecho, éstas son parte de una secuencia cuya finalidad original era la observación de los anillos del planeta Júpiter, pero los responsables de la misión decidieron incluir varias fotos de Io debido a que éste se hallaba justo debajo de los anillos visto desde la New Horizons en ese momento.


Más información: 1, 2.


Fuente: Aqui.

Autorizarían la creación de embriones híbridos para investigación

Es proyecto de ley impulsado por el Gobierno británico. Los embriones serían en un 99,9% humanos pero con una fracción de genes animales.

El Gobierno británico presentó el pasado jueves 17 un proyecto de ley que autoriza por primera vez la utilización de embriones híbridos de humanos y animales con fines de investigación. En virtud de esa iniciativa legal, que aún deberá pasar los trámites parlamentarios, los científicos podrán crear embriones citoplásmicos, que serían en un 99,9% humanos pero con una fracción de genes animales, para encontrar cura para enfermedades como el Parkinson o el Alzheimer.

De esta forma, el Gobierno de Londres da marcha atrás a su oposición inicial a la creación artificial de ese tipo de embriones, conocidos como "quimeras". Científicos y grupos de pacientes habían pedido un cambio de postura en esta cuestión por considerar que la prohibición obstaculizaba los esfuerzos para desarrollar terapias eficaces para el tratamiento de enfermedades de tipo degenerativo hoy incurables.

Los embriones citoplásmicos creados con óvulos de conejos o vacas y material genético humano aportado por donantes pueden representar una reserva importante de células madre para la investigación de enfermedades y nuevas terapias.

Por el momento, dos equipos de científicos británicos de Londres y Newcastle han pedido ya autorización para crear embriones híbridos de humanos y animales para ese propósito. Sin embargo, será ilegal que un embrión de este tipo crezca durante más de 14 días o sea implantado en un útero, para evitar la creación de monstruos híbridos.

Más información: 1, 2.

Fuente: Aqui.

Who links to me?