Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

miércoles, 30 de diciembre de 2009

El acelerador de partículas concluye 2009 con nota alta



El Gran Acelerador de Hadrones (LHC), en el que, entre otros centros españoles, participan investigadores del Instituto de Física de Cantabria (IFCA), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Cantabria, ha alcanzado un récord mundial en energía de las colisiones de partículas.

EUROPA PRESS
Según una información de la Universidad de Cantabria, recogida por Europa Press, el Centro Europeo de Física de Partículas (CERN) ha declarado que el Gran Colisionador de Hadrones (LHC) terminó su primer período completo de operación con colisiones de 2.36TeV, que han establecido un nuevo récord mundial.

El LHC ha sido puesto en modo de espera, y se reiniciará en febrero de 2010 después de una breve parada técnica.

Aprovechando la parada, el experimento CMS (en el que han participado los investigadores del IFCA) actualizará su sistema de refrigeración líquida.

Las primeras colisiones en el LHC se registraron el 23 de noviembre, y se consiguió alcanzar un haz de partículas récord el 30 de noviembre.
Durante las dos últimas semanas, los seis experimentos del LHC han registrado más de un millón de las colisiones de partículas, que han sido distribuidas en el LHC Computing Grid.

Hallazgo Inesperado Sobre la Turbulencia y el Transporte de Calor


El intercambio de calor puede no ser tan eficaz como se pensaba. Y esto se refiere al manto de la Tierra, a la atmósfera, a las capas exteriores del Sol, e incluso también a un reactor químico con el que se han hecho los experimentos que han llevado a esta conclusión.

Debido a que los fluidos calientes se elevan e inducen el movimiento, la convección turbulenta en entornos físicos extremos puede ser hasta cien mil millones de veces más fuerte que la existente en una típica olla de cocina. Los fluidos calientes se mezclan turbulentamente con los que están tibios. A medida que aumenta la diferencia de temperatura entre el lado frío y el caliente, el transporte de calor aumenta de forma exponencial.

Sin embargo, cuando la turbulencia es muy fuerte, el crecimiento exponencial disminuye de manera notable. Unos físicos del Instituto Max Planck para la Dinámica y la Autoorganización en Gotinga, Alemania, la Universidad de California en Santa Bárbara, EE.UU., y el Centro Nacional de la Investigación Científica en Nancy, Francia, han hecho este descubrimiento.

La teoría hasta ahora aceptada del transporte turbulento convectivo de calor, que data de 1962, indica que el crecimiento exponencial debe aumentar. A la luz del reciente descubrimiento, la teoría necesita ser revisada, al menos en algunos de sus postulados.

En algunos aspectos, el dispositivo experimental de Eberhard Bodenschatz y sus colegas es similar a una olla de presión gigantesca, aún cuando el director del Instituto Max Planck para la Dinámica y la Autoorganización lo llama el "submarino de Gotinga", debido a su forma.

En el "submarino" herméticamente sellado, un recipiente de dos metros de alto por uno de diámetro es calentado desde abajo y enfriado por arriba. En el medio, se mezcla un gas presurizado por convección turbulenta, cuando el agua asciende desde la placa caliente y desciende desde la fría. La diferencia principal es que la convección en el "submarino de Gotinga" es un millón de veces más intensa que en una olla de presión normal.

Valiéndose de esta máquina, los científicos esperan averiguar más cosas sobre la turbulencia en el manto de la Tierra, en la atmósfera y en las capas exteriores del Sol, donde la convección es de una intensidad todavía mayor, unas 100.000 veces más que la reinante dentro del "submarino de Gotinga".

Información adicional en: http://www.scitech-news.com/2009/12/turbulence-around-heat-transport.html

martes, 22 de diciembre de 2009

Obama escoge a un antiguo hombre de Bush para la ciberseguridad


El presidente de Estados Unidos, Barack Obama, ha elegido como coordinador de ciberseguridad nacional a Howard Schmidt, un antiguo consejero de la administración Bush, según informó The Washington Post.

REUTERS
Schmidt es presidente del Foro de Seguridad de Información, un consorcio sin ánimo de lucro de 300 grandes compañías y organizaciones del sector público que tratan con temas de ciberseguridad. Schmidt, un ciber-asesor durante la etapa de George W. Bush, estará asentado en el Consejo de Seguridad Nacional. Informará al consejero de seguridad nacional para coordinar la política de ciberseguridad del Gobierno federal, tanto para la agencia militar como para la civil, informó el periódico.

Schmidt, un veterano de la Fuerza Aérea de Estados Unidos y del FBI, había servido anteriormente en su carrera como jefe de seguridad de Microsoft, y como jefe de seguridad de información en eBay, anunció el diario. Sería nombrado por Obama ya el martes, dijo el rotativo, citando a responsables de la administración.

Récord Mundial Con un Combustible Nuclear de Nueva Generación


Un equipo de científicos del Laboratorio Nacional de Idaho (INL), Estados Unidos, ha establecido un nuevo récord mundial con un combustible nuclear de nueva generación para ser empleado en reactores de gas de altas temperaturas El Programa de Combustible para Reactores de Gas Avanzados (AGR), iniciado por el Departamento de Energía estadounidense en 2002, utilizó el Reactor de Prueba Avanzado (ATR) del INL en un experimento de casi tres años para someter a más de 300.000 partículas de combustible nuclear a un intenso campo de neutrones y a temperaturas de alrededor de 1.250 grados centígrados.

El experimento de combustible batió el récord para un combustible de partículas al consumir aproximadamente el 19 por ciento de su uranio poco enriquecido, más del doble del récord anterior establecido por experimentos similares ejecutados por científicos alemanes en los años 80, y más de tres veces del alcanzado por el combustible del reactor de agua ligera (LWR).

David Petti es el director de la Oficina de Desarrollo de Tecnología para Reactores de Temperatura Muy Alta en el INL.

El objetivo del programa de combustible es el de desarrollar este combustible, producir datos experimentales que demuestren a la Comisión Reguladora Nuclear que el éste es robusto y seguro, y restablecer la capacidad estadounidense de fabricación de combustible para reactores de gas de altas temperaturas.

El INL ha estado trabajando con Babcock and Wilcox Inc., General Atomics, y el Laboratorio Nacional de Oak Ridge (ORNL) para establecer estándares y procedimientos destinados a la fabricación a escala comercial de combustible para los HTGRs.

Información adicional en: http://www.scitech-news.com/2009/12/advanced-nuclear-fuel-sets-global.html

martes, 15 de diciembre de 2009

El zorro ártico, la tortuga laúd o el koala, los más amenazados por el calentamiento global



El zorro ártico, la tortuga laúd y el koala, están entre las especies más amenazadas por el cambio climático, de acuerdo con una nueva revisión de la Unión Mundial para la Conservación de la Naturaleza (IUCN, por sus siglas en inglés).

EUROPA PRESS
"El informe, 'Especies y Cambio Climático', se centra en diez especies, que incluyen la ballena beluga, el pez payaso, el pingüino emperador, un aloe sudafricano, la foca anillada, el salmón y el coral cuerno de ciervo, que ponen de manifiesto como afecta negativamente el calentamiento del planeta as la vida marina, terrestre y de agua dulce.

Los humanos no son los únicos cuyo destino está en juego aquí en Copenhague -algunas de nuestras especies favoritas están también viéndose afectadas por nuestras emisiones de CO2 -- señala la coautora del informe Wendy Foden--. Este estudio debería servir como llamada de atención a los gobernantes para hacer promesas reales de reducción de emisiones de CO2 si queremos evitar un drástico cambio del mundo natural. Sencillamente, no tenemos tiempo parta esquemas políticos. Necesitamos un fuerte compromiso y lo necesitamos ahora".

Las especies polares se están viendo afectadas por la pérdida de hielo debido al calentamiento global, según detalla el informe, que resalta que la foca anillada se está viendo forzada a migrar más al norte, mientras que el pingüino emperador, altamente adaptado a las condiciones del antártico, se encuentra en una situación similar.

Además, la tundra ártica, de la que depende el zorro ártico, está desapareciendo, y a medida que el hábitat cambia de tundra a bosque, el zorro rojo, que compite con el ártico, se mueve más al norte, reduciendo el territorio del primero. La ballena beluga del Ártico está probablemente afectada por el cambio climático tanto por la pérdida de hielo como por la consecuente dificultad para encontrar presas.

"La gente corriente no tiene menos poder para parar estas trágicas pérdidas -resalta uno de los responsables de la organización, Simon Stuarr--. Pueden cortar sus propias emisiones de CO2 y exigir acciones a sus gobernantes para cambiar el pronostico que arroja el cambio climático".

Pero los impactos del cambio climático no se reducen a las regiones polares, En más áreas tropicales, los corales de cuerno de ciervo, que abarcan 160 especies, están severamente afectadas por la subida de la temperatura del mar y la acidificación que daña su esqueleto. Los peces payaso, más conocidos gracias a la película 'Buscando a Nemo', son también víctimas de la acidificación, al igual que el salmón.

El icono australiano, el koala se tiene que enfrentar a la malnutrición debido al incremento de los niveles de Co2 de los eucaliptos y la tortuga laúd se ve afectada por la subida del nivel del mar y las tormentas. Al aloe sudafricano le afecta, por su parte, el stress hídrico que vive el continente.
"Muchas de las especies señaladas ya se encuentran en la lista roja de la IUCN debido a otras amenazas -señala otro de los responsables de la organización, Jean-Christope Vié--. Otras no lo están, pero lo estarán pronto si se materializan los efectos del cambio climático. Para una larga proporción de la biodiversidad, el cambio climático es una amenaza mayor y adicional".

Descubren un sistema para desentrañar redes complejas



Permite hallar el nivel real de conexión entre dos nodos y es aplicable a redes sociales, neuronales y de transporte

Marta Sales-Pardo i Roger Guimerà, ambos titulados en la Universitat de Barcelona, y ahora investigadores de la Northwestern University de EEUU, han colaborado en el desarrollo de un nuevo método de estudio de redes capaz de extraer información detallada de la jerarquía real subyacente existente en los millones de conexiones entre los nodos de una red. En su estudio muestran cómo el método funciona con precisión con redes de transporte aéreo, circuitos electrónicos, redes de intercambio de email, y redes metabólicas. Extraer este tipo de información de redes complejas es una tarea muy difícil, por lo que este método supone un avance importante para el análisis de redes actual.

TENDENCIAS CIENTÍFICAS
La minería de datos, es decir, la extracción no trivial de información que reside de manera implícita en los datos, es uno de los campos de la ciencia que están adquiriendo más relevancia en nuestro tiempo. Seguramente debido al hecho de que cada vez disponemos de más información acerca de todo. Porque es entonces cuando surge el problema de que, pese a tener tanta información, seguimos sin saber datos esenciales sobre cómo se comportan todos esos datos como grupo, y además cada vez es más complicado monitorizar la actividad individual de cada elemento.

Entender sistemas de redes complejas

Pongamos como ejemplo un banco de peces. Con la tecnología actual seríamos capaces de tomar imágenes de alta resolución, en las que podríamos ver desde el conjunto entero de peces, hasta la última escama de cualquier pez en concreto. Nosotros queremos saber cómo funciona ese banco de peces como conjunto, para poder predecir cómo se moverá. Entonces tenemos el problema de que su movimiento depende del movimiento individual de cada pez y de las relaciones de cada pez con sus vecinos. Un pequeño giro de uno de los peces puede pasar totalmente desapercibido, o puede provocar que todo el banco de peces cambie de dirección. Para poder extraer toda la información referente al grupo a partir de todos los datos que tenemos sobre cada uno de los peces usamos las técnicas de minería de datos.
Foto: Marta Sales-Pardo, Roger Guimerà, André A. Moreira, y Luís A. Nunes Amaral En este caso, el banco de peces podría considerarse como una red en la que cada pez es un nodo, y cada nodo interactúa con los otros nodos a su alrededor. Esto mismo se puede aplicar a multitud de sistemas de los que disponemos mucha información hoy en día. A internet y a las redes sociales, por supuesto, pero también a las redes de transporte, de comercio, a los ecosistemas, el clima, las migraciones, la economía, la bolsa...

Una nueva herramienta

Marta Sales-Pardo y Roger Guimerà, ambos titulados en la Universitat de Barcelona, y ahora investigadores de la Northwestern University de EEUU, han colaborado en el desarrollo de un nuevo método de estudio de redes capaz de extraer información detallada de la jerarquía real subyacente existente en los millones de conexiones entre los nodos de una red. Es decir, que con ese método pueden conocer la influencia real que tienen ciertos nodos o grupos de nodos de una red sobre el resto de la red. Según afirma el propio estudio: "mostramos un método que identifica los niveles en la organización de sistemas complejos y extrae la información relevante a cada nivel".

"Separa el trigo de la paja"

"La forma en que se extiende la gripe, por ejemplo, está basada en una red subyacente, y es importante entender los patrones críticos", afirma Roger Guimerà. "Usando los datos disponibles, nuestro método intenta encontrar la mejor descripción de la red analizada, sin importar el tipo de red que sea."

Además se puede extraer información sobre la conexión o la influencia existente entre dos elementos individuales de la misma red. En las redes sociales esto puede ser muy útil para conocer el entorno social virtual de cada individuo. Pero hay conexiones que, pese a existir, no son realmente activas. O puede haber elementos cuya conexión es muy activa, pero se lleva a cabo por vías indirectas.

"Nuestro método separa el trigo de la paja, la señal del ruido", comenta Marta Sales-Pardo, "Hay muchas maneras de mapear nodos en una red, no sólo una. Nosotros consideramos todas las maneras posibles. Tomando la suma de todas ellas, podemos identificar las conexiones que faltan y también las conexiones inactivas, sin efecto real".

Gran espectro de aplicaciones


El método desarrollado es además no supervisado. Es decir, que al algoritmo no se le da más información que la propia red, sin indicaciones de ningún tipo sobre la función o el tipo de red en cuestión. Esto, unido al elevado rendimiento mostrado, hace factible su aplicación en muchos y variados campos que requieren del estudio de redes de cualquier tipo.

En su estudio muestran cómo el método funciona con precisión con redes de transporte aéreo, circuitos electrónicos, redes de intercambio de email, y redes metabólicas. Pero caben muchas más aplicaciones: " la flexibilidad de nuestro enfoque, junto con su generalidad y su rendimiento, lo hará aplicable a muchas áreas donde la confiabilidad de los datos de una red es una fuente de preocupación".

martes, 8 de diciembre de 2009

Inesperado Papel de una Arquea en el Ciclo del Nitrógeno



Foto: Victoria Orphan, Caltech

Unas científicas han identificado una capacidad metabólica inesperada en una comunidad simbiótica de microorganismos de las profundidades marinas. El hallazgo puede ayudar a resolver un misterio sobre el ciclo del nitrógeno en el mundo.

El nitrógeno es un componente crítico de los aminoácidos, los "ladrillos" con los que están construidas las proteínas, y por consiguiente es esencial para toda forma de vida.

Aunque el nitrógeno es abundante en la Tierra, pues en volumen representa el 78 por ciento de la atmósfera, este elemento normalmente está presente en forma de moléculas de dos átomos. Para ser biológicamente útil, un átomo de nitrógeno debe liberarse de este acoplamiento y ser llevado a un estado reducido, o "fijado"; los átomos de nitrógeno reducidos ganan un electrón, lo que los hace químicamente reactivos.

Aunque los relámpagos, la combustión, y otros procesos no biológicos pueden crear nitrógeno reducido, una cantidad muy superior es generada por los microorganismos que fijan el nitrógeno, tales como las bacterias, en particular, las cianobacterias fotosintéticas acuáticas. Estos organismos producen la mayor parte del nitrógeno disponible para los seres vivos en el océano.

Sin embargo, cuando los científicos suman todas las fuentes conocidas fijadoras de nitrógeno, biológicas o no, en el ciclo global del nitrógeno, y realizan una comparación con los "sumideros" (la captura biológica de ese nitrógeno para el crecimiento y la producción de energía), las cantidades no cuadran. Aparentemente se consume más nitrógeno del que se produce.

La gran pregunta ha sido si el ciclo de nitrógeno está desequilibrado, o si los inventarios de fuentes y sumideros conocidos están incompletos.

Victoria Orphan, geobióloga del Caltech, y sus colaboradoras Anne Dekas y Rachel Poretsky, sugieren que la respuesta es, al menos en parte, un catálogo incompleto de fuentes fijadoras de nitrógeno.

El equipo estudió muestras de sedimentos oceánicos en manantiales fríos de metano, a unos 30 kilómetros de la costa norte de California, a una profundidad de unos 550 metros. El área está en una región que soporta altos niveles de escapes de metano de fuentes naturales en el fondo marino.

En el laboratorio, las investigadoras examinaron el sedimento rico en metano y las minúsculas acumulaciones de microbios que viven en su interior.

Estas acumulaciones celulares esféricas, que en promedio poseen 500 células cada una, constan de dos tipos de microorganismos anaerobios (una bacteria y una arquea) viviendo en una relación simbiótica alimentada por el metano.

Aunque estas asociaciones simbióticas no son nuevas, las científicas descubrieron algo inesperado: las arqueas consumidoras de metano estaban fijando activamente el nitrógeno, y compartiéndolo con sus vecinos bacterianos.

Información adicional en: http://www.scitech-news.com/2009/11/deep-sea-microbes-may-answer-long.html

jueves, 3 de diciembre de 2009

La Composición y Procedencia del Polvo Doméstico


¿De dónde sale tanto polvo? Unos científicos en Arizona están ofreciendo una sorprendente respuesta a esa pregunta que se han hecho muchas generaciones de personas a la hora de limpiar las capas de polvo en sus mobiliarios y suelos.En su estudio, David Layton y Paloma Beamer señalan que el polvo de las viviendas es una mezcla de productos que incluye partículas de piel muerta desprendida de los cuerpos de las personas, fibras de las alfombras y de muebles tapizados, y partículas transportadas desde el exterior por el aire o por las suelas de los zapatos y otros objetos afines.

El polvo doméstico puede incluir plomo, arsénico y otras substancias potencialmente dañinas que proceden del aire y la tierra exteriores. La presencia de tales productos nocivos resulta especialmente preocupante si tenemos en cuenta que los niños pueden ingerirlos involuntariamente al ponerse dentro de sus bocas juguetes y otros objetos sucios de polvo.

Valiéndose de un modelo informático que puede rastrear la distribución de la tierra contaminada y los materiales particulados transportados a las viviendas, los investigadores han encontrado que, al menos en el escenario local contemplado, alrededor del 60 por ciento del polvo de una vivienda se origina fuera de ella.

Los autores del estudio estiman que casi el 60 por ciento del arsénico presente en el polvo del suelo de las viviendas puede provenir del arsénico existente en el aire circundante, y el resto se debería al polvo portado hacia el interior por suelas de zapatos y otros medios afines.

Los investigadores señalan que su modelo podría usarse para evaluar métodos destinados a reducir los productos contaminantes en el polvo y la exposición humana a los mismos.

Información adicional en: http://www.scitech-news.com/2009/11/answering-that-age-old-lament-where.html

Los 10 grandes inventos de la evolución


La naturaleza es una máquina de generar patentes: la vida, el sexo, la muerte... En su libro Los grandes inventos de la evolución (Ariel), el bioquímico Nick Lane explora los hitos del mundo natural a la luz de los últimos hallazgos.

Se han escrito millones de páginas sobre los misterios de la vida, pero aún quedan muchos por resolver. Hace sólo 200 años no se sabía nada sobre el origen de los primeros organismos vivos y de qué forma éstos habían sentado las bases de la exuberante riqueza biológica de nuestro planeta. Charles Darwin, con El origen de las especies, fue el primero en vislumbrar la ingeniería evolutiva. Desde entonces, hace ya más de 150 años, hemos rastreado el pasado a través de los fósiles y los genes, dos poderosas máquinas para viajar en el tiempo que, para nuestra desazón, nos dejan con la película a medias.

El panorama está cambiando con técnicas como la genómica comparativa, que permite cotejar ADNs de cientos de especies; y la biología computacional, que identifica estructuras en las proteínas que permenecen inmutables a pesar de los cambios en los genes que las fabrican. Estos y otros avances, caso del análisis isotópico de los fósiles, están permitiendo poner orden en el gran puzzle que es la vida. Quizás nunca se acabe de resolver, pero al menos ya puede ser analizado en detalle.

Eso ha hecho el bioquímico británico Nick Lane en su libro Los diez grandes inventos de la evolución (Ariel, 2009), en donde desgrana los que él considera grandes momentos en la historia de la vida terrestre. A veces, su relato resulta muy distinto al que estábamos acostumbrados. Por ejemplo, según Lane, puede que la vida no emergiera de un caldo orgánico, como conjeturó Darwin, sino al calor de las fumarolas hidrotermales, en los fondos oceánicos. Quizá incluso en esas aguas aparecieron los estímulos necesarios para que se produjera la fotosíntesis, de la que se obtuvo oxígeno, gracias al cual surgieron las células complejas. Y así, paso a paso, se reescribe la evolución.

1. EL ORIGEN DE LA VIDA

Si viajáramos 3.800 millones de años atrás, nos encontraríamos un planeta desgarrado que gira a toda máquina escupiendo borbotones de magma entre sus grietas. El día duraba cinco horas y la atmósfera está cubierta de una niebla espesa sin oxígeno. En estas condiciones tan poco halagüeñas surgió la vida. No se sabe cómo empezó, pero sí que se trató de un affaire químico entre átomos y moléculas que se atraían y repelían. La primera pista del origen de la vida se obtuvo en 1970, cuando se observaron columnas de agua hirviente que brotaban de la falla de las islas Galápagos.

El océano alquimista. Siete años más tarde, una expedición norteamericana descubrió una riqueza animal brutal tras aquellas columnas, así como chimeneas hidrotermales de las que emanaban sulfuros metálicos en ebullición. El agua de mar se filtraba por las fumarolas y se cargaba de minerales y gases, a partir de los que algunas bacterias, capaces de vivir a más de 100 ºC, extraían hidrógeno, lo unían al CO2 y formaban materia orgánica. Así podían prosperar sin luz solar. Quizás, pues, el primer organismo vivo no fue una célula libre formada en una sopa de elementos, como propuso Darwin, sino que se gestó en un laberinto rocoso de células minerales en las entrañas de la Tierra.

2. LA CÉLULA COMPLEJA

Las bacterias y tal vez las arqueas –otros seres unicelulares– fueron las únicas gobernantas del planeta durante 3.000 millones de años. Cuesta entender cómo estos seres simplones o procariotas dieron pie a las células complejas –los eucariotas– que forman los animales y las plantas. Precisamente es el núcleo, donde se almacena el ADN, lo que las distingue de las bacterias. Pero hay más diferencias entre ellas: por ejemplo, las eucariotas son entre 10.000 y 100.000 veces más grandes que las bacterias –la mayor es el huevo de avestruz–, tienen orgánulos –compartimentos con funciones concretas– y son capaces de engullir otras células.

Echar chispas. Las hipótesis más consesuadas sobre el paso de procariota a eucariota apuntan en una dirección: los procesos simbiogenéticos, esto es, el intercambio de material genético entre diferentes bacterias con distintas habilidades. Para el microbiólogo Carl Woese, los eucariotas nacieron por la fusión de arqueas y bacterias. Y para Nick Lane, la clave está en las mitocondrias, orgánulos celulares que tienen su origen en bacterias devoradoras de oxígeno. Las mitocondrias son las centrales energéticas de la célula y no parecen ser el mejor lugar para almacenar genes –¡generan descargas eléctricas!–, aunque tiene los suyos a buen recaudo. Por eso, se cree que las eucariotas inventaron el núcleo, donde guardan celosamente su molécula de la herencia. De este modo, además, quedaba garantizado el suministro de energía celular.

3. EL CÓDIGO GENÉTICO

En 1953, el biofísico británico Francis Crick y su compañero, el biólogo James Watson, hicieron el descubrimiento más importante en la historia de la biología desde la teoría de Darwin: dieron con la estructura de doble hélice del ácido desoxirribonucleico o ADN. El hallazgo fue el acelerante para descifrar cómo funciona la llamada hebra de la vida. Esta sigue un código que establece las normas para traducir la información contenida en un gen y fabricar la proteína respectiva. Se creía que el ADN era el origen del código, pero recientes trabajos apuntan que fue concebido por el ARN, más corto que el ADN y de una sola hebra.

Don ARN. Las instrucciones para el funcionamiento de un organismo están en el ADN celular, que es el portador de los genes. Cuando una célula necesita llevar a cabo una acción, que se resume en la sintesis de una proteína, el ADN copia la secuencia del gen que la codifica en una molécula de ARN mensajero. Este abandona el núcleo y viaja hasta los ribosomas, las fábricas de proteínas. Por otro lado, para que el ADN se copie y pase a la siguiente generación, necesita proteínas específicas. Estas no pueden evolucionar sin ADN y el ADN tampoco puede hacerlo sin ellas. Es el dilema del huevo o la gallina: ¿qué fue primero, el ADN o la proteína? Esta disyuntiva se resolvió en la década de los ochenta, cuando se descubrió que el ARN era capaz de asumir el papel del ADN y el de las proteínas. El hallazgo sugería que el código genético podía haber surgido de la interacción del ARN y las proteínas, sin intermediación de ADN. La siguiente cuestión es evidente: ¿De dónde salió el ARN?

Las últimas teorías en bioquímica apuntan que las chimeneas hidrotermales –posibles testigos del nacimiento de la vida– podrían haber dispuesto las condiciones necesarias para que se formaran los primeros nucleótidos, las piezas que constituyen el ARN y el ADN. Este último, que resistía más las mutaciones, era un almacén de genes mucho más fiable que el ARN. Sólo había que transformar ARN en ADN para iniciar el ciclo de la vida. Para ello se necesitaba una enzima, que es la misma que utilizan los retrovirus modernos para copiar su material genético en la célula huésped y replicarse. Por eso, “puede que la vida comenzara con un ciclo de vida retrovírico”, afirma Lane.

4. LA FOTOSÍNTESIS

Que nuestro planeta sea verde se lo debemos al pigmento que tiñe las hojas de los vegetales, la clorofila. Este pigmento es imprescindible para que se produzca la fotosíntesis, un proceso que, con ayuda del sol, transforma la materia inorgánica –CO2– en orgánica –glucosa– y libera el oxígeno que hace posible la vida en la Tierra. La clorofila absorbe la radiación solar, que utiliza para romper moléculas de agua y, de paso, liberar electrones de su estructura. Si disparamos unas cuantas de estas partículas negativas sobre el CO2 fijado en las hojas de las plantas, obtenemos glucosa. La extracción de esos electrones tiene lugar en los cloroplastos, estructuras de las células vegetales que contienen la clorofila y otros pigmentos fotosintéticos.

Partiendo el agua. Los antepasados de los cloroplastos fueron las cianobacterias. Hace 3.000 millones de años, estas rompían el agua mediante una única sustancia fotosintética, para obtener energía y alimento. El gen que regulaba la síntesis del pigmento se duplicó y originó dos fotosistemas –centros con moléculas fotosintéticas– que la selección natural fue separando. Las cianobacterias utilizaban uno de esos dos sistemas, pero nunca ambos a la vez. Sin embargo, las plantas y algas actuales emplean dos grupos de clorofilas distintas. ¿Cuándo empezaron a combinarse?

Oxigenados. Según Lane, las cianobacterias se toparon con un problema: en el segundo fotosistema se producía una sobrecarga de electrones que lo inutilizaba. Sus células utilizaban manganeso para protegerse de las radiaciones ultravioletas. Cuando un átomo de manganeso absorbía luz ultravioleta, liberaba un electrón que era engullido por la clorofila en el segundo fotosistema, y el proceso se atascaba. La solución fue que ambos sistemas funcionaran a la vez. Así, los electrones liberados salían del manganeso, atravesaban los dos fotosistemas y llegaban al CO2; se unían a él y producían un desecho valiosísimo para el planeta: el oxígeno.

5. LA VISTA

Los primeros ojos del registro fósil son de hace 540 millones de años, muy próximos a la llamada explosión del Cámbrico, una época en la que repentinamente y sin que los científicos sepan explicar por qué, la Tierra se llenó de una gran variedad de organismos complejos. Por eso, los científicos creen que o bien el invento de la vista provocó este cambio evolutivo, o bien ya existía antes y por alguna razón no fosilizó. Hay más de una forma de fabricar ojos. Los de los trilobites eran de calcita. Los camarones, las vieiras y las langostas emplearon cristales de guanina, mientras que los mamíferos optamos por los cristalinos proteicos. Todos tenían en común un fotorreceptor, la rodopsina.

Los ojos del alga. La rodopsina cumple dos funciones biológicas: posibilita la visión y regula el ritmo circadiano de los seres vivos. Los científicos creen que antaño hubo células fotosensibles que contenían rodopsina. Sus hijas evolucionaron en dos direcciones: unas trazaron el camino de la visión; y las otras, el del control circadiano. Por razones desconocidas, los vertebrados e invertebrados escogieron células diferentes para realizar esas tareas.

¿Pero cuál fue el primer ser vivo con ojos? Posiblemente un alga que utilizaba pigmentos –entre ellos, rodopsina– para registrar la intensidad de la luz. Esos pigmentos también se hallan en las membranas de los cloroplastos, responsables de la fotosíntesis, cuyos antepasados hace mil millones de años eran las cianobacterias. Por eso Lane postula que estas ya debían ser capaces de detectar los cambios lumínicos del entorno.

6. EL SEXO

El origen –y el mantenimiento– del sexo es uno de los mayores galimatías de la biología moderna. A priori, la reproducción asexual es más cómoda: todo el mundo puede generar descendencia partiéndose en dos y no hace falta gastar energía en buscar un partenaire.

Pisotear al compañero. La reproducción sexual es una coctelera en la que se mezclan genes aleatoriamente. Un espermatozoide se une a un óvulo para formar una nueva célula, y a partir de ahí comienzan el proceso de duplicación del ADN y la meiosis, un baile de cromosomas en el que estos se mezclan para generar otros nuevos. Y este es el verdadero meollo de la cuestión, porque, además, hay genes tramposos que intentan a toda costa pasar a la descendencia, aunque para eso tengan que pisotear a los otros. Visto así, no parece que el sexo sea la mejor forma para perpetuarse, aunque, si está presente en casi todos los organismos eucariotas, por algo será. Y es que para estos el celibato es peor, porque conduce inevitablemente a la extinción.

Ya en 1094, el biólogo alemán August Weismann alegó que el sexo beneficia a las poblaciones, pues agrupa combinaciones de genes positivos, que mejoran la progenie; y de negativos, que borran del mapa a sus portadores. Seguramente sucedió así en sus orígenes: un puñado de células comenzó a mezclar sus materiales genéticos en lugar de clonarse, como hacían las bacterias. Aquel feliz accidente otorgaba una enorme ventaja a la descendencia, que empezó a acumular buenas mutaciones.

evolucion-10-47. EL MOVIMIENTO

La posibilidad de moverse de los primeros organismos “ha dictado el paso de la evolución, el ritmo al que genes y especies cambian a lo largo de la historia”, afirma Lane. Al final del pérmico, hace 250 millones de años, aparecieron los músculos, máquinas capaces de transformar la energía química en mecánica. Están formados por bandas regulares de fibras que se contraen o se relajan en función de dos moléculas, la actina y la miosina. También hay una segunda familia de proteínas motoras, las kinesinas, que participan en los movimientos de entes celulares, como el de los cromosomas durante la división celular. Todas ellas –miosinas, actinas y kinesinas–, tienen su antepasado en las bacterias.

Que la fuerza te acompañe. Las bacterias móviles de la actualidad –no todas lo son–, se desplazan deslizándose, contrayéndose o mediante flagelos. Lo que sigue siendo un misterio es cómo desarrolló su motilidad la célula eucariota, si fue a partir de genes que ya estaban en ella o gracias a la cooperación entre células, como sostiene la bióloga Lynn Margulis. Lo que sí se sabe es que el antepasado de los organismos eucariotas era móvil, porque sin la capacidad de producir fuerza para desplazarse se habría extinguido.

8. LA SANGRE CALIENTE

La sangre caliente es un invento bastante reciente que confiere muchas ventajas. Un ave, de sangre caliente, es capaz de generar 10 o 15 veces más calor que una tortuga de tamaño similar, de sangre fría, que necesita ponerse al sol para mantener su temperatura corporal. Una lagartija huye mucho más veloz que un mamífero, pero después del sprint debe detenerse a descansar exhausta durante unas horas.

Calientes y resistentes. Gracias a la respiración anaeróbica, los animales de sangre fría –ectotermos– generan energía muy rápidamente, aunque no pueden mantenerla mucho tiempo debido a su metabolismo lento. En cambio, el rápido metabolismo de los animales de sangre caliente –homeotermos– consume mucho oxígeno y calorías, pero les permite mejorar su rendimiento. Si bien tener sangre caliente supone llevar una vida más corta marcada por el hambre, conlleva recompensas, como energía, resistencia y un cerebro voluminoso.

¿Cuándo se caldeó? Los antepasados de los mamíferos y las aves –de sangre caliente– y de los cocodrilos –de sangre fría– se localizan en el periodo Triásico, que comenzó hace 250 millones de años, muy cerca de la extinción pérmica que acabó con el 95% de las especies.

Según Nick Lane, si no fuera por los hervíboros quizás nunca hubiéramos desarrollado la homeotermia –pocos lagartos actuales comen plantas–. Y puede que esa relación entre la dieta vegetariana y la sangre caliente tenga que ver con el nitrógeno. Los vegetales, al contrario que la carne, son bajos en este compuesto químico, que resulta esencial para que los organismos fabriquen proteínas. Para conseguir la cantidad necesaria de nitrógeno, los hervíboros debían atiborrarse de plantas. Y eso hacían. Pero les generaba un problema: un exceso de carbono, abundante en los vegetales, del que tenían que librarse. ¿Cómo? Quemándolo. Y nada mejor que un metabolismo rápido, que es propio de los animales de sangre caliente, para consumir esos residuos carbónicos.

evolucion-10-19. LA CONSCIENCIA

Antes del primer año, los bebés se reconocen en el espejo. Esta capacidad que llamamos consciencia plantea numerosos interrogantes. El cerebro físico es un producto de la evolución, ¿pero la mente, que es inmaterial, de dónde surgió? Los neurocientíficos distinguen entre dos formas de consciencia estrechamente relacionadas. La primaria tiene que ver con las emociones y las percepciones, y se nutre de la información que llega al cerebro de los sentidos. La consciencia extendida está relacionada con la cultura y la representación abstracta del mundo.

Atlas emocional. Para el neurólogo portugués Antonio Damasio, el cerebro procesa los estímulos que vienen de los sentidos y elabora un mapa neuronal con las emociones. Por ejemplo, ver a un hijo genera una respuesta emocional en el cerebro. “La consciencia es el conocimiento de los objetos del mundo que alteran el yo y cambian esos mapas neuronales”, afirma Lane.

Nuestro cerebro está dotado de una maraña de fibras nerviosas que conectan sus zonas. Los genes dibujan el circuito general, y la experiencia, el cableado de los detalles. Cuando percibimos algo, diferentes regiones del cerebro se activan en sincronía y deben actuar al unísono tanto para captarlo como para revivirlo. Así funciona: la consciencia primaria recoge percepciones y reconstruye el presente, mientras que la extendida une memoria y lenguaje, dota de significado emocional a cada percepción y le añade pasado y futuro.

10. LA MUERTE

La muerte tiene beneficios evolutivos. Hace 3.000 millones de años, las cianobacterias que poblaban la Tierra contenían una maquinaria suicida de enzimas que desmantelaban la célula desde dentro. Esta decisión de quitarse de en medio o apoptosis puede tener su origen en la especialización celular. Las poblaciones de cianobacterias estaban formadas por trillones de células que empezaron a realizar funciones distintas para adaptarse al entorno. Las suicidas apoyaron con su muerte a las de la línea principal, que se perpetuó. Del mismo modo, para que se formen las manos en el embrión humano, las células que unen los dedos con una membrana tienen que inmolarse.

Viejas dudas. Sólo la muerte hace posible la vida multicelular, pero una cosa es morir y otra hacerse viejos. En los 50 se creía que envejecíamos a causa de los radicales libres, que atacaban el ADN y las proteínas, pero ahora se sabe que estas moléculas optimizan la respiración celular. La alimentación tiene mucho que ver con la longevidad. Estudios con ratas han demostrado que una restricción calórica alarga la vida y hace que padezcan menos enfermedades asociadas al envejecimiento. Eso sí, el castigo por vivir más años es la infertilidad.

Cinco coches fantásticos



Ecológico y con tres ruedas
En 2010 sale a la venta el Aptera 2e, un coche eléctrico de 3 ruedas diseñado casi totalmente por el túnel de viento, lo que explica su aspecto casi extraterrestre. Con una estructura ultraligera y sólo 680 kilogramos de peso, el 2e de Aptera Motors podrá recorrer hasta 190 kilómetros sin emisiones. Y aseguran que acelera de 0 a 100 km/h en menos de 10 segundos.



¿Moto o coche?
Land Glider es una apuesta de futuro de la japonesa Nissan. Con apenas un metro y diez centímetros de anchura, es un vehículo eléctrico compacto algo más voluminoso que una moto grande. Cuenta con un asiento delantero para el conductor, mientras que el pasajero se ubica detrás. Y en vez de un volante, tiene una palanca similar a la que se usa para controlar un avión. Sus 4 ruedas se inclinan hasta 17 grados y se mueven independientemente para poder tomar todo tipo de curvas.



Sin conductor
Audi ha aplicado las últimas tecnologías robóticas a su deportivo Audi TTS para convertirlo en un vehículo autónomo que circula sin conductor. La compañía pretende demostrar sus capacidades en un rallie que tendrá lugar en 2010, ascendiendo al Pikes Peak, en el estado americano de Colorado.




Coche spa
Renault se ha aliado con junto a la firma Biotherm, de L’Oreal, para crear Zoe Z.E. Concept. Se trata de un vehículo 100% eléctrico con el techo concebido como una membrana protectora del calor y del frío, que incorpora células fotovoltaicas. El vehículo contará con un complejo sistema de purificación del aire, que mantiene la hidratación de la piel, evitando su sequedad. Además Zoe Z.E. incorpora un difusor de aromas que variarán según la hora del día. Está previsto que debute en 2012.

El que no corre… vuela
En 2011 saldrá a la venta el primer coche volador de Terrafugia, una empresa formada por ex alumnos del MIT (Massachusetts Institute of Technology). Se llama Terrafugia Transition y, aunque a primera vista se asemeja a un turismo convencional, puede desplegar un par de alas en tan sólo 60 segundos y transformarse en un aeroplano. Usa gasolina, puede alcanzar 185 km/h en vuelo y saldrá a la venta en 2011 al precio de 194.000 dólares (menos que un Lamborghini).

lunes, 9 de noviembre de 2009

Desarrollan catalizadores más económicos, eficientes y ecológicos


Podrían emplearse en la fabricación de bienes industriales, en la industria farmacéutica y en el desarrollo de combustibles

Un grupo de ingenieros y químicos norteamericanos ha logrado desarrollar un método para crear propiedades catalíticas en metales no empleados hasta el momento con ese fin. De esta manera, se pueden reducir en gran medida los costos implicados en este importante proceso, de amplia aplicación industrial y química. Además, se reducen las emisiones contaminantes y se optimiza la producción de energía


Ingenieros y químicos de la Universidad de Utah han avanzado en la creación de catalizadores más económicos y más eficientes en cuanto a la producción de energía y a la reducción en la emisión de gases contaminantes, causantes del calentamiento global. Estos nuevos catalizadores podrían emplearse en la fabricación de bienes industriales, en la industria farmacéutica y en el desarrollo de gasolinas y otros combustibles.

Vale destacar que los catalizadores son sustancias que permiten variar la velocidad de las reacciones químicas sin ser consumidas en el transcurso de dicha reacción. Los catalizadores se emplean para la fabricación de productos químicos y una enorme cantidad de productos industriales. Podría decirse que la economía mundial depende en cierta medida de ellos.

Sin embargo, a pesar de la gran importancia de estas sustancias y de su amplia utilización científica y tecnológica, hasta el momento nadie puede determinar que porción de las partículas del catalizador es la que provoca el aceleramiento o el retraso de las reacciones químicas.

Ese fue justamente uno de los puntos de partida de la investigación desarrollada en Utah por Scott Anderson, profesor de química, los estudiantes de doctorado Bill Kaden y William Kunkel y el especialista Tianpin Wu Kaden, principal autor del estudio. Los resultados del trabajo fueron publicados en una nota de prensa de la Universidad de Utah y en la edición del 6 de noviembre de la revista Science.

Entender los procesos catalíticos

De esta forma, el grupo de expertos se planteó el desafío de avanzar en el entendimiento de aquellos factores que controlan la actividad de los catalizadores, para de esta manera lograr el desarrollo de catalizadores más efectivos y económicos. Hasta el momento, metales nobles como el oro, el platino o el paladio eran empleados con este fin, algo que lógicamente incrementa en gran medida los costos.

Asimismo, en un catalizador en base a oro, la mayor parte del metal se encuentra inactivo, y solamente las nanopartículas que constituyen el 10 por ciento del mismo registran actividad. Esto significa que más del 90 por ciento del oro empleado en el catalizador se desaprovecha por completo.

En consecuencia, el desarrollo de catalizadores en los cuales el espacio ocupado por las partículas empleadas en las reacciones se encuentre optimizado podría permitir ahorrar el 90 por ciento del costo o incluso más. Ese parece ser el importante logro obtenido por estos ingenieros y químicos estadounidenses.

El propósito es desarrollar catalizadores con metales de base y mucho menos costosos, como por ejemplo el cobre, el níquel y el zinc. En otras palabras, la idea es tomar un metal que no tiene actividad catalítica y, al reducirlo al tamaño adecuado, provocar su conversión en catalizador.

El enfoque del trabajo desarrollado en Utah es tratar de identificar y comprender las razones por las cuales las partículas de determinados metales actúan como catalizadores y por qué una ínfima porción de los mismos es la que provoca las reacciones. Una de las certezas obtenidas por los investigadores es que las nanopartículas con propiedad catalítica no solamente afectan al catalizador en cuestión sino además a las propiedades electrónicas de las partículas implicadas.

Amplia aplicación industrial y química

Los catalizadores son utilizados en los procesos necesarios para la fabricación de gran parte de los productos y bienes industriales, desde polímeros y el desarrollo de gasolina hasta propulsores para naves espaciales. En números concretos, los catalizadores se utilizan en el 90 por ciento de los procesos de fabricación de productos químicos y en más del 20 por ciento de todos los productos industriales.

Sin embargo, hay un costado negativo desde el punto de vista ecológico: esos procesos consumen grandes cantidades de energía, según el Departamento de Energía de los Estados Unidos. Al mismo tiempo, la industria produce el 21 por ciento de las emisiones de dióxido de carbono, que tienen un papel crucial en el calentamiento global, con un 3 por ciento de ese total que proviene de la industria química.

Por lo tanto, la mejora de la eficiencia de los catalizadores es clave para el ahorro de energía y la reducción de las emisiones de dióxido de carbono. De esta manera, los especialistas indican que la investigación desarrollada en la Universidad de Utah resulta vital para la seguridad energética y para un mayor cuidado del medio ambiente, más allá de los beneficios económicos que supone.

Este estudio es la primera demostración de la fuerte correlación existente entre el tamaño y la actividad de un catalizador en una superficie de metal y las propiedades electrónicas del catalizador. En el marco de la investigación se emplearon distintas partículas de paladio de tamaños específicos, que interactuaron con dióxido de titanio.

Microsoft publicará seis boletines de seguridad el próximo martes



En su ciclo habitual de actualizaciones los segundos martes de cada mes, Microsoft ha anunciado que en esta ocasión se esperan seis boletines de seguridad. Afectan a toda la gama de sistemas operativos Microsoft y Office.
HISPASEC.COM
Si en octubre se publicaron trece boletines dentro del ciclo habitual (rompiendo todos los récords), este mes Microsoft prevé publicar seis actualizaciones el martes 10 de noviembre. Tres se consideran críticos y tres importantes.

Adicionalmente, y como viene siendo habitual, Microsoft publicará una actualización para Microsoft Windows Malicious Software Removal Tool. Además, se publicarán actualizaciones de alta prioridad no relacionadas con la seguridad.

Solucionados los graves problemas que surgieron en SMBv2 e IIS, Microsoft no tiene ahora mismo ninguna "deuda pendiente" en forma de grave vulnerabilidad reciente por resolver. Sin contar con el hecho de que ha dejado sin resolver para Windows 2000 la vulnerabilidad "sockstress" descubierta a finales de 2008 y que ha afectado a la mayoría de pilas TCP de casi todos los fabricantes de software. En su política de intentar forzar la migración de sus clientes, ha asegurado que la actualización "supondría un importante cambio estructural" en el sistema operativo. Para Windows XP, también afectado, tampoco ha ofrecido parche. Alega que su configuración por defecto no sería vulnerable y recomienda el uso del cortafuegos integrado para mitigar el problema, que en todo caso sería de riesgo bajo.

No se publican en esta ocasión parches para Windows 7. Recordemos que en los boletines emitidos en octubre, ya aparecían actualizaciones de seguridad específicas para este nuevo sistema operativo.

Los parches anunciados están sujetos a cambios, en cualquier caso, no se garantiza que se produzcan cambios de última hora.

Desarrollan un sistema de comunicación futurista para los soldados


Colocado en el casco, permitirá compartir datos y vídeos en entornos peligrosos
Un grupo de ingenieros del CSIT está desarrollando un futurista sistema de comunicaciones, que ayudará a proteger a las tropas militares. Basado en antenas altamente especializadas, este sistema se usará en situaciones bélicas para proporcionar una comunicación eficiente a corta distancia entre los soldados. Con él, éstos podrán compartir, a tiempo real, vídeos, datos e información estratégica, todo a través de visualizadores colocados en los cascos. El sistema aumentará la seguridad de las tropas, pero también podría llegar a otros ámbitos, como los servicios de emergencia e incluso la industria del entretenimiento.

TENDENCIAS CIENTÍFICAS
Un grupo de ingenieros del Centro de Tecnologías para la Seguridad de la Información de la Universidad de Queens, en Irlanda (CSIT) está desarrollando un futurista sistema de comunicaciones, que algún día podrían ayudar a proteger a las tropas militares, directamente en el campo de batalla o en entornos peligrosos.

Según publica el CSIT en un comunicado, en este proyecto se investiga concretamente una serie de antenas altamente especializadas, que podrían usarse en situaciones bélicas para proporcionar comunicaciones a corta distancia, de persona a persona.

Se espera que esta tecnología conduzca a la fabricación de avanzados sistemas inalámbricos que permitirán a pequeñas brigadas de soldados compartir, a tiempo real, vídeos, datos e información estratégica entre ellos, y a través de visualizadores colocados en los cascos de los soldados.

Conocimiento en entornos hostiles

Los ingenieros de la Universidad de Queen creen que estos sistemas beneficiarán a los miembros de las fuerzas armadas, ya que les permitirán tener un amplio conocimiento de cada situación en entornos hostiles.

Asimismo, les ayudarán a preservar el elemento sorpresa en encuentros cercanos con sus enemigos, aseguran los científicos.

Según declaraciones de Simon Cotton, del grupo de investigaciones de comunicaciones por radio del CSIT, lo que se pretende con este trabajo es superar el reto de fabricar dispositivos inalámbricos que deberían operar, en una serie de entornos difíciles, con mucha más exactitud que los dispositivos inalámbricos que usamos en la vida cotidiana.

Por otro lado, estos dispositivos destinados al campo de batalla deberán ser extremadamente fiables, eficientes y resistentes a las posibles intercepciones y decodificaciones que pretendan realizar las fuerzas enemigas.

Pruebas en juegos de ordenador

Según Cotton, el esfuerzo de los ingenieros va destinado a ayudar a que estos dispositivos lleguen a convertirse en una realidad.

Para conseguirlo, se está tratando de conocer cuál sería su funcionamiento en entornos reales; se está determinando el modo de envío y de recepción de las señales entre los usuarios; y también se está estableciendo qué tipo de antenas serían necesarias para un funcionamiento correcto.

Cotton afirma que los estudios para obtener toda está información se están desarrollando a través de modelos de escenarios de combate específicos, con animaciones normalmente usadas para crear juegos de ordenador.

Los ingenieros creen que, en última instancia, su trabajo propiciará directamente el desarrollo de nuevas aplicaciones, no sólo de uso militar sino también para servicios de emergencia e incluso para la industria del entretenimiento.

Los aspectos más técnicos de esta investigación han aparecido publicados en IEEE Journal on Selected Areas in Comunications.

Nuevas formas de comunicación

Las comunicaciones parecen un aspecto clave para las tropas en situaciones peligrosas o bélicas, a juzgar por otros esfuerzos tecnológicos de los que hemos tenido constancia en los últimos tiempos.

Así, el año pasado, el ejército estadounidense anunció el desarrollo de una interfaz de telepatía sintética que, en un futuro, permitirá que los soldados se comuniquen sólo con el pensamiento.

Otra sorprendente iniciativa tecnológica en el terreno de lo militar fue la lanzada en 2007 por el Pentágono.

Esta organización pretende desarrollar unos binoculares capaces de leer el subconsciente de los soldados para detectar, antes de que la información llegue a la conciencia de éstos, cualquier amenaza que el cerebro haya registrado.

Las aplicaciones de todos estos inventos superarán algún día el ámbito de lo militar, generando nuevas formas de comunicación.

Algunas plantas ornamentales de interior tienen la capacidad de eliminar compuestos contaminantes del aire



Una nota de la Sociedad Americana de las Ciencias Hortícolas nos sirve para recordar el problema que hay con la calidad del aire en el interior de las casas y su influencia sobre la salud, sobre todo ahora que la gente pasa el 90% de su tiempo en interiores y muy poco al aire libre.

Sorprendentemente el aire interior de los edificios de los países desarrollados tiene un 12% más contaminantes que el aire exterior en ciertas áreas. Ese aire se contamina con sustancias procedentes de las pinturas, barnices, pegamentos, muebles, ropa, disolventes, materiales de construcción e incluso del agua del grifo. La lista de compuestos orgánicos volátiles o COV que se pueden encontrar es larga: benceno, xileno, hexano, heptano, octano, decano, tricloroetileno, cloruro de metileno…

Se ha podido demostrar que estas sustancias provocan enfermedades en las personas que están expuestas a ellas en espacios cerrados. Entre las graves patologías que pueden provocar están el asma, nauseas y enfermedades crónicas de tipo neurológicas, reproductivas, de desarrollo… Incluso pueden provocar cáncer.

Según calculaba un informe de 2002 de la Organización Mundial de la Salud los contaminantes en espacios cerrados son responsables de 1,6 millones de muertes cada año, lo que representa un grave problema de salud.

Stanley J. Kays de University of Georgia, es el líder de un estudio publicado en HortScience en el que se comprobó la capacidad efectiva de las plantas ornamentales de interior para eliminar COV del aire en los espacios cerrados. A esta habilidad de las plantas de eliminar VOC del aire se le denomina "fitorremediación".

Además el estudio muestra cómo las plantas mejoran la salud psicológica. Colocar plantas en casa o en la oficina reduce el estrés, mejora la productividad y reduce los síntomas de las enfermedades.

Para comprender mejor la fitorremediación este grupo de investigadores probó la capacidad de 28 plantas ornamentales de interior de eliminar 5 componentes volátiles del aire: benceno o tolueno procedentes de recubrimientos, disoluciones, plásticos y humo de tabaco; octano procedente de pinturas adhesivos y materiales de construcción; tricloroetileno procedente del agua corriente, productos de limpieza, insecticidas y productos plásticos; y alfa-pineno procedente de pinturas y perfumes.

Durante los experimentos se cultivaron las plantas en un vivero durante ocho semanas y después se aclimataron durante 12 semanas bajo las condiciones habituales de los interiores de casas u oficinas antes de colocarlas en contenedores especiales de vidrios de atmósfera controlada.

Entonces las plantas fueron expuestas a los compuestos antes mencionados y se comprobó cómo disminuía su concentración a lo largo del tiempo. Después se clasificó a las distintas especies ensayadas como superiores, intermedias o pobres en su capacidades de eliminar COV del aire.

De las 28 especies comprobadas, Hemigraphis alternata, Hedera helix, Hoya carnosa y Asparagus densiflorus tenían la mayor capacidad de eliminación de compuestos orgánicos volátiles, siendo Tradescantia pallida calificada como superior en este aspecto.

El estudio concluye que la introducción de plantas ornamentales en interiores tiene el beneficio de mejorar la calidad del aire. Además de los beneficios para la salud, el aumento de plantas de interior podría tener un tremendo impacto positivo para la industria de plantas ornamentales.

Intendix, un canal de comunicación directo entre el cerebro y el ordenador


Durante más de 20 años los investigadores de todo el mundo han estado trabajando en el desarrollo de una Brain-Computer Interface (BCI, por sus siglas en inglés).

Este es un canal de comunicación directo entre el cerebro y un ordenador. Dicho sistema permite que pacientes con parálisis total se comuniquen y controlen los dispositivos de su entorno mediante sólo actividad mental.

Durante los últimos años algunos pacientes han estado supervisados por los propios investigadores para utilizar los sistemas BCI en la vida diaria. La compañía austriaca g.tec medical engineering GmbH lleva ahora la primera BCI lista para el paciente al mercado. El sistema de deletreo EEG se llama intendiX y permite al usuario seleccionar teclas de una matriz sólo poniendo atención sobre un símbolo objetivo en la ventana.

De este modo el paciente puede escribir mensajes o comandos. intendiX puede reproducir el texto escrito, imprimirlo o copiarlo en un mensaje de correo electrónico. El sistema está diseñado para utilizarse sin la asistencia de un técnico y puede instalarse y operarse por el cuidador.

Para la mayoría de usuarios intendiX funciona muy bien tras sólo algunos minutos de entrenamiento. Para pacientes con parálisis el sistema también se ha probado y evaluado en cada caso específico. Así, g.tec ofrece sistemas para alquilar para pacientes y hospitales. g.tec es un proveedor mundial de software y hardware para bioseñalización e investigación de BCI y está cooperando activamente con grupos de investigación líderes mundiales durante muchos años.

La tecnología no aísla a las personas


En contra de la creencia popular, Internet y los teléfonos móviles no están aislando a la gente sino extendiendo sus mundos sociales, de acuerdo con un estudio realizado en Estados Unidos.

| REUTERS
El sondeo fue motivado por un estudio de 2006 en el que sociólogos estadounidenses sostenían que la tecnología estaba acelerando una tendencia vista desde 1985, en la que sus compatriotas se estarían aislando socialmente, sus redes sociales estarían reduciéndose y disminuiría la variedad de sus contactos.

Pero el estudio del Pew Internet and American Life Project, titulado "Aislamiento social y nueva tecnología", determinó que el uso de teléfonos móviles e Internet está en realidad asociada con mayores y más diversas redes sociales.

"Cuando examinamos toda la red personal de las personas (...) el uso de Internet en general y el uso de servicios de redes sociales como Facebook en particular están asociados con redes sociales más diversas", dijeron los investigadores en un comunicado.

"Nuestros principales hallazgos cuestionan la investigación previa y los lugares comunes acerca de un impacto social dañino de la nueva tecnología", agregaron los estudiosos.

La encuesta telefónica a 2.512 adultos, realizada por Princeton Survey Research International entre julio y agosto de este año, descubrió que desde 1985 el grado de aislamiento social ha sufrido escasas modificaciones. Un seis por ciento de la población adulta no tiene con quién discutir asuntos importantes, pero esta cifra no ha variado mucho desde 1985.

La encuesta, sin embargo, muestra que las "redes de conversación" de la gente se han reducido en un tercio en los últimos 25 años y se han vuelto menos diversas debido a que contienen menos miembros fuera de la familia.

Pero la gente que tiene teléfonos móviles y participa en una variedad de actividades en Internet está asociada con redes de conversación más grandes y diversas.

Los usuarios de Internet tienen igual probabilidad que el resto de la población de ir a visitar a sus vecinos y tomar parte en actividades comunitarias locales.

"Los usuarios de teléfonos celulares, quienes usan Internet de manera frecuente en el trabajo, y los bloggers tienen mayor probabilidad de pertenecer a asociaciones voluntarias locales, como un grupo juvenil o una organización benéfica", indicó el estudio.

"Sin embargo, encontramos algunas pruebas de que el uso de redes sociales en Internet (como Facebook, MySpace y LinkedIn) sustituye cierta participación en el vecindario", agregó la declaración.

Los investigadores dijeron que la mayoría de los usos de Internet y la telefonía móvil guarda una relación positiva con las redes vecinales, asociaciones voluntarias y el uso de espacios públicos.

"Nuestro estudio apunta a que es posible que las vidas de las personas podrían estar mejorando a través de la participación con nuevas tecnologías de comunicación, en lugar de temer que su uso los hunda en una espiral de aislamiento", concluyeron.

jueves, 5 de noviembre de 2009

"Windows 7" es vulnerable a ocho de cada diez virus



Las primeras noticias negativas sobre Windows 7 han visto la luz a raíz de un análisis de la empresa de seguridad informática Sophos. Según la prueba a la que ha sometido al sistema operativo, ocho de cada diez virus son capaces de dañar el equipo del usuario, lo que supone que "desafortunadamente, se parece a anteriores versiones".

EUROPA PRESS
El especialista Chester Wisniewski analizó Windows 7 en un ordenador "limpio" --sin ningún antivirus-- y con la configuración por defecto User Account Control (UAC). El resultado fue el de que el nuevo sistema operativo de Microsoft únicamente pudo frenar la entrada de dos virus, repartidos entre 'troyanos' y 'malware'.

"¿Lección aprendida?. Lo que está claro es que necesitas un buen antivirus para Windows 7, a pesar de que la compañía aseguró a través de un informe interno que las probabilidades de infección prara Windows Vista SP1 ya eran un 60 por ciento más bajas que para Windows XP", explica Wisniewski en declaraciones recogidas por 'Portaltic.es'.

El experto termina su análisis pidiendo a los usuarios comprar "protección adicional" a la hora de adquirir el nuevo Windows, pidiendo especial atención para el virus conocido como 'Zbot' que engaña al ordenador haciendo creer que está instalando un falso 'anti- virus'.

El gas metano podría convertirse pronto en líquido


Especialistas norteamericanos han logrado un importante avance en el desarrollo de un proceso químico que permitiría transformar el gas metano en un líquido. Obtenido este cambio, el metano podría emplearse como combustible y ser una alternativa más ecológica y eficiente con relación a los derivados del petróleo que se emplean en la actualidad. Además, alcanzaría gran importancia como materia prima en el campo de la química industrial.

TENDENCIAS CIENTÍFICAS
Investigadores e ingenieros de la Universidad de Washington, la Universidad de Brown y la Universidad de Carolina del Norte en Chapel Hill han dado un paso importante en la posibilidad de convertir el gas metano en un líquido, una aplicación que tendría grandes beneficios para la producción de combustibles más ecológicos y que podría servir como materia prima para distintos productos químicos.

El metano es el componente principal del gas natural, y su gran abundancia en el planeta lo transforma en un combustible atractivo que puede emplearse con distintos fines, incluso como materia prima para productos químicos, ya que es más eficiente que el petróleo y produce menos contaminación. De esta manera, podría ser utilizado como sustituto práctico de los combustibles derivados del petróleo hasta que las energías renovables se encuentren disponibles para todo el mundo y amplíen sus aplicaciones.

Sin embargo, el metano cuenta hasta hoy con una importante desventaja: es difícil y costoso de transportar, porque sigue siendo un gas a temperaturas y presiones típicas sobre la superficie de la Tierra. En consecuencia, resulta vital para su mayor difusión la posibilidad de alterar su estructura gaseosa y transformarlo en un líquido.

Los responsables del equipo de investigación conformado por especialistas norteamericanos se han acercado en gran medida a la elaboración de una forma de convertir el metano en metanol u otros líquidos que pueden ser fácilmente transportados, sobretodo teniendo en cuenta los sitios remotos e inhóspitos donde se encuentra a menudo el metano.
Las ventajas de este avance

El importante hallazgo fue publicado en la edición del 23 de octubre de la revista Science, además de ser difundido mediante una nota de prensa de la Universidad de Washington. El especialista a cargo del equipo de ingenieros e investigadores que logró este avance es Wesley Bernskoetter, de la Universidad de Brown. Sin embargo, contó con la colaboración de un equipo de expertos de la Universidad de Washington y la Universidad de Carolina del Norte en Chapel Hill.

Vale destacar que la conversión de metano en productos químicos útiles, incluidos los líquidos que pueden transportarse fácilmente, requiere en la actualidad altas temperaturas y una gran cantidad de energía. Los catalizadores para trabajar el metano y aplicarlo al desarrollo de diferentes productos químicos a temperaturas más bajas que se han descubierto hasta el momento han demostrado ser demasiado lentos, ineficientes o caros para aplicaciones industriales.

El trabajo de este grupo de especialistas apunta a estimular nuevos avances en el desarrollo de catalizadores para transformar el metano en metanol u otros líquidos. De esta forma, la creación de un proceso para poder convertir el gas en un líquido químico a temperaturas razonables es bastante probable en un futuro cercano, más aún luego de los avances conseguidos en esta investigación.

De acuerdo a Bernskoetter y sus colegas, la idea es convertir el metano en un líquido que pueda conservar la mayor parte de los enlaces carbono-hidrógeno, de modo que pueda mantener toda la energía que confiere esa conformación química al metano convencional. Es así que resulta imprescindible la conservación de las interacciones químicas que caracterizan al metano.
Más precisiones

Aunque no se trata de un trabajo fácil, los investigadores e ingenieros creen haber hallado la clave para lograr ese cambio en las condiciones físicas del metano, pero sin alterar las características químicas que permiten su uso como combustible o materia prima para productos químicos.

Asimismo, el siguiente paso sería utilizar los conocimientos adquiridos en este descubrimiento para diseñar otros complejos químicos y crear las condiciones que permitirían sustituir catalíticamente un átomo de hidrógeno en el metano por otros átomos, creando así productos químicos líquidos como el metanol, entre otros.

Esta investigación fue financiada por la National Science Foundation, y contó además con la colaboración económica del Center for Enabling New Technologies Through Catalysis de la Universidad de Washington, conformado por 13 universidades y centros de investigación de los Estados Unidos y Canadá, incluyendo la UNC. Los National Institutes of Health aportaron el resto del dinero.

El Center for Enabling New Technologies Through Catalysis es dirigido por Karen Goldberg, profesor de química de la UW y uno de los participantes en la investigación. Este instituto conduce sus esfuerzos a encontrar formas eficientes, económicas y respetuosas del medio ambiente para producir productos químicos y combustibles.

Una técnica de realidad virtual trata la fobia a las arañas y cucarachas



El grupo de investigación del Laboratorio de Psicología i Tecnología (LABPSITEC) de la Universitat Jaume I, en Castellón, ha desarrollado un nuevo sistema para el tratamiento de la fobia a las arañas y cucarachas.

SINC
El equipod e investigación de la UJI ha empleado una aplicación basada en las nuevas tecnologías, en concreto técnicas de Realidad Aumentada, que suponen la incorporación de elementos virtuales en el mundo real.

De esta forma, durante el tratamiento en consulta y en un contexto real (mesa, suelo, objetos personales del paciente, etc...) es posible reproducir cucarachas o arañas virtuales con las que puede interactuar la persona.

El tratamiento psicológico incorpora el uso de las nuevas tecnologías para facilitar que la persona afronte la situación temida de forma total y segura. Se pretende que disminuya gradualmente el malestar y la ansiedad asociados a la interacción de la persona en distintas situaciones relacionadas con cucarachas y/o arañas.

Los estudios del laboratorio de investigación que dirige Cristina Botella, para el tratamiento de fobias a las arañas y cucarachas están abiertos a toda la sociedad, de forma que cualquier persona interesada en participar puede contactar con el laboratorio. A través del Servicio de Asistencia Psicológica (SAP) de la UJI también se ofrecen tratamientos para otras fobias mediante realidad virtual como el miedo a volar

lunes, 2 de noviembre de 2009

Ubuntu también está de estreno


Al lanzamiento de Snow Leopard y Windows 7 le sigue otro no menos importante: la salida de una nueva versión de Ubuntu, una de las más populares distribuciones Linux. Los responsables lograron un apoyo récord de la industria.

Ubuntu 9.10 Desktop Edition, alias Karmic Koala, saldrá mañana al mercado para deleite de los más de 12 millones de usuarios de esta distribución.

Con un renovado diseño, el sistema operativo de libre distribución posee mayor velocidad de arranque, mejoras en cuanto a la reproducción multimedia y una más eficiente conectividad 3G.

Canonical, la empresa detrás de Ubuntu, puso relevancia a 100 Paper Cuts, espacio en donde la comunidad ayuda a solucionar los inconvenientes que puedan ir apareciendo en el software.

Los usuarios más experimentados encontrarán además un acceso directo a Ubuntu Software Center, herramienta de gestión de aplicaciones orientada a la descarga y manejo de código abierto para su equipo.

La nueva versión de esta distribución integra además Ubuntu One, la apuesta por la computación en la nube presentada meses atrás que ofrece gratis hasta 2GB de espacio de almacenamiento.

En el comunicado oficial, Canonical habla además de la versión Netbook Remix, pensada para mejorar el funcionamiento de las netbooks.

Al igual que la versión para computadoras más poderosas, ofrece mensajería instantánea de texto, voz, video y transferencia de archivos. El paquete de instalación viene con Firefox 3.5 y OpenOffice.

Para conocer el comportamiento de esta distribución en netbooks, Canonical dio a conocer una lista en su página web (Links relacionados).

Chris Kenyon, responsable de Canonical, dijo a la BBC que "por primera vez en 20 años se puede comprar Ubuntu preinstalado de más de un fabricante".

Dell ofrece en China, por ejemplo, hasta 40 modelos de computadoras con Ubuntu. Y empresas como HP, Acer y Toshiba hacen lo propio, aunque no en todos los países.

La siguiente versión de Ubuntu, Lucid Lynx, estará disponible en abril del próximo año.

Nuevos fósiles esclarecen las fluctuaciones del hielo marino ártico en los últimos 30.000 años


Un equipo de científicos cofinanciados por la UE ha logrado reconstruir con claridad las fluctuaciones históricas en las condiciones del hielo marino en el Estrecho de Fram, situado entre Groenlandia y Spitsbergen, y las ha plasmado en una cronología que abarca los últimos 30.000 años. Este estudio, publicado en Nature Geoscience, supone una mejora de los conocimientos que hasta ahora se poseían sobre los cambios climáticos ocurridos antes de que las actividades del ser humano empezaran a modificar el clima terrestre.

sta investigación ha sido financiada parcialmente mediante una subvención de inicio (Starting Grant) del Consejo Europeo de Investigación (CEI). El proyecto en cuestión, titulado ICEPROXY y dotado de fondos por valor de casi 1,9 millones de euros, se dedicó a hallar «Biomarcadores lipídicos nuevos en el hielo polar: aplicaciones climáticas y ecológicas».

El análisis de un testigo de sedimentos procedente de la zona norte del Estrecho de Fram mostró que, con el tiempo, el manto de hielo sobre este paso ha sufrido cambios considerables. «Hemos reconstruido las distintas condiciones del hielo y observado que el Ártico "reacciona" de manera drástica incluso a fluctuaciones climáticas de corta duración», aseguró la autora principal, Juliane Müller, del Instituto Alfred Wegener (AWI) de Investigación Polar y Marina (Alemania).

Durante el Último máximo glacial (UMG), que tuvo lugar hace alrededor de 20.000 años, cuando más bajo era el nivel del mar y más gruesos eran los glaciares, el Estrecho de Fram se encontraba cubierto por una capa de hielo de manera permanente. Posteriormente, hace unos 15.000 años, hubo un periodo de calentamiento global que despejó de hielo este estrecho incluso en los meses invernales. Hay indicios de que en los últimos 5.000 años se ha producido una alternancia estacional, es decir, el estrecho habría estado cubierto de hielo en invierno y primavera y despejado en verano y otoño.

«El hielo marino es un componente crucial del sistema climático: las variaciones en el manto de hielo marino afectan al albedo [la cantidad de luz reflejada] de las regiones polares y también a la velocidad de formación de aguas profundas», se lee en el artículo. «Los cambios en el hielo marino de la zona norte del Océano Atlántico se han atribuido a cambios climáticos abruptos producidos al término del último ciclo glacial, pero son escasas las reconstrucciones que se han hecho de las condiciones del hielo marino.»

Los autores utilizaron dos biomarcadores complementarios entre sí para determinar el estado del hielo marino en el estrecho y analizaron restos de algas fósiles específicas depositadas en los estratos sedimentarios. La presencia del primer biomarcador, IP25, que es una molécula compleja producida por algas diminutas (diatomeas) que viven en el hielo marino, indica que el estrecho estaba cubierto de hielo. El segundo biomarcador es el brasicasterol, producido por fitoplancton que habita en mar abierto, y su presencia apunta a que el estrecho se encontraba despejado de hielo.

La ausencia de ambos marcadores, aducen los investigadores, es señal de un manto helado permanente, dado que la falta de luz y nutrientes bajo una capa gruesa de hielo impediría el crecimiento de algas. En cambio, si se encuentran ambos biomarcadores, indican una variación estacional en el manto de hielo.

Este nuevo método, que combina el IP25 con otros marcadores biológicos, podría facilitar información más precisa y detallada sobre el clima planetario del pasado, un campo de investigación que cada vez despierta mayor interés en la comunidad científica. «Hay numerosos proyectos internacionales de investigación sobre el Ártico que se dedican a examinar los cambios naturales en la extensión del manto de hielo marino antes de que el ser humano empezara a dejar su huella», informó el profesor Rüdiger Stein, geocientífico del AWI.

El Estrecho de Fram, un paso angosto entre el costado oriental de Groenlandia y la isla noruega de Spitsbergen, constituye la única vía de comunicación de aguas profundas (con una profundidad media de 2.600 metros) entre los océanos Ártico y Atlántico. El transporte de hielo marino a través de este estrecho ejerce una importante influencia sobre la circulación oceánica mundial y, por consiguiente, también en el clima del planeta.

"Wisk it" ayuda a 'borrar' las fotos de Facebook


La empresa fabricante de detergentes Wisk-it quiere aumentar su presencia en la Red y una de sus primeras iniciativas irá dirigida a los usuarios de 'Facebook'. A través de una nueva aplicación, ofrecerá a los miembros de esta red social la posibilidad de borrar las fotografías no deseadas mediante avisos a los responsables de 'colgar' esas imágenes.

Por el momento, esta aplicación no cuenta con ningún usuario que ya la haya puesto en práctica --debido a su reciente lanzamiento--, pero el perfil de Wisk-it ya registra 42 fans y en los seis primeros comentarios ha recibido la mejor puntuación de los usuarios, acompañada de comentarios como 'Gran idea' o 'Si hubiera conocido esta aplicación antes, todavía tendría trabajo', según recoge 'Portaltic.es'.

http://apps.facebook.com/wisk-it

En la ficha de información de la nueva aplicación se especifica que sus funciones serán las de encontrar imágenes 'marcadas' y 'no marcadas' de otros usuarios y, una vez localizadas, solicitar su eliminación a los propietarios. No obstante, Facebook deja claro que no se trata de una iniciativa desarrollada por sus programadores.

Wisk-it funcionará en la medida en la que los usuarios utilicen esta aplicación, ya que una persona no podrá conocer las fotos 'no deseadas' de otras personas si no la ha descragado previamente. "Actualmente, no hay otro medio más eficiente para borrar las fotografías, por lo que consideramos que es la mejor forma para 'limpiar' tu perfil de 'Facebook', aseguró la directora de marketing de Wisk, Elisa Gurovich, en declaraciones recogidas por 'Portaltic' a 'The New York Times'.

La agencia encargada de esta campaña on-line ha sido la empresa TracyLocke. Wisk espera alcanzar la misma relevancia que en los años 70, cuando se hizo famosa gracias a una serie de anuncios en las que muchas camisetas sucias perseguían a las amas de casa burlándose de ellas. "Pensamos que es una buena manera de llevar nuestra marca al mundo de la 'web'", concluyó.

Los Reptiles Comenzaron a Andar Con las Patas Erguidas Tras una Extinción Masiva


En un estudio detallado de 460 impresiones corporales fosilizadas dejadas por reptiles, por encima y por debajo de la capa que señala una extinción masiva, Tai Kubo y Mike Benton de la Universidad de Bristol, han descubierto que antes de la Extinción Pérmica todos los reptiles se desplazaban con sus patas delanteras y traseras extendidas a ambos lados, como hoy hacen las salamandras y los lagartos. Tras una extinción masiva, que constituyó la crisis más grande en la historia de la vida, acaecida hace unos 250 millones de años, y que aniquiló al 90 por ciento de todas las especies, los reptiles de tamaño mediano y grande del subsiguiente Periodo Triásico, pasaron a desplazarse con sus patas en posición erguida y bajo el tronco, tal y como lo hacen los mamíferos modernos.


Los dinosaurios, y más tarde los mamíferos, deben su éxito a esa manera de andar con las patas erguidas. Un animal que camina erguido de ese modo puede alcanzar un gran tamaño porque su peso desciende directamente hacia el suelo a través de sus patas que actúan como pilares. También a partir de este principio físico, otros animales de patas erguidas, como los monos, lograron utilizar sus extremidades delanteras para trepar o recolectar alimentos.

La locomoción con las patas erguidas puede tener grandes ventajas, pues permite dar zancadas más largas y el animal puede desplazarse forzando mucho menos los codos y las rodillas. Esta forma de locomoción fue la clave del éxito de los dinosaurios, que se originaron 25 millones de años después de la crisis de finales del Pérmico. Los dinosaurios alcanzaron tamaños enormes. Los animales que andan con sus patas extendidas sobre el suelo no pueden crecer mucho pues éstas se desplomarían.

Hasta ahora, la transición desde esa postura despatarrada a la de patas erguidas parecía un largo periodo, posiblemente de entre 20 y 30 millones de años, pero las nuevas evidencias sugieren que tuvo lugar mucho más rápido, y que probablemente comenzó con esa extinción masiva.

Información adicional en: http://www.scitech-news.com/2009/10/reptiles-stood-upright-after-mass.html

Pilas Eléctricas en Papel


Existe un gran interés por desarrollar baterías ligeras, baratas, sin partes metálicas, y que perjudiquen lo menos posible al medio ambiente. Los materiales más prometedores incluyen los polímeros conductores, componente básico de lo que se ha dado en llamar "electrónica de plástico". Un polímero conductor, el PPy, parece prometedor, pero fue a menudo considerado demasiado ineficaz para las baterías comerciales. Ahora, esta situación ha cambiado gracias a un avance técnico.
Bookmark and Share

Albert Mihranyan y su equipo de la Universidad de Uppsala, Suecia, se percataron de que mediante un recubrimiento de PPy en un substrato con una gran área de superficie, y controlando cuidadosamente el espesor de la capa de PPy, es posible mejorar sustancialmente la capacidad de carga así como la velocidad de carga y descarga.

El secreto del rendimiento de esta pila es la capa ininterrumpida, homogénea, con grosor nanométrico, hecha de PPy, sobre fibras de celulosa individuales que a su vez pueden ser moldeadas en hojas de papel de porosidad interior excepcionalmente alta.

Los investigadores utilizaron celulosa especial, extraída de una cierta especie de algas verdes, con 100 veces el área de superficie de la celulosa presente en el papel normal. Esa área de superficie fue fundamental para permitir que el nuevo dispositivo pudiera lograr una gran eficacia al almacenar y al descargar la electricidad.

El diseño innovador de la célula de la batería es sin embargo sorprendentemente simple, aunque muy útil. Ambos electrodos consisten en pedazos idénticos del papel compuesto separados por un papel ordinario de filtro con cloruro sódico como electrolito. La diferencia de potencial se debe sólo a las diferencias entre la forma oxidada y la reducida de la capa funcional de PPy.

La pila se recarga más rápidamente que las baterías recargables convencionales y parece apropiada para aplicaciones que involucren la electrónica flexible, como la incorporada en vestidos y en embalajes.

Información adicional en: http://www.scitech-news.com/2009/10/paper-battery-may-power-electronics-in.html

lunes, 5 de octubre de 2009

"Proyecto TA2": Tecnología para unir a las personas



Investigadores financiados con fondos comunitarios están desarrollando nuevas tecnologías que mejorarán la forma en que la gente desarrolla y cuida sus relaciones. El proyecto TA2 («Juntos en todas partes y a todas horas»), financiado con 12,8 millones de euros por el área temática «Tecnologías de la información y las comunicaciones» del Séptimo Programa Marco (7PM) de la UE, brindará a los europeos experiencias audiovisuales atractivas y agradables gracias a la mejora de las tecnologías y el apoyo a las mismas. Su finalización está programada para 2012.
CORDIS
Aunque la tecnología ha permitido la realización de distintos tipos de tareas de forma sencilla y descansada, también se le acusa de ser la responsable de que la gente no pase más tiempo junta. Por ejemplo, en lugar de establecer un contacto «directo», muchos adolescentes prefieren quedarse en casa y jugar con videojuegos, mientras que la comunicación entre las personas tiene lugar mediante mensajes de texto enviados a través del teléfono móvil.

Los responsables del proyecto TA2 están resueltos a acabar con esta tendencia e investiga de qué manera la tecnología podría fomentar la comunicación entre grupos de personas. El objetivo consiste en emplear esta tecnología para ayudar a la gente a que cuide y conserve las relaciones familiares.

Con esta idea, el consorcio, compuesto por trece miembros, se centra en simplificar y mejorar la comunicación entre grupos a través de Internet. Por ejemplo, los participantes serán capaces de comunicarse con los demás en una sala virtual. El ritmo de vida actual impone a hombres y mujeres una movilidad continua. En cualquier momento pueden encontrarse, por ejemplo, viajando en tren para ir a clase o en un avión a más de 10.000 metros de altura.

Investigadores del Instituto Fraunhofer de Circuitos Integrados (Fraunhofer ISS), miembro del equipo TA2, demostró la potencia y la flexibilidad de las nuevas tecnologías en la feria internacional de electrónica de consumo IFA celebrada en Berlín a principios de septiembre. En ella se organizaron sesiones en la que numerosos jugadores competían entre sí a través de Internet. Así pues, tener acceso por ejemplo a un juego da a las personas la posibilidad de «reunirse» con sus amigos y familia a pesar de la distancia que los pueda separar.

Investigadores del Fraunhofer IIS también han desarrollado el «Motor de Comunicación Sonora» (Audio Communication Engine) para el TA2. Este motor está compuesto de componentes sintonizados entre sí que aumentan la calidad del sonido y la claridad de las comunicaciones de vídeo y teléfono. Según los investigadores, el códec de audio MPEG AAC-ELD mejora la calidad del sonido proporcionando calidad de alta fidelidad con tasa de bits y retardo bajos.

Con esta tecnología innovadora los usuarios ya no tienen que llevar auriculares, por lo que pueden moverse libremente por la sala. Gracias también a un procesamiento de imágenes sofisticado, los usuarios sienten que están mucho más cerca de lo que realmente están. Los investigadores del Fraunhofer IIS también trabajan en el diseño de tecnologías que integren estas aplicaciones en los equipos de televisión y música.

En resumen, TA2 creará sensores avanzados y equipos informáticos que fomentarán las actividades humanas pero sin vulnerar su derecho a la privacidad.

Dirigido por el Instituto Europeo de Investigación y Estudios Estratégicos de Telecomunicaciones (Alemania), el consorcio TA2 está compuesto por seis agentes industriales y siete institutos universitarios y de investigación. Entre sus miembros están Alcatel-Lucent Bell NV (Bélgica), Philips (Países Bajos), el Instituto de Investigación IDIAP (Suiza) y la Universidad Goldsmiths de Londres (Reino Unido).

Australia invertirá en una red de banda ancha sin precedentes



Australia ha puesto en marcha el mayor diseño de infraestructura de su historia para crear una red de Internet de banda ancha que permita comunicarse entre sí a casi todos los internautas del vasto país.

El proyecto, según sus responsables, es comparable al tendido de la primera línea telegráfica terrestre a finales del siglo XIX, que permitió al continente austral comunicarse con el resto del mundo.

La iniciativa tiene como objetivo que el 90% de los hogares de Australia -con una superficie de 7,7 millones de kilómetros cuadrados y situada a una enorme distancia del resto del mundo desarrollado- goce de acceso a Internet a través de cable de fibra óptica antes de 2017.

El 10% restante, localizado en zonas remotas y a menudo en pleno desierto, se tendrá que conectar a la red con la modalidad inalámbrica.

Para lograr su meta, el Gobierno de Camberra invertirá unos 37.000 millones de dólares (25.287 millones de euros) e instalará la conexión en más de diez millones de edificios.

Las máquinas excavadoras especializadas, importadas de Francia, empezaron los trabajos la semana pasada en la isla de Tasmania, la región más septentrional de Australia.
100 megabytes por segundo

Esa zona en 2014 se convertirá en el punto mejor comunicado del planeta con una velocidad de transmisión de datos por Internet de 100 megabytes por segundo, cien veces superior al servicio más rápido que ofrecen ahora los proveedores locales.

"La Red Nacional de Banda Ancha será el mayor proyecto de infraestructura nacional de la historia de Australia", declaró al inaugurar las obras en Tasmania el ministro de Banda Ancha, Comunicaciones y Economía Digital australiano, Stephen Conroy.

Además, las autoridades de la isla australiana han arrancado otro proyecto paralelo en el Hospital General de Launceston, que permitirá a una mujer de 80 años recibir los cuidados que necesite vía Internet a través de una pantalla de televisión, sin tener que salir de su casa.

La inversión en Australia, donde el acceso a la red es uno de los más lentos del mundo desarrollado, revolucionará el sector de las comunicaciones nacionales, como hace un siglo y medio lo hizo la línea telegráfica terrestre.
Un poco de historia

En 1817, la noticia de la muerte en el Reino Unido de la Princesa de Gales tardó cinco meses en conocerse en Australia.

Más de 40 años después, las ciudades de Sídney, Melbourne y Adelaida y la isla de Tasmania estaban conectadas por el telégrafo, pero la conexión entre Australia y el extranjero dependía exclusivamente del transporte por mar y un envío tardaba entre 60 y 80 días.

Cuando la línea telegráfica finalmente se instaló en 1872, el tiempo en enviar un mensaje de Adelaida a Inglaterra se redujo hasta las siete horas.

Para lograrlo, entonces se utilizaron centenares de camellos para tender 2.900 kilómetros de cable y se colocaron 36.000 postes con 11 repetidores, cada uno con dos telegrafistas y cuatro técnicos.

Los trabajadores pasaron hambre y sed, pues en muchos casos carecían de bienes básicos, y tuvieron que soportar las durísimas condiciones climáticas de la árida región central del país y el norte tropical.

Se enfrentaron a hostilidades con los aborígenes, que no se habían acostumbrado aún a la presencia del hombre blanco, y tuvieron que importar postes de metal del Reino Unido al descubrir la capacidad destructora que las hormigas blancas con la madera.
Reto

También el proyecto de la Red de Banda Ancha encontrará dificultades, pero en esta ocasión el Gobierno de Australia asegura que está dispuesto a enfrentarse a cualquier inconveniente, igual que los primeros colonizadores del continente.

Se enviarán satélites al espacio si hace falta, y por supuesto, el erario público sufragará la diferencia de coste de los servicios entregados en las grandes ciudades y en los lugares más remotos del país.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX