Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 7 de mayo de 2010

Miro


iro es un reproductor libre de vídeos en alta definición (HD), permite reproducir casi cualquier formato de vídeo y audio, acceder a un enorme listado de canales en alta definición, suscribirse a feeds de vídeo y audio, descargar vídeos mediante BitTorrent y buscar y guardar vídeos de YouTube, DailyMotion, Revver o Google Vídeo.

En el análisis se han estudiado aspectos como la funcionalidad, datos técnicos, usabilidad, portabilidad, rendimiento, etc.

Se puede ver el análisis completo accediendo al siguiente enlace: www.ceslcam.com/analisis-de-aplicaciones/analisis-de-aplicacion-miro.html

Detectan una grave vulnerabilidad en la red social Facebook



La red social más popular del mundo enfrenta nuevamente problemas con sus configuraciones de seguridad. El miércoles, un error permitía a los usuarios ver las conversaciones que sus contactos mantenían con otros amigos, en vivo y en directo.

El portal TechCrunch detectó una falla de seguridad en facebook que exponía información personal. Este agujero permite que terceros tengan acceso tanto a los chats como a las solicitudes de amistad.

El fallo es accesible a través de la vista preeliminar de perfil, situada paradójicamente en las opciones de privacidad.

No es la primera vez que facebook tiene estos problemas. Hace poco más de un mes, se descubrió otra falla que exponía las direcciones de correo personales de los usuarios de la red social, aunque en este caso, el bug descubierto sólo causó estragos durante un lapso corto.

De todas formas, la red ya solucionó el problema, pero hasta ahora no es posible conectarse al chat. Al intentarlo, arroja un mensaje de error que dice que el sitio está en mantención.

Curiosamente, este error es producto de las nuevas medidas de seguridad introducidas por facebook, que pretenden los usuarios tengan más control sobre sus datos.

La red social ha tenido varios problemas asociados con la privacidad y ha sido criticada por el mal manejo de los datos personales, incluso por parte de gobiernos que han pedido más cuidado a la compañía.

Google presenta "lookinside.travel"



Turespaña, Exceltur y Google España presentan lookinside.travel, una novedosa iniciativa orientada a mejorar el conocimiento, opinión y tendencias sobre los hábitos de información y compra de los viajeros españoles, con el objetivo de ayudar al sector turístico a mejorar sus estrategias de producto, marketing y distribución.
Esta nueva iniciativa representa una colaboración entre instituciones públicas y empresas privadas que comparten un mismo objetivo: ofrecer un conocimiento más profundo sobre el comportamiento del viajero en España. Para ello, entre otros recursos informativos, recoge las conclusiones del mayor estudio turístico europeo realizado hasta la fecha sobre esta temática: "Hábitos de Información y Compra de los viajeros españoles en 2009", así como indicadores de la evolución de la relevancia de destinos y del interés por viajar y opiniones y comentarios de los principales líderes turísticos.

Antonio Bernabé, Director General de Turespaña apunta: "En este sentido quiero destacar el interés del presente estudio porque contribuye a mejorar el conocimiento del comportamiento del turista nacional. Para nuestra organización, el conocimiento es uno de los ejes estratégicos de la política turística española. Nuestro gran reto a largo plazo consiste en ser más competitivos y para ello necesitamos disponer de la mejor información sobre las transformaciones que se están produciendo en el sector y, en especial, sobre los cambios en los hábitos de información y compra del consumidor, cómo conforman sus decisiones, cuáles son sus preferencias y qué canales utilizan".

José Luis Zoreda, Vicepresidente Ejecutivo de Exceltur comenta: "Una vez más se evidencia el valor de una estrecha colaboración Publico-privada para generar información turística de gran interés mutuo, para encarar la mejor toma de decisiones institucionales y empresariales, ante los crecientes retos competitivos y la deseable evolución de algunos modelos de gestión del sector".

Javier González-Soria, Managing Director Google Travel Spain: "Desde Google hemos visto la posibilidad de ayudar a este sector tan importante para la economía de nuestro país, con el objetivo de que pueda invertir eficazmente en los canales adecuados. En el siglo XXI, y gracias a las cambios tecnológicos, hemos visto una evolución y cambios en la actitud del viajero y solamente si entendemos estos cambios, podremos ofrecerle un mejor servicio".

Esta iniciativa cuenta además con dos barómetros a disposición del usuario, uno que mide la demanda de viajes (aquellas consultas realizadas acerca del tipo de viaje que el usuario va a realizar y el medio que va a utilizar para ello) y el segundo, encargado de medir los destinos preferentes de los usuarios.

Como parte de esta iniciativa y, en colaboración con PhocusWright, se presentan los resultados del mayor estudio europeo realizado hasta la fecha sobre los "Hábitos de información y compra de los viajeros españoles en 2009", en el que han participado 55.000 personas. El objetivo del mismo ha sido analizar los componentes clave en el comportamiento de los viajeros españoles y los factores que influyen en su toma de decisión a la hora de elegir y adquirir un viaje.

Principales conclusiones del "Estudio sobre los Hábitos de Información y Compra de los Viajeros :

*Canales online influyen en offline: Los canales online (que representan el 52%) son aún más influyentes como fuente de información para decidir el destino. Dos de cada tres viajeros utilizó Internet para seleccionar los productos del viaje. En Internet, los motores de búsqueda son la herramienta más utilizada para realizar las consultas (33%).

*Transporte aéreo: Aproximadamente la mitad de los encuestados, utilizan los canales online mientras planifican el vuelo. Además, los productos de viaje que más se contratan usando Internet son los billetes aéreos (un 78% en comparación con el 52% de las reservas de alojamiento).

*Internet para reservar el alojamiento: Las consultas y la búsqueda por Internet son la forma más utilizada por los consumidores españoles para familiarizarse con el sector hotelero. Más concretamente, los buscadores se posicionan como una herramienta muy útil para aquellos usuarios que requieren alojamiento (un 35% de ellos lo utilizan en las fases de planificación previa) Aproximadamente seis de cada diez viajeros están influenciados por Internet tanto en la cualificación como en la selección del alojamiento.

*Los paquetes vacacionales: siguen siendo uno de los productos más populares, casi tres de cada diez turistas, en concreto un 29%, hicieron la reserva de su último viaje como paquete vacacional. Sin embargo Internet no es la fuente de información más popular para informase de los paquetes existentes, aquí una de las fuentes más consultadas, son los agentes de viajes.

*Las agencias de viajes online son una importante fuente de consulta e influyen a la hora de la toma de decisión sobre los distintos productos. No obstante, aunque el consumidor haga uso de ellas para recabar información, finalmente adquiere el servicio directamente en la página del proveedor (como ejemplo el 52% de los viajeros españoles que consultaron vuelos en una agencia online, realizaron la reserva de sus billetes finalmente con la compañía aérea).

*Después de Internet, los libros de viaje, las guías y los folletos son los elementos que más influyen en el comprador a la hora de decidirse. No obstante, los agentes de viajes siguen teniendo un papel importante entre los consumidores sobre todo en las reservas de alojamiento y en la elección del destino y tipo de paquete vacacional.

*Prescripción de los agentes de viajes: Las recomendaciones de los agentes de viajes son la causa principal de solo el 4% de las decisiones del destino, sin embargo son muy importantes como fuente de información (38%). Además mantienen un rol clave para la selección de paquetes vacacionales.

Crean una variedad de fresas libres de virus


Especialistas del Centro de Investigación y de Estudios Avanzados (Cinvestav) lograron, en su fase experimental, la creación de una variedad de planta de fresas libres de virus que reducirían la importación anual de la planta de Estados Unidos, dio a conocer la institución.

El centro de investigaciones destacó que el objetivo es beneficiar a los productores del país, quienes reducirán la importación de la planta, por las que incluso los campesinos pagan regalías, además de competir con el fruto, el cual también es importado.

La nueva variedad, que se analiza en la ciudad de Irapuato, en el central estado de Guanajuato, es adaptable a las condiciones del suelo y clima mexicanos, lo que permitrirá cosechar un fruto de mayor calidad, sabor y tiempo de vida, del que hay en el mercado nacional.

La investigadora Alba Jofre y Garfias explicó que aún están en etapa experimental y esperan que en breve tiempo los productores puedan adquirir las dos nuevas variedades de fresa, "Pakal" y "Nikté", en proceso de registro ante el Servicio Nacional de Inspección y Certificación de Semillas de la Secretaría de Agricultura.

Las fresas en experimentación tienen un tamaño aceptable en el mercado, con una consistencia firme y libre de los virus que circulan en la región, una de las debilidades de la fruta nacional.

Los trabajos los realiza de manera conjunta con Pedro Antonio Dávalos Jiménez, del Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP), con quien cruzan los genotipos seleccionados, las mejores plantas de los terrenos experimentales que resisitieron las condiciones climáticas y las enfermedades.

De las plantas "sobrevivientes" se obtienen los "estolones" (plantas hijas unidas a la planta original) que son la forma de reproducción vegetativa que tiene la fresa, con los cuales se desarrollan los cultivos en vitro.

En el proceso aislan los meristemos, que son la parte de la planta en que está la división celular activa y en donde se producen los órganos nuevos, entre ellos las hojas y las flores, que al ser polinizadas originan frutos e hijuelos que generan nuevas plantas.

Alba Jofre dijo que los meristemos no tienen heces vasculares que son la principal vía de diseminación de enfermedades virales, es decir, con ello se obtienen plantas libres de este tipo de patógenos.

montaje

Crean un vendaje inteligente que ataca a las bacterias patógenas de las heridas


Además, puede cambiar de color para avisar de infecciones a médicos y pacientes

Científicos de la Universidad de Bath, en el Reino Unido, están desarrollando un sistema inteligente de vendaje de heridas que, en presencia de patógenos, libera bactericidas y los destruye. El vendaje está formado por polipropileno, al que se adosaron vesículas que se rompen cuando entran en contacto con bacterias nocivas, liberando los antibióticos que llevan dentro. Este sistema promete ser un medio efectivo y barato para luchar contra las infecciones en hospitales y para evitar que las bacterias no nocivas –frente a las que no reacciona- desarrollen resistencia a los antibióticos. Podría salir al mercado dentro de siete años


Un equipo de químicos de la Universidad de Bath, en el Reino Unido , está desarrollando un sistema inteligente de vendaje de heridas, que liberará agentes antimicrobianos encapsulados sólo en presencia de bacterias patógenas.

El sistema servirá para tratar las infecciones bacterianas, un problema clínico que se moderó a partir de los años 50 con la aparición de los antibióticos, pero que se ha vuelto a agravar como consecuencia del desarrollo de resistencia a estos medicamentos por parte de las bacterias.

Según publica la revista Physorg, la ventaja de este novedoso vendaje radica en que funciona de manera específica, sólo en caso de que las bacterias sean dañinas para el organismo, y es respetuoso con el resto de las bacterias y, por lo tanto, no afectaría a la microflora normal del organismo.

Las bacterias se ponen la trampa

El primer prototipo de vendaje inteligente ha sido creado con un polímero termoplástico parcialmente cristalino conocido como polipropileno (PP). A este tejido, los investigadores adosaron vesículas que contenían agentes antibacterianos.

Uno de los factores de virulencia de muchas bacterias patógenas (que no poseen las bacterias no dañinas) es que segregan toxinas o enzimas que dañan las membranas celulares, a las que desintegran.

Este mismo mecanismo es el que han aprovechado los investigadores en su trabajo: cuando las bacterias patógenas entran en contacto con el sistema de vendaje inteligente, desintegran las vesículas adosadas a dicho vendaje. Estas vesículas, al romperse, dejan salir los agentes antibacterianos, que destruyen entonces las bacterias nocivas.

Los científicos han probado ya el sistema con poblaciones de dos especies de bacterias:
el estafilococo aureus (bacteria que se encuentra en la piel y en las fosas nasales) y el baciloPseudomonas aeruginosa. Los resultados obtenidos demostraron su efectividad: en ambos casos se constató una disminución significativa en las concentraciones de estas bacterias, y eventualmente una inhibición casi completa.

Las concentraciones de P. aeruginosa se redujeron más rápidamente que las del estafilococo, debido a que las primeras presentaban una sensibilidad más alta a los agentes microbianos encapsulados en las vesículas del tejido que las segundas.

En el mercado en 2017

Por el contrario, en pruebas realizadas con la bacteria Escherichia coli, que no es nociva, se comprobó que el sistema de vendaje ocasionaba sólo una ligera reducción en la concentración de éstas.

Según declaraciones de uno de los autores de la investigación para Physorg, el químico de la Universidad de Bath, Toby Jenkins, la importancia de este trabajo radicaría en que podría dar lugar a un sistema inteligente de vendaje, capaz de discriminar entre bacterias patógenas y no patógenas.

De esta manera, liberaría los bactericidas sólo en heridas en las que hubiese bacterias peligrosas, sin atacar a otras bacterias no dañinas. Esta diferenciación reduciría la presión sobre todo tipo de bacterias, reduciendo también las posibilidades de que éstas evolucionen y desarrollen resistencia a los antibióticos.

En el Journal of the American Chemical Society, los científicos explican que, además de controlar la proliferación de las bacterias con este sistema, están intentando que el tejido inteligente cambie de color en presencia de infecciones, con el fin de que sirva como aviso para médicos y pacientes de la aparición de patógenos en las heridas.

En general, los investigadores esperan que el vendaje inteligente sirva para poteniar la salud, reducir traumas e, incluso, ahorrar dinero. Sin embargo, antes de que éste pueda comercializarse, aún queda encontrar soluciones a diversos problemas, como el de la estabilidad de las vesículas del tejido o el ajuste de las respuestas bactericidas.

Jenkins y sus colaboradores esperan tener un prototipo completo en 2014. Éste deberá probarse durante tres o cuatro años para garantizar su seguridad, por lo que el vendaje inteligente podría llegar al mercado en 2017.

También en otros objetos

En un comunicado de prensa emitido por la Universidad de Bath a principios de este año, se explicaba asimismo que las finas películas con vesículas creadas por los científicos para los vendajes inteligentes pueden ser aplicadas con facilidad a otro tipo de objetos, como otros tejidos, bienes de consumo o dispositivos médicos.

El resultado sería que podrían tenerse diversas superficies con una eficiencia antibacteriana muy alta y eficiente, a muy bajo coste.

Esta tecnología resultará especialmente importante dada la expansión en hospitales del Staphylococcus aureus resistente a meticilina o SARM, una bacteria que se ha vuelto resistente a varios antibióticos, primero a la penicilina en 1947, y luego a la meticilina.

Descubierto originalmente en el Reino Unido en 1961, este estafilococo está actualmente muy propagado y, aunque sus infecciones en personas sanas generalmente no son graves, sí pueden amenazar la vida de pacientes con heridas profundas, catéteres intravenosos u otros instrumentos que introducen cuerpos extraños, o con un sistema inmunitario debilitado.

domingo, 2 de mayo de 2010

Crean un dispositivo que genera energía a partir del calor del cuerpo


Servirá para alimentar implantes médicos y para prolongar la vida de las baterías

Un equipo de investigadores de la Universidad Nacional de Singapur ha fabricado un dispositivo que genera energía a partir del calor corporal. El generador tiene un tamaño muy pequeño: un centímetro cuadrado, pero es capaz de producir varios microvatios de energía aprovechando la diferencia de temperatura existente entre el cuerpo y el aire. Los científicos prevén que, en un futuro, servirá para prolongar la vida de la batería de ciertos dispositivos electrónicos (como implantes médicos) y también para reciclar el calor que los mismos aparatos generen en su funcionamiento prolongando así la vida de sus baterías


En un intento por desarrollar una fuente de energía compacta, ecológica y de un tiempo de vida ilimitado, un equipo de investigadores de la Universidad Nacional de Singapur, ha fabricado un dispositivo que genera energía a partir del calor corporal o de cualquier otro entorno que proporcione un gradiente (o diferencia) de temperatura.

Según publica la revista Physorg, este aparato, que ha sido bautizado como generador energético termoeléctrico, se pega al cuerpo para generar una cantidad de energía de varios microvatios.

En un futuro, el generador podría ser utilizado para suministrar energía a ciertos dispositivos médicos implantados o a sensores sin cable.

Termopares y termopilas

Los autores del dispositivo han sido Jin Xie y Hanhua Feng, que pertenecen a la A*STAR (agencia gubernamental para la ciencia, la tecnología y la investigación de Singapur), y Chengkuo Lee, de la Universidad Nacional de Singapur. Los resultados de su trabajo han aparecido publicados en la revista especializada Journal of Microelectromechanical Systems.

El generador energético termoeléctrico consiste en un chip de un tamaño de un centímetro cuadrado, que contiene más de 30.000 pares termoeléctricos o termopares.

Estos termopares están formados por la unión de dos metales distintos, y producen un voltaje a partir de la diferencia de temperatura entre uno de sus extremos, denominado "punto caliente" o unión caliente o de medida, y el otro, denominado "punto frío" o unión fría o de referencia.

Los termopares se utilizan comúnmente en instrumentación industrial como sensores de temperatura, porque son económicos, intercambiables, tienen conectores estándar y son capaces de medir un amplio rango de temperaturas.

Los científicos de Singapur agruparon los 30.000 termopares del generador en una serie de conjuntos, conocidos como termopilas, capaces de detectar las diferencias de temperatura entre el cuerpo y el ambiente, y de producir a partir de ellas un voltaje.

Futuras mejoras

Así, con una diferencia de temperatura de 5 K, el dispositivo puede generar un voltaje de 16,7 voltios y una energía de 1,3 microvatios.

Los investigadores esperan que futuras mejoras en el generador permitan incrementar esta generación energética en varios microvatios.

La acumulación de la energía generada a partir del calor desprendido del cuerpo, servirá para diversos fines, como prolongar la vida de la batería de ciertos dispositivos electrónicos, como sensores de presión, y también para reciclar el calor que los mismos aparatos generen en su funcionamiento.

Además, proporcionando energía a los implantes médicos que puedan llevar algunos pacientes, esta tecnología permitirá eludir los difíciles y caros métodos de sustitución de baterías en dichos implantes.

Mayor eficiencia energética

Aunque anteriormente se habían creado dispositivos que generan electricidad a partir del calor del cuerpo, este nuevo generador energético termoeléctrico supone un avance con respecto a ellos, en cuanto a eficiencia energética se refiere.

Según explican los investigadores en el Journal of Microelectromechanical Systems, para conseguir dicho avance, al generador se le incorporaron cavidades vacías, un estrato de cuerpo de refrigeración (cuerpo de metal que se conecta a componentes electrónicos y no les permite calentarse) y una cavidad periférica.

De esta forma, se consituió optimizar el flujo de calor, e incrementar la diferencia de temperatura entre el lado del generador que va en contacto con el cuerpo y el otro lado, expuesto al entorno en que el cuerpo se encuentre (al aire, más frío que el organismo).

Este aumento en la diferencia de la temperatura entre ambos lados del aparato es lo que permite producir una cantidad de energía eléctrica mayor.

Otra ventaja del generador energético termoeléctrico de los científicos de Singapur es que es compatible con unos semiconductores de uso muy extendido conocidos como CMOS (Complementary Metal Oxide Semiconductor).

Esta compatibilidad permitirá que el generador pueda funcionar como fuente energética para chips y sistemas microelectromecánicos (sistemas fabricados con tecnología electromecánica micrométrica), que requieran de bajos niveles de consumo de energía.

Aprovechar el cuerpo

En los últimos años, han salido a la luz diversos dispositivos y materiales que aprovechan el cuerpo para generar energía.

Es el caso, por ejemplo, del material creado por ingenieros de la Universidad de Princeton, en Estados Unidos, con el que se puede generar energía a partir de ciertos movimientos del organismo, como la respiración o el simple acto de andar o correr.

Los científicos prevén que dicho material, un compuesto que combina caucho de silicona con zirconato de titanato de plomo, podría aplicarse en chips destinados a dispositivos médicos (como por ejemplo marcapasos), o en diferentes productos de electrónica portátil.

Por otro lado, recientemente, científicos del Instituto Tecnológico de Georgia, también en Estados Unidos, anunciaron que habían creado una novedosa tecnología capaz de convertir la energía mecánica más irregular en energía eléctrica. Para conseguirlo, usaron nanogeneradores que aprovechaban el efecto piezoeléctrico para generar cargas eléctricas.

Por último, científicos norteamericanos han creado otro sistema que aprovecha la energía motriz de las piernas para generar electricidad, mediante un dispositivo de 1,5 kilogramos con forma de rodillera. Este aparato genera energía suficiente como para poner en marcha diez teléfonos móviles al mismo tiempo o dos ordenadores.

Microsoft anuncia un nuevo Messenger para junio




El servicio de mensajería instantánea integrará las actualizaciones de redes sociales como facebook, MySpace y LinkedIn para permitir a los amigos compartir mensajes en esas redes desde el mismo Messenger. Podrá ser descargado desde junio.
INFOBAE
El anuncio fue realizado por Steve Ballmer, CEO de Microsoft, en la Universidad San Pablo un día después de visitar Argentina para contar su visión sobre la computación en la nube.

"Con el nuevo Messenger nos enfocamos en proporcionar herramientas que permiten al usuario mantenerse al tanto de sus actualizaciones sociales en todo internet", dijo Hernán Rincón, presidente de Microsoft Latinoamérica.

La nueva versión estará disponible en la Argentina a partir del 7 de junio. En el país ya son más de 12,5 millones de usuarios los que utilizan Windows Live Messenger para enviar 432 millones de mensajes por día.

La nueva versión incorpora diversas mejoras:

• Chat con video en alta definición y en pantalla completa, con la posibilidad de chatear con video mientras, por ejemplo, se comparten fotografías, lo que permite ver las reacciones de los contactos en tiempo real.
• La integración de resultados Bing, que permite agregar con facilidad fotografías y videos desde la web sin tener que dejar la ventana de conversación.
• Messenger Connect, para obtener actualizaciones de sitios web desde Messenger, por lo que los contactos no tienen que crear cuentas y redes en todos esos lugares.
• Una sola lista de contactos ya que al reunir todas estas redes y actualizaciones, Messenger también evitará que se dupliquen los contactos.

La WSTNet se encargará del "futuro de internet"


Se ha creado una red internacional de especialistas de primer orden en ciencia de la web con el propósito de promover los programas de investigación y formación en esta novedosa disciplina. La WSTNet («Red de Laboratorios del Web Science Trust») contará con los mejores investigadores universitarios dedicados a la ciencia de la web y ayudará a ampliar la influencia creciente de la misma. La creación de la red se anunció durante el congreso WebSci10 celebrado en Raleigh, Carolina del Sur (Estados Unidos) los días 26 y 27 de abril.l objetivo de WSTNet consiste en fomentar la investigación multidisciplinaria en torno a la ciencia de la web. Su gestión correrá a cargo del Web Science Trust de la Universidad de Southampton (Reino Unido) y en ella participarán destacadas entidades industriales y universitarias así como empresas líderes, empresarios y autoridades políticas de todo el mundo que tratarán de ampliar las fronteras de Internet y estudiar el potencial de la red, su proyección y los retos que puede afrontar en un futuro.

La importancia de la ciencia de la web aumenta debido a que Internet ha llegado a influir en todos los aspectos de la sociedad y genera oportunidades inimaginables hace tan sólo veinte años. La web ha transformado la sociedad y es el punto de intercambio de información más importante del planeta. Millones de personas la utilizan a diario para trabajar, comunicarse, comprar y estudiar.

«Es otro hito importante en el progreso de la ciencia de la web», indicó sir John Taylor, director del consejo de administración de WSTNet. «Hemos reunido a un grupo de prestigiosos laboratorios científicos que ya están realizando contribuciones pioneras a nivel internacional en este campo mediante sus investigaciones. Estamos impacientes por ver lo que seremos capaces de lograr juntos mediante una serie de eventos, colaboraciones y programas conjuntos de investigación.»

Una serie de acuerdos entre los miembros de WSTNet permitirá a los laboratorios pertenecientes a la red proporcionar apoyo a la investigación y el desarrollo de la ciencia de la web.

La red, con el fin de hacer progresar la ciencia de la web, organizará múltiples eventos, como seminarios, congresos, reuniones y escuelas de verano, e identificará oportunidades de financiación y participación en eventos públicos. También se encargará de la organización de una serie de congresos WebSci, el primero de los cuales se celebró en Atenas (Grecia) el año pasado.

«WSTNet ampliará nuestras capacidades globales de investigación de la ciencia de la web y asegurará que el tema se incluya en los planes de estudio universitarios», indicó la profesora Dame Wendy Hall, directora de gestión de WSTNet y una de las fundadoras de esta disciplina. «Seguiremos ampliando la red a otros institutos científicos que ya trabajan en la ciencia de la web.»

«Nos complace acoger a todos los laboratorios y esperamos generar avances fantásticos en el futuro», añadió la profesora Hall, quien también es miembro del Consejo Científico del Consejo Europeo de Investigación (CEI).

Los diez laboratorios fundadores de la WSTNet son la Universidad del Sur de California (Estados Unidos), el Instituto Tecnológico de Massachusetts (Estados Unidos), la Vrije Universiteit (Países Bajos), Digital Enterprise Research Institute (Irlanda), la Universidad de Coblenza-Landau (Alemania), el Instituto de Internet de Oxford (Reino Unido), la Universidad del Noroeste (Estados Unidos), el Laboratorio Científico de la Red Tsinghua-Southampton de Shenzhen (China), el Instituto Politécnico Rensselaer (Estados Unidos) y la Universidad de Southampton (Reino Unido).

Biochips contra agentes biológicos



El bioquímico Daniel Schabacker, del Laboratorio Nacional de Argonne, podría ser considerado el Sherlock Holmes del bioterrorismo. Aunque no lleva pipa ni lupa cuando intenta descubrir al culpable, tiene una herramienta de deducción mucho más poderosa: el biochip.

Usar biochips ofrece a Schabacker y sus colegas en la Universidad Loyola en Chicago, la posibilidad de determinar las "firmas" de agentes biológicos que pueden ser usados para actos de bioterrorismo, en especial la bacteria que causa el ántrax (carbunclo), Bacillus anthracis.

Aunque algunos científicos ya han usado análisis de ADN para identificar cepas particulares de la bacteria del ántrax, los biochips son capaces de ayudar de forma decisiva a los científicos y funcionarios gubernamentales a averiguar cómo han sido cultivadas las bacterias del ántrax analizadas, reduciendo así la cantidad de sospechosos potenciales.

Este proyecto, que comenzó hace menos de dos años, sirve como ejemplo del floreciente campo de la ciencia forense microbiana.

En la actualidad, la ciencia forense microbiana es una de las áreas más importantes en el contraterrorismo, y una de las herramientas más decisivas para hacer frente al bioterrorismo. El análisis proteómico que los investigadores del proyecto son capaces de realizar con sus biochips proporciona un conjunto de datos nuevo y diferente sobre agentes biológicos que no podía conseguirse antes. La técnica puede proporcionar a los expertos una "huella dactilar" completa del organismo, una información que los especialistas pueden entonces utilizar para identificar con más precisión el origen de dicho organismo.

Desarrollado originalmente como una herramienta de diagnóstico, el biochip consiste en una matriz de 1 centímetro por 1 centímetro que contiene entre varias docenas y varios cientos de "puntos", o pequeñas gotas. Cada una de estas gotas contiene un ácido nucleico, anticuerpo o proteína únicos que se asociará a un reactivo particular.

Microorganismos que viven a 80 grados bajo cero



Usando una disolución especial los microorganismos pueden sobrevivir largas temporadas a 80 grados bajo cero. Esto amplía las posibilidades de que exista vida en lugares fríos fuera de la Tierra.

Cuando queremos esterilizar algo lo sometemos a altas temperaturas. Hasta hace no tanto se creía que esta alta temperatura garantizaba la muerte de todos lo microorganismos. Sin embargo el hallazgo de extremófilos que viven a temperaturas de hasta 120 grados centígrados demostró que esto no era así. La condición era que la presión fuera lo suficientemente elevada como para que el agua no hirviera, algo que ocurría en el fondo del océano. Pero los investigadores creía que el límite inferior era infranqueable y que por debajo de cierta temperatura la vida era imposible, entre otras cosas porque el agua se congelaría y las membranas celulares se volvería rígidas.

Ahora un grupo de microbiólogos de Queen's University dirigidos por John Hallsworth ha demostrado que esto tampoco es cierto. Como hipótesis de partida consideraron que un soluto especial podría no solamente evitar la congelación del agua alrededor de los microorganismos, sino además evitar los efectos perniciosos de las bajas temperaturas.Se fijaron en el glicerol, que es usado naturalmente de forma rutinaria como protector de macromoléculas para así proteger las células de las bajas temperaturas. Este compuesto también se usa industrialmente como anticongelante, pues consigue rebajar la temperatura de congelación del agua si está disuelto en él a altas concentraciones. Es decir, produce un descenso crioscópico.

Así que se pusieron manos a la obra y usaron varios solutos con esta misma propiedad y observaron el crecimiento de extremófilos en dichas disoluciones. También experimentaron con solutos que tienen la justamente la propiedad contraria.
En estos experimentos usaron diferentes tipos de hongos tolerantes al frío, una clase de extremófilos que se puede encontrar en hábitats con poca agua. Estos organismos prosperaron igual de bien en ambos tipos de disoluciones cuando la temperatura era de 30 grados centígrados. Sin embargo, a 1,7 grados los microorganismos en el medio con agente crioscópico empezaron a prosperar mejor.

Después, estos investigadores sometieron a esporas de este hongo a una temperatura de 80 grados bajo cero en ambos tipos de disoluciones. Sólo el 5% de ellas tratadas con "disolución crioscópica" murieron, frente al 60% en el otro tipo de disolución.
Según Hallsworth el descubrimiento tendría implicaciones para la posible vida en otros cuerpos celestes distintos a la Tierra como Marte o Europa. En esos lugares se sabe que hay sustancias que pueden disminuir el punto de congelación cuando hacen de solutos, por lo que la gama de temperaturas a la que vida sería posible es mayor que lo pensado.

Richard Hoover, astrobiólogo de la NASA y no implicado en el estudio, está de acuerdo con la afirmación de Hallsworth, pero dice que los investigadores no deberían limitarse a estudiar microbios aeróbicos como esos hongos xerofílicos, pues la mayoría de los extremófilos se han encontrado viven en ambientes sin oxígeno.

Uno de los lugares donde más se ha realizado la búsqueda de microorganismos tolerantes al frío es la Antártida. La laguna de Don Juan en los valles secos de ese continente es un lugar interesante, ya que pudo haber lugares similares en Marte en su día o quizás incluso ahora haya algo similar en el subsuelo marciano.
Investigadores de la Universidad de Georgia han descubierto que en esa laguna debe haber algún mecanismo químico que produce óxido nitroso (potente gas de efecto invernadero también conocido como gas de la risa) e hidrógeno.

Esta laguna ha despertado cierta fascinación desde que fuera descubierta en los sesenta. Calificado como un lugar de singular belleza (lo comparan con un jardín Zen), se puede acceder a él en un viaje de 40 minutos en helicóptero desde una base cercana. Aunque tanto su extensión como profundidad ha variado a lo largo del tiempo, se puede estimar que mide unos 1000 metros de larga por unos 400 de ancha. Es el cuerpo líquido más salado de la Tierra, unas ocho veces más salado que el Mar Muerto. Esta elevada salinidad permite que la laguna no se congele completamente pese a las bajas temperaturas reinantes. A pesar de todo, desde hace ya mucho tiempo se sabe que en ese ambiente hay una rica flora microbiana que cuenta con hongos, bacterias y algas verde-azuladas.

Las rocas del lugar son además similares a las que se pueden encontrar en Marte, por lo que este sitio es ideal para estudiar la actividad microbiana en ambientes extremos, según Samantha Joye.Aunque no han descubierto metano u otros marcadores biológicos típicos, sí ha encontrado este óxido nitroso, cuyo mecanismo de producción no está todavía comprendido del todo.

Según especulan estos investigadores las rocas del lugar podrían reaccionar químicamente con el entorno, produciendo cierta variedad de compuestos, como óxido nitroso o hidrógeno. Este tipo de mecanismo también se podría dar en Marte, ser un componente importante en el ciclo del nitrógeno marciano y servir como una fuente importante de energía para hipotéticos microorganismos quimiosintéticos.



En 2009 se pudo observar la existencia de algo que parecían ser gotitas de agua líquida con las cámaras de la misión Phoenix, que en esa época estaba posada sobre el planeta rojo. La existencia de estas gotas se debería a la presencia de sales disueltas, que impedirían su congelación. Si finalmente esto se confirma, sería la primera vez que se fotografía agua líquida fuera de la Tierra.

Aquí en la Tierra estos investigadores tuvieron que usar unos trajes e instrumentos estériles para así no contaminar el ambiente accidentalmente, además de recoger la cantidad de material imprescindible para sus investigaciones.
En definitiva, podemos decir que el límite inferior de temperatura para la vida es simplemente aquel para el cual el agua ya no es líquida. Si disolvemos sustancias que impidan su congelación la vida se aferrará a esa gélida existencia, encontrando un camino para sobrevivir, como los microbios antárticos de la laguna Don Juan demuestran.

Proyecto GENNETEC



Un equipo de investigadores financiados con fondos comunitarios está ampliando los conocimientos científicos sobre los extremadamente complejos mecanismos que rigen la actividad de nuestros genes. Los resultados del proyecto comunitario GENNETEC («Redes genéticas: surgimiento y complejidad»), de tres años de duración, y al que se adjudicaron 1,48 millones de euros a través del área temática de Tecnologías de la Sociedad de la Información del Sexto Programa Marco (6PM), contribuirán a ampliar las posibilidades que ofrece la genómica gracias a nuevas formas de identificar los reguladores que controlan genes específicos.
CORDIS
Los genes de organismos tan variados como bacterias y seres humanos se activan y desactivan constantemente. La genómica es el estudio del funcionamiento de esta compleja maraña de genes y de los factores que los regulan.

Las moléculas que activan y desactivan los genes se denominan factores de transcripción o reguladores genéticos y la comunidad científica se esfuerza actualmente por averiguar los mecanismos por los que se rigen. El proyecto GENNETEC se propuso identificar qué factores de transcripción regulan qué genes.

Los factores de transcripción se unen a puntos específicos de un cromosoma para activar o desactivar genes de las inmediaciones. El patrón de actividad genética resultante es responsable del desarrollo de una célula o un organismo, sus funciones y sus respuestas a las adversidades y los estímulos del entorno. Un fallo en este proceso puede ser el desencadenante de enfermedades como el cáncer.

«Algunas enfermedades se pueden considerar un cambio incorrecto en la dinámica de una red de interacciones», explicó el Dr. François Képès, del Centro Nacional de Investigación Científica de Francia (CNRS) y coordinador de GENNETEC. «Por tanto, es indispensable conocer sus propiedades y comprender la forma de corregir o controlar su dinámica.»

Hasta hace poco, se buscaban secuencias cortas de ADN (ácido desoxirribonucleico) que se sabía que se unían a moléculas reguladoras específicas para tratar de encontrar correspondencias entre genes concretos y factores de transcripción posibles. Este método posee la desventaja de que sugiere un gran número de conexiones posibles que posteriormente resultan ser falsas.

Por eso el equipo de GENNETEC decidió seguir un nuevo método para estudiar los factores de transcripción. En un estudio anterior ya habían descubierto que los genes que responden a un mismo factor de transcripción se encuentran en muchos casos ubicados a intervalos regulares a lo largo de un cromosoma. Por consiguiente sospechaban que el agrupamiento de los factores de transcripción junto con los genes relacionados contribuye a optimizar su funcionamiento. Para demostrar que la ubicación de estos genes determina en parte la estructura de una cadena de ADN en particular, el equipo recurrió a simulaciones numéricas del plegamiento del ADN.

De este modo lograron identificar con mucha más eficiencia relaciones entre genes y factores de transcripción concretos. «La combinación de los dos predictores nos permite adivinar con mucha más precisión los reguladores de un gen concreto al reducir el número de correspondencias erróneas», explicó el Dr. Képès. «En líneas generales, doblamos la especificidad de la predicción.»

«Hemos descubierto que existe una clara conexión entre la estructura cromosómica y la expresión génica, una conexión que ahora somos capaces de predecir de una manera muy precisa y factible. Ahora estamos mejor equipados para comprender la regulación genética en células humanas con un coste más bajo y en menos tiempo.»

Uno de los socios de GENNETEC, NorayBio, empresa española de software orientado a las biociencias, ya está trabajando en un programa informático destinado a unificar el método de análisis de redes de genes empleado por la comunidad científica internacional. El consorcio de GENNETEC también ha elaborado su propia versión de este programa informático, en versión simplificada, que está disponible de forma gratuita.

El Dr. Képès considera que la labor investigadora del consorcio en torno a sistemas genómicos complejos es tan importante como el nuevo programa informático, puesto que puede aplicarse en varios campos, entre ellos sistemas de ingeniería. «Las células sólo disponen de un genoma, pero con ese genoma son capaces de resolver distintas situaciones», comentó. «Esta solución biológica puede darnos algunas ideas para elaborar una nueva generación de algoritmos de eficacia mejorada con los que abordar problemas complejos.»

Verifican a Escala Cósmica la Validez de la Teoría de la Relatividad de Einstein


Un equipo liderado por científicos de la Universidad de Princeton ha puesto a prueba la teoría de la relatividad general de Albert Einstein para ver si se cumple a escala cósmica. Y, después de dos años de análisis de datos astronómicos, los científicos han dictaminado que la teoría de Einstein, que describe la interacción entre la gravedad, el espacio y el tiempo, opera a grandes distancias tal como lo hace en las regiones locales del espacio.

El análisis de estos científicos sobre más de 70.000 galaxias demuestra que el universo, al menos hasta una distancia de 3.500 millones de años-luz de la Tierra, sigue las normas establecidas por Einstein en su famosa teoría.

Desde que el físico Arthur Eddington midió la curvatura de la luz de las estrellas alrededor del Sol durante un eclipse en 1919 y demostró la validez de la teoría de la relatividad general de Einstein, el mundo científico ha aceptado sus principios. Pero hasta ahora, nadie había puesto a prueba la teoría tan a fondo ni tan robustamente, a distancias y escalas que van mucho más allá del sistema solar.

En este trabajo, han intervenido Reinabelle Reyes, Rachel Mandelbaum y James Gunn de la Universidad de Princeton, Tobias Baldauf, Lucas Lombriser y Robert Smith de la Universidad de Zúrich, y Uros Seljak de la Universidad de California en Berkeley.

Los resultados del análisis son importantes porque respaldan las teorías actuales que explican la forma y dirección del universo, incluyendo las ideas más aceptadas sobre la Energía Oscura, y permiten descartar las sospechas que se despertaron a raíz de otros experimentos recientes que sugerían que la relatividad general podía estar equivocada.

Publicada por primera vez en 1915, la teoría de la relatividad general de Einstein sigue siendo un avance fundamental en la física moderna. Redefinió la comprensión humana del tejido de la existencia: La gravedad, el espacio y el tiempo.

La innovadora teoría mostró que la gravedad puede afectar al espacio y al tiempo, una cuestión crucial para comprender las fuerzas fundamentales de la física y los fenómenos naturales, incluyendo los agujeros negros.

Información adicional en: http://www.scitech-news.com/2010/04/princeton-scientists-say-einsteins.html

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX