Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 4 de febrero de 2011

Nueva tecnología para crear nuevas células


Según la Organización Mundial de la Salud (OMS), las lesiones graves causadas por el fuego provocan más de 320.000 muertes al año. Los expertos creen que la mayoría de estas muertes podrían evitarse gracias a la cirugía. Pero la intervenciones quirúrgicas se complican cuando no queda suficiente piel en el paciente quemado para poder hacer injertos en las partes más dañadas de su cuerpo. La nueva piel se debe cultivar a partir de células cutáneas del propio paciente, un largo proceso que puede acarrear deshidratación e infección. Los científicos descubrieron que se pueden utilizar materiales poliméricos (sintéticos), conocidos por su amplia gama de propiedades y que se encuentran en plásticos, biopolímeros y proteínas, para hacer crecer células humanas y que éstas se multipliquen, pero con resultados poco eficaces.
CORDIS
Para dar con una solución se creó el proyecto ModPolEUV, que reunió a investigadores de Austria, República Checa y Polonia para desarrollar con éxito una forma nueva y sencilla de crear materiales nanoestructurados que facilitan el desarrollo de células humanas. ModPolEUV cuenta con el apoyo de EUREKA, la plataforma europea de investigación y desarrollo (I + D).

«Hace unos diez años, los científicos descubrieron la gran influencia que tenían las nanoestructuras sobre la manera en que se desarrollaba una línea de células», explicó el coordinador del proyecto, el profesor Johannes Heitz de la Universidad de Linz (Austria). «Fue el comienzo de un nuevo campo científico, a medio camino entre la medicina y la nanotecnología.»

La Universidad Militar de Tecnología de Varsovia (Polonia) dirigió el desarrollo de una nueva tecnología láser llamada EUV (ultravioleta extremo) que permitió crear superficies de polímeros nanoestructurados. En cuanto al socio de la República Checa, REFLEX, éste diseñó un espejo que forma un haz de luz EUV que, dirigido sobre una superficie, permite sintetizar los nuevos materiales poliméricos.

Gracias a esta técnica innovadora, los investigadores pueden garantizar un alto grado de precisión, de entre 10 y 20 nanómetros. Las mejores técnicas tradicionales pueden obtener un nivel de precisión máximo de 100 nanómetros.

«Una de las últimas teorías en el campo de cultivo de células es que cuanto menor sea la estructura, mayor será la posibilidad de manipular las células», afirmó el profesor Heitz. Una gran ventaja con la técnica UVE es que la estructura del material se conserva, un aspecto en el que suelen fallar los métodos convencionales.

«Si el material se va a utilizar para cultivar células humanas, es esencial que la estructura sea regular», explicó el profesor Henryk Fiederowicz de la Universidad Militar de Tecnología.

Cabe señalar que las nanoestructuras generadas con tecnología UVE pueden afectar el comportamiento de las células orgánicas. Según los miembros del equipo, dependiendo del tipo de superficie de polímero utilizado se pueden mejorar y acelerar los cultivos de otros tipos de células. El material que se utilice para cultivar células madre humanas determinará cómo dichas células se transformarán en otro tipo de células humanas. «El uso de un tipo de material polimérico u otro nos ayudará a cultivar diferentes tipos de células musculares, nerviosas, células adaptadas al corazón humano, los huesos o a cualquier otra parte del cuerpo humano», añadió el profesor Heitz.

Los socios entienden que esta nueva técnica se puede aplicar en muchos ámbitos diferentes, incluida la biotecnología, la microelectrónica y la óptica integrada. Si bien la tecnología de cultivo de células se encuentra todavía en fase de prueba, el equipo dice que los resultados son «hasta ahora, muy alentadores».

Diseñan nanopartículas para prevenir ataques cardíacos


Las técnicas actuales que permiten diagnosticar problemas en el corazón obligan a los pacientes a pasar largas horas en el hospital para confirmar si su dolor de pecho es un posible ataque al corazón. Frente a este problema, especialistas médicos han elaborado unas microcápsulas de metal que ayudan a identificar los coágulos de sangre mediante un nuevo escáner de rayos X. Según sus creadores, este avance podría presentar nuevos enfoques para tratar la enfermedad coronaria.
| TENDENCIAS CIENTÍFICAS
El desarrollo científico con nanotecnología continua siendo tema de interés para los investigadores modernos. En esta ocasión, un grupo de profesionales de la Universidad de Washington y su Escuela de Medicina en St. Louis anunció la creación de nanopartículas que tienen como finalidad identificar coágulos sanguíneos y hacerlos visibles gracias a una nueva tecnología de rayos X. Para los expertos, el objetivo principal de esta novedosa técnica es prevenir en un breve lapso de tiempo ataques cardíacos, de acuerdo a un informe hecho público en la web de dicha institución.

Las partículas elaboradas a una escala menor que un micrómetro están diseñadas para utilizarse mediante un novedoso escáner capaz de detectar los metales con un color llamativo. Esta tecnología es llamada CT espectral, que usa el espectro completo del haz de rayos X para diferenciar objetos que con un CT tradicional resulta imposible, ya que sus imágenes son reflejadas en blanco y negro.

Para Gregorio Lanza, cardiólogo de la Universidad de Washington en el Barnes-Jewish Hospital, con estas nanopartículas los especialistas podrán saber si una persona que llega al hospital con dolor en el pecho es en realidad un posible ataque al corazón.

"Cada año millones de personas acuden al hospital con dolor torácico. En algunos casos sabemos que no es su corazón, pero en otros no estamos seguros", explicó el profesor Lanza. "Cuando hay alguna duda, el paciente debe ser ingresado al hospital y someterse a pruebas para descartar o confirmar un ataque al corazón. En esos casos, los ensayos clínicos cuestan dinero y toman su tiempo", informó el experto.

"En lugar de pasar la noche para asegurarse de que el paciente está estable, esta nueva tecnología podría revelar la ubicación de un coágulo sanguíneo en cuestión de horas", concluyó Lanza satisfecho por el avance.

El éxito del trabajo reside en el compuesto bismuto que portan las nanopartículas. El bismuto es un metal cristalino, blanco grisáceo, duro y quebradizo. El profesor Dipanjan Pan, asistente de investigación de medicina, diseñó esta nanopartícula con este metal en su interior para que pueda ser percibida por el escáner CT espectral.

"Cada nanopartícula contiene un millón de átomos de bismuto", informó Lanza. "Esta enorme cantidad de metal es necesario para que las partículas sean visibles en el escáner". El nuevo dispositivo se aprovecha de la misma física que los astrónomos utilizan para mirar la luz de una estrella y confirmar la cantidad de metales que contiene. "Ellos buscan en el espectro de rayos X y este sistema les muestra los metales que hay en una estrella. Eso es exactamente lo que hacemos nosotros".


Fibrina al descubierto

Un vez terminado el diseño de las nanopartículas con bismuto suficientes como para ser apreciadas desde el escáner, el profesor Pan añadió una molécula a la superficie de las partículas encargada de buscar una proteína llamada fibrina. La fibrina es común en los coágulos de sangre y no se encuentra en otras partes del sistema vascular. Normalmente se encuentra en la sangre en una forma inactiva, el fibrinógeno, el cual por la acción de una enzima llamada trombina se transforma en fibrina, que tiene efectos coagulantes.

Con una imagen de CT tradicional en blanco y negro no es posible observar donde se halla el coágulo, sin embargo, una imagen de CT espectral con el bismuto de nanopartículas dirigidas hacia la fibrina hace que cualquier coágulo de sangre sea visible. Así, desde el escáner, se puede apreciar el coágulo de color, como el verde y el amarillo, diferenciándose, por ejemplo, de las placas de calcio (ver imagen).

El escáner CT espectrales utilizado en este estudio sigue siendo un instrumento prototipo, desarrollado por Philips Research en Hamburgo (Alemania). Las nanopartículas sólo se han probado en conejos y otros animales, pero con los primeros resultados se pueden distinguir los coágulos de sangre de las placas de calcio.

Gracias a que las nanopartículas se pegan a la fibrina de los vasos sanguíneos, los médicos podrán ver los problemas que anteriormente eran difíciles o imposibles de detectar. Con esta técnica de imagen, Lanza predice nuevos enfoques para tratar la enfermedad coronaria. Además prevé tecnologías que podrían actuar como curitas, sellando los puntos débiles.

"Hoy en día, no sabría dónde pegar las curitas", sostiene Lanza. "Sin embargo, la TC espectral con nanopartículas de bismuto muestra la ubicación exacta de coágulos en los vasos", concluyó.


Coagulación sanguínea

Se denomina coagulación al proceso, por el cual, la sangre pierde su liquidez, tornándose similar a un gel en primera instancia y luego sólida, sin experimentar un verdadero cambio de estado.

El coágulo de sangre se forma cuando las plaquetas de la sangre, las proteínas y las células se pegan entre sí. Cuando un coágulo de sangre se adhiere a la pared de un vaso sanguíneo, se llama trombo. Cuando se mueve por el torrente sanguíneo y bloquea el flujo de la sangre hacia otra parte del cuerpo se llama émbolo. Un ejemplo muy conocido es la embolia pulmonar que ocurre cuando un émbolo se atasca en los pulmones.

La enfermedad de la arteria coronaria es la causa más común de muerte repentina entre hombres y mujeres sobre los 20 años de la edad. Según las actuales tendencias, en los Estados Unidos la mitad de los varones sanos de 40 años tienden a desarrollar en el futuro esta enfermedad, mientras que las mujeres 1 de cada 3 a partir de los 40 años.

Un nuevo sistema permite controlar la radio del coche y otros sistemas con el dedo índice


Una nueva interfaz gestual experimental para coches permite al conductor controlar cualquier parte de su tablero de instrumentos sin quitar las manos del volante. Christian Müller, investigador del Centro Alemán de Investigación de Inteligencia Artificial (DFKI) en Saarbrücken, quien codesarrolló el nuevo sistema, indica que la idea es permitir a los conductores ajustarlo todo, desde el volumen de la radio del coche a la configuración de la climatización sin quitar las manos del volante ni la vista de la carretera.

El prototipo de interfaz utiliza varios sensores para detectar el movimiento del dedo índice derecho del conductor, cuando éste interrumpe un campo eléctrico. Se basa en el mismo principio que el theremin, un instrumento musical que se toca sin ser tocado físicamente. Unos sensores electromagnéticos situados en el tablero de instrumentos detectan el movimientos de los dedos, siempre que el conductor tenga las manos colocados en el volante en la posición recomendada de a las diez y a las dos y vaya recto. Realizando un seguimiento de las diferentes formas que el dedo del conductor dibuja en el aire, el sistema puede detectar e interpretar una amplia gama de comandos, afirma Müller.

Müller lo probó con su colaborador del DFKI, Christoph Endres y con Tim Schwartz de la Universidad de Saarland, también en Alemania. Los investigadores utilizaron un simulador de conducción. "En nuestro prototipo pegamos las antenas en el panel de instrumentos, justo detrás del volante", indica él.

El sistema, apodado Geremin, fue probado por seis personas. Fue capaz de reconocer 10 gestos diferentes, incluyendo el movimiento del dedo hacia arriba o abajo, izquierda o derecha, o trazando círculos, triángulos y cuadrados, con una precisión del 86 por ciento. El trabajo será presentado la próxima semana en la Conferencia Internacional sobre Interfaces de Usuario Inteligentes en Palo Alto, California.

Algunos automóviles ya disponen de botones y otros controles integrados en el volante o unidos a la columna de dirección, acepta Müller, pero los botones son más limitantes que los gestos. "Mientras que ciertamente puede haber un cierto número de botones designados para algunas pocas funciones o aplicaciones seleccionadas, el número de gestos se puede ampliar", comenta él.

El sistema debería ser mucho más barato que la instalación de cámaras para controlar los movimientos del conductor, algo que actualmente ya están haciendo algunos fabricantes de automóviles. El coste de cada sensor es de unos 50 céntimos de dólar.

"Es una idea interesante. Podría ser útil," comenta Paul Green, investigador del Grupo de Interfaz del Conductor del Instituo de Investigación de la Universidad de Transporte de Michigan. No obstante, si bien puede ayudar a mantener las manos de un conductor en el volante, los errores de reconocimiento podrían ser otro tipo diferente de distracción, añade él. "Además, si cada fabricante tuviera un conjunto de gestos diferente, la interfaz supondría un problema real", afirma él.

Los investigadores alemanes esperan ampliar el conjunto de gestos de forma significativa. "Vamos a combinar estos gestos con el reconocimiento de voz con el fin de permitir a las personas dictar mensajes de texto en el coche", destaca Müller.

No obstante, hay escépticos. Andrew Howard, responsable de seguridad vial de la Asociación de Automóviles del Reino Unido, afirma que la perspectiva de ofrecer a los conductores la capacidad de escribir mensajes de texto es "espantosa". "No debemos alentar a la gente a hacer otra cosa que conducir mientras se está conduciendo", afirma él.

El dictado de los mensajes de texto "no es algo que queramos fomentar", afirma Green, agregando que "creo que observaremos que el flujo de producción podría ser más rápido utilizando el reconocimiento de voz."

¿Cómo se alimentan los agujeros negros gigantes?


Un nuevo estudio ha obtenido una visión sin precedentes de los hábitos alimenticios de los agujeros negros gigantes, que son los responsables de los objetos más brillantes del universo: los núcleos galácticos activos (AGNs). Modelos anteriores habían sugerido que las fusiones entre galaxias eran la clave para dirigir la materia a estos agujeros negros. Pero este estudio sistemáticos de 1400 galaxias - la mayor muestra jamás examinada para este propósito - presenta sólidas evidencias de que, al menos durante los últimos 8000 millones de años, los agujeros negros han adquirido su alimento de forma más pacífica. El nuevo estudio se publica en la revista Astrophysical Journal el 10 de enero.

CIENCIAKANIJA
TLas emisiones de los núcleos galácticos activos están dirigidas por la materia que cae en el agujero negro central supermasivo de la galaxia. Pero es una cuestión abierta en la física de las galaxias activas cómo esta materia atraviesa los últimos cientos de años luz para alcanzar la vecindad inmediata del agujero negro y ser absorbida.

ras un estudio realizado por David Sanders y sus colaboradores a finales de la década de 1980, la mayor parte de astrónomos pensaban que tenían la respuesta: Las fusiones entre galaxias de tamaño similar ("grandes fusiones") perturbarían drásticamente el gas de las galaxias, y harían que parte del mismo cayese al agujero negro central.

Aunque éste es un escenario plausible, sólo un estudio sistemático puede demostrar si éste es el caso o no a cómo los agujeros negros gigantes logran su alimento. Esto es lo que Mauricio Cisternas y Knud Jahnke del Instituto para Astronomía Max Planck (MPIA) se propusieron hacer en 2008. Según explica Cisternas: "Un estudio de esta amplitud ha sido posible sólo hace poco, con los grandes estudios que se están llevando a cabo con el Telescopio Espacial Hubble. Antes, simplemente no había forma de examinar con suficiente detalle muchas de las galaxias activas a las grandes distancias cósmicas".

Cisternas y sus colaboradores obtuvieron datos para los 140 AGNs, identificados por tales observaciones en rayos-X por el Telescopio Espacial XMM-Newton como parte del estudio COSMOS en múltiples longitudes de onda. La luz procedente de los más distantes de estos AGN ha estado viajando durante casi 8000 millones de años hasta llegar a nosotros (desplazamiento al rojo de z=1): Vemos esos AGN como eran hace 8000 millones de años, y la muestra estudia la mayor parte del crecimiento de los agujeros negros durante la segunda mitad de la historia cósmica.

Lo que hace especial a este estudio es la forma sistemática en que los astrónomos seleccionaron un "grupo de control" de galaxias comunes sin un agujero negro activo - en otras palabras, que no tendían un agujero negro tragando copiosas cantidades de materia. Para cada uno de los AGNs del estudio, se seleccionaron nueve galaxias no activas a aproximadamente el mismo desplazamiento al rojo, y por tanto en aproximadamente la misma etapa de evolución cósmica, a partir de la misma imagen de Hubble, para un total global de 1400 galaxias. Este procedimiento de selección permitió una comparación directa entre AGNs y una población de galaxias comunes inactivas.

El signo revelador de que una galaxia ha sufrido una gran fusión a lo largo de los últimos cientos de millones de años es la distorsión de su forma. Para galaxias tan lejanas, con imágenes de la resolución dada, una identificación automática computerizada del grado de distorsión no puede, actualmente, competir con la inspección visual de las imágenes por parte de los astrónomos. El coautor Knud Jahnke (MPIA) dice: "Nos enfrentábamos con el problema del sesgo. Sabíamos que las fusiones eran un posible director de la actividad del AGN, por lo que ¿seríamos más propensos a clasificar AGNs como distorsionados debido a que era lo que esperábamos encontrar?"

Para eliminar este posible sesgo, los investigadores configuraron un estudio ciego - un procedimiento de operación estándar en campos como la medicina o la psicología, pero inusual en astronomía. Cisternas eliminó los signos reveladores de actividad galáctica por lo que no habría forma de distinguir directamente las imágenes de las galaxias activas e inactivas.

Las imágenes se dieron entonces a diez expertos en galaxias con sede en ocho instituciones diferentes, a los que se pidió que juzgaran cada galaxia como "distorsionada" o "no distorsionada". Aunque sus juicios individuales mostraron una variación significativa, hubo unanimidad en la cuestión clave: Ninguna de las clasificaciones mostraba una diferencia significativa entre AGN y galaxias inactivas. No había una correlación significativa entre la actividad de una galaxia y su distorsión, entre que su agujero negro estuviese siendo bien alimentado y su implicación en una gran fusión.

Aunque las fusiones son un fenómeno común, y se cree que desempeñan un papel importante en al menos algunos AGN, el estudio demuestra que no proporcionan un mecanismo ni universal ni predominante para alimentar los agujeros negros. Según las estadísticas del estudio, al menos el 75%, y posiblemente la totalidad de actividad AGN de los últimos 8000 millones de años debe tener una explicación diferente. Las posibles formas de transportar material hacia un agujero negro central incluyen inestabilidades de estructuras como una barra en una galaxia espiral, las colisiones con nubes moleculares gigantes dentro de la galaxia, o el sobrevuelo de otra galaxia que no llevó a una fusión ("acoso galáctico").

¿Podría aún haber una conexión causal entre las fusiones y la actividad en el pasado más lejano? Esta es la siguiente pregunta que el grupo quiere abordar. Se espera que lleguen datos adecuados de dos programas observaciones en curso ("Multi-Cycle Treasury Programs") con el Telescopio Espacial Hubble, así como de observaciones de su sucesor, el Telescopio Espacial James Webb, que está previsto para su lanzamiento después de 2014.

En septiembre se agotarán las direcciones IPV4 comenzarán a darse las IPV6


4.300 millones de direcciones IP, es el número de direcciones posibles en el protocolo actual IPV4. Un número que uno de los creadores de Internet consideró más que suficiente para el resto de nuestra historia, pero que ya hemos consumido casi por completo.

Digo casi por completo porque la IANA (organización que gestiona las direcciones IP a nivel mundial) hoy publica que en septiembre, las direcciones IPV4 se agotarán, ya que el último bloque de direcciones (33 millones) se ha entregado a la organización encargada de asignar IPs en Asia, un mercado que como sabréis, está en auge y no tardará en consumirlas todas.

Por este motivo, a partir de septiembre, a cualquiera que necesite una dirección IP nueva, se le asignará una dirección IPV6, por lo que las agencias que gestionan estos datos, instan a que los webmaster de todo el mundo comiencen a adaptar sus infraestructuras al nuevo protocolo IPV6.

Esta tarde tendrá lugar una conferencia en directo vía streaming, donde las mayores organizaciones estadounidenses, comentarán los pasos a dar en la transición del iPV4 al IPv6 en la siguiente dirección:

http://www.nro.net/news/icann-nro-live-stream

Un toque desde el cielo


He hablado en el blog en varias ocasiones sobre el acceso a Internet en vuelo, un servicio que en Europa, a pesar de los numerosos intentos, no despega (un juego de palabras muy malo, lo sé). En Estados Unidos GoGo ha sido la única compañía que parece haber dado con la fórmula y desde hace dos años es normal encontrar conexión a Internet en muchos de los vuelos nacionales. Se agradece, sobre todo, cuando se cruza de la costa este a la oeste, un trayecto que puede durar lo mismo que el vuelo de Madrid a Nueva York.

Por supuesto no es barato. Acceder a la red cuesta unos 12 dólares por trayecto. Si vas a volar varias veces al mes sale a cuenta coger un bono mensual de unos 30 dólares al mes. El servicio, sin embargo, ha demostrado ser una buena plataforma publicitaria y de vez en cuando hay agradables excepciones. Google, por ejemplo, ha regalado el acceso a los pasajeros durante las navidades de los dos últimos años.

Esta semana Ford y GoGo han llegado a un acuerdo para ofrecer acceso gratuito en varias rutas y compañías aéreas. El acceso eso sí, está limitado. No a la página de Ford sino a Facebook. Navegar por la red social en vuelo será gratuito durante los próximos meses.

Llevo varios meses tratando de analizar cuál es la situación del acceso a Internet en vuelo en Europa. Lo cierto es que después de las pruebas piloto y vuelos de prueba que muchas compañías aéreas hacen ninguna caba desplegando un servicio comercial real. El método de GoGo es bastante ingenioso porque no requiere el uso de satélites. El avión tiene salida a Internet a través de una red de telefonía 3G instalada en tierra con antenas especiales distribuidas por el territorio americano.

En principio lo mismo se podría hacer en Europa para vuelos continentales aunque no me consta ninguna iniciativa de este tipo. La alternativa, el acceso por satélite, se ha probado en varias ocasiones con diferentes niveles de éxito. Muchos de los proyectos quedaron congelados tras la revisión de normas de seguridad aérea a raíz de los ataques del 11 de Septeimbre en EE.UU. y algunos programas piloto, como el que ofrecía Lufthansa junto a Boeing, acabaron cerrando por falta de viabilidad económica.

Ahora Lufthansa ha resucitado este acceso bajo el nombre de FlyNet, todavía disponible en muy pocos vuelos pero con la ventaja de que el servicio funciona en vuelos intercontinentales gracias al acceso por satélite aunque evidentemente el precio es mucho mayor. Una hora de acceso cuesta 11 euros y para vuelos largos existe la posibilidad de acceder a una tarifa diaria de 20 euros. La velocidad no es muy alta -más o menos como un ADSL básico- pero suficiente para navegar por la red. En un vuelo de 6 o más horas, la verdad, se agradece.

Google ofrece 20.000 dólares al primero en 'hackear' Chrome


Google ha decidido participar como patrocinador en el concurso anual Pwn2Own. Se trata de un evento en el que los participantes compiten por vulnerar la seguridad de distintos programas, entre ellos Chrome. El departamento de seguridad de Google ha decidido premiar con 20.000 dólares (14.671 euros) al primer participante que consiga superar las defensas de su navegador.

El Pwn2Own es un concurso organizado por la empresa de seguridad informática TippingPoint. El evento se celebra desde 2008 y reúne a los 'hackers' más importantes del mundo. Durante tres días se presentan novedades de seguridad y se pone a prueba el potencial de los asistentes retándoles a 'hackear' distintos sistemas. El año pasado, tres de los grandes navegadores, Firefox, Internet Explorer y Safari, fueron 'hackeados'. El único que consiguió resistir fue Chrome, de Google.

Los organizadores del evento han confirmado en su blog que este año cuentan con el patrocinio de Google. La compañía se ha comprometido a patrocinar el evento donando 20.000 dólares. El usuario que consiga vulnerar la seguridad del navegador de Google en primer lugar conseguirá este premio. Las reglas son que debe encontrar un 'bug' (fallo) dentro de los elementos puestos a disposición en el 'sandbox' (banco de pruebas) utilizando únicamente vulnerabilidades presentes en el código escrito por Google. Además, TippingPoint contribuirá con otros 105.000 dólares en premios.

El evento de este año, al igual que el del año pasado, se centrará en dos tecnologías: navegadores web y dispositivos móviles. Desde TippingPoint explican que lo que tratan es de "demostrar empíricamente la postura actual respecto a la seguridad de los productos actuales más corrientes".

Los competidores, que ya pueden registrarse, tendrán 30 minutos para completar su intento de 'hackeo'. Quien consiga 'hackear' un navegador obtendrá un premio de 15.000 dólares, el ordenador desde el que trabajó y 20.000 puntos ZDI (Zero Day Initiative).

En cuanto a los dispositivos móviles (un Dell Venue Pro con Windows Phone 7, un iPhone 4 con iOS, una BlackBerry Torch con BlackBerry 6 OS y un Nexus S con Android), deberán 'hackearse' sin que apenas se interactúe con ellos y deberán verse comprometidos datos útiles del teléfono. También se aceptarán 'hackeos' que supondrían un coste para el dueño del dispositivo, como efectuar llamadas a larga distancia sin su consentimiento. Al igual que con los navegadores, el premio será de 15.000 dólares, el dispositivo y 20.000 puntos ZDI.

El Pwn2Own de 2011 tendrá lugar en Vancouver. Los organizadores han confirmado que el evento se desarrollará los días 9, 10 y 11 del próximo mes de marzo. Las novedades sobre el evento se pueden seguir a través del blog de TippingPoint o el tema #Pwn2Own en Twitter.

Alerta ecológica en el Amazonas por dos graves sequías en cinco años


Un nuevo estudio muestra que la sequía sufrida en la cuenca del Amazonas el verano pasado puede haber sido incluso más dañina para los bosques de la región que la sequía inusualmente fuerte de 2005, que fue considerada entonces como un fenómeno de esos que ocurren una vez en un siglo. Ahora, se han sucedido dos periodos de extrema sequedad en un lustro.

El análisis de la lluvia caída en cinco millones de kilómetros cuadrados de la Amazonía durante la estación seca de 2010 se publica en la revista 'Science' esta semana y muestra que la sequía fue más dispersa que la de 2005.

El equipo de investigadores, formado por expertos británicos y brasileños, también calculó el impacto de esta sequía sobre el ciclo de carbono de los bosques. Como es sabido, los árboles capturan el CO2 del aire (el principal gas de efecto invernadero) y lo incorporan a sus tejidos. El carbono se libera de nuevo a la atmósfera cuando los árboles arden y también cuando se pudren, aunque en esta caso la emisión es mucho más lenta.

Según los autores, durante la sequía de 2005 los bosques amazónicos liberaron unos 5.000 millones de toneladas de CO2, debido a que el clima extremo provocó la muerte de muchos ejemplares. Y durante la sequía de 2010 la cantidad de carbono emitido puede haber sido incluso mayor. Hay que tener en cuenta que cantidades de ese calibre equivalen a las que produce un país como EEUU en todo un año. En 2009, por ejemplo, ese estado produjo unos 5.400 millones de toneladas de CO2.

Los autores sugieren en su artículo que si las sequías de este tipo se hacen más frecuentes, el Amazonas dejará de funcionar como un sumidero de las emisiones producidas por el hombre, tal y como ha sido hasta ahora.
Sequías inusuales

El autor principal, Simon Lewis, de la Universidad de Leeds, afirma en una nota distribuida por el servicio de noticias científicas Eurekalert: "Observar dos eventos de esta magnitud en un periodo de tiempo tan breve es extremadamente inusual, pero por desgracia es un hecho que concuerda con los modelos climáticos que proyectan un futuro oscuro para la Amazonia".

La cuenca del Amazonas abarca terrenos de seis países sudamericanos y cubre una extensión de hasta siete millones de kiómetros cuadrados, lo que equivale a 14 veces España. Otros estudios de la Universidad de Leeds habían estimado que esa amplia zona de bosque ecuatorial funciona como un receptor de CO2 atmosférico y en años meteorológicos normales llega a absorber unos 1.500 millones de toneladas. Aunque en muchas partes del Amazonas también se emite CO2 debido a la deforestación, las talas y los fuegos, el saldo total es positivo. La cuenca contribuye así a frenar el calentamiento global ya que funciona como receptora de los gases de efecto invernadero producidos en otros lugares.

Sin embargo, no fue así en 2005. La extrema sequía provocó la muerte de muchos árboles. Los estudios de campo demostraron que en esa época extrema los bosques ralentizaron su metabolismo y dejaron de absorber CO2 del aire. Al mismo tiempo, los árboles muertos y en descomposición liberaron carbono. En su momento, los meteorólogos describieron aquella sequía, que afectó especialmente al suroeste de la cuenca, como un evento extremo de los que ocurren una vez cada siglo. Pero cinco años después, la región ha sido golpeada por otra sequía similar que provocó que el nivel del agua en los cauces llegara a mínimos históricos, como es el caso del río Negro, uno de los principales tributarios, que registró su peor medición histórica.

El estudio recién publicado, liderado por el británico Lewis y el brasileño Paulo Brando, del Instituto de Pesquisa Ambiental da Amazonia (IPAM), empleó la relación conocida entre la intensidad de la sequía de 2005 con la muerte de árboles para estimar el efecto producido por la recién terminada escasez de lluvias de 2010.
Descomposición de árboles

Los científicos creen que, debido al estado de estrés que ha sufrido la selva durante este periodo de falta de lluvias, no va a ser capaz de absorber CO2, tal y como hace habitualmente. Eso ocurrió en 2010 y también pasará en 2011. Además, aseguran que en los próximos años el Amazonas emitirá unos 5.000 millones de toneladas de carbono provenientes de los árboles muertos que entrarán en fase de descomposición.

El doctor Brando, afirma: "No podremos saber exactamente cuántos árboles han muerto hasta que no completemos el trabajo de observación directa en el campo. Puede ser que muchos de los árboles más sensibles a la sequía ya murieran en 2005, lo que podría reducir el número de los desaparecidos en 2010. Pero por otro lado, la primera sequía pudo dejar debilitados un gran número de ejemplares, y éstos quizá no han resistido el segundo golpe recibido en 2010".

Brando afirma que el estudio debe verse como una "estimación inicial". De hecho, el cálculo de emisiones no incluye las proveniente de los fuegos, que se extendieron por numerosas áreas durante los días de calor y falta de agua. Esos fuegos liberaron grandes cantidades de carbono de forma súbita". Algunos modelos climáticos indican que las sequías en el Amazonas como consecuencia del calentamiento global.

El doctor Lewis añade: "La sucesión de dos sequías extremas e inusuales en menos de una década sirve de sobra para anular el CO2 absorbido por los bosques intactos durante ese mismo tiempo. Si fenómenos como éste empiezan a ocurrir más a menudo, la selva amazónica llegará a un punto en el que dejará de ser un valioso almacén de carbono capaz de ralentizar el cambio climático a convertirse ella misma en un punto de emisión capaz de acelerar el fenómeno".

Todavía hay considerables incógnitas sobre el impacto del cambio climático en el Amazonas. Este nuevo estudio se añade a un cuerpo de evidencias que sugieren que las sequías severas se harán más frecuentes, acarreando importantes consecuencias para los bosques amazónicos. Si los gases de efecto invernadero contribuyen a las sequías del Amazonas, que a su vez provocan incendios y muerte de árboles que producen CO2, este es un proceso de retroalimentación sumamente preocupante", dicen los autores.

Un diminuto animal con más genes que el ser humano


La pulga de agua ('Daphnia pulex'), un pequeño crustáceo que ha sudo usado durante décadas para analizar las variaciones ambientales en los ecosistemas, se ha convertido en el animal con mayor número de genes de cuantos se han analizado hasta ahora. Según un estudio publicado en la revista 'Science', contiene más de 30.000 genes, casi 10.000 más que el ser humano. Con este trabajo, la pulga de agua se ha convertido en el primer crustáceo cuyo genoma ha sido descifrado.

Élie Metchnikoff basó en este animal los estudios sobre el sistema inmune que le valieron el premio Nobel en 1908 por el descubrimiento de la actividad de los macrófagos ante el ataque de un parásito. Y Richard Woltereck, que desarrolló la idea de la plasticidad fenotípica -es decir, la capacidad que tienen los organismos de variar sus características en función de las condiciones ambientales-, también utilizó el mismo modelo biológico para sus investigaciones.
'Daphnia magna'. | Science

'Daphnia magna'. | Science

Con este bagaje científico, ¿cómo es que resulta tan desconocido para el público no investigador este animal? No tiene una respuesta fácil, pero lo cierto es que su popularidad está lejos de la alcanzada por modelos animales como la 'Drosophila melanogaster' y su nombre apenas suena fuera de los ámbitos científicos más especializados.

Quizá una posible respuesta es que, a pesar de ser una especie cobaya desde hace muchas décadas, los trabajos para estudiar su patrimonio genético comenzaron ya en el siglo XXI.

Por ese motivo, los autores del trabajo, liderados por el investigador del Centro de Genómica y Bioinformática de la Universidad de Indiana (EEUU) John Colbourne, que descifraron su ADN completo quedaron asombrados al comprobar el enorme número de genes contenido en un genoma llamativamente pequeño para tal cantidad de información genética. La pulga de agua contiene un tercio más de información en su ADN que el ser humano, pero apiñado en un recipiente -un genoma- 15 veces menor que el del hombre.



Colbourne y su equipo comprobaron que esto es debido al inusualmente largo repertorio de genes duplicados que posee y a la alta proporción de genes exclusivos del género 'Daphnia'. El 36% de los genes de la pulga de agua son exclusivos de este grupo y eran desconocidos para la ciencia hasta ahora. Además, el análisis de la expresión de esos genes exclusivos reveló a los autores que estaban ante los genes más sensibles a los retos ambientales de cuantos se han analizado hasta la fecha.

El hallazgo permitirá a los científicos el uso de este animal como modelo para conocer en mayor profundidad la respuesta de los genes a las variaciones de las condiciones ambientales dentro de un contexto evolutivo.

La invisibilidad ya es posible


La recurrente aspiración de "Tierra, trágame" nunca estuvo tan cerca de hacerse realidad. Aunque todavía estamos lejos de conseguir la invisibilidad de las películas de ciencia ficción, la Física ya es capaz de ocultar al ojo humano pequeños objetos. El artificio que lo hace posible es la polarización de la luz en un mineral cristalino, la calcita.

Este 'manto' de invisibilidad es el primer dispositivo capaz de ocultar objetos dentro del espectro de luz visible y es el resultado de una investigación publicada en la revista 'Nature Communications'. Los responsables del descubrimiento son un grupo de científicos de la Universidad Birmingham (Inglaterra) liderados por Shuang Zhang, con la ayuda de la Universidad Técnica de Dinamarca y la colaboración de sir John Pendry, del Imperial College de Londres.
Cómo funciona

El dispositivo que hace desaparecer pequeños objetos -como alfileres o clips- se compone de dos cristales de calcita, un mineral que se da de forma natural. Una de las propiedades de la calcita es la polarización de la luz. Cuando un rayo de luz incide en la calcita se desdobla en dos rayos, polarizados en direcciones perpendiculares y con velocidades diferentes.

Los científicos colocaron dos prismas de calcita unidos en forma piramidal por la parte superior y emplearon oro para favorecer la reflectancia. Como resultado, los elementos colocados entre los dos cristales de la pirámide desaparecen. Los rayos de luz polarizada son refractados y el observador ve 'desaparecer' los objetos. Abracadabra, 'magia' del siglo XXI.
Un largo camino hacia la invisibilidad

Desde 2006 la Física ha logrado grandes avances en este campo de estudio. Entonces, el pistoletazo de salida corrió a cargo de un grupo de científicos liderados por sir John Pendry, quienes describieron una técnica llamada óptica de transformación. Esta técnica permite controlar la luz y otras ondas electromagnéticas de modo que los expertos podrían diseñar materiales que desaparecieran ante nuestra vista.

El equipo liderado por Zhang ha continuado la búsqueda de la invisibilidad con ayuda del propio Pendry, aunque el 'manto' de invisibilidad aún requiere más investigación y desarrollo.

Uno de los mayores inconvenientes del nuevo descubrimiento de Zhang y sus colegas es que, aunque el artilugio oculta objetos, el artefacto en sí es totalmente visible. No obstante, el científico de la Universidad de Birmingham explica que tal vez se pueda cubrir de alguna manera en el futuro. De hecho, pruebas de laboratorio han demostrado que bajo el agua el invento de calcita pasa casi completamente desapercibido.

Otras limitaciones del 'manto' de invisibilidad consisten en que sólo funciona con luz polarizada, sobre una superficie fija y las calcitas tienen que ser bastante más grandes que el cuerpo que pretenden ocultar.
Perspectivas de futuro

Los investigadores creen que el éxito cosechado hasta la fecha abre la puerta a que próximamente los expertos puedan esconder objetos más grandes, como componentes militares.

Otra aplicación más mundana, pero posiblemente mucho más popular, podría estar en la industria cosmética. Las calcitas podrían ocultar pequeñas manchas e imperfecciones de la piel, según indica Shuang Zhang.

lunes, 31 de enero de 2011

Android consigue el 22% del mercado de las tabletas el último trimestre de 2010


• El pasado trimestre la plataforma superó a Nokia en 'smartphones'
Reuters
La plataforma Android de Google consiguió en el cuatro trimestre de 2010 un 22% del mercado de las tabletas -ordenadores con pantalla táctil- en el cuarto trimestre, aunque sigue por detrás del iPad de Apple, que cuenta con una importante ventaja.
La firma de investigación Strategy Analytics afirma que el porcentaje de Apple en el mercado mundial de estos dispositivos cayó al 75% en el cuarto trimestre, frente al 95% del tercero, mientras que el mercado general creció un 120%, a casi 10 millones de unidades.
La tableta Galaxy de Samsung Electronics fue la principal competidora del iPad en ese periodo, ya que se puso a la venta en decenas de países, según la Strategy Analytics.
Samsung ha informado de que vendió dos millones de tablet Galaxy en los últimos tres meses, un dato que aún está bastante lejos de los datos que proporciona Apple, que vendió más de 7 millones de iPad en el último trimestre. No obstante, estos datos no se refieren al mismo periodo de tiempo.
Strategy Analytics espera que Android aumente su cuota del mercado en la primera mitad de este año con la llegada de nuevos dispositivos como el Xoom, de Motorola Mobility. Sin embargo, la canadiense Research In Motion añadirá más competencia al mercado en auge con el lanzamiento de su tablet PlayBook hacia el final de este trimestre.
Teléfonos inteligentes
Por otro lado, la compañía Canalys ha anunciado un informe en el que muestra que Android superó a la plataforma de Nokia Symbian en el mercado de los teléfonos móviles inteligentes ('smartphones') durante el último trimestre de 2010.
Así, los suministros de teléfonos móviles basados en el sistema operativo Andrid durante el mencionado espacio de tiempo alcanzaron los 32.9 millones, mientras que los dispositivos de este tipo basados en Symbian descendían ligenarmente hasta los 31 millones.
En cualquier caso, Nokia mantiene su posición como el líder mundial en teléfonos inteligentes, con una cuota global del 28%.
Según Canalys, durante el cuarto trimestre de 2010 el mercado de teléfonos inteligentes siguió aumentando en todo el mundo, con unos envíos de 101.2 millones de unidades, lo que representa un crecimiento anual del 89%.
Europa y su área de influencia constituye el principal mercado de estos dispositivos, mientras que EEUU es el país con el mayor mercado de 'smartphone'.
Precisamente en este último, y por fabricantes, RIM se volvió a colocar en primera posición por delante de Apple, mientars que HTC permanece en una cómoda tercera posición, gracias a las úiltimas actualizaciones de Android y los nuevos dispositivos con Windows Mobile 7.
En cualquier caso, en EEUU Android fue, con mucho, la principal plataforma de teléfonos inteligentes, con más de 12.1 millones de unidades -casi tres veces más que los dispositivos BlackBerry de RIM.
Asimismo, el estudio pone de relieve que Windows Mobile 7 apareció demasiado tarde para aprovechar al máximo la importante temporada navideña, por lo que Microsoft perdió cuota de manera importante, del 8% en el cuarto trimestre de 2009 al 5% en el mismo periodo de 2010.

Gigante estrella Zeta Ophiuchi viaja al espacio con super velocidad de 24 km / s


Estrella tiene una masa 20 veces la del Sol y es 65.000 veces más luminosa
26 de enero 2011 | 23h 47
Reuters

SAO PAULO - La estrella azul cerca del centro de la imagen es la de Zeta Ophiuchi, que cuando se ve en luz visible aparece como una estrella roja relativamente débil, rodeado de otras estrellas débiles y sin polvo.

Sin embargo, en esta foto tomada por la misión de infrarrojos Sabio (de campo amplio de infrarrojos Survey Explorer), la NASA, una visión totalmente diferente emerge: la estrella es de color azul brillante, caliente y muy grande, cubierta por una nube de polvo y gas causado por su súper velocidad.

NASA / JPL-Caltech / UCLA / Divulgación

Estrella está a medio camino a través de su vida de 8.000.000 años

Los astrónomos creen que la estrella es parte de un sistema binario, con un socio aún más masiva. Se cree que cuando su compañero explotó como una supernova, la voladura de la mayoría de su masa, Zeta Ophiuchi fue de repente "liberadas" y se tira como una bala que viajan a 24 km por segundo.

La estrella tiene una masa unas 20 veces más grande que el Sol, y es 65.000 veces más luminosa. Si no estuviera rodeada de tanto polvo, sería una de las estrellas más brillantes en el cielo azul y aparecen a simple vista. Al igual que todas las estrellas con una masa tan extrema y la energía, es parte del lema "Vive rápido, muere joven", es decir, ya la mitad de su vida "corto" plataforma de 8 millones de años.

En comparación, el Sol está aproximadamente en la mitad de su vida útil de 10 millones de años. Mientras que con el tiempo se convertirá en una enana blanca calma, Zeta Ophiuchi, como su ex pareja, en caso de morir en una explosión masiva.

Quizás los aspectos más interesantes de la imagen están relacionados con el gas interestelar y polvo que rodea a la Zeta Ophiuchi. En los laterales y la parte inferior de la imagen, hay nubes de polvo relativamente tranquila, fina y de color verde.

Cerca de la estrella de las nubes son muy diferentes. La capa que lo rodea es más brillante y más rojo, porque la cantidad de radiación ultravioleta extrema emitida por la estrella calienta la nube, lo hace brillar más intensamente en el infrarrojo que de costumbre.

Aún más impresionante, sin embargo, es el rasgo que hace una curva de color amarillo brillante y por encima de la Zeta Ophiuchi. Este es un magnífico ejemplo de una onda de choque. En la imagen, la estrella de las moscas en la parte inferior derecha de la parte superior izquierda. Al hacerlo, su viento estelar muy poderosa empuja el gas y el polvo (el viento estelar se extiende mucho más allá de la parte visible de la estrella, creando una burbuja a su alrededor discreta).

Directamente a través del camino de la estrella, el viento se comprime el gas para que sea extremadamente brillante (infrarrojo), creando una onda de choque. El efecto es similar a lo que ocurre cuando un barco de la velocidad al caminar sobre el agua, empujando una ola delante de él. Esta característica es completamente ocultos a la luz visible.

Los colores utilizados en la imagen representan ciertas longitudes de onda de luz infrarroja. Azul y verde son la luz emitida en longitudes de onda de 3.4 micras y 4.6, predominante entre las estrellas. La luz verde y roja para identificar 12 a 22 micras, respectivamente, que es emitido principalmente por el polvo.

El Cielo

El Cielo

canales televisivos de Puerto Rico por internet

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Loading...

el maestro

el maestro
LINUX