Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

jueves, 20 de enero de 2011

Facebook da un 'paso atrás' para obtener más mercado


Sí, los 'smartphones' son lo más pero no en todos los países del mundo tienen el mismo impacto. Por eso Facebook no quiere quedarse fuera de los móviles no inteligentes.

La compañía ha lanzado una nueva aplicación para los móviles más sencillos que es compatible con la friolera de 2.500 modelos. Entre las firmas que tienen modelos compatibles se encuentran LG, Nokia o Sony Ericsson.

Para mejorar el impacto de este lanzamiento, Facebook ha firmado acuerdos con 14 operadores de todo el mundo para que ofrezcan acceso gratuito durante 90 días.

La aplicación es similar a la web adaptada 0.facebook.com y muestra una navegación mediante iconos grandes, en la línea de las apps para 'smartphones'. La red social más popular del mundo busca mejorar con ella su impacto móvil en países como Arabia Saudí, China, Rumanía, México o Brasil.

El gestor del programa para móviles de Facebook, Mark Heynen, ha explicado en el blog de la red social que quieren que "la gente tenga una gran experiencia móvil independiente del tipo de móvil que lleve".

La aplicación está disponible desde hoy para los siguientes operadores, ciudades y países en m.fb.snaptu.com/f:

La pesca en Mauritania amenaza a la foca monje y al delfín jorobado



Investigadores catalanes que han estudiado la red trófica marina de Mauritania han descubierto que la foca monja y el delfín jorobado del Atlántico están en grave peligro como consecuencia de las actividades pesqueras de la costa mauritania. Estas dos especies de mamíferos ya son de por sí dos de las más amenazados del mundo.

La investigación, que se publica en 'Marine Ecology Progress Series', pone en evidencia que la pesca industrial y artesanal está poniendo en peligro a los ecosistemas marinos locales.

Los científicos aseguran que si la foca monje -al borde de la extinción- y el delfín jorobado del Atlántico desaparecieran, se produciría una grave alternación de los ecosistemas costeros porque se quedarían sin dos superpredadores esenciales. Por este motivo, los expertos piden una mayor regulación que impulse una pesca sostenible en el noroeste de África.

Según denuncia Ana M. Piniela, autora principal de la investigación e investigadora de la Universidad de Barcelona, esta área tan "exageradamente" explotada "debería ser prioritaria para la conservación de estas especies importantes para la biodiversidad".

Procedimiento del estudio

Los expertos analizaron isótopos estables de carbono y nitrógeno para establecer la distribución y posición trófica de 13 especies de mamíferos y de otras especies de macroalgas, plantas marinas, peces, moluscos, tortugas y phytoplankton, hasta ahora nunca estudiadas. La foca monje y el delfín jorobado del Atlántico son las especies más costeras de todo el área de estudio.

La orca, también presente en Mauritania, se alimenta en el mismo nivel trófico que la foca monje, pero "tiene una distribución mucho más pelágica (mar abierto)", señala Pinela.

Un almacén nuclear que sobrevivirá a nuestra especie


La ciencia y la metafísica siempre ha sido materias rugosas unidas porque, en último extremo, tratan sobre asuntos indescifrables para el ser humano. Into Eternity, el muy bello documental del cineasta danés Michael Madsen se atreve con ambas disciplinas para componer una rigurosa denuncia ecológica pero también para enfrentarnos a esas grandes preguntas sin respuesta que nos sitúan en el abismo de lo incomprensible. Y lo hace viajando hasta uno de los lugares más misteriosos, desconocidos y extraordinarios del mundo, Onkalo, en Finalndia, el mayor almacén nuclear del mundo y diseñado para sobrevivir 100.000 años, que es el tiempo que la UE estima que los residuos atómicos necesitan para dejar de ser tóxicos. “La primera vez que oí hablar de un lugar semejante fue en un programa de radio”, explica a Elcultural.es Madsen. “Lo que me dejó de piedra fue esa previsión de que durara 100.000 años. Nuestra civilización es la primera en haber producido una instalación que podríamos calificar como la primera estructura post humana”.

Michael Madsen, nada que ver con el malo de Tarantino, ha sido artista conceptual antes que director de documentales y convierte las imágenes del refugio nuclear en un sublime paisaje de ciencia ficción que recuerdan al Kubrick de 2001 Odisea del Espacio y nos sumergen en un lugar que parece concebido fuera del tiempo o la propia realidad física para adentrarnos en el terreno de la eternidad: "El desafío era ofrecer una representación sobre lo que podrían significar 100.000 años y evitar cualquier abstracción y falta de sustancia cuando los expertos hablan de posibles escenarios de futuro con los que trabajan para extremas sus medidas de seguridad. Por ello, esta película está concebida no sólo como una especie de mensaje hacia el futuro, pero también como si la construcción de Onkalo fuera visitada desde el punto de vista de una cámara que viene del futuro". A los previsibles desastres naturales (terremotos, meteoritos y etc) se une un factor que hace dudar al cineasta especialmente sobre su permanencia, la curiosidad humana: "Es imposible hacer una previsión tan larga. En algún momento, si sobrevivimos como especie, alguien se preguntará qué hay enterrado y al descubrirlo, el desastre será inmenso”.

Onkalo, un lugar tan inquietante y fascinante que penetra en la memoria del espectador con la fuerza de aquellos misterios que nos superan, se convierte en el símbolo de un filme contemplativo que también entra, con rigor, en el importante debate nuclear que está teniendo lugar en todo Occidente. Y lo hace oponiéndose frontalmente a la idea de que la energía nuclear sea la más limpia y ecológica como sugieren numerosas voces: "Estamos asistiendo a un renacimiento de la energía atómica con el argumento de que es neutro en CO2, o casi, y que las reservas de petróleo están agotándose. Sin embargo, se subraya poco que las reservas de uranio también son limitadas y que, por mucho que perfeccionemos el sistema, dejan grandes cantidades de residuos inservibles de una mortalidad no igualada por ninguna otra materia. Imaginemos que algún día descubrimos las ruinas de una civilización perdida anterior a la nuestra y que resultan ser tan destructivas. Precisamente, ese plazo de 100.000 años somete el debate a su principal contradicción, y es el hecho de que en realidad estamos pensando en una solución que nos resulta útil hoy pero tiene unas consecuencias que van más allá de nuestro raciocinio".

Ese mundo aséptico del refugio nuclear, las dosis de fantasía a la hora de predecir un futuro imposible de cavilar y el debate nuclear se superponen a la belleza de los paisajes finlandeses, que con su quietud y belleza nos ofrecen una metáfora de gran eficacia sobre los desafíos que presenta Onkalo, más relacionados con elementos naturales que con nuestro propio fracaso como seres humanos. "El hombre ha dejado de pensar en la naturaleza como una creación de Dios y tiene la convicción de que la tecnología ha transformado su propia esencia y que se trata de un camino que sólo puede conducir hacia formas superiores. Y la duración de los residuos nucleares nos enfrenta a su límite porque se convierten en una especie de nuevo fuego eterno que sabemos cómo encender pero no cómo terminar”, resume Madsen.

Into Eternity se estrena en 40 ciudades de España dentro de la iniciativa El Documental del Mes que pretende acercar un tema de máxima actualidad superando las barreras de público a las que se enfrentan numerosas películas de no ficción.

Cae en Río de Janeiro un helicóptero que trabajaba en el rescate de las víctimas


Un helicóptero militar que trabajaba en las tareas de rescate de las víctimas del temporal en la sierra de Río de Janeiro sufrió una caída este jueves cuando se disponía a tomar tierra en medio de un fuerte viento. Las cinco personas que iban a bordo sufrieron heridas leves.

El accidente ocurrió hacia las 12.20 horas del mediodía en una zona agrícola de Nova Friburgo, una de las ciudades más castigadas por las lluvias torrenciales que se han cobrado al menos 740 víctimas mortales.

El aparato, perteneciente al Batallón de Aviación del Ejército brasileño, se vio sacudido por el viento cuando estaba a cinco metros del suelo, aunque el piloto consiguió retomar el control para aterrizar sobre un montón de estiércol y amortiguar así el impacto.

Tras la caída, los tres militares y dos miembros de la Cruz Roja que ocupaban el helicóptero fueron trasladados a hospitales de la región.
Reconstrucción

Más de una semana después de que las precipitaciones provocaran inundaciones y deslizamientos de tierra en la sierra fluminense, los equipos de rescate se esfuerzan por localizar a los más de 300 desaparecidos que figuran en el último balance de Defensa Civil.

Mientras tanto, cerca de 14.000 personas se mantienen alejadas de sus casas a la espera de la limpieza y reconstrucción de las zonas golpeadas por el temporal. Además de Nova Friburgo, los otros dos municipios más afectados por el mayor desastre natural de la historia de Brasil son Teresópolis y Petrópolis, situadas entre 60 y 100 kilómetros al norte de la capital de Río.

Más de 100 detenidos en la mayor operación contra la mafia de Nueva York


Nueva York ha amanecido este jueves con la detención de al menos 110 personas vinculadas a la 'Cosa Nostra' en Estados Unidos que han sido acusadas, entre otros delitos, de cometer asesinatos y extorsión.

Las diferentes redadas suponen, según el fiscal general (secretario de Justicia) de EEUU, Eric Holder, "el mayor golpe contra la mafia en la historia de Estados Unidos", tanto en el número de detenidos como de acusados.

En una rueda de prensa ofrecida en Brooklyn, Holder, acompañado por miembros de la Oficina Federal de Investigaciones (FBI), del Departamento de Trabajo, fiscales y comisionados, mostró su satisfacción con el golpe que las autoridades le han dado a la mafia durante la mañana de este jueves.

Holder explicó ante los medios que más de 800 agentes federales, estatales y locales participaron en el arresto de más de 110 personas relacionadas con el crimen organizado -en su mayoría en el barrio neoyorquino de Brooklyn-, aunque también se han presentado cargos contra otros sospechosos.

Según ha explicado Holder, 127 supuestos miembros de diferentes organizaciones serán acusadas por diferentes delitos, entre los que se encuentran los de asesinato y extorsión. Las detenciones se han llevado a cabo en cuatro distritos de la ciudad de Nueva York, así como en Nueva Jersey y Rhode Island.

Las cinco familias más poderosas de la mafia neoyorquina se han visto afectadas por la actuación policial. Los Bonnano, Colombo, Gambino, Genovese y Luchese han sufrido el dispositivo. Además, se ha arrestado a otros acusados de pertenecer a la familia Patriarca de la región de Nueva Inglaterra y a la DeCavalcante de Nueva Jersey.

"Prácticamente están implicadas todas las familias mafiosas. No ha habido incidentes destacados en las detenciones, que en gran parte han ocurrido en sus propias residencias", detalló en la misma conferencia Janice Fedarcyk, responsable del FBI en Nueva York.

Se les acusa de llevar a cabo actos ilegales y de violencia; como asesinatos, narcotráfico, extorsión (económica y laboral), juego ilegal, usura o de provocar incendios. Además, explicó la influencia negativa que su actividad tiene en la economía del país, que se ve afectada por fraudes e "impuestos de la mafia" en diferentes puertos marítimos, industrias de la construcción y pequeños negocios. Según el fiscal general, los trabajadores "eran obligados a dar parte de sus pagas extraordinarias a los mafiosos".

Entre las acciones realizadas por los miembros de estas organizaciones, Holder también les ha acusa de cometer crímenes entre rivales y otros que catalogó como "sin sentido", y puso dos ejemplos. En una ocasión hubo una víctima inocente a la que dispararon durante un intento de robo frustrado y otras dos personas fueron asesinadas en un bar durante una disputa por una bebida derramada.
Actividad de la mafia en sectores económicos

Tal y como ha explicado Holder a los medios congregados en Brooklyn, las organizaciones delictivas golpeadas por las autoridades ejercían su influencia en distintos sectores económicos y no dudaban en robar a los estadounidenses más vulnerables.

"Nuestra batalla contra el crimen organizado continuará. Queremos erradicar la violencia con la que actúan y el daño que hacen a la economía, con impuestos controlados por la mafia que afectan a pequeños negocios", apuntó Holder.

Ente los fraudes descritos, Holder ha hecho mención de uno en particular realizado por la familia Colombo, que afectó a ciudadanos con escasos historiales de crédito. Les estafaron haciéndoles creer que por medio de pagos estaban asegurando sus préstamos. Otros cargos apuntan a que la extorsión se extendió a los miembros de diferentes sindicatos, a los que les exigían dinero.

A pesar del éxito de la operación, Holder comentó que las detenciones suponen un alentador e importante paso adelante para desmantela las operaciones de La Cosa Nostra, "aunque la batalla contra el crimen organizado está lejos de haber llegado a su final", explicó.

"Los miembros del crimen organizado están entre los criminales más peligrosos de nuestro país", insistió Holder, quien subrayó que "su juramento de lealtad les sumerge en una vida de crimen. Muchos con la constante la voluntad de matar". "Estamos comprometidos y decididos a erradicar estos negocios criminales y a llevar a sus miembros ante la Justicia", añadió.

Entre los detenidos figuran Andrew Russo, Benjamin Castellazzo y Richard Fusco, todos mayores de 70 años y asociados a los Colombo; así como Joseph Corozzo y Bartolomeo Vernace, de los Gambino, y Luigi Manocchio, antiguo líder de los Patriarca.

"Esta operación, la más grande de un solo día contra la Cosa Nostra, envía el mensaje de que nuestra lucha contra la delincuencia organizada tradicional es fuerte y nuestro compromiso inquebrantable", concluyó Holder.

martes, 18 de enero de 2011

Proyectos COMPLEXDIS y MULTIMOD


Nuevas técnicas desarrolladas por científicos financiados con fondos comunitarios podrían permitir un análisis rápido de bases de datos médicas con el fin de identificar marcadores diagnósticos y diseñar fármacos a medida para quienes padecen alergias. Científicos dirigidos por la Academia Sahlgrenska de la Universidad de Gotemburgo (Suecia) indican que estos métodos nuevos también podrían reducir la cantidad de animales que se utilizan en ensayos clínicos.
CORDIS

La investigación, difundida mediante un artículo de la revista PLoS Computational Biology, es el resultado de dos proyectos financiados con fondos comunitarios: COMPLEXDIS («Desentrañar enfermedades complejas mediante la teoría de la complejidad: de las redes al paciente») y MULTIMOD («Módulos de red multicapa para identificar marcadores dedicados a la medicación personalizada en enfermedades complejas»).
COMPLEXDIS recibió 1,81 millones de euros mediante la actividad transversal «Ciencias y tecnologías nuevas y emergentes» (NEST) del Sexto Programa Marco (6PM), mientras que MULTIMOD está financiado con 2,53 millones de euros a través del tema «Salud» del Séptimo Programa Marco (7PM).
El equipo indicó que su trabajo perfecciona los análisis de las bases de datos médicas registradas en PubMed y que representan estudios con gran cantidad de pacientes, además de datos de microarrays de otra base de datos de gran importancia. La comunidad científica utiliza los microarrays debido a que facilitan la evaluación del total de 20.000 genes humanos en relación a distintas enfermedades al mismo tiempo.
Científicos de Italia, Noruega y Suecia desarrollaron métodos computacionales para determinar la manera en que un cambio en la interacción entre distintos tipos de genes de linfocitos (un tipo de glóbulo blanco) controla el sistema inmunitario del organismo. El examen de 18 millones de resúmenes de artículos incluidos en PubMed permitió a los investigadores obtener la información necesaria para identificar dichos genes, lo que a su vez contribuyó a crear un modelo de red representativo de la interacción de éstos.
«El modelo es comparable a un circuito impreso instalado en el linfocito que la célula utilizara para decidir sobre la activación o supresión del sistema inmunitario», explica uno de los autores del estudio, el Dr. Mikael Benson de la Unidad de Biología de Sistemas Clínicos de la Academia Sahlgrenska y el Hospital Infantil Reina Silvia.
«Estas decisiones se realizan constantemente, pues los linfocitos están continuamente expuestos a muy distintas partículas que entran en el organismo por ejemplo mediante la respiración. Algunas de estas partículas pueden ser peligrosas y es necesario generar una decisión que movilice el sistema inmunitario. No obstante, en ocasiones se adoptan decisiones poco acertadas que pueden provocar varias enfermedades como alergias o la diabetes.»
El equipo realizó simulaciones con datos para determinar la reacción del modelo de red a una exposición reiterada a partículas. Los científicos observaron cuatro patrones de reacción: una para desactivar el sistema inmunitario y tres para activarlo de tres maneras distintas.
«Descubrimos que los genes del modelo reaccionaron en linfocitos de pacientes con varias enfermedades inmunitarias», indicó el Dr. Benson. «Utilizaremos el modelo para identificar marcadores diagnósticos y así personalizar la medicación que estamos probando en ensayos clínicos en pacientes alérgicos.»
El investigador de la Academia Sahlgrenska anticipa que estos métodos desempeñarán una función crucial en futuras investigaciones, sobre todo en vista del aumento creciente de las bases de datos médicas. «Estos métodos podrían reducir la cantidad de ensayos con animales y generar ahorros de tiempo y dinero», concluyó el Dr. Benson. «También podrían permitir experimentos mejor diseñados y más rápidos y sus resultados podrían generar nuevos conocimientos sobre marcadores diagnósticos o nuevas medicinas.»

Científicos crean metales y plásticos más eficientes para captar energía del sol


Científicos españoles trabajan en la elaboración de nuevas propiedades aplicables a la obtención de absorbedores solares con alta eficiencia en la captación solar. Los materiales cuya funcionalización se proponen son tanto metales como plásticos. Por el momento han obtenido resultados parciales, como el empleo de un tipo de material denominado cermet, compuesto por cerámica y metal.

SINC

El objetivo global del proyecto es diseñar y fabricar un colector con un absorbedor de superficie selectiva solar, con una eficiencia térmica elevada, resistente a la corrosión ambiental, de fácil industrialización y de bajo coste, utilizando como sustrato metales o plásticos.Un colector solar es cualquier dispositivo diseñado para recoger la energía irradiada por el sol y convertirla en energía térmica. El proyecto está enfocado a colectores de uso doméstico y se centra en el absorbedor, uno de los elementos de los captadores o colectores solares.

"El absorbedor absorbe la energía solar que llega, de manera que se calienta a una temperatura mayor que la ambiental y emite radiación térmica, lo que impide que su temperatura siga aumentando", señala el profesor José Ramos Barrado. Por eso se recubre con una capa que tiene como propiedad absorber mucho calor y emitir poco. La emitencia se puede reducir hasta un 6 o un 7%. Esto sería funcionalizar el absorbedor, que constituye una de las metas de estos investigadores.

Grupo de investigación del profesor de la Universidad de Málaga José Ramos Barrado. Foto: Sciencepics."Ya existen en el mercado dispositivos con estas características", señala el responsable del estudio, "pero la capa que recubre los absorbedores se fabrica fuera de España". El equipo pretende fabricar las capas por procedimientos que no requieran una fuerte inversión por parte de la industria, que sean económicamente rentables.Los científicos están actuando sobre absorbedores de metal y de plástico, para lo cuál emplean diferentes técnicas en función del material a tratar. Para el metal utilizarán un procedimiento de bajo coste, el spray pirolisis (romper por calor), por el que se obtiene la capa deseada a partir de la pirolisis química de un precursor que es depositado sobre el metal mediante el spray de soluciones acuosas de dicho precursor. "Se trata de un método económico, fácil de hacer sobre cobre o aluminio e industrialmente barato", señala Ramos Barrado.

El grupo tiene una larga experiencia en el empleo del spray pirolisis, que en este proyecto está a medio camino entre una técnica industrial y una de laboratorio, porque lo han utilizado sobre superficies grandes, de un metro o metro y medio, casi escalado a nivel industrial.Por otra parte, para los absorbedores de plástico se emplea un método llamado magnetron sputtering. Una máquina hace un vacío elevado y por evaporación física se evapora la sustancia que se quiere poner encima del plástico (varias capas). La técnica es cara, pero permite la funcionalización de plásticos al no requerir elevadas temperaturas para la formación de las capas.

Beneficios de la tecnologíaUna de las pretensiones de los científicos al desarrollar este estudio es conseguir un método transferible directamente a la industria andaluza, un sistema industrialmente viable y patentar su tecnología.
Las consecuencias para el medio ambiente de la aplicación de esta tecnología serían positivas, ya que los colectores potencian el empleo de energía solar térmica y fotovoltaica, con lo que harían disminuir el consumo de otro tipo de energía más contaminante. Y los métodos de spray pirolisis y magnetron sputtering tampoco son contaminantes.

"Además, el beneficio para la industria solar y de módulos o elementos de fachada es indudable, ya que se pondrían a disposición nuevos absorbedores solares que pueden actuar como elementos constructivos con nuevos fines estéticos", señala Ramos Barrado. Esto tendría su impacto positivo en la sociedad por posibilitar nuevos dispositivos solares que a su vez podrían ser económicamente muy competitivos.

La pérdida de hielo marino contamina los mares con mercurio


Un estudio de la Universidad de Touluse, en Francia, sugiere que la pérdida de hielo marino, que se ha triplicado con el cambio climático, contamina los mares con mercurio.

EL UNIVERSAL
La investigación publicada en la revista Nature explica que la presencia de hielo marino impide la descomposición de las toxinas del mercurio en el océano, ya que están son absorbidas por el bloque congelado.
Esto indica que si continua la pérdida de hielo del mar se acelerará la producción de partículas tóxicas en el océano.
Para esta investigación se analizaron huevos de aves recogidas de colonias en el Mar de Bering y el Océano Ártico.
Los resultados muestran que la descomposición de componentes de mercurio por la luz solar es menor en regiones con una amplia capa de hielo marino.

Un nuevo algoritmo acelera el intercambio de información en redes


Un equipo de investigación norteamericano e israelí acaba de hacer pública una nueva fórmula matemática que permite una distribución mucho más rápida de la información a través de redes autoorganizadas que presentan puntos de estrangulamiento. El método podría acercar el concepto casi utópico del "polvo inteligente" al día a día de la industria informática.
TENDENCIAS CIENTÍFICAS

Del mismo modo que los sensores que detectan el tacto y el movimiento en los teléfonos móviles se hacen cada vez más pequeños, baratos y fiables, los fabricantes de ordenadores están comenzando a tomar en serio la vieja idea del "polvo inteligente" (en inglés, smartdust) , o lo que es lo mismo, una red inalámbrica de minúsculos sensores microelectromecánicos, robots o dispositivos que pueden detectar señales de luz, temperatura, vibraciones, etc. Su colocación dispersa alrededor de un hospital, por ejemplo, podría aportar información sobre la temperatura o la humedad registrada en el interior del edificio o, incluso, seguir los pasos de los pacientes.
Pero para que tales redes puedan tomar decisiones colectivas, como reconocer que un volcán está cada vez más agitado, necesitan integrar la información recogida por cientos o miles de dispositivos.
El problema reside en que las redes de sensores baratos dispersos en entornos muy variables son propensas a formar "cuellos de botella", es decir, puntos de escasa conectividad por los que deben pasar todos los datos transmitidos para llegar a la totalidad de la red.
Sin embargo, el escollo derivado de la existencia de cuellos de botella o puntos de estrangulamiento puede tener los días contados si se materializa la última idea de un grupo de científicos, con representación estadounidense e israelí, presentada el pasado fin de semana en el "2011 ACM-SIAM Simposio sobre algoritmos discretos" celebrado en Nueva Orleans. Según un comunicado del Instituto Tecnológico de Massachusetts, Keren Censor-Hillel, una postdoctorada del Laboratorio de Inteligencia Artificial e Informática del MIT, y Hadas Shachnai, del Instituto Israelí de Tecnología Technion, dieron a conocer un nuevo algoritmo que resuelve el problema de los cuellos de botella de una forma mucho más eficaz que sus predecesores.
El algoritmo está diseñado para trabajar en las llamadas redes ad hoc, una red inalámbrica descentralizada en la que ningún dispositivo actúa como supervisor de toda la red en su conjunto. En una red de sensores inalámbricos baratos, por ejemplo, cualquier dispositivo podría fallar: su batería podría agotarse o su señal podría ser obstruida. Por ello, la red tiene que ser capaz de adaptarse a la desaparición de cualquier dispositivo, lo que obliga a que no contenga ninguno con demasiada responsabilidad. Sin un supervisor la red no conoce la localización de sus puntos de estrangulamiento, pero eso no es un problema para el nuevo algoritmo, ya que como afirma Censor-Hillel "da igual dónde estén los cuellos de botella, lo importante es hacer frente a su existencia".
Comunicación ronda a ronda
El trabajo de los investigadores se basa en la premisa de que la comunicación entre dispositivos de red se lleva a cabo en rondas. En cada una, un dispositivo puede iniciar la comunicación solo con otro, pero puede intercambiar una cantidad ilimitada de información con ese dispositivo. Durante cada intercambio, éste pasa la información que ha recibido de otros dispositivos. Si hablamos de sensores que miden las variables de un volcán, los datos podrían hacer referencia, por ejemplo, a la medición más reciente que ha registrado cada dispositivo de la actividad sísmica en la zona.
El algoritmo funciona por la alternancia de las estrategias de comunicación ronda a ronda. En la primera, se selecciona un dispositivo vecino al azar al que enviará toda la información que tenemos (puesto que es la primera ronda, se limita a las medidas que él mismo ha realizado). En esa misma ronda, otros dispositivos pueden contactar con él y enviarle su información. Sin embargo, en la segunda ronda no basta con seleccionar un vecino al azar, sino que se elige uno cuya información todavía no se ha recibido. A continuación, en la tercera, vuelve a elegirse un vecino aleatoriamente. Al final de esa ronda, ya que cada dispositivo en la red envía toda la información que tiene, también recibe no sólo las mediciones realizadas por los equipos en contacto, sino las mediciones hechas por los vecinos de sus vecinos, e incluso los vecinos de los vecinos de los vecinos. En la cuarta ronda, de nuevo selecciona un dispositivo cuya información no ha recibido, en la quinta, otra vez un dispositivo al azar, y así sucesivamente.
"La idea es que los pasos aleatorios que tomo me permiten difundir la información rápidamente dentro de mi propio subconjunto bien conectado", explica la investigadora del MIT. Pero en las rondas alternas, cada dispositivo detecta los dispositivos de los que no ha oído hablar, garantizando que la información llegue rápidamente a todos, incluidos los que se comunican a través del cuello de botella.
A pesar de que para muchos científicos, como el experto en análisis de redes y profesor de informática en la Universidad Sapienza de Roma Alessandro Panconesi, "el nuevo algoritmo es una contribución interesante", no es la solución definitiva al problema de los cuellos de botella. En su opinión, la versión actual del algoritmo, en la que en cada ronda cada dispositivo envía toda la información que recibió, no sería práctica: "El algoritmo es muy costoso en términos de la gran cantidad de información que necesita intercambiar. Sin embargo, el desarrollo de una versión con menor ancho de banda no es improbable".
Por su parte, uno de los artífices del sistema, Censor-Hillel, admite que lo esencial en el futuro es obtener el ancho de banda práctico, pero por el momento sigue investigando para hallar el algoritmo que mejor funcione en el caso ideal de ancho de banda ilimitado.

Robots terapéuticos


Aunque parece un simple peluche, este robot terapéutico desarrollado por Fujitsu está diseñado para motivar a los niños y estimular a los ancianos con problemas psicológicos o enfermedades crónicas graves.

Debajo de su piel de felpa, este simpático oso dispone de doce sensores distribuídos por todo el cuerpo que le hacen sensible a las caricias; mientras que una cámara situada en su nariz le permite identificar a las personas que interactúan con él.
A través de estas entradas, este peluche puede captar información sobre su entorno y el estado emocional de su usuario y reaccionar de manera adecuada a éste. En función de cómo se encuentra anímicamente la persona que tiene enfrente, el oso robot puede mostrar y ejecutar hasta 300 comportamientos preprogramados como reír, estornudar, inclinar la cabeza, orejas y boca o mover sus piernas. Además, un sintetizador del habla reproduce algunas frases que corresponden con las capacidades para hablar de un niño de tres años de edad.
Sin embargo, el trabajo de Fujitsu va más allá de los engranajes y sensores que componen su cuerpo. Este prototipo forma parte de un programa llamado 'Human Centric' que se basa en el ser humano como centro de la innovación tecnológica.
La compañía japonesa asegura que, gracias a sus impactantes reacciones y movimientos, este oso de peluche tiene un enorme potencial para ser utilizado para estimular el desarrollo de las mentes de los más pequeños en las casas y las guarderías. Por otra parte, y siguiendo con sus posibles usos, el oso robot también puede resultar adecuado para hacer compañía en los hogares de ancianos.

La actividad humana ha sido determinante en el clima en Europa desde el año 1.700


Una petrolera en Tarragona. | J. Antonio.
Vinculan el ascenso de temperaturas en invierno con la actividad del hombre
El ascenso se relaciona con el aumento de gases de efecto invernadero
Para el resto de estaciones, los datos no son tan concluyentes

Efe
La actividad humana ha sido determinante en el aumento de las temperaturas en Europa en los últimos tres siglos, por los efectos de la concentración de gases contaminantes en la atmósfera, según un estudio pionero con simulaciones y reconstrucciones climáticas de los últimos 500 años.
Además, de acuerdo a los resultados de esta investigación, publicada en el último número de 'Nature Geosciences' y en la que participa la Universidad Complutense (UCM), el ascenso de las temperaturas en invierno desde el año 1.700 se atribuye en gran medida al aumento de las concentraciones de efecto invernadero originadas por la actividad humana.
El trabajo ha sido liderado por la Universidad de Edinburgo, con la colaboración de la Universidad Justus-Liebig de Giessen, la Universidad de Berna y la Universidad Complutense; ésta ha participado en el análisis y suministro de los datos de simulaciones realizadas con modelos del clima para el último milenio, según ha explicado uno de sus responsables, Fidel González Rouco, de la UCM.
Reconstrucciones climáticas
También se han utilizado reconstrucciones climáticas proporcionadas por las universidades de Giessen y Berna, en las que se incluyen no sólo datos climáticos actuales, sino también otros procedentes de observaciones instrumentales antiguas, obtenidos con aparatos usados en el siglo XVII y XVIII, así como información registrada en documentos históricos y dendroclimática.
Ello ha sido necesario dado que los científicos sólo disponen de medidas instrumentales que aportan información de fiabilidad razonable del clima de Europa de los últimos 150 años.
Aparte de las reconstrucciones y simulaciones climáticas, el estudio ha tomado en consideración los efectos de los factores externos que previsiblemente han influido preferentemente en la evolución del clima en Europa durante la segunda parte del último milenio.
Causas naturales
Por un lado, las consecuencias de las causas naturales, es decir, los cambios en la energía emitida por el sol y los registros de la actividad volcánica, cuyas variaciones afectan claramente a la temperatura del Planeta.
Por otra parte, se han tenido en cuenta también los cambios en las concentraciones de gases de efecto invernadero y los aerosoles troposféricos, asociados fundamentalmente a las emisiones vinculadas a la actividad humana.
Según el científico de la UCM, es la primera vez que se han evaluado los efectos de los factores antes mencionados en el clima de Europa a lo largo de los últimos siglos en función de parámetros estacionales y a escala continental.
Hasta ahora, únicamente se habían realizado estudios de forma global, en el contexto de todo el Planeta o a escala hemisférica.
Los resultados son determinantes en cuanto a la vinculación de la actividad humana con el aumento de las temperaturas en invierno por el aumento de las concentraciones de gases de efecto invernadero, mientras que para el resto de estaciones, los datos no son tan concluyentes y requieren un mayor estudio.
Con todo esto, según el científico, habiéndose constatado la influencia de los mencionados factores en el clima de Europa en el pasado, especialmente la actividad humana, cabe esperar que el ritmo actual de emisiones de gases de efecto invernadero tenga una influencia importante en el futuro.

Cuadernos de bitácora del siglo XVIII para estudiar el creciente deshielo del Ártico


Portada (c) y varias páginas de cuadernos de bitácora históricos. | Dennis Wheeler.
•Un proyecto estudiará los libros escritos en expediciones entre 1750 y 1850
•Serán utilizados para investigar los cambios en el clima del Ártico
•Las mediciones de la capa de hielo con satélites se realizan desde 1979

2010 ha sido un año cálido en el Ártico. Las temperaturas han llegado a alcanzar en algunas zonas hasta 10 grados más de lo habitual y la extensión de la capa de hielo ha sido la más baja desde 1979, el año en el que empezaron a tomarse registros.
Precisamente la falta de mediciones anteriores a la época en la que los satélites vigilan la Tierra es uno de los obstáculos que los científicos del clima tienen para llevar a cabo sus investigaciones. Para intentar recabar datos más antiguos recurren a diversos métodos, como el estudio de los cuadernos de bitácora. La Universidad británica de Sunderland va a iniciar el próximo mes de marzo un proyecto para investigar el clima del Ártico entre 1750 y 1850 utilizando cuadernos de bitácora de expediciones que surcaron los mares en esta época.

Lo que ocurre en el Ártico afecta al resto del planeta por lo que el estudio de esta zona es clave para estudiar los efectos del cambio climático.
Expediciones históricas

Entre los cuadernos de bitácora que se analizarán durante los próximos tres años se encuentran los que se escribieron durante famosos viajes, como la expedición polar que a principios del siglo XIX llevó a cabo William Edward Parry, uno de los primeros exploradores del Ártico, a bordo del HMS Hecla.

Asimismo, examinarán un cuaderno de bitácora del explorador Sir John Franklin, que perdió la vida junto a toda su tripulación en el Ártico canadiense cuando intentaban llegar al Paso del Noroeste, en 1845. También analizarán otros libros de la Royal Navy, de barcos balleneros así como datos recopilados por la Hudson Bay Company, una de las primeras compañías comerciales del mundo.
"Estudiaremos el cambio climático en esta región, especialmente el retroceso y el avance del hielo entre 1750 y 1850", explica Dennis Wheeler, principal investigador de este proyecto. "Desde un punto de vista ambiental, el Ártico es una zona de enorme importancia pero necesitamos saber cómo se ha comportado en el pasado para intentar averiguar qué va a ocurrir en el futuro. No puedes mirar hacia delante sin mirar antes atrás", asegura el científico.

Una época importante para el clima
El periodo que abarca este proyecto, según subraya Wheeler, es importante desde un punto de vista climatológico porque es anterior a la emisión de gases de efecto invernadero en la atmósfera. Asimismo, durante esos años se produjeron grandes erupciones de volcanes y el sol se comportó de una manera poco habitual: "Fue una época con actividad solar baja, conocida como el Mínimo de Dalton (Dalton Minimun, en inglés. Europa vivió un periodo fríoque duró desde 1790 a 1830 aproximadamente).
Se trata de un periodo importante desde un punto de vista del clima porque es anterior a la emisión de gases de efecto invernadero.Sin embargo, el científico señala que aún no disponen de suficientes datos, ya que han encontrado informaciones contradictorias procedentes de distintos cuadernos de bitácora sobre al avance y el retroceso de hielo.

Recientemente, Wheeler participó en un proyecto que también utilizó cuadernos de bitácora históricos para reconstruir cambios climáticos en el pasado. Tanto la UK Colonial Registers como la Royal Navy Logbooks (CORRAL) digitalizaron una selección de 300 cuadernos de bitácora. Entre ellos figuran los de la larga expedición que Charles Darwin llevó a cabo a bordo del mítico Beagle y que comenzó en 1831.
Los primeros datos sobre el clima

No fue el interés científico sino la necesidad de localizar a los barcos la razón por la que se empezaron a recopilar los primeros datos sobre el clima. La ciencia de la navegación era muy imprecisa hasta mediados del siglo XIX. Se produjeron muchos accidentes debido a los cálculos erróneos sobre la fuerza y la dirección del viento así que cada vez se esforzaron más en anotar correctamente las mediciones durante las expediciones.

Además de los datos sobre el viento, los cuadernos de bitácora recopilaban información sobre la meteorología: lluvias, tormentas, el estado de la mar y del cielo, etc. Y no sólo eso, muchos de ellos contienen abundante información sobre la vida a bordo y los lugares que visitaban. Datos que los científicos intentan descifrar para reconstruir los fenómenos climáticos del pasado con el objetivo de entender el presente y predecir el futuro.

Un equipo de investigadores japoneses quiere 'resucitar' al mamut en cinco años


Foto de archivo de un mamut de 10.000 años de antigüedad hallado en Siberia en 1999. | AFP
•Los investigadores comenzarán este año las labores de clonación
•peran aclarar las razones por las que se extinguió esta especie

El mamut, el enorme paquidermo de largos colmillos curvados que recorría buena parte de la Tierra hasta hace unos 6.000 años, podría volver a existir en tan sólo cinco años si prosperan los esfuerzos de un equipo de científicos de la Universidad de Kioto.
Los investigadores comenzarán este año las labores de clonación, que se llevarán a cabo a partir de los tejidos obtenidos del cadáver de un ejemplar del paquidermo preservado en un laboratorio ruso, y si la investigación se prueba exitosa, los científicos esperan aclarar las razones por las que se extinguió esta especie.
Una de las teorías más recientes es que el aumento de las temperaturas tras la última glaciación, hace UNOS 10.000 años, afectó al hábitat del mamut. A pesar de que este animal había sobrevivivido a otros cambios climáticos en el pasado, durante este periodo confluyeron tanto la pérdida de su hábitat como la acción de los cazadores primitivos, que conjuntamente habrían causado la extinción del mamut.
Extracción de ADN de células congeladas
Los investigadores han desarrollado ya la técnica para extraer el ADN de las células congeladas. La 'resurrección' se lograría creando un embrión con genes de mamut a partir de óvulos de elefante en los que se sustituirían los núcleos originales por aquellos obtenidos de las células del mamut. A continuación, los investigadores pretenden introducir el embrión en el útero de elefantes para poder lograr un parto.
El largo camino a la recuperación de esta especie comenzará este verano, cuando varios miembros del equipo viajen a Rusia para obtener las muestras iniciales necesarias. Es en la capa subterránea de hielo (permafrost) de la zona de Siberia donde se han encontrado la mayor parte de restos de esta especie, con algunos ejemplares congelados que todavía conservaban el pelo y los órganos internos.
Los trabajos podrían expandirse durante cinco o seis años, según indicó al rotativo japonés Yomiuri Shimbun el líder científico e investigador de la Universidad de Kioto, Akira Iritani. "Los preparativos para lograr nuestro objetivo se han llevado a cabo", señaló Iritani al diario.
Dudas éticas en la comunidad científica
Aunque el reto es colosal, y la comunidad científica discrepa sobre la autoridad moral del ser humano para devolver a la vida animales cuyo hábitat ha desaparecido, hay antecedentes que dan cuenta de su viabilidad. Otro investigador japonés, Teruhiko Wakayama, ya logró clonar a un ratón de las células de otro que había permanecido congelado a temperatura muy baja durante 16 años.
Siguiendo las técnicas de Wakayama, el equipo de Iritani intentó clonar al mamut en una ocasión, aunque las células tuvieron que ser desechadas al quedar dañadas por cristales de hielo. "Cuando el mamut nazca, examinaremos su ecología y sus genes para estudiar por qué la especie se extinguió, así como otros factores", señaló Iritani al Yomiuri.

La fosa más profunda del océano juega un importante papel en la regulación del clima


Lanzamiento del sumergible.
La Fosa de las Marianas, conocida también como el abismo Challenger, es la zona más profunda que se conoce del oceáno. Se encuentra en el Océano Pacífico y sólo dos exploradores han logrado bajar a tal profundidad. En 1960, el inventor suizo Jacques Piccard y el marine estadounidense Don Walsh descendieron a 35.000 pies a bordo del batiscafo Trieste, que fue especialmente diseñado para esa misión.
Desde entonces ningún ser humano ha vuelto a descender a esa profundidad pero sí nuevas naves no tripuladas dotadas de la última tecnología que están recopilando valiosos datos para que los científicos puedan estudiar esta desconocida área del océano.
Un equipo internacional de investigadores lanzó al agua un sumergible no tripulado para que descendiera a 10.900 metros de profundidad. Los científicos han revelado ahora sus primeras conclusiones sobre la investigación, según informa la BBC. Por ejemplo, que las fosas oceánicas actúan como sumideros de carbono y que su papel en la regulación del clima es mayor de lo que los científicos pensaban hasta ahora.
El ciclo del carbono
"Se trata de la primera vez que hemos sido capaces de instalar sofisticados instrumentos a tal profundidad para medir la cantidad de carbono almacenado", explicó el investigador Ronnie Glud a la BBC. "Básicamente, queremos comprender cuánto material orgánico -es decir, el material producido por algas y peces en zonas menos profundas- se deposita en el lecho marino, y si esta materia es devorada por las bacterias o degradada, o queda enterrada", afirma Glud. De esta forma esperan obtener una fotografía general que muestre hasta qué punto el océano puede capturar carbono en el ciclo global.
"Aunque estas fosas sólo cubren el 2% de la superficie oceánica, pensamos que podrían ser desproporcionadamente importantes, ya que es probable que acumulen mucho más carbón debido a que actuarían como una trampa, de modo que en su fondo se acumularía más materia orgánica que en otras partes del océano. Así lo sugieren los resultados de los primeros experimentos realizados", afirma.
Una sonda recubierta de titanio
El robot fue lanzado desde un barco y tardó tres horas en llegar al fondo de la fosa, donde llevó a cabo una serie de experimentos. La presión a casi 11 kilómetros de profundidad es 1.000 veces superior a la que hay fuera del agua, por lo que sus sensores estaban recubiertos de un cilindro de titanio capaz de resistirla.
El siguiente paso de este equipo internacional de investigadores será calcular qué cantidad de carbono se acumula en el fondo del océano comparada con otras zonas. De esta forma, esperan poder determinar qué papel juegan las fosas oceánicas en la regulación del clima.
En esta investigación participan el Instituto de Microbiología Marina Max Planck de Bremen (Alemania), La Agencia Japonesa de Ciencia Marina y Terrestre y Tecnología (JAMSTEC) y la Universidad de Copenhague (Dinamarca).

Juguetes del mañana


Tengo entendido que la ventana que tienen hoy en día los niños para jugar con juguetes es cada vez más pequeña. La gran mayoría prueba los videojuegos sobre los ocho o nueve años de edad y desde entonces buena parte del ocio pasa a ser electrónico.
Para los de edades inferiores, sin embargo, las barreras entre juguetes físicos y virtuales cada vez están más difusas. Xataka recogía ayer, por ejemplo, la noticia del lanzamiento de los nueva gama de cochecitos Hot Wheels Video Racer de Mattel. Se han anunciado en el CES y son similares a los cochecitos de toda la vida, pero incluyen en el frontal una cámara capaz de captar la “acción” a 30 o 60 cuadros por segundo. El resultado puede verse luego en una pantalla LCD situada en la parte inferior del vehículo o descargarse a un ordenador a través de USB.
Con cada coche Mattel incluye un software de edición simple pero que viene con transiciones y cortinillas para los vídeos y la posibilidad de subir los resultados a la red para compartir con los amigos. La idea es que estos coches sean, además de un juguete, la primera cámara de vídeo de los más pequeños de la casa. Cuestan unos 45 euros al cambio. ¿Excesivo? Tal vez, pero no es el único ejemplo. No hace mucho una Barbie presumía también de webcam escondida en su cuerpo de plástico. La muñeca funciona con dos pilas AAA y tiene un pequeño LCD en la espalda para ver los vídeos.
Una idea más interesante, en cambio, es la que Intel ha presentado durante este CES. La idea es utilizar superficies “inteligentes” capaces de detectar el juguete con el que juega el niño y proyectar un mundo virtual a su alrededor. En este vídeo de demostración un dragón fabricado con Lego escupe un fuego virtual que incendia una casa cercana. Al acercar un camión de bomberos el sistema proyecta la imagen de un chorro de agua extendiendo el incendio. Por ahora puede que no sea práctico o económico pero es sin duda un aperitivo de los juguetes con los que jugará la próxima generación, objetos que mezclaran el mundo real y virtual gracias a sensores internos, el uso de cámaras y proyectores o incluso pequeñas aplicaciones de realidad aumentada en la pantalla del teléfono móvil.

Wikileaks provoca el despido de un directivo de Galileo


La empresa alemana de fabricación de satélites OHB System AG, ha despedido a su director general, Berry Smutny, después de que Wikileaks filtrara que éste considera el proyecto Galileo "una idea estúpida". Su ex empresa va a aportar al menos 14 satélites a este proyecto, que pretende construir un 'GPS' europeo.

Berry Smutny. | ESA
La filtración forma parte de los cables diplomáticos de EEUU que Wikileaks ha proporcionado a varios medios de comunicación a lo largo de los últimos meses. En esta ocasión, fue el periódico noruego 'Aftenposten' el que se ha hecho eco de una conversación de octubre de 2009 entre Smutny y diplomáticos de la embajada de EEUU en Berlín. Durante el encuentro, el ya ex director de OHB System AG habría manifestado que el programa Galileo "es una idea estúpida" y un gasto de dinero donde "priman los intereses franceses".
Aunque Smutny niega el contenido de la filtración, la empresa ha decidido despedirle por unanimidad, según publican en una nota de prensa. El cable diplomático refleja que Smutny estaba convencido de que su empresa ganaría un contrato en diciembre de 2009 para construir "una parte significativa de los satélites del Galileo". Los contratos se firmaron en enero de 2010 y el fabricante se aseguró la construcción de 14 satélites.

El sistema Galileo

Galileo es un sistema global de navegación por satélite desarrollado por la Unión Europea que pretende competir contra el sistema ruso GLONASS y, sobre todo, contra el GPS estadounidense, líder del mercado y bajo control militar. El sistema europeo será de uso civil y se espera que entre en funcionamiento en 2014.
El sistema está formado por una red 30 satélites en órbita alrededor de la Tierra que servirá para ubicar elementos de manera precisa y tendrá multitud de aplicaciones, desde el aterrizaje de aviones hasta la coordinación de transacciones científicas.

Secuenciar el genoma de una persona en minutos


El equipo de Joshua Edel, del Imperial College de Londres, ya ha puesto a punto un prototipo del sistema que ellos creen que podría ser, dentro de unos diez años, una herramienta plenamente operativa y comercial de secuenciación ultrarrápida de ADN.

La investigación sugiere que los científicos podrán acabar consiguiendo secuenciar un genoma completo con un solo proceso en el laboratorio, algo muy distinto de lo que sucede en la actualidad, en que solo se puede secuenciar un genoma después de dividirlo en fragmentos mediante un proceso altamente complejo y que requiere mucho tiempo.

La secuenciación rápida y barata del genoma permitiría a la gente común conocer los secretos de su propio ADN, ya que la secuenciación revelara cosas como su grado de susceptibilidad personal a enfermedades como el Mal de Alzheimer, la diabetes y el cáncer. Los profesionales del ámbito médico ya están usando la secuenciación del genoma para profundizar en temas de salud relacionados con la población en general, y para investigar maneras de personalizar tratamientos médicos o estrategias de prevención.

En comparación con la tecnología actual, el nuevo dispositivo podría permitir una secuenciación mucho ms barata. Secuenciar un genoma costará lo unos pocos dólares, frente al millón de dólares que costaba en 2007 secuenciar un genoma completo.
Los experimentos iniciales con esta nueva tecnología sugieren que, en teoría, podría hacerse una exploración completa de los 3.165 millones de bases en el genoma humano en cuestión de minutos. Esta rapidez proporcionara enormes mejoras para los exámenes médicos, o para la preparación de perfiles de ADN en el ámbito policial. Además de ms rápida, también debiera resultar ms fiable que los sistemas convencionales actuales.

Un preparado de leche y orina de camello, puede poner fin al cáncer


Un grupo de científicos descubrió un medio de lucha contra el cáncer en base a la leche de camello y orina, que fue probado ya con éxito en ratones y ahora se espera su aplicación en personas, reveló Abdullah A.Alnadzhar, presidente del Fondo de Ciencia árabe y Tecnologías, citado por The Times of India.

El experimento realizado por expertos de la universidad Sharjah y el Instituto del Cáncer en Bagdad, reveló un rasgo asombroso del sistema inmunitario de los camellos, que gozan de un "rejuvenecimiento” cada vez que los científicos toman pruebas de su leche y orina.

La mezcla recibida, según los expertos dirigidos por Sabah Dzhasema de Arab Biotechnology Company, cura la leucemia y es capaz de vencer otros tipos de enfermedades oncológicas.

Los científicos afirmaron que todos los animales enfermos de laboratorio, se curaron en 100 % de los casos.

El revolucionario preparado les fue introducido hace seis meses y hasta ahora están vivos y activos, como otros ratones sanos.

Al parecer, el preparado contiene moléculas que atacan las uniones venenosas en las células cancerosas, sin provocar efectos secundarios. La mezcla ya fue registrada en el departamento Británico de patentes.

NUEVAS EN ASTRONOMÍA


Un recorrido rápido por las últimas noticias astronómicas.

I - EL SOL SUFRE UN 'ATAQUE' DE COMETAS

En la segunda mitad de diciembre de 2010 el Sol sufrió un verdadero ‘ataque’ de cometas: en tan solo 10 días más de 20 cuerpos celestes “se zambulleron” en el astro, informó la web de la NASA.

La ‘tormenta de cometas’ empezó el 13 de diciembre y finalizó el 22 de diciembre de 2010. Durante este periodo, el observatorio espacial SOHO (Solar and Heliospheric Observatory en inglés) de la NASA detectó 25 cometas 'rozando' el Sol.

Normalmente el SOHO registra un cometa de este tipo, que se sumerge en el Sol o se evapora en sus proximidades, una vez cada varios días. Recientemente se informaba que a partir del lanzamiento del SOHO en 1996 el aparato ha detectado más de 2.000 cometas rasantes. Sin embargo, “25 cometas en cuestión de 10 días es algo sin precedentes”, señaló Karl Battams, colaborador del Laboratorio de Investigaciones Navales (NRL), en Washington.

Los cometas observados son fragmentos de “hielo sucio” cuyo diámetro no excede de 10 metros. El primero en detectar una ‘tormenta de cometas’ en las imágenes facilitadas por el SOHO fue el astrónomo aficionado polaco Michal Kusiak.

Kusiak, al igual que Battams, sostiene que el fenómeno observado puede presagiar la aparición de un cometa rasante mucho más grande y brillante, similar al cometa Ikeya-Seki que se presentó repentinamente en 1965 y se acercó al Sol a una distancia de sólo 450 kilómetros.

Este objeto gigantesco, con cinco kilómetros de diámetro, sobrevivió a la aproximación al Sol y se convirtió en uno de los cometas más brillantes del milenio, siendo visible incluso de día.

Según los conocimientos astronómicos actuales, la mayoría de los cometas rasantes al Sol pertenecen a la denominada familia Kreutz, en homenaje al científico alemán Heinrich Kreutz, quien demostró su interrelación a finales del siglo XIX. Y el astrónomo estadounidense Brian Marsden calculó que probablemente su progenitor fue el Gran cometa tipo Kreutz observado en 1106.

Según el astrónomo Matthew Knight del observatorio Lowall, situado en Flagstaff, estado de Arizona, en 1997 SOHO detectó 69 cometas, pero en 2010 su cantidad ya alcanzó los 200. Sin embargo, el científico afirma que todavía no disponemos de la información necesaria para predecir cuándo “tendremos el privilegio de ver uno de los verdaderos 'monstruos”, en referencia a esos grandes cometas.

Fuente: RT

II - LAS TORMENTAS DE LA TIERRA LANZAN ANTIMATERIA AL ESPACIO


El fenómeno se repite unas 500 veces cada día en el planeta, pero nunca antes había sido observado.

El telescopio espacial Fermi de la NASA ha descubierto que las tormentas de la Tierra lanzan al espacio haces de antimateria.

Estas partículas, que funcionan como la imagen ante el espejo de la materia -por ejemplo, un antielectrón, también conocido como positrón, no es más que un electrón con carga positiva- y que los científicos creen que ayudaron a formar el Universo tal y como lo conocemos, se originan en un destello de rayos gamma, una breve explosión que parece estar relacionada con los relámpagos.

Los científicos estiman que se producen unos 500 estallidos como estos cada día, pero la mayoría no son detectados. El hallazgo ha sido presentado durante la reunión de la Sociedad Astronómica Americana en Seattle y será publicado en la revista Geophysical Research Letters.

«Estas señales son la primera evidencia directa de que las tormentas crean haces de partículas de antimateria», explica Michael Briggs, miembro del equipo del Monitor de Estallidos de Rayos Gamma de Fermi en la Universidad de Alabama en Huntsville.

El telescopio está diseñado para seguir los rayos gamma, la forma de luz de mayor energía. Cuando la antimateria colisiona con una partícula de materia normal, ambas partículas inmediatamente se aniquilan y se transforman en rayos gamma.

El detector del Fermi ha encontrado rayos de este tipo con energías de 511.000 electronvoltios, una señal que indica que un electrón ha encontrado a su homólogo en la antimateria, el positrón.

Misterio cerca de casa
El Fermi vigila constantemente todo el cielo. «En órbita durante menos de tres años ha demostrado ser una asombrosa herramienta para estudiar el Universo», apunta Ilana Harrus, investigadora del programa Fermi en las oficinas centrales de la NASA en Washington. «Ahora sabemos que también puede ser clave en misterios que están mucho más cerca de casa».

En la mayoría de los destellos de rayos gamma observados, la nave permanecía situada justo por encima de la tormenta, pero en cuatro casos se encontraba bastante lejos, a muchos kilómetros de distancia de los rayos.

Por ejemplo, durante uno de estos casos, ocurrido el 14 de diciembre de 2009, Fermi se situaba en órbita sobre Egipto. Sin embargo, la tormenta activa azotaba Zambia, a unos 4.500 kilómetros al sur. «Aunque Fermi no podía ver la tormenta, la nave estaba magnéticamente conectada a la misma», explica Joseph Dwyer, del Instituto Tecnológico en Melbourne, Florida.

La detección de positrones demuestra que muchas partículas de alta energía son expulsadas desde la atmósfera. De hecho, los científicos creen que todos los rayos gamma emiten haces de electrones y positrones.

Sin embargo, «aún tenemos que descubrir qué es lo que hace que estas tormentas sean especiales y qué papel desempeñan los rayos en el proceso», reconoce Steven Cummer, de la Universidad de Duke.

Fuente: ABC.es

III - NASA ANUNCIA “SIGNIFICATIVO PASO” EN EL DESCUBRIMIENTO DE PLANETAS HABITABLES

El descubrimiento del Kepler-10b, el menor planeta jamás detectado fuera de nuestro sistema solar, es considerado por NASA como un paso fundamental para encontrar otros planetas habitables.


El telescopio Kepler de la NASA detectó un planeta hasta ahora desconocido que manifiesta una naturaleza rocosa y cuyo tamaño es similar al de la Tierra.

Nombrado hasta ahora como Kepler-10b, el descubrimiento de este “nuevo” planeta ha sido considerado como un paso muy importante en la futura ubicación de planetas habitables más allá del nuestro.

Entre las particularidades del Kepler-10b esta el hecho de que es el planeta más pequeño jamás detectado afuera de nuestro sistema solar.

Y a pesar de que la temperatura en su interior alcanza los 1,370 C, condiciones suficientes para derretir una barra de hierro, lo cierto es que hay otras características que sugieren a los científicos la posibilidad de encontrar muy pronto un planeta habitable alternativo a la Tierra. Su tamaño es de apenas 1.4 veces el del nuestro y también orbita una vez al día alrededor de su respectivo sol.

“El descubrimiento del Kepler-10b en un suceso significativo en la búsqueda de planetas similares al nuestro” afirma Douglas Hudgins, miembro del equipo de científicos del programa de la NASA conocido como Kepler, mismo que opera el telescopio que lleva idéntico nombre.

“No obstante que este planeta no esta en una región habitable, el excitante descubrimiento es uno de esos que han resultado de esta misión y que promete el hallazgo de muchos más” concluyó.


IV - EL HUBBLE ESCUDRIÑA UNA MISTERIOSA MANCHA DE GAS JUNTO A UNA GALAXIA EN ESPIRAL

Uno de los objetos más extraños visto en el espacio visto está siendo examinado por la penetrante visión del telescopio espacial Hubble de la NASA. Una mancha misteriosa y brillante de gas verde está flotando en el espacio cerca de una galaxia espiral.

Hubble descubrió delicados filamentos de gas y una bolsa de cúmulos de estrellas jóvenes en el gigante objeto, que es el tamaño de nuestra galaxia, la Vía Láctea.

Las revelaciones del Hubble son los últimos hallazgos en una investigación en curso del bautizado como Voorwerp de Hanny (Objeto de Hanny en holandés), en reconocimiento a Hanny van Arkel, el profesor holandés que descubrió la estructura fantasmal en 2007 durante su participación en el proyecto online Galaxy Zoo.

Galaxy Zoo recluta aficionados para ayudar a clasificar más de un millón de galaxias catalogadas en el Sloan Digital Sky Survey. El proyecto se ha ampliado para incluir el catálogo del Hubble, en el que se demanda ayuda de aficionados para escudriñar decenas de miles de galaxias en las imágenes profundas del telescopio espacial.

En la aproximación más afinada al 'Voorwerp de Hanny', las cámaras del Hubble han descubierto el nacimiento de estrellas en una región del objeto verde que da a la galaxia espiral IC 2497, situada a unos 650 millones de años luz de la Tierra.

Las observaciones de radio han demostrado una salida de gases derivados del núcleo de la galaxia.

Las nuevas imágenes del Hubble revelan que el gas de la galaxia está interactuando con una pequeña región del Voorwerp de Hanny, que se está derrumbando y formando estrellas. Las estrellas más jóvenes solo tienen un par de millones de años.

"Los cúmulos estelares están localizados, confinados a un área que es de unos pocos miles de años luz de diámetro", explica el astrónomo William Keel de la Universidad de Alabama en Tuscaloosa, que dirigió el estudio.

"La región puede haber estado produciendo estrellas durante varios millones de años. Son tan débiles que previamente se perdieron en la luz brillante del gas que lo rodea."

Observaciones recientes de rayos X han revelado por qué el Voorwerp de Hanny llamó la atención de los astrónomos. El núcleo de la galaxia produjo un cuásar, un faro de luz de gran alcance propulsado por un agujero negro.

El quásar disparó un amplio haz de luz en dirección al Voorwerp de Hanny, iluminando la nube de gas y convirtiéndola en una rareza espacial. Su color verde claro se produce a partir del oxígeno resplandeciente.

"Acabamos de perder la captura del quásar, porque se apagó hace no más de 200.000 años, así que lo que estamos viendo es el resplandor del cuásar", dice Keel. "Esto implica que puede apagarse y encenderse, lo que es típico de los quásares, pero nunca habíamos visto que un cambio dramático suceda tan rápidamente", añadió.

Las Resonancias Schumann y la Salud Humana


Lewis B. Hainsworth de la región Occidental de Australia fue el precursor de las primeras investigaciones relativas al reconocimiento de señales relacionadas entre las frecuencias cerebrales y los ritmos de reconocimiento de las ya entonces conocidas como Resonancias Schumann (RS), ubicadas en el espacio comprendido entre la superficie de la Tierra y la Ionosfera.Los resultados de la investigación independiente de Hainsworth fueron compartidos en 1975 y posteriormente investigados en profundidad por el Dr. Robert O. Becker experto en contaminación electromagnética en el Departamento de neurología de la Universidad de Harvard.
En 1977 este fenómeno (la relación entre los ritmos cerebrales y el espectro de las señales de Extremadamente Baja Frecuencia (ELF) constituyeron las bases para el estudio realizado por Itzhak Bentoy “Stalking the Wild Pendulum”.

En dicho estudio, se analizó la correlación existente entre las ondas cerebrales y las RS. Una investigación posterior, confirmó de nuevo la relación existente entre la salud humana y el bienestar y determinados fenómenos psíquicos relacionados con las RS. (Dutton 1977).

Hainsworth ya anticipó una clara distinción entre la contaminación electromagnética peligrosa y la existencia de las Ondas Electromagnéticas beneficiosas, tomando como referencia los pulsos electromagnéticos procedentes de tecnologías como HAARP [High-frequency Active Auroral Research Program], altamente peligrosas, pues supone el envío de violentas pulsaciones hacia la Ionosfera terrestre y que potencialmente pueden interferir las RS en la superficie del planeta y ciertamente afectar a toda la biosfera y en particular al comportamiento y la salud del ser humano.

Recientemente, algunos investigadores como (RL Guerrero y D. Broers 2010) han descubierto que las frecuencias de las RS se han ido incrementando en algunos ciclos por segundo respecto a las mediciones efectuadas por Polk y en consecuencia afectando la lógica de los procesos biofísicos, las estructuras del ADN y los procesos de negociación del sistema nervioso.

Este proceso se ha denominado: Relación Ionogenomática y se define como la interelación entre la biofísica, la ionosfera y el ADN, mediante los paquetes de datos que van asociados a las RS.


El ingeniero de Telecomunicaciones Lewis B Hainsworth, fue el primero en sugerir que la salud humana estaba vinculada con los parámetros geofísicos através de las RS naturales.

En su hipótesis original, los ritmos de actividad alfa cerebral interactuaban con las RS armonizando los procesos de las señales electromagnéticas del cerebro. Hainsworth, añadía que la percepción de bienestar y/o malestar físico estaba en relación causa-efecto con las ELF, por lo que las interferencias en las RS Ionosféricas, alterarían igualmente la salud.

Finalmente Hainsworth concluía que las frecuencias procedentes de las ondas cerebrales interactuaban con las emisiones RS y generaban respuesta, por lo que la lógica de este proceso está interconectada con el proceso evolutivo del ser humano. Hainsworth, concluye que las variaciones en los patrones de las RF y su interacción con las ELF podrían producir efectos desastrosos o beneficiosos para la salud humana.

La naturaleza de los estímulos aplicados, hace complicada la tarea de identificar las respuestas directamente, ya que éstas generalmente se evidencian en la forma de procesos de estados de stress o estados alterados de conciencia.

Las perturbaciones asociadas a dichas variaciones implican un drástico incremento en desórdenes mentales, conducta antisocial, somatización de estados de dolor y otras perturbaciones neurológicas. Así mismo, las interferencias en el proceso de negociación con las RS, también han estado asociadas con procesos de crecimiento anormal de tejidos (cancer) e inmunodeficiencia.

Todos estos factores podrían condicionar la aparición de nuevos trastornos y enfermedades probablemente acompañados por una menor resistencia a las infecciones menores, asociado a un incremento anormal de la proliferación de tejidos celulares, incremento del cáncer defectos congénitos de nacimiento, infertilidad y un incremento generalizado de los trastornos psicológicos, adicción a las drogas y suicidio.

Estos problemas psico-socio-biológicos incrementan en escala a medida que existen desviaciones desde los ciclos normales del alfa de 10.4Hz a 13 Hz, con cambios detectables en las características psicológicas y las abilidades mentales.

En este sentido, Hainsworth apuntaba ya que la interacción en el proceso podría interferirse o reforzarse por el propio individuo, de manera que éste adquiriese capacidades autónomas para autoregular sus procesos biofísicos en los procesos de salud consciente. Sin embargo el estudio de Hainsworth se centra únicamente en el nivel inconsciente.

Finalmente Hainsworth señala la necesidad de investigar en el marco de las medidas naturales de las señales de RS así como sus interferencias, variaciones, y amplitudes de onda, anchos de banda, espectros y compararlas con las estadísticas existentes de ataques cardiacos, tentativas de suicidio, accidentes en carretera, violencia social, accidentes domésticos, crímenes, etc.

En esta línea, surgen estudios como los llevados a cabo por Krippner y Persinger en 2001, en los que se buscan correlaciones entre experiencias psíquicas y movimientos de las placas tectónicas, así como la percepción de realidades cuánticas, informes de abducciones, avistamientos de OVNIS y otras experiencias biofísicas vinculadas a la modulación de las Resonancias Schumann.

Curiosamente en el estudio realizado por Krippner y Persinger, se adopta una metodología necesaria para ulteriores investigaciones que nos permitirán entender muchos de los aspectos que Hainsworth apunta y que Broers y yo consideramos esenciales.

En la misma línea, existe una evidencia fuerte de interacción entre la radiación microondas y los espectros de modulación de las RS. En este punto (Miller & Miller 2001), relacionan los efectos a corto, medio y largo plazo de las interacciones entre las ELF y las señales de HAARP.

En (“Synthetic Telepathy” Miller; Miller 2001), exponen los efectos de las ramificaciones residuales de la contaminación electromagnética y sus consecuencias en los ritmos de modulación de 10 a 50 Hz en el sistema humano.

En (The Diamond Body, 1981 Miller; Miller), ya se expone de forma extensa una aproximación a los beneficios de las RS y el bienestar humano, precisamente relacionado con los ritmos conscientes de relajación natural.

Cuando una persona entra en un estado de relajación profunda, sus ritmos cerebrales y cardíacos pueden ser detectados en un Electro Encefalograma y un Electro Cardiograma, en un ritmo que oscila en un rango comprendido entre los 7 a los 8 Hz.

En este estado, la RS de emisión aparece cuando la frecuencia natural de vibración de un órgano es amplificada por las vibraciones de otro órgano a la misma frecuencia. Denominamos este proceso como efecto Miller o principio de coherencia de las RS.

La cuestión de base implica la capacidad explícita de contagio de las RS, o la externalidad positiva del bienestar a nivel armónico. La relajación coherente, implica la convergencia armónica con los niveles de la RS en todos los órganos del cuerpo humano y por efecto de transmisión entre todos los individuos que realizan el mismo experimento.Los osciladores alteran el entorno de una forma periódica. Si la onda genera un oscilador armónico de señal larga, incrementa el espectro de amplificación natural de la resonancia, haciendo que el resto de los órganos del cuerpo sintonice la misma señal.

De la misma forma existe una jerarquía de frecuencias individuales y colectivas que enlazan nuestros estados de ánimo y percepciones psicológicas con los osciladores armónicos geofísicos de la carga electromagnética de la Tierra, que curiosamente genera impulsos en el espectro de Polk: De 7Hz a 50Hz.

Por simplificar, el efecto consiste en sintonizar de forma conjunta las mismas frecuencias desde diferentes espectros de banda, de forma que la resonancia sea convergente precisamente en el espectro de Polk. A este efecto le denominamos convergencia diferencial y es función directa de la convergencia de los diferenciales König-Guerrero de cada ser humano.

Los osciladores alteran el entorno de una forma periódica. Recientes estudios realizados por los hermanos Correa, han determinado que existe una relación lógica entre las estructuras subcuánticas del gravitón y el escenario de modificación del enrejado del quantum.

A esta relación causa/efecto entre un impulso energético logarítmico y la modificación de fases de la estructura mallada de la onda gravitón fase/gravitón energía, la denominamos impulso de oscilación.

El impulso de oscilación es capaz de modificar la estructura onda/energía, generando una correlación implícita con la estructura de las partículas fundamentales conocidas.


De igual manera, los osciladores alteran el entorno de emisión-recepción, en el organismo. Así, las ondas que se generan desde dentro de él, modulan su oscilación en función de los estados de relajación, concentración y concentración, ampliando el período de la señal.

En el caso contrario, los estados de ansiedad, nerviosismo e irritación, acortan el periodo de ésta.

Cuando trabajamos de forma prolongada y consciente los estados de relajación, estamos interactuando con los procesos biofísicos de los receptores AMPA y NMDA, que actúan como amplificadores de la resonancia entre las RS Externas y los circuitos descritos en el IRCAISCIC20100703.

Recientemente se ha demostrado que el Ca++ y la Calmodulina, son los responsables de la generación de este efecto de resonancia electromagnética interna. Por así decirlo, la suma de un Ión de Calcio (+) marca la diferencia entre el estado normal y la señal modulada respecto de la recepción de las frecuencias medidas por Polk.

La sintonización óptima se produce en el entorno de los 13Hz, que justamente coincide con la banda superior de oscilación del alfa y la banda superior del pico de frecuencia intermedia de las RS correspondientes al diagrama de Polk.

Curiosamente se ha detectado que en este proceso de convergencia, existe una coherencia de señal en el resto de las constantes biológicas del individuo.

En concreto, la señal del electrocardiograma y el electroencefalograma de individuos en estado de relajación, presentan exactamente idéntico perfil de señal.

De esta forma, definimos la convergencia en términos de una función de transformada de Fourier convergente entre las Frecuencias de la Tierra medidas por Polk y las frecuencias oscilantes estabilizadas en el ser humano.

Cuando Tierra y Ser humano, resuenan a la misma frecuencia de forma continua, se genera el efecto biofísico estudiado en IRCAISCIC20100703 y la consecuencia prolongada de esta convergencia potencia los procesos del aprendizaje, el bienestar y la regeneración celular de tejidos.

A largo plazo, interactúa con el ADN, mediante la producción de aminoácidos que actúan como Qbits en los procesos de replicación, sin intervención de los puentes de hidrógeno.

Nuestro planeta está rodeado de una capa de partículas cargadas eléctricamente que conforman la ionosfera. La capa inferior de ésta se extiende a unos 60-80 Km de la corteza y actúa como una pantalla reflectora de ondas de radio, filtrando una pequeña parte residual de ellas.

Las fluctuaciones naturales de estas ondas se producen de forma diaria como consecuencia de las tormentas solares, de los rayos cósmicos procedentes del espacio y de las ondas subcuánticas y cuánticas procedentes del centro de la Galaxia.

En la medida en que la ionosfera está altamente ionizada con cargas positivas, y la Tierra con cargas negativas, se produce una diferencia que actúa como un generador natural de energía. Este potencial diferencial de energía, es variable, pero oscila como media entre los 150-250 voltios por metro.

Los vientos solares al interactuar con las capas superiores de la atmósfera que están en continua convención, actúan como un generador de producción continua de energía. La capa inferior de la atmósfera, actúa como un acumulador de energía, como una batería.

Esta misma relación electromagnética afecta a nuestro organismo, que es capaz de interactuar también con las cargas electromagnéticas de la Tierra y de las capas inferiores de la atmósfera, modificando y retroalimentando flujos de energía.

Una manifestación externa de este efecto, es nuestra capacidad de gestionar la electricidad estática. Por así decirlo, generamos nuestro propio campo electromagnético, como consecuencia de las diferentes reacciones Bioquímicas que somos capaces de generar.

En 1957, el Físico Alemán Dr.W.O.Schumann calculó las frecuencias correspondientes a la caja de resonancia generada por la interacción entre la Tierra y la Ionosfera, y fijó entre 7,8 y 13Hz la resonancia permanente y predominante de la Tierra.

Ya sabemos que la salud humana está interconectada con los parámetros geofísicos mediante las Resonancias Schumann. Igualmente en esta línea un gran número de estudios científicos se han realizado para determinar la relación entre las tormentas ionosféricas y el geomagnetismo.

De hecho, la relación ionogenomática es la que nos proporciona las claves que ya apuntó Hainsworth y que indirectamente Miller ha demostrado a nivel biofísico con la formulación del principio de Miller o de coherencia: Ese efecto contagio, es la prueba de la comunicación convergente y desde 2010, sabemos determinar el punto exacto de la oscilación en función del potencial del generador humano: El Diferencial König-Guerrero. (DKG)

La modulación convergente del DKG, oscila en estructuras tribanda y pentabanda, al igual que cualquier antena de telecomunicaciones.

Cada ser humano presenta una configuración biofísica diferente, pero oscilante en la banda de frecuencia de anclaje comprendida entre los 5-6 Hz (la banda inferior), los 7-8Hz (la banda intermedia) y los 8.5-9Hz (la banda superior).

Se denomina banda de anclaje, porque corresponde a los valores desde los que cada ser humano intersecta la frecuencia de la Tierra, entre los 7,8-13Hz. Precisamente es desde los valores de la franja inferior del Alfa, donde se alcanza el óptimo de resonancia por conexión (El superior del Alfa o Alfa consciente en los 12,9Hz).

Esta estructura se denomina convergente, ya que es capaz de oscilar y sintonizar con la banda permanente de la Tierra, medida por Schumann, y se representa como una función Convergente de Transformada Fourier que toma como valores de referencia los representados en el diagrama de medición de Polk.Cuando los estados del individuo son alterados o involuntarios, la disposición de los valores del Alfa presenta dificultades de acceso, por lo que denominamos estados adivergentes a situaciones prolongadas en el tiempo que mantienen una dispersión entre los valores correspondientes a los ritmos biofísicos y los valores de referencia representados en el diagrama de medición de Polk.

Bajo estas circunstancias se aprecian estados inarmónicos de ánimo, salud, etc…

Finalmente, un porcentaje muy reducido de individuos (5%), presenta una configuración biofísica no convergente con las Resonancias Schumann sin que se aprecie sensibilidad alguna a las oscilaciones de las bandas, ni tampoco se detecten patrones de dispersión en los rangos de Polk.

Curiosamente y a diferencia del resto, presentan capacidades de gestión de ritmos constantes de Stress y Rendimiento alto en valores próximos a 77Hz, manteniendo inalteradas sus constantes vitales.

Presentan un diagrama emocional plano y sus constantes vitales “aparentemente” no varían en función de sus estados de ánimo reportados.

Resulta extremadamente curioso comprobar cómo este pequeño porcentaje de individuos no manifiesta sensibilidad alguna a los estados emocionales. Son capaces de acelerar del reposo a la actividad máxima, de estados de reposo físico a máximo rendimiento, sin experimentar emociones, ni sentimientos.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX