Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 12 de diciembre de 2008

'OneGeology': el primer mapa geológico global en formato digital accesible desde internet


El Año Internacional del Planeta Tierra (AIPT) ha impulsado la creación del primer mapa geológico global en formato digital, accesible desde Internet. Se trata del proyecto OneGeology, y en su elaboración está participando activamente el Instituto Geológico y Minero de España (IGME).

Éste fue uno de los aspectos más destacados ayer en una jornada científica celebrada en el Ateneo de Madrid para hacer balance del AIPT, que contó con la participación de un prestigioso elenco de científicos nacionales como José Luis Sanz, catedrático de Paleontología, Juan Luis Arsuaga, codirector del yacimiento de Atapuerca, Jerónimo López, experto en cambio climático o José Manuel Sánchez Ron, catedrático de Historia de la Ciencia, entre otros.

OneGeology, una iniciativa internacional de todos los institutos geológicos del mundo dará lugar a un mapa digital dinámico e interactivo accesible para todos los internautas, creando un punto de encuentro para el acceso a información geológica.

Para el geólogo Simon Winchester, autor del libro 'El mapa que cambió el mundo', "la idea de producir un mapa digital de los tendones y músculos de nuestro planeta vivo, de la estructura, en su mayoría invisible, de la Tierra, sostén de todas las criaturas vivientes, incluyendo la Humanidad, tiene una gran nobleza y una gran elegancia poética. La Historia juzgará de manera positiva a esta década si logramos crear una empresa cartográfica global de esta magnitud y de una visión tal".

José Pedro Calvo, director del Instituto Geológico y Minero y presidente del Comité Español del AIPT destacaba ayer que "la contribución española está siendo muy importante, ya que España dispone de una información muy sólida sobre las características del territorio dado nuestro completo conocimiento cartográfico".
Cooperación internacional

Por su parte, Eduardo de Mulder, el director ejecutivo del AIPT, destacó que "el principal éxito de este proyecto ha sido involucrar muchas naciones en el mundo que han demostrado un interés muy activo. Tenemos más de 75 países que han formado un comité nacional, como es el caso de España, y que en conjunto representan el 80% del total de la población mundial. El resultado ha sido muy significativo".

Las actividades del AIPT, un proyecto bajo el auspicio de la Unesco, se han centrado en 10 áreas: aguas subterráneas, riesgos naturales, Tierra y salud, clima, recursos naturales, megaciudades, tierra profunda, océanos, suelos y Tierra y vida.

"No hemos podido realizar grandes proyectos, sino que hemos animado a proyectos que ya contaban con financiación a que se desarrollasen en la agenda del Año Internacional. OneGeology es nuestro proyecto internacional más importante", explicó De Mulder.

En cuanto a la repercusión inmediata que el AIPT ha tenido dentro de nuestras fronteras, Calvo considera que "ha supuesto un gran impulso para la difusión de las geociencias en nuestro país, ya que al ciudadano le ha llegado una amplia información sobre los 10 bloques temáticos que articulan la celebración y además, se ha producido una gran movilización dentro de la comunidad científica tanto en el ámbito universitario como en los organismos públicos de investigación y de enseñanza primaria y secundaria".

El aspecto educativo del proyecto es algo que Calvo considera prioritario: "Yo diría que es el tema central del Año Internacional del Planeta Tierra a nivel mundial, acercarse a los jóvenes, porque hay muchos problemas relacionados con el planeta que necesitan expertos que en el futuro sepan gestionarlos adecuadamente, y para eso se necesita conocimiento, tanto de carácter científico como tecnológico, y es evidente que ese papel lo tienen que desarrollar las generaciones futuras, nuestros niños y jóvenes".

El Reto de la Vida Arcaica Bajo una Feroz Incidencia de los Rayos Ultravioleta



Existe una fuente poderosa de energía dentro de un laboratorio en la Universidad de Alberta, Canadá. La energía es luz ultravioleta. Kurt Konhauser, profesor de ciencias atmosféricas y terrestres está utilizando esa luz para recrear la antigua atmósfera de la Tierra dentro de una caja del tamaño aproximado de un lavaplatos. La investigación tiene por objetivo averiguar cómo pudo la vida evolucionar en presencia de la radiación ultravioleta.res años atrás, Konhauser y Stephan Lalonde transformaron la caja de luz de una incubadora estándar en la máquina actual, que recrea la feroz incidencia de radiación ultravioleta en una época de nuestro planeta que Lalonde define como aterradora. "No había oxígeno en el planeta, así que no había capa de ozono, o sea, nada para filtrar la radiación ultravioleta del Sol. Es difícil de imaginar que algo sobreviviera, pero sabemos que lo hizo".

La caja de luz es única, y colocar toda esa luz en una caja fue una experiencia educativa en muchos aspectos. Los investigadores comprobaron que la luz ultravioleta es capaz de corroer las paredes interiores de acero inoxidable de la caja. "Hemos tenido que reemplazar las bisagras y el mango de la puerta porque el metal se deterioró en presencia de esta luz", explica Lalonde.

Los efectos de esos rayos ultravioleta son inimaginables en la actualidad, pero un investigador que ha trabajado con Konhauser y Lalonde comprobó, sin proponérselo, en sí mismo, cómo incidían los rayos solares en la Tierra de hace tres mil millones de años. Al abrir la cámara para hacer un ajuste rápido, sin tomar las debidas precauciones, sufrió en menos de 20 segundos una quemadura comparable a la de una jornada tomando el sol sin usar crema protectora.

La investigación se centra en averiguar cómo las bacterias en un frasco de agua resisten una exposición tan severa a la luz ultravioleta. Konhauser y Lalonde confían en que, cambiando una y otra vez la composición de la "sopa química" del agua, un día sobrevivirán las bacterias del frasco. Konhauser dice que ese será un gran momento. "Eso nos puede llevar al momento en que el primer plancton sobrevivió en la superficie del océano".

De su trabajo anterior que involucró al hierro y a bacterias, Konhauser tiene una idea de qué podría haber ocurrido. Teniendo en cuenta que había abundante hierro y silicio en los antiguos océanos de la Tierra, los microorganismos pudieron desarrollar cierta "crema protectora", una sustancia residual que las cubría y que filtraba los rayos ultravioleta.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=671:shedding-light-on-ancient-oceans&catid=41:geology&Itemid=61

Hongos, Inesperados Amortiguadores de la Acumulación de CO2 Atmosférico



La lucha contra el calentamiento climático tiene un aliado inesperado: los hongos que crecen en los bosques de piceas que cubren Alaska, Canadá, Escandinavia y otras regiones norteñas, según una nueva investigación.Cuando la tierra en estos bosques se calienta, los hongos que se alimentan con el material de las plantas muertas se secan y producen significativamente menos dióxido de carbono, gas de efecto invernadero, que los hongos en tierra más fría y húmeda.

El hallazgo ha sido una sorpresa para los científicos, que esperaban que la tierra más caliente se tradujera en una mayor emisión de dióxido de carbono, ya que se cree que el frío extremo hace más lento el proceso por el que los hongos convierten el carbono del terreno en dióxido de carbono.

Conocer cómo opera el ciclo del carbono en los bosques es crucial para predecir con precisión los efectos del calentamiento global. Esto es especialmente importante en los bosques del norte.

Se espera que el calentamiento global golpee más fuertemente a las latitudes norteñas, elevando sus temperaturas entre cinco y siete grados Celsius para el año 2100.

A la luz del hallazgo hecho en este nuevo estudio, hay alguna esperanza de que no se alcance el tan temido círculo vicioso de calentamiento y mayor emisión de los gases de efecto invernadero en una parte de los bosques boreales. Es una suerte para los humanos que los hongos sean afectados negativamente por el calentamiento. Esto podría ayudar a compensar un poco el aumento del dióxido de carbono que estamos vertiendo directamente en la atmósfera mediante la quema de combustibles fósiles.

Las tierras muy al norte contienen cantidades notables de carbono, procedente de vegetación muerta. Los hongos y las bacterias del suelo utilizan el carbono vegetal como una fuente de alimentación y lo convierten en dióxido de carbono.

Steven Allison y Kathleen Treseder, ambos de la Universidad de California en Irvine, realizaron el estudio para conocer lo que les pasa a los niveles de dióxido de carbono cuando se calienta la tierra de los bosques boreales que no contiene permafrost.

Alrededor de un tercio de los bosques boreales del mundo no contiene permafrost, el cual está localizado fundamentalmente en Alaska, Canadá, Siberia Occidental y el Norte de Europa.

Los científicos realizaron su experimento en un bosque de piceas cerca de Fairbanks, en Alaska.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=632:in-alaskas-forests-dried-mushrooms-to-the-rescue&catid=39:ecology&Itemid=59

El reino mineral ha coevolucionado con la vida



(NC&T) Robert Hazen y Dominic Papineau del Laboratorio Geofísico del Instituto Carnegie, junto con seis colegas, revisaron los procesos físicos, químicos y biológicos que gradualmente transformaron cerca de una docena de minerales primigenios, provenientes de granos de polvo interestelar antiguo, en las miles de especies minerales presentes en la Tierra actual. A diferencia de las especies biológicas, cada especie mineral está definida por su estructura cristalina y su composición química.

La evolución mineral es obviamente diferente a la evolución darwiniana. Por supuesto, los minerales no mutan, se reproducen o compiten como los organismos vivos. Pero los científicos han comprobado que tanto la variedad como la abundancia relativa de minerales han cambiado de modo espectacular en los más de 4.500 millones de años de historia de la Tierra.

Todos los elementos químicos, aunque en cantidades distintas, estuvieron presentes desde el principio en el polvo primigenio del Sistema Solar, a partir del cual surgió la Tierra, pero sin embargo se formaron pocos minerales. Sólo después de que los planetas y otros cuerpos grandes se enfriaron lo suficiente, se dieron las condiciones de temperatura y presión requeridas para la formación de una gran diversidad de especies minerales.

A medida que el Sistema Solar tomó forma a través de la "aglomeración gravitatoria" de pequeños cuerpos, cuyos fragmentos se pueden encontrar hoy en forma de meteoritos, aparecieron alrededor de 60 minerales diferentes. Los cuerpos mayores, de tamaño planetario, especialmente aquellos con actividad volcánica y con cantidades significativas de agua, pudieron haber dado origen a varios centenares de especies minerales nuevas.

Evolución del reino mineral

Sin embargo, sólo en la Tierra, al menos en nuestro Sistema Solar, el progreso de la evolución mineral pasó a las siguientes etapas. Un factor crucial fue la agitación del interior del planeta por la tectónica de placas. Exclusiva, hasta donde se sabe, de la Tierra, la tectónica de placas creó nuevos tipos de ambientes físicos y químicos donde se podían formar otros minerales, y en consecuencia eso fomentó la diversidad mineral hasta más de mil tipos.

Lo que finalmente tuvo el mayor impacto en la evolución mineral, sin embargo, fue la aparición de la vida, hace alrededor de 4.000 millones de años. De las aproximadamente 4.300 especies minerales conocidas hoy en la Tierra, posiblemente en las dos terceras partes de ellas intervino la acción biológica. Ésta es principalmente una consecuencia de nuestra atmósfera rica en oxígeno, el cual es un producto de la fotosíntesis realizada por algas microscópicas. Muchos minerales importantes son productos oxidados por el medio ambiente, incluyendo menas de hierro, cobre y muchos otros metales.

Los microorganismos y las plantas también aceleraron la producción de diversos minerales de arcilla. En los océanos, la evolución de organismos con conchas y esqueletos mineralizados generó depósitos de gruesas capas de minerales como la calcita, que sería rara en un planeta sin vida.

Durante al menos 2.500 millones de años, y posiblemente desde el surgimiento de la vida, la mineralogía de la Tierra ha evolucionado en paralelo con la biología.

Los 10 errores más comunes de los "linuxeros"



Un artículo de Barjeshwar.com recopila una lista con los 10 fallos más comunes que cometen los linuxeros. Aunque algunos son más propios de novatos, otros me temo que de vez en cuando los cometen los usuarios que ya llevan tiempo con este sistema operativo.

1. Entrar como superusuario: las distribuciones ya nos previenen contra esto y obligan a crearnos un usuario "normal" durante el proceso de instalación, pero algunos tienen la manía de entrar en el sistema con los máximos privilegios, algo que no es buena idea.

2. Evitar las actualizaciones: cualquier buen administrador de su sistema (en Linux todos nos convertimos en pequeños administradores) debe tener en cuenta que actualizar sus componentes es algo crítico para evitar posibles vulnerabilidades, además de para aumentar la estabilidad y rendimiento de nuestro sistema operativo.

3. Instalar aplicaciones binarias de distintos tipos: las dependencias presentes en los paquetes que utilizamos en nuestras distribuciones precisamente están destinadas a mantener la coherencia en el sistema. Si instalamos un DEB o un RPM por un lado y luego acudimos a los repositorios para resolver algunas de sus dependencias probablemente acabemos teniendo problemas. Lo más seguro: tirar de repos, desde luego.

4. Iniciar un servidor con las X: casi por definición un sistema servidor debería ser administrado sin necesidad de una interfaz gráfica, algo que provoca gasto inútil de memoria y de ciclos de procesador que deberíamos dedicar a las tareas servidoras. Vale que para configurar algunas cosas es cómodo, pero el inicio de un servidor debería ser siempre en modo consola.

5. Contraseñas débiles: este problema afecta en realidad a todos los ámbitos de nuestra vida digital, y no sólo al acceso a nuestro sistema Linux, pero es una realidad global: no uses la misma contraseña siempre y en todos los servicios/sistemas que manejas. Y a ser posible, haz que dicha contraseña sea compleja: puede que al principio te cueste acordarte, pero seguro que luego te acostumbras a ella.

6. Malentendidos con los permisos de archivos: cualquier administrador que se precie debería tener unas nociones básicas de los permisos elementales asignados a cualquier archivo (read, write, execute), y debería manejarlos con cuidado, porque dicho tipo de errores pueden provocar agujeros de seguridad muy, muy importantes.

7. No tener backups de ficheros críticos: siempre que modifiques un fichero de configuración hay que hacer primero una copia de seguridad. Sin excusas. Eso puede resolver muchísimos quebraderos de cabeza a posteriori.

8. No consultar los registros y logs: el directorio /var/log es establecido por defecto como destino de los ficheros de registro que nos permiten detectar cualquier tipo de error genérico, y aunque hay aplicaciones y utilidades que automatizan esta tarea y nos ayudan en el proceso de la monitorización de logs, nunca debemos descuidarnos y hay que prestarles atención.

9. No usar la línea de comandos: amigo mío, si eres usuario de Linux deberías estar absolutamente encantado con el terminal/consola de tu sistema. No hay un sistema mejor ni más rápido para controlar virtualmente cualquier recurso de nuestra máquina y el software y datos que tenemos instalado en ella.

10. No actualizar el kernel: algunos usuarios creen que actualizar el kernel puede ser desastroso para sus sistemas, pero para eso están los mecanismos de actualización automática de las distros, que permiten realizar este proceso con seguridad. Además, a menudo la actualización del kernel (no la instalación de cero de uno nuevo, algo más peliaguda) es una tarea que conlleva una copia de seguridad de la versión anterior. Si todo va bien ya habrá tiempo de borrar esas copias de seguridad obsoletas.

TuneUp Utilities



La nueva versión de TuneUp Utilities brinda a todos los usuarios de Windows, tanto a los inexpertos como a los profesionales, una suite de optimización completa para los PC con sistema operativo Windows que, ahora más que nunca, adopta un enfoque inteligente y experto. A diferencia de las herramientas convencionales, TuneUp Utilities 2009 no ofrece una optimización estándar y estática, sino que analiza individualmente la configuración del PC y determina las mejores medidas de optimización, basándose en los requerimientos especificados por el usuario. Además, TuneUp Utilities 2009 ofrece a cada usuario una forma fácil de optimizar el PC selectivamente, de un modo que sólo sería posible con una gran cantidad de esfuerzo y experiencia técnica. Los profesionales informáticos también se benefician de estas sofisticadas herramientas, con las que pueden desarrollan las tareas rutinarias rápida y precisamente, así como del know-how integrado en el programa, equivalente al de un experto.

TuneUp Utilities 2009 incluye todos los componentes relevantes para la optimización del PC, desde el acceso acelerado al disco duro y la limpieza de datos y entradas en el registro innecesarios, hasta la corrección de configuraciones defectuosas del sistema. En la nueva versión, los desarrolladores se han concentrado especialmente en que el usuario pueda obtener la mejor optimización posible, sin demasiado esfuerzo y manteniendo siempre el control sobre todas las intervenciones en el sistema. El programa explica cada acción y no realiza cambios encubiertos al sistema de modo independiente. Basándose en el análisis individual del PC y en la consideración de los parámetros de configuración seleccionados por el usuario, TuneUp Utilities 2009 sólo ofrece medidas de optimización lógicas y seguras para el sistema. Incluso las configuraciones erróneas, debidas a excesivos intentos de optimización realizados por otras herramientas o de forma manual, son detectadas y rectificadas.

Todo a la vista en la Página de inicio

La característica esencial de TuneUp Utilities 2009 es la nueva Página de inicio. Proporciona información, de un vistazo, sobre el estado de todas las áreas importantes del sistema, además de indicar los problemas actuales y el potencial de mejora. El usuario puede ejecutar determinadas tareas de directamente desde la Página de inicio.

Optimización selectiva con TuneUp Speed Optimizer

El nuevo TuneUp Speed Optimizer analiza la configuración del sistema operativo, los programas instalados, el hardware y los patrones de uso del usuario. Sobre la base de este análisis, determina el potencial individual de optimización del PC. La opción "Optimización rápida" enumera y explica todas las medidas que pueden llevarse a cabo, sin problemas y sin limitar la funcionalidad del ordenador, para optimizar el rendimiento del sistema. El usuario puede ejecutarlas todas con un simple clic del ratón o iniciarlas individualmente. La opción "Ficha guía de rendimiento" ofrece sugerencias para la aceleración futura del sistema y explica cuáles son las posibles medidas de acción y sus efectos de un modo fácilmente comprensible. Esta selección individual del usuario impide que la optimización sea estática y, en consecuencia, imprecisa, lo que haría que fuera insuficiente o demasiado agresiva, una típica consecuencia de una optimización del sistema realizada de la misma manera para todos los usuarios.

TuneUp Uninstall Manager

TuneUp Uninstall Manager ha sido completamente renovado. Ahora, los programas instalados no sólo son enumerados más rápidamente, sino también claramente organizados por volumen, última fecha de acceso o fecha de instalación. Para cada programa, la herramienta despliega la información sobre su historial de uso, lo que ayuda al usuario a decidir qué programas no son necesarios. Estos programas pueden ser borrados rápida y simplemente desde esta pantalla.

TuneUp StartUp Manager

El TuneUp StartUp Manager expandido es de gran ayuda en la mejora del rendimiento. Muestra de forma automática qué programas se inician automáticamente con el sistema y ofrece útil información adicional sobre los programas de inicio automático conocidos, por medio de una base de datos que TuneUp actualiza y mantiene continuamente. Ofrece recomendaciones claras para numerosos programas en función de su utilidad. Acelera el inicio automático del sistema significativamente mediante la optimización de los programas de inicio. Además, TuneUp StartUp Manager está integrado dentro de la nueva Página de inicio, donde informa al usuario sobre si se han incluido nuevos programas de inicio automático en el sistema.

Un estilo definido con TuneUp Styler

A los individualistas les encantará el nuevo TuneUp Styler: aparte de adaptar los iconos, el aspecto visual y las pantallas de inicio general e inicio de sesión, TuneUp Utilities 2009 también hace posible cambiar el logotipo de inicio animado de Vista que aparece justo antes de registrarse en la sesión. Los usuarios pueden crear sus propios logotipos de inicio o descargar una serie de animaciones creativas desde el sitio web de TuneUp. La nueva versión del módulo incluso permite al usuario diseñar su propia pantalla de inicio de sesión de Vista.

Versiones de Windows admitidas

El programa admite Windows XP y Windows Vista (tanto en su versión de 32 bits como en la de 64) y adapta automáticamente sus funciones al respectivo sistema operativo. Esto proporciona a los usuarios de Windows XP la seguridad de saber que pueden continuar utilizando el software sin ninguna restricción funcional y sin la necesidad de pagar por una actualización de mejora si migran hacia Windows Vista.

Precio y disponibilidad

TuneUp Utilities 2009 puede ser descargado desde tuneup.es y estará disponible a través del canal retail en diciembre por un precio recomendado de 39,95 euros. La actualización para los usuarios de la versión anterior cuesta 24,95 euros. También existe la posibilidad de descargar una versión de prueba de 30 días.

Microsoft anuncia ocho boletines de Seguridad para el mes de diciembre



Microsoft informa, a través de sus boletines mensuales de seguridad, de los resultados periódicos de su continua labor de investigación y mejora de sus productos y soluciones, encaminada a incrementar los niveles de seguridad de su tecnología y de todos los usuarios que la utilizan. Dichos boletines incluyen toda la información y recursos que los usuarios necesitan para mantener sus instalaciones actualizadas y, por lo tanto, protegidas ante cualquier ataque.

Dentro de esta iniciativa, en el mes de diciembre de 2008, Microsoft hace públicos ocho nuevos boletines de seguridad en los que informa de las siguientes actualizaciones:

* MS08-070 resuelve seis vulnerabilidades en los controles ActiveX para los archivos extendidos de tiempo de ejecución de Microsoft Visual Basic 6.0. Tiene un rango severo máximo crítico.
* MS08-071 resuelve dos vulnerabilidades de Microsoft Windows. Si se aprovechan estas vulnerabilidades, se podría permitir la ejecución remota de código si un usuario abre un archivo de imagen WMF maliciosa. Tiene un rango severo máximo crítico.
* MS08-072 resuelve ocho vulnerabilidades en Microsoft Office Word y Microsoft Office Outlook que podrían permitir la ejecución remota de código si un usuario abre un archivo de Word o RTF (formato de texto enriquecido) especialmente diseñado. Tiene un rango severo máximo crítico.
* MS08-073 resuelve cuatro vulnerabilidades en Microsoft Windows (Internet Explorer). Las vulnerabilidades podrían permitir la ejecución remota de código si un usuario visita una página web especialmente diseñada mediante Internet Explorer. Tiene un rango severo máximo crítico.
* MS08-074 resuelve tres vulnerabilidades en Microsoft Office Excel que podrían permitir la ejecución remota de código si un usuario abre un archivo de Excel especialmente diseñado. Tiene un rango severo máximo crítico.
* MS08-075 dos vulnerabilidades en Búsqueda de Windows. Estas vulnerabilidades podrían permitir la ejecución remota de código si un usuario abre y guarda un archivo de búsqueda guardada especialmente diseñado en el Explorador de Windows o si hace clic en una dirección URL especialmente diseñada. Tiene un rango severo máximo crítico.
* MS08-076 resuelve dos vulnerabilidades en los siguientes componentes de Windows Media: Reproductor de Windows Media, módulo de tiempo de ejecución de Windows Media Format y Servicios de Windows Media. Tiene un rango severo máximo importante.
* MS08-077 resuelve una vulnerabilidad en Microsoft Office SharePoint Server que podría provocar la elevación de privilegios. Tiene un rango severo máximo importante.

Científicos afirman que el azúcar es adictivo



Investigadores de la Universidad de Princeton, en Estados Unidos, han presentado nuevas evidencias de que el azúcar puede llegar a ser una sustancia adictiva que produce los mismos efectos en el cerebro que cualquier otra droga.

TENDENCIAS CIENTÍFICAS
Durante cuatro años, los científicos estudiaron signos de adicción al azúcar en ratas de laboratorio. Demostraron así que se producía un patrón de comportamiento en estos animales: cada vez se incrementaba más su consumo de azúcar, dando signos de sufrimiento cuando se les retiraba.

Por otro lado, los científicos también pudieron registrar el deseo urgente de azúcar y las recaídas en su consumo por parte de las ratas. El estudio del cerebro de los animales mostró asimismo que las ratas que consumieron grandes cantidades de azúcar estando hambrientas presentaron cambios neuroquímicos en el cerebro parecidos a los que produce el abuso de sustancias como la cocaína, la morfina o la nicotina.

Estos descubrimientos podrían ayudar, en el futuro, a desarrollar nuevos tratamientos para los desórdenes alimenticios en el caso de los humanos, explicaron los científicos.

http://www.princeton.edu/main/news/archive/S22/88/56G31/index.xml?section=topstories

Descubren el «circuito cerebral del odio»




¿Son polos opuestos el amor y el odio por lo que a la actividad cerebral se refiere? Un equipo de científicos del University College de Londres (UCL), Reino Unido, opinan que no lo son. Los resultados de su estudio, publicados recientemente en la revista PLoS One, señalan que, a pesar de que el odio se caracteriza por un patrón característico de actividad cerebral, el amor y el odio tienen dos estructuras en común.

os investigadores, que ya estudiaron anteriormente los mecanismos cerebrales del amor romántico y el amor maternal, se centraron en esta ocasión en el odio dirigido contra individuos como un compañero de trabajo o una antigua pareja. La muestra del estudio se componía de 17 sujetos (10 hombres y 7 mujeres con una media de edad de 34,8 años; 12 de ellos eran diestros).

Los científicos, coordinados por los profesores Semir Zeki y John Romaya del Wellcome Laboratory of Neurobiology de la UCL, investigaron las zonas del cerebro que están relacionadas con el sentimiento del odio. El «circuito del odio» no coincide con las áreas vinculadas al miedo o la sensación de peligro, pero sí con la vinculada a la agresividad.

Se observaron los cerebros de los diecisiete sujetos mientras contemplaban las fotografías de personas que odiaban y también de otras personas que conocían y por quienes tenían sentimientos neutros.

Se descubrió que, al contemplar los rostros de individuos odiados, se activaban tanto el putamen (la parte externa y rojiza del núcleo lenticular que está relacionada con la percepción del desprecio y el desagrado) como la ínsula (la corteza insular). Los autores sugieren que esta conexión podría explicar el dicho popular que afirma que «del amor al odio sólo hay un paso».

«Curiosamente, tanto el putamen como la ínsula son activados por el amor romántico, lo cual no sorprende. El putamen puede activarse en la preparación de agresiones en un contexto de amor romántico, por ejemplo si surge un rival que supone una amenaza», señaló el profesor Zeki. «Trabajos anteriores sugieren que la ínsula podría estar implicada en la respuesta a estímulos que provocan sufrimiento, como la visión tanto de un ser amado como de un rostro odiado.»

El profesor Zeki explicó que la diferencia fundamental entre el amor y el odio es que con el primero se desactivan partes extensas de la corteza cerebral, mientras que en el caso del odio sólo se desactiva una pequeña zona. «Esto sí puede resultar sorprendente, porque el odio también puede ser apasionado, igual que el amor», adujo. «Mientras que en el amor romántico el amante es a menudo menos imparcial y no atiende tanto al sentido común en lo que respecta a la persona amada, el individuo que odia puede que quiera usar la razón para calcular las acciones que emprenderá para hacer daño, herir o vengarse del individuo odiado.»

El «circuito del odio» abarca estructuras de la corteza y la subcorteza del cerebro. Según los científicos, estas estructuras poseen componentes que estimulan la conducta agresiva y la materializan en acciones mediante una planificación del movimiento. En otras palabras, el cerebro se moviliza para actuar. La corteza frontal se encarga, entre otras funciones, de anticipar las acciones de los demás, lo cual puede ser útil a una persona cuando se encuentra cara a cara con un individuo odiado.

«El odio suele considerarse una pasión nociva que, en un mundo ideal, se debería dominar, controlar y suprimir», comentó el profesor Zeki. «Pero para un biólogo, el odio es una pasión tan interesante como el amor. Al igual que éste, el odio puede ser irracional en apariencia y empujar a un individuo a actos tanto heroicos como malvados», puntualizó. «¿Cómo pueden conducir dos sentimientos opuestos al mismo comportamiento?»

El profesor Zeki matizó que, mientras que el amor romántico suele ir dirigido a una única persona, «el odio puede dirigirse a grupos o colectivos enteros, como ocurre con el odio de índole racial, política o sexual». Próximamente se proponen emprender estudios para dilucidar las distintas variedades de odio.

"Google Chrome", el navegador de Google, sale de fase beta



Google Chrome, el navegador web de código abierto de Google, deja de ser un producto en versión beta. El nuevo navegador, que facilita la búsqueda y navegación por Internet, ha alcanzado ya los diez millones de usuarios activos en todo el mundo.
12 Dic 2008 | REDACCIÓN, AP

Después de más de 100 días de trabajo para mejorar la estabilidad y el rendimiento del navegador, el producto de Google está listo para salir de la fase de pruebas "beta".

Google Chrome ha sido diseñado para mejorar la experiencia del usuario en la Red. Mientras que en los comienzos de Internet las páginas web eran poco más que simple texto, hoy en día los sitios web están diseñados para albergar potentes aplicaciones que incluyen vídeos, juegos o herramientas de colaboración entre otras. Para poder manejar esta nueva web, Google ha desarrollado su navegador basándose en los conceptos de velocidad, sencillez y estabilidad.

Desde el lanzamiento de Google Chrome en septiembre, Google ha introducido una serie de mejoras en áreas específicas, entre las que se encuentran:

• Estabilidad y rendimiento. El equipo de ingenieros de Google Chrome se ha centrado en mejorar la estabilidad del navegador, especialmente para las aplicaciones de audio y vídeo.

• Mayor velocidad. Google Chrome se inicia con mayor rapidez, carga las páginas a gran velocidad y a partir de ahora va a ser todavía más rápido gracias a las mejoras que hemos introducido en nuestro motor JavaScript V8, que contribuyen a aumentar significativamente la velocidad del navegador.

• Administrador de marcadores y controles de privacidad. A petición de nuestros usuarios hemos mejorado la administración de marcadores en Google Chrome, y además, hemos agrupado todas las características relativas a la privacidad del usuario en un único sitio, con explicaciones detalladas de cada una, proporcionando mayor control a los usuarios.

Aunque el navegador ya está listo para retirar la etiqueta beta al cumplir los objetivos en cuanto a estabilidad y rendimiento, aún queda mucho por hacer. En el futuro, se ha pensado en añadir más características a Google Chrome además de la compatibilidad para Mac y Linux.

jueves, 11 de diciembre de 2008

Conexión a Internet inalámbrica barata



La tecnología ya permitiría la implantación de una banda ancha inalámbrica que podría ser incluso gratuita.

Barak Obama se ha quejado recientemente de la poca penetración de la banda ancha en Internet en los EEUU y parece que está dispuesto a impulsar medidas para que esto cambie.Por otro lado el presidente de la Comisión Federal de Comunicaciones, Kevin Martin, propone la instauración de una conexión a Internet gratuita inalámbrica para todo Estados Unidos. Si el plan sale adelante se espera que reactive el mercado de dispositivos móviles.

Sin embargo, no todos están de acuerdo. Así, la industria de los teléfonos celulares cree que proporcionar un acceso gratuito no es un modelo de negocio plausible para la mayoría de las compañías y que instalar la infraestructura en estos tiempos de recesión económica no es fácil.

Por otro lado los que apoyan la libertad de expresión y los derechos civiles, aunque les gusta la idea, tampoco ven claro el asunto porque los proveedores se verían obligados a bloquear los contenidos pornográficos u ofensivos.
Hay también proveedores de Internet como T-Mobile que argumentan en contra del plan las posibles interferencias en el espectro electromagnético.

Algunos congresistas, de ambos partidos, que antes estaban a favor del plan se muestran ahora en contra. Obama tiene planeado de todos modos reformar la Comisión Federal de Comunicaciones y Kevin Martin tiene escasos días para aprobar su plan.
En Europa hay planes de la Comisión Europa de hacer algo similar y proporcionar banda ancha a todos los europeos, aunque su gratuidad y soporte físico puede que sea diferente. La Comisión presentó propuestas hace meses para reformar la gestión del espectro radioeléctrico a fin de liberar recursos para los nuevos servicios inalámbricos. Si el Consejo aceptara esta nueva forma de gestión del espectro se podría usar parte del espectro radioeléctrico liberado por la televisión analógica para los servicios de banda ancha inalámbricos, y no solo para nuevos canales de televisión digital, ya que entre otras cosas el mercado no admitiría tantos canales de TV comerciales como físicamente se pueden meter.

Sobre los sistemas inalámbricos de conexión tenemos el WiFi, el hasta ahora ignorado WiMax y un sistema nuevo. Ericsson ha estado experimentando recientemente con un sistema que permite una conexión inalámbrica de 21 Mbps (megabits por segundo) que utiliza tecnología denominada HSPA Evolution. Como además es la primera generación de este tipo de conexión esperan aumentar las prestaciones en el futuro. Esta velocidad es mayor que la que proporciona la mayoría de las compañías por ADSL o incluso por cable.

Las conexiones inalámbricas reducen mucho los costes de cualquier tipo de red de comunicación y sus única limitación parecía ser la velocidad. Con estas nuevas tecnologías se podría conectar a los ciudadanos entre sí a un costo muy bajo y con un mantenimiento casi nulo.

Después de todo, si hay carreteras gratuitas que son caras de construir para que podamos todos ir a trabajar, ¿por qué no hay redes de comunicación gratuitas de implantación barata para que podamos teletrabajar y así contaminar menos?

http://www.freepress.net/node/46406
http://online.wsj.com/article/SB122832671930476269.html?mod=googlenews_wsj

http://www.newscientist.com/article/dn16188-us-mulls-free-wireless-internet-for-all-.html

Pruebas a gran escala permitirán salvar edificios históricos de terremotos



Ingenieros de California levantan una construcción de tres pisos para simular seísmos

Un grupo de ingenieros de la Universidad de California en San Diego están testando la respuesta de edificios antiguos ante un posible terremoto. Para ello, han reproducido en un edificio de tres plantas al aire libre el método de construcción de los años 20 del siglo pasado para ver cómo responden a un seísmo. La finalidad de estas simulaciones es desarrollar nuevas herramientas para evaluar terremotos, así como para dirimir las mejores técnicas para modernizar estas construcciones, que además de verse en ciertas partes de los Estados Unidos, también se encuentran en muchas zonas sísmicamente activas de China y del Mediterráneo


ngenieros norteamericanos están haciendo pruebas a gran escala de cómo afectaría un terremoto a construcciones históricas y casi centenarias que no fueron levantadas teniendo en cuenta los estándares actuales. Estas pruebas permitirán saber cuál será la mejor manera de modernizarlos para que aguanten el empuje de un seísmo.

El pasado mes de noviembre, más de cinco millones de personas participaron en el mayor simulacro de seísmo realizado jamás en los Estados Unidos. El simulacro reprodujo un terremoto de 7,8 grados de magnitud. Según explicaron entonces los expertos, un seísmo así se sentiría durante unos segundos en Los Ángeles y las áreas de alrededor y, como consecuencia, 300.000 edificios quedarían destrozados, incluyendo los rascacielos, además de producirse un colapso total en los grandes entramados de oficinas y edificios públicos. Muchos de los edificios destruidos serían los construidos en las primeras décadas del siglo XX, cuando las técnicas de ingeniería no contemplaban muchos de los aspectos que hoy en día sí se tienen en cuenta en caso de terremoto.

Ingenieros de la Universidad de California en San Diego han llevado a cabo una serie de simulaciones de terremotos con las que esperan, precisamente, hacer más seguros esos edificios históricos. Los ingenieros han testado estructuras similares a las usadas en los edificios californianos levantados en los años 20 del siglo pasado, con paredes rellenas de mampostería y reforzadas con estructuras de hormigón.

Con los datos obtenidos, se podrán desarrollar nuevas herramientas para evaluar seísmos, así como para modernizar este tipo de estructuras centenarias, que no fueron levantadas según los estándares actuales. Como parte del proyecto, los ingenieros han construido una estructura de tres pisos para reproducir diferentes tipos de seísmos.

Mejorar su comportamiento

“Buscaremos también métodos para modernizar y mejorar el comportamiento de estas estructuras. En realidad, algunas de ellas podrían no tener las paredes suficientes para resistir las cargas de un terremoto o ciertas paredes podrían no estar situadas en partes críticas del edifico. Por lo tanto, necesitamos medios fiables para mejorar su comportamiento”, comenta Benson Shing, que lidera este proyecto, en un comunicado.

Las paredes con algún tipo de relleno generalmente mejoran la seguridad ante un terremoto, pero esta seguridad depende de su número y de su localización. Una vez que la resistencia de las pareces es rebasada por la fuerza del terremoto, el fallo de estas estructuras puede ser repentino y catastrófico, según los test hechos en la Universidad de San Diego. El objetivo de este proyecto es, precisamente, investigar la resistencia de estas estructuras bajo condiciones reales. Además, se pretende desarrollar un modelo fiable para mejorar su comportamiento.

Los test han sido realizados en el Centro Englekirk de Ingeniería Estructural, el único de estas características en el mundo al aire libre. Además, la estructura de mampostería de hormigón levantada es la más grande probada hasta el momento.

Después de varias sacudidas fuertes, similares a las producidas por un terremoto de magnitud 7,5, la primera planta sufrió daños severos, un comportamiento típico en este tipo de edificaciones. La serie de test llevó al edificio al borde del derrumbe.

Pocos métodos fiables

En la actualidad, hay una carencia importante de métodos de análisis fiables para evaluar el comportamiento sísmico de estructuras viejas y para validar métodos para mejorar ese comportamiento.

Estas estructuras son muy comunes en el noroeste de la costa pacífica y en el este de los Estados Unidos. Pero también se encuentran en otras zonas del mundo con mucha actividad sísmica, como en China y ciertas regiones del Mediterráneo. En concreto, la costa californiana está plagada de casas construidas según esta técnica, muchas de las cuales sobrevivieron al terremoto de 1933.
“Las paredes de ladrillo en este tipo de edificios no fueron entendidas como elementos estructurales”, dice Shing. “Fueron pensadas como separación, así como para proteger contra los incendios. Cuando fueron construidas, los ingenieros no consideraron estas paredes hechas de ladrillo como parte del sistema estructural. Pero realmente, en un gran terremoto, estos paredes pueden interactuar con la estructura y en ocasiones causar daños no deseados”.

Los investigadores usarán ahora los datos recogidos en el campo de pruebas del Centro Englekirk para validar los modelos analíticos y analizar los patrones de fallo y el comportamiento de las estructuras, de tal modo que puedan desarrollar un plan para mejorar un segundo edificio de pruebas con el mismo diseño que será construido y testado en la primavera de 2009.

Nuevo récord mundial en velocidad de transferencia de datos



Un equipo internacional consiguió 114 Gbps durante la reciente Conferencia SuperComputing 2008

Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN).


114 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, “la partícula de Dios”, requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.

El corazón de la red

Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, “con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años”.

El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.

Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.

Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.

Difusión científica

“Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles”, ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.

Newman añadió: “En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos.”

Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.

Extensión mundial

Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.

Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que –en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh– “la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable”.

Asis 2.0



Agnitio ha lanzado la version 2.0 de ASIS (Automatic Speaker Identification System) uno de sus productos dirigidos a instituciones de Seguridad Pblica. Esta nueva versi€n est‚ basada en las capacidades de la segunda generaci€n de la tecnologƒa de identificaci€n de locutor desarrollada por Agnitio.

ASIS es el primer sistema de identificación automática de locutor desarrollado para construir bases de datos de biometríaa de voz para las centrales policiales con los archivos de voz de criminales reconocidos, lo que permite las investigaciones policiales sobre archivos de voz interceptados.

ASIS 2.0 incluye numerosas características nuevas, incluyendo algunas basadas en la experiencia, propuestas y sugerencias de los clientes de Agnitio, en particular las de los expertos de la Guardia Civil Española, que lleva utilizando esta tecnología desde 2006.

Capacidades más destacadas de ASIS 2.0: o Habilidad para identificar a sospechosos y criminales a través de un archivo de su voz utilizando la base de datos de archivos de voces. o Calibración autom.tica para permitir su uso por personas no expertas. o Capacidad de identificación exclusiva: los modelos de voz pueden ser creados con un único canal o idioma y compararse para la identificación con ejemplos de voces que procedan de otro canal distinto o desconocido u otro idioma:

Independiente del texto (discurso libre)
Independiente del idioma
Independiente del canal (teléfono de cable, GSM o VoIP).

Beneficios y características más destacados de ASIS 2.0: o ASIS 2.0 se ha creado sobre la base de la m.s moderna arquitectura web de tal forma que es muy facil su despliegue y utilización en navegadores web estandar. o ASIS 2.0 es compatible con otros productos desarrollados pro Agnitio, lo que permite exportar modelos y archivos de voz entre todos sus productos.

Aparece una nueva aplicación orientada al robo de contraseñas



BitDefender hace público el descubrimiento de un nuevo tipo de aplicación en activo de robo de contraseñas que se hace pasar por un plugin de Mozilla Firefox. El malware, Trojan.PWS.ChromeInject.A, se descarga en la carpeta de Pluging de Mozilla Firefox y se ejecuta cada vez que el usuario abre dicho navegador.

Trojan.PWS.ChromeInject.A actúa filtrando los datos enviados por el usuario en más de 100 sitios web de compra o banca online. Entre las webs afectadas encontramos: bankofamerica.com, chase.com, halifax-online.co.uk, wachovia.com, paypal.com y e-gold.com. Aquellos usuarios infectados con el Trojan.PWS.ChromeInject.A envían sus credenciales de acceso a una dirección web similar a [removed]eex.ru. Tanto el dominio como el servidor de hosting están localizados en Rusia, lo que da indicios del punto de origen de la amenaza.

Según señala BitDefender, los usuarios deben tener en cuenta la peligrosidad que supone exponerse a ser víctimas de robos de información confidencial.

Llegan los vaqueros de papel



La preocupación ecológica del reciclado llega al 'jean': el 'denim', la tela de los populares vaqueros, se fabrica ahora con fibras procedentes de botellas de plástico recicladas y, cuando permanece fiel al tradicional algodón, puede también recuperarse y convertirse en papel.

Varios de los 64 expositores del salón internacional Denim by Première Vision, que se realizó la semana pasada en París, optaron por el reciclado, manifestando preocupaciones ecológicas todavía discretas en la muy contamintante industria de la tela 'jean'.

En la firma Hellenic Fabrics, por ejemplo, su encargado de investigación, Panos Sofianos, considera que la preocupación por los productos orgánicos no basta y que hay que pensar también en el reciclado. "¿Qué vamos a hacer de los materiales que existen ya?", plantea. Por ello, la empresa griega ha lanzado un 'denim' en el que se mezclan el algodón orgánico con fibras realizadas a partir de botellas de plástico.

La tela está compuesta de un 63% de algodón, cultivado en Grecia, y un 37% de poliester procedente de botellas recuperadas. Este nuevo producto cuesta "aproximadamente un 10% más" que los otros denims, precisa Sofianos. La firma ha desarrollado esa tela por motivos "100% éticos" y no por razones comerciales, asegura. "Lo hacemos por el medio ambiente, por nuestros hijos", dice, agregando que se trata de una nueva etapa para la firma, que ya poseía una línea "bio".

La empresa belga Uco Sportswear utiliza, por su parte, "algodón reciclado", invocando también "razones medioambientales". "Recuperamos restos de hilos en las hilandería" de Italia y Bélgica, explica Sibilla Vanderlinden, encargada de desarrollo de productos de la firma. Mezclamos los hilos recuperados con poliester para lograr un textil más sólido y "un efecto de jaspeado", añade. Este 'denim' tiene un precio similar a los otros y representa "menos de una décima parte de nuestras ventas", precisa Vanderlinden.

Por su parte, la firma italiana Cadicagroup utiliza pantalones vaqueros viejos, los corta y los convierte en pasta para fabricar etiquetas. "Esto forma parte de nuestra filosofía de utilizar lo más posible fibras naturales y reciclar", declara Paolo Pavarotti, encargado de relaciones públicas de la empresa. Cadicagroup "recupera los jeans viejos de los fabricantes y les vende las etiquetas a los mismos fabricantes".

Nuevas técnicas

Pero junto a la recuperación, el sector adopta también innovaciones técnicas, como las "microcápsulas", ya utilizadas por los fabricantes de medias. Hellenic Fabrics propone, por ejemplo, un jean cuyas fibras contienen cosméticos, afirmando que tienen un efecto suavizante. "Funciona como una crema hidratante", asegura Sofianos. Según la etiqueta, el producto cosmético está compuesto de vitaminas y esencias de aceite, y resiste a una decena de lavados.

La suavidad al tacto es otro de los objetivos de los fabricantes de 'denim'. Según Pascaline Wilhelm, directora de moda de Première Vision, el algodón se asocia cada vez más con fibras nobles, como la cachemira o el lino, para obtener una tela mucho más flexible y suave.

Apple inhabilita el GPS de los iPhones de Egipto



Apple inhabilitó la tecnología GPS de los dispositivos iPhone 3G comercializados en Egipto ya que el gobierno de este país estableció que se pemite la venta de los productos siempre y cuando no se utilicen como dispositivos de localización.

AGENCIAS
El gobierno de Egipto exige que la funcionalidad GPS solo esté disponible para usos militares, y no para usos civiles. Sin embargo, servicios como Google Maps funcionan sin mayor problema en la localidad.

Apple cumplió con los requerimientos, pero en el comercio por Internet se pueden encontras sus productos sin alguna restricción.

miércoles, 10 de diciembre de 2008

Camisetas Microsoft



En un curioso artículo de Wired, Clive Thompson analiza esta semana la “economía de la camiseta”. Lejos de ser una broma, la venta de camisetas en ciertos sitios web son una importante fuente de ingresos para los dueños y ayudan a que muchos servicios puedan seguir siendo gratuitos. El merchandising ha dejado de ser patrimonio exclusivo de grupos de música y películas y ahora es una parte vital de proyectos libres –por ejemplo, Mozilla- o de ciertas startups. Nuevas herramientas y servicios online permite imprimir las prendas bajo demanda, eliminando los problemas de stock. Un sitio web, por pequeño que sea, puede hacer negocio “desde la primera camiseta”.

Microsoft no necesita dinero pero eso no le ha impedido sacar una línea propia de camisetas. Softwear es el nombre de esta nueva aventura que con aire "retro" recupera logos e iconos de los 80 y los 90. Un intento de dar un aire cool a la compañía que deja, entre otras, estas prendas:Y sí, la camiseta del centro es una foto de Bill Gates en 1977 cuando fue detenido en Albuquerque, Nuevo México, mientras conducía.

Extraído de la Web:

Mil millones de personas no pueden estar equivocadas:
Esto es Softwear de Microsoft. Una línea de ropa que se inspira en la nostalgia de cuando los PC empezaban a cambiar nuestras vidas. Con logos retro, fotos clásicas, e iconografía geek-chick, estas prendas muestran la era DOS de la compañía que hoy conecta a mil millones de personas.

Nuevo Diseño de Panel Solar Cuya Eficacia No Está Limitada Por el Angulo



Un equipo de investigadores dirigido por Shawn-Yu Lin, del Instituto Politécnico Rensselaer, ha descubierto y demostrado un nuevo método para superar dos de las mayores barreras que limitan a la energía solar. Desarrollando un nuevo recubrimiento antirreflectante que eleva la cantidad de luz del Sol capturada por los paneles solares y permite a éstos absorber el espectro solar completo desde casi cualquier ángulo, el equipo de la investigación ha acercado más a la academia y a la industria hacia la obtención de la alta eficiencia que hará rentable a la energía solar.
Para conseguir la eficiencia máxima al convertir la energía solar en electricidad, se necesita de un panel solar que pueda absorber casi cada fotón individual de luz, sin tener en cuenta la posición del Sol en el cielo. El nuevo recubrimiento antirreflectante hace esto posible.

Una célula solar de silicio no tratada sólo absorbe el 67,4 por ciento de la luz del Sol que incide sobre ella, significando esto que se refleja, y por tanto desaprovecha, casi un tercio de esa luz. Desde una perspectiva económica y de eficiencia, esta luz no aprovechada es una oportunidad desperdiciada de lograr el rendimiento adecuado de los paneles solares que conduzca a una adopción generalizada de la energía solar.

Sin embargo, durante la investigación, después de que una superficie de silicio fuese tratada con la nueva capa creada por Lin mediante nanoingeniería, el material absorbió el 96,21 por ciento de la luz solar que incidió en él. Esta gran ganancia en la absorción se mantuvo en todo el espectro de la luz del Sol incidente, desde la ultravioleta a la infrarroja, pasando por la visible. Este logro tecnológico lleva a la energía solar mucho más cerca de la viabilidad económica.

La nueva capa de Lin también resuelve con éxito el desafío de los ángulos.

La mayoría de las superficies sólo pueden absorber la luz con eficiencia dentro de una gama específica de ángulos. Ese es el caso de los paneles solares convencionales. Y por ello algunos paneles solares industriales poseen un mecanismo para moverse despacio a lo largo del día para que así sus paneles se alineen perfectamente con la posición del Sol en el cielo. Sin este movimiento automatizado, los paneles no estarían óptimamente posicionados y por consiguiente absorberían menos luz solar. Sin embargo, la contrapartida de este aumento de la eficiencia es la energía necesaria para impulsar el sistema automatizado, el costo del mantenimiento de este sistema y la posibilidad de errores de sincronización o de alineamiento.

El descubrimiento de Lin podría volver obsoletos esos paneles solares móviles, ya que la nueva capa antirreflectante absorbe la luz del Sol de manera uniforme desde todos los ángulos. Esto significa que un panel solar estacionario tratado con ese recubrimiento absorbería el 96,21 por ciento de la luz del Sol, sin importar la posición de éste en el cielo. Así, junto con una absorción espectral significativamente mejorada de la luz del Sol, el descubrimiento de Lin también podría hacer posible una nueva generación de paneles solares estacionarios más eficaces.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=634:solar-power-game-changer-near-perfect-absorption-of-sunlight-from-all-angles&catid=37:materialsscience&Itemid=57

Tecnología Para Inyectar un "Granizado" Que Retarda la Muerte



Al tratar a las víctimas de paro cardíaco, los médicos no pueden perder ni un instante. Sin la posibilidad de obtener oxígeno fresco de la sangre bombeada a través del cuerpo, las células del cerebro empiezan a morirse en pocos minutos. De 10 a 20 minutos después de que el corazón deja de latir, ya no hay nada que hacer. Aún cuando los médicos puedan conseguir que el corazón lata de nuevo, el cerebro ha muerto.Sin embargo, recientemente se ha empezado a desarrollar una nueva técnica que puede reducir la demanda de oxígeno del cerebro y de otros órganos, para dar a los médicos el valioso tiempo extra para diagnosticar y tratar a los pacientes críticos en las emergencias, y también para proteger al corazón, el cerebro, los riñones y la médula espinal en las operaciones de cirugía planificadas.

Un equipo de científicos del Laboratorio Nacional de Argonne ha creado una especie de granizado que puede ser bombeado con facilidad dentro del cuerpo del paciente a través de un pequeño catéter intravenoso directamente en el torrente sanguíneo.

El Laboratorio de Argonne está trabajando con varios grupos diferentes de cirujanos de la Universidad de Chicago para desarrollar los procedimientos encaminados a enfriar y proteger los órganos vitales.

Con esta sustancia, los médicos pueden enfriar con rapidez el órgano deseado, gracias a poder escoger, de entre las varias rutas posibles para el granizado, la más adecuada para cada caso.

Este enfriamiento reduce la necesidad de oxígeno de un órgano, disminuyendo la velocidad con la que las células se asfixian, y proporcionando a los médicos más tiempo para el tratamiento.

Durante varias décadas, los médicos han reconocido los beneficios de la protección mediante el frío para ciertos tipos de pacientes. Sin embargo, en el pasado, los médicos sólo disponían de medios técnicos para el enfriamiento externo, como por ejemplo los baños de hielo y las chaquetas refrigerantes, cuando querían inducir la hipotermia protectora. A estas técnicas les faltan dos de las ventajas del granizado inyectable.

Lo más importante es que el enfriamiento externo actúa mucho más despacio, lo que reduce de modo notable su eficacia. Mientras los granizados pueden enfriar el centro de un órgano en casi cinco grados Celsius en sólo cinco minutos, los enfriamientos externos pueden tardar más de dos horas en lograr el mismo efecto.

Además, los médicos pueden enfriar sólo el órgano deseado cuando se valen de la estrategia de inyectar internamente el granizado. Esto, tal como señala el ingeniero Ken Kasza del Laboratorio de Argonne, reduce el riesgo de efectos secundarios adversos, incluyendo la fuerte sensación de frío y una posible arritmia.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=642:ice-slurry-technology-can-save-heart-attack-victims-surgery-patients&catid=43:engineering&Itemid=63

Proyectan crear ordenadores que imiten el cerebro de un gato



SyNAPSE permitiría a las máquinas procesar información de manera autónoma en el mundo real

DARPA, la Agencia de Defensa para Proyectos Avanzados del ejército estadounidense, junto a empresas como IBM o HP, está impulsando la primera fase de un proyecto que podría revolucionar la informática y producir sistemas capaces de funcionar como lo hace el cerebro de los mamíferos. La finalidad del proyecto SyNAPSE es producir sistemas multichip neuronales capaces de dirigir un robot con la misma capacidad que un gato para interpretar su entorno. De esta manera, y a diferencia de lo que ocurre hoy en día, los ordenadores podrían actuar en situaciones del mundo real en las que intervienen diferentes posibilidades o actores. Según sus promotores, los avances en supercomputación, neurología y nanotecnología permiten tener esperanzas respecto al futuro de la informática cognitiva, que es donde se enmarca este proyecto.

El ejército estadounidense lidera un proyecto, en el que también participan importantes empresas como IBM o HP, para producir un chip capaz de imitar el funcionamiento del cerebro de un mamífero, en concreto de un gato.

Se trata de la iniciativa SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), en la que el ejército norteamericano ha puesto sus expectativas para conseguir máquinas capaces de apoyar al ser humano en muchas de las situaciones de guerra a la que los ejércitos se tienen que enfrentar hoy en día. El sistema, dice la agencia, incluye cosas como procesado de imágenes de video para extraer información o integración sensorial

En última instancia, la finalidad de este proyecto es producir un chip que imite el modo en que funciona el cerebro, lo que permitiría a las máquinas procesar información de manera autónoma en el mundo real o hacerse cargo de entornos complejos aprendiendo automáticamente qué características tienen esos entornos.

De esta manera, las máquinas tendrán la capacidad de imitar la sensación, percepción, acción, interacción y cognición, teniendo como un reto un bajo nivel de consumo de energía y tamaño compacto.

IBM es una de las empresas involucradas en el proyecto. Además, participan HP y cinco universidades estadounidenses.

“Si tenemos éxito a la hora de hacer que esta tecnología se haga realidad, podremos desplegar sistemas informáticos que puedan gestionar la ambigüedad, así como usar una amplia gama de sensores biológicos y no biológicos para actuar tal y como lo hace el cerebro”, cometa Dharmendra Modha, director de informática cognitiva de IBM, en Defense Systems.

Ordenadores dependientes

El problema de los ordenadores actuales es que necesitan algoritmos proporcionados por el ser humano para describir qué información buscan y cómo procesan esa información una vez encontrada. Esto está muy bien para situaciones bien definidas, pero no funciona en situaciones reales en las que pueden actuar múltiples posibilidades y en las que muchos datos diferentes pueden interactuar.

Para estas situaciones, el cerebro biológico (el nuestro) es mucho más eficiente. En este sentido, la computación cognitiva ofrece la promesa de sistemas capaces de integrar y analizar muchos datos desde fuentes diversas en un abrir y cerrar de ojos, lo que permitirá a las empresas, a los ejércitos o a las personas tomar decisiones rápidamente.

Si SyNAPSE funciona con éxito, se rompería uno de los cuellos de botella que impiden el desarrollo de la informática, el de Von Neumann, que se refiere a que en las arquitecturas informáticas actuales, el procesador y la memoria están separadas y su rendimiento está limitado a lo rápido que ambas sean capaces de intercambiarse datos.

Por el contrario (y es aquí donde radica lo revolucionario de este proyecto), en nuestro cerebro, la sinapsis (región de contacto entre los axones, terminaciones de las neuronas, y las dendritas, o cuerpo celular de otras neuronas) realiza ambas funciones (memoria y procesado) al mismo tiempo. Se puede decir que en la naturaleza no existe el cuello de botella Von Neumann.

Durante décadas, los informáticos han tratado de imitar el funcionamiento de nuestro cerebro, pero esos esfuerzos no han dado ningún resultado. ¿Por qué SyNAPSE tiene alguna posibilidad de funcionar? Según Modha, actualmente se dan tres tendencias muy importantes que pueden facilitar mucho su desarrollo.

Buenas condiciones

En primer lugar, la neurociencia ha conseguido extraer datos muy importantes respecto a las neuronas y la sinapsis, y respecto a cómo funcionan. Además, los superordenadores han progresado, y ahora es posible hacer simulaciones de las dinámicas del cerebro mucho más extensas.

Por otro lado, la nanotecnología ha progresado tanto que se podrían replicar en un hardware por lo menos 10 mil millones de sinapsis y 1 millón de neuronas por centímetro cuadrado.

DARPA ha diseñado SyNAPSE como un programa con cinco etapas que se extenderá durante seis años aproximadamente. El objetivo final es la producción de sistemas multichip neuronales capaces de dirigir un robot con la misma capacidad que un gato para interpretar su entorno.

Recientemente, el equipo de computación cognitiva de IBM demostró la simulación casi en tiempo real a escala de un cerebro de mamífero pequeño utilizando algoritmos de computación cognitiva con la potencia de la supercomputadora BlueGene de IBM.

Con esta capacidad de simulación, los investigadores están experimentando con diversas hipótesis matemáticas de la función y estructura cerebral, en su trabajo por develar los micro y macro circuitos computacionales centrales del cerebro.

El "ratón" cumple 40 años



Un ratón muy famoso cumplió hace menos de un mes la friolera de 80 años: Mickey Mouse. Hoy, otro roedor no menos conocido cumplió justo la mitad: el ratón informático. Un doctor visionario hizo una demostración hace cuatro décadas de un rústico ratón hecho con madera que se convertiría en el estándar de lo que todo internauta usa hoy a diario. Lo curioso es que el accesorio no era el eje central de la muestra, sino un complemento de la idea que el científico tenía de los ordenadores y que era parte de lo que posteriormente se convertiría en Internet.

El doctor Douglas Engelbart hizo una demostración técnica en la feria Fall Joint Computer Conference (FJCC) el 9 de diciembre de 1968. El científico concebía los ordenadores como herramientas que aumentaran la inteligencia del ser humano y que permitieran producir y trabajar de forma mucho más eficiente. Trasladó su visión de los ordenadores a un sistema informático que resultó un pionero y uno de los precursores de Internet: el NLS.

"Teníamos edición completa de texto e hipervínculos", explicó el doctor Jeff Dulipson, ahora investigador del grupo VLSI de Sun y entonces parte del equipo que diseñó el NLS, "el eje central de lo que usamos hoy en día". Para demostrar cómo funcionaba el sistema informático, el equipo de investigadores creó un nuevo periférico con el que se pudiera interactuar con las nuevas funciones. Se trató de un rústico ratón de madera que contaba con un único botón, aunque sentó las bases de los complejos ratones ópticos que usamos ahora.

LOS COMIENZOS DE INTERNET...

El NLS fue el primer programa diseñado para construir la red de nodos Arpanet que posteriormente se convertiría en Internet. De hecho, el laboratorio SRI, al que pertenecía el doctor Dulipson, junto a UCLA, fue en 1969 uno de los dos finales del primer enlace de la red Arpanet, que se convertiría en última instancia en Internet.

Douglas Engelbert fue un profesional que imaginó una forma de interactuar y un funcionamiento de los ordenadores plástico, maleable, que traspasara la forma de trabajar física que tenemos las personas. Crear una nueva forma tan veloz e intuitiva como la propia mente. En este sentido, aún su sueño está a medio camino. "La mitad de su visión se ha materializado", explicó Rulifson en declaraciones a la BBC recogidas por Otr/press. "Doug (Engelbart) se sentía frustrado con todas las cosas que crecían alrededor del ordenador, porque resultaban estáticas y demasiado similares al papel".

Silicon Valley tampoco es inmune a la crisis



Los jóvenes profesionales y recién licenciados han estado peleándose por encontrar trabajo en la decreciente economía estadounidense, pero una sección había sido inmune, la de Silicon Valley. Hasta ahora.

Las compañías de Silicon Valley habían resistido la caída de la economía, pero ahora están pensando en recortar gastos y despojarse de los recién llegados, con lo que ya no son un seguro para los veinteañeros que están saliendo de sus carreras para integrarse en el mercado laboral de la alta tecnología.

"Siento como si hubiera puesto todos mis esfuerzos en estudiar algo para luego no poder trabajar en ello", dijo Jillian Crawford, de 25 años, que ha estado buscando un trabajo de marketing para una empresa de alta tecnología desde que se licenció con honores en la Universidad de San José en junio.

Crawford se ha presentado para 25 puestos de trabajo de marketing sin recibir respuesta. Ahora confía en encontrar algo en Silicon Valley y afirma que sería muy frustrante tener que mirar en otros lugares.

Pero puede que ahora esto no sea tan fácil.

A Silicon Valley también le ha llegado la crisis global, como a otras empresas de alta tecnología como Hewlett Packard, Yahoo, Sun Microsystemso Applied Materials, que han recortado 140.000 empleos en los últimos meses según la consultoría Challenger, Gray and Christmas.

Los dueños están dando más importancia a la experiencia y tesón, algo de lo que carecen los recién licenciados. Y muchas empresas reubican a sus empleados para cubrir vacantes evitando así tener que contratar a alguien sin experiencia, según Kerry Kiley, director regional de Adecco.

"Las cosas están muy, muy difíciles ahí fuera, y parecen empeorar", afirmó.

Ha sido duro para Crawford. Ha tenido que volver a vivir con sus padres para ahorrar algo de dinero mientras encuentra trabajo.

"Pensé que tardaría unas tres semanas en encontrar un trabajo que me interesara" declaró. "Todavía me sorprende lo que estoy tardando", añadió.

Las listas de paro de los Estados Unidos dejan claro que Crawford no es la única. Los americanos de entre 25 y 29 años tienen la mayor tasa de paro, habiendo subido hasta el 7,3%, mientras que los que comprenden las edades de 20 a 24 años están a un nivel del 10,4%.

El proyecto "Icestars" desarrollará chips inalámbricos de bajo coste



La gente depende de la comunicación sin cables. Esto se aprecia claramente en la cantidad de radios, teléfonos móviles, sistemas de GPS y puntos de conexión inalámbrica a Internet que existen en el mundo. No obstante, por cada nuevo canal de comunicación inalámbrica que surge, aumenta la presión para desarrollar la tecnología que cubra la demanda del mercado. El proyecto comunitario ICESTARS («Simulación electromagnética/de circuitos integrados y tecnologías de diseño para sistemas avanzados de radio en un chip»), financiado con 2,8 millones de euros, proporcionará nuevas metodologías y herramientas prototípicas para poder superar el reto.

CORDIS
Las herramientas de automatización del diseño de circuitos integrados constituyen la base sobre la que se asientan los adelantos previstos en los canales de comunicación inalámbricos en las bandas de frecuencias superaltas (SHF) y frecuencias extremadamente altas (EHF). El equipo de ICESTARS explicó que estas herramientas son importantes para el desarrollo de diseños complejos a escala nanométrica y también para conseguir diseños de «paso único» (single-pass) exitosos, para afianzar las oportunidades que brinda el mercado y evitar la necesidad de elaborar parches que garanticen la calidad del producto en programas informáticos incluso antes de su comercialización, proceso que supone un coste adicional.

Hoy en día no es posible disponer de simulaciones precisas de este tipo de sistemas. Los investigadores afirmaron que sólo una nueva generación de arquitecturas de transceptores y herramientas de diseño asistido por ordenador (CAD) podría ayudar a sacar al mercado radios compatibles con diferentes estándares y definidas por software. Los investigadores deben asegurarse de que el consumo eléctrico se mantenga al mínimo y que se compense mediante la linearidad y ganancia del circuito. Otro reto consiste en que, en relación a las frecuencias del centro en el rango de los GHz, los diseños de alta tecnología se ven limitados por la cantidad de ruido.

La integración de chips únicos de módulos inalámbricos en el rango alto de los GHz sería posible si se solucionaran una serie de problemas en los actuales flujos de diseño, declaró el equipo. Los investigadores de ICESTARS aludieron a un plan de acción de 2006 elaborado por Sematech, un grupo que promociona la comercialización de innovaciones tecnológicas que faciliten el proceso de fabricación. En dicho plan se advertía que era necesario obtener herramientas CAD y modelos matemáticos innovadores a fin de solucionar ciertos problemas, por ejemplo la gestión de la simulación de señales mixtas análogas/digitales, la extracción de interconexiones parásitas así como metodologías y diseño de sistemas.

Los socios de ICESTARS confirmaron que se producirán resultados gracias a las metodologías y herramientas prototipo. El equipo tiene planeado combinar los resultados de investigaciones de varios campos con la intención de identificar las dependencias que se dan entre las distintas partes del diseño de radiofrecuencia (RF).

El Instituto de Matemáticas de la Universidad de Colonia (Alemania) participa en el estudio y está desarrollando nuevos algoritmos matemáticos para la siguiente generación de chips de radio. «En un futuro, los dispositivos móviles ofrecerán a los clientes servicios que van desde la telefonía e Internet hasta la televisión móvil y la banca en casa, en cualquier momento y en cualquier lugar», explicó la profesora Caren Tischendorf. «Es imposible proporcionar la increíblemente elevada velocidad de transferencia de datos necesaria utilizando las bandas de frecuencia que se emplean hoy en día (entre 1 y 3GHz).»

El equipo que trabaja en el proyecto confía en proporcionar chips inalámbricos de bajo coste que tengan la capacidad de funcionar en un rango de frecuencias de hasta 100GHz.

El Dr. Marq Kole, de NXP Semiconductors (Países Bajos) y director del proyecto ICESTARS, declaró que los socios planean conseguir la aceleración del proceso de desarrollo de los chips hacia el 2010. «Confiamos en haber acelerado el proceso de desarrollo del chip en el rango de frecuencias extremadamente altas mediante nuevos métodos y herramientas de simulación para mantener de forma activa a los desarrolladores de chips europeos a la cabeza de todo el espectro de las comunicaciones inalámbricas», afirmó el Dr. Kole.

Otros participantes en el proyecto son la empresa finlandesa AWR-APLAC, que desarrollará los algoritmos de simulación en el dominio de la frecuencia, y Qimonda, un grupo alemán que trabaja en el campo de los semiconductores y que desarrollará técnicas avanzadas de simulación análoga.

ICESTARS
http://www.icestars.eu/

Google desvela las búsquedas más populares de 2008



Google España desvela los términos de búsqueda más populares que los usuarios españoles han introducido en google.es durante 2008. La lista de las palabras más buscadas se conoce como Zeitgeist, que significa "el espíritu del tiempo" y, debido a que la gente utiliza Google para informarse sobre las noticias y los hechos interesantes que suceden en el mundo, las búsquedas, cuando se analizan en su conjunto, suelen proporcionar una perspectiva única sobre el comportamiento de los usuarios.

http://google.com/zeitgeist2008
REDACCIÓN, AP

Lo más buscado en Europa es:

Las búsquedas más populares:

YouTube

juegos

Hotmail

Marca

juegos juegos

Tuenti

Yahoo

videos

you

as


Las búsquedas emergentes:

Fama

Tuenti

cintube

Facebook

hi5

fotolog

myspace

YouTube

Badoo

loquo


Listas "Top ten" Series:


Héroes

Prison Break

Lost

House

Los hombres de Paco

El internado

Dexter

Física o Química

Aída

Anatomia de Grey


Deportistas:


Rafael Nadal

Almuda Cid

Pau Gasol

Gemma Mengual

Michael Phelps

Gervasio Deferr

Valentino Rossi

Roger Federer

David Meca

Miguel Indurain


Ministros:

Bibiana Aido

Pedro Solbes

María Teresa Fernández de la Vega

Celestino Corbacho

Cristina Garmendia

Magdalena Álvarez

Bernat Soria

Eduardo Zaplana

Ángel Acebes

Elena Salgado


Blogs:

Blog salmón

Blog leopoldo abadía

Blog de lobato

Blog de Risto Mejide

Blog de Banyeres

Blog de Bibiana Aido

Blog Xakata

Blog de Andaya

Blog de Trecet

Blog Eva se desnuda


Búsquedas interancionales:


Paraconocer qué busca la gente a nivel internacional, este año, por primera vez desde su creación en 2001, hemos analizado la información sobre las búsquedas globales de más de 30 países y las hemos publicado en un solo sitio: la web Zeitgeist de Google 2008. Este año, entre los resultados que están creciendo en número de búsquedas aparecen acontecimientos mundiales como los Juegos Olímpicos de Beijing y la Eurocopa 2008, además de políticos americanos y redes sociales:


Palabras emergentes internacionales:

sarah palin

beijing 2008

facebook login

tuenti

heath ledger

obama

nasza klasa

wer kennt wen

euro 2008

jonas brothers

Google revela el Zeitgeist de Internet (palabra alemana que significa "el espíritu del tiempo") explorando los millones de búsquedas que recibimos diariamente. Aparte del Zeitgeist de Final de Año 2008, que destaca las tendencias más demandadas de estos doce meses, también disponemos de varias herramientas que desvelan los hábitos de búsqueda mundiales, regionales, pasados y presentes. Las herramientas de Zeitgeist de Google nunca identifican a los usuarios individuales, ya que se basan en un contador total y anónimo de la frecuencia de ciertas búsquedas a lo largo del tiempo.

martes, 9 de diciembre de 2008

El Ejército estadounidense busca nuevos reclutas en el mundo virtual



EFE

SAN FRANCISCO (EEUU).- La próxima base del Ejército estadounidense no estará en Irak o Afganistán sino en un lugar muy diferente y menos peligroso: el mundo virtual Second Life.

Con el fin de atraer a nuevos y jóvenes reclutas, el Ejército de EEUU está recurriendo a Internet, donde ha puesto en marcha diversas iniciativas como su base en 'Second Life' o la posibilidad de charlar vía 'webcam' con soldados reales que sirven en Irak.

El Ejército presentó esta semana su iniciativa en este mundo virtual, que consistirá en la creación de dos islas. La primera permitirá al avatar del posible recluta informarse sobre la vida militar, mientras que la segunda ofrecerá actividades como rápel, salto desde aviones y otras experiencias virtuales.

"Hay unos cuatro millones de jóvenes que interactúan en 'Second Life' y este es el grupo de edad al que estamos intentando animar para que se aliste", dijo el general William S. Wallace durante la presentación de la iniciativa.

Simultáneamente, el Ejército ha introducido novedades en su página web 'GoArmy' dentro de la nueva fase de su actual campaña publicitaria para atraer nuevos reclutas.

Una de las principales novedades es la posibilidad de charlar vía webcam con soldados reales destinados en Irak. Los interesados pueden enviar sus preguntas sobre la vida de los militares estadounidenses en ese país y éstos contestan con vídeos cortos que aparecen publicados en la web.

Aunque 'goarmy.com' ya incluía antes un chat para hacer preguntas a soldados en activo, es la primera vez que los usuarios pueden hablar con militares destinados en Irak y que la guerra en este país aparece en un lugar tan destacado de la página.

El Coronel David Lee, vicepresidente para comunicaciones estratégicas y marketing del Mando de Acceso al Ejército de Tierra de EEUU, ha señalado que el objetivo es llegar a los jóvenes estadounidenses usando el formato que ellos prefieren. "La juventud americana obtiene información a través de vídeo. YouTube es un ejemplo perfecto de ello", señaló.

El nuevo diseño de la página está dando ya resultados positivos. "El número de visitantes ha subido y también el tiempo que cada internauta se queda en nuestra web", dijo el Coronel Lee sin dar cifras concretas.

El objetivo de estas iniciativas es aumentar el interés de los jóvenes por la vida militar pese a la impopularidad de la guerra de Irak, pero los expertos creen que el número de nuevos reclutas está subiendo y no precisamente por los esfuerzos de márketing del Ejército.

Retirada gradual de bombillas incandescentes



BRUSELAS.- Los países de la UE han aprobado la retirada gradual de bombillas incandescentes de más de 100 vatios de potencia a partir de 2009 hasta su desaparición total en 2012, tal como había propuesto la Comisión Europea (CE).

El Ejecutivo comunitario calcula que el cambio hacia dispositivos de iluminación eficientes supondrá un ahorro de casi 40 teravatios hora(equivalente al consumo de Rumanía o a 11 millones de hogares europeos) y un recorte de 15 millones de toneladas de emisiones de dióxido de carbono (CO2).

En términos económicos, la sustitución de bombillas supondrá al año un ahorro de hasta 50 euros por hogar o de entre 5.000 y 10.000 millones de euros en toda la UE, "dinero que podrá destinarse a otros fines", destacó el comisario europeo de Energía, Andris Piebalgs, en rueda de prensa.

Según las organizaciones ecologistas, el consumo de bombillas incandescentes es de tres a cinco veces superior al de las eficientes.

Su sustitución contribuirá a la reducción del consumo de energía en iluminación en un 60%, lo que equivale a unos 30 millones de toneladas de dióxido de carbono al año.

Piebalgs adelantó que el año que viene la CE trabajará con otros grupos de productos para seguir avanzando en su objetivo de aumentar la eficiencia energética.

Opinó que la medida adoptada envía un mensaje claro sobre el compromiso de la UE para cumplir sus objetivos de eficiencia energética y protección del clima.

El comité de expertos de países de la UE que tomó esta decisión tuvo en cuenta las expectativas del consumidor y los riesgos para la salud, e incluso que la retirada se haga de manera gradual para dar un tiempo de adaptación a los fabricantes.

Los consumidores aún tendrán la posibilidad de elegir entre bombillas fluorescentes compactas de larga duración (las que producen mayor ahorro, un 75%) o halógenas equivalentes a las incandescentes en la calidad de iluminación, pero que suponen un ahorro de entre un 25 y un 50%.

El Ejecutivo comunitario informará ahora al Parlamento Europeo y prevé adoptar formalmente la medida -una de las integrantes del paquete de diseño ecológico- en marzo de 2009.

Proyecto de edificio verde




Un proyecto neoyorquino propone edificio recubierto de vegetación y una piel de vidrio.

Una casa unifamiliar baja puede ser muy ecológica, incluso ser autosuficiente. Hay modelos de casa recubiertas por paneles solares que les proporcionan electricidad y calefacción o incluso de agua para el consumo humano de la lluvia (sólo en climas húmedos). Sin embargo, levantar edificios ecológicos de muchas plantas es un poco más difícil, las viviendas u oficinas están concentradas en una alta densidad por metro cuadrado de superficie y la energía solar capturada al final es robada a los edificios colindantes. Pese a todo se puede hacer mucho en aislamientos y en ahorro de energía. Así que podemos tener edificios altos más ecológicos que los actuales.
¿Qué tal si estos edificios además de ser verdes lo parecen? Ya cubrimos hace tiempo en NeoFronteras la idea de los edificios con terrazas cultivadas, que proporcionaban aislamiento térmico y una mejor calidad de aire a la ciudad. Daniel Libeskind, el mismo arquitecto que ganó el concurso para el edificio que reemplazará las torres gemelas, propuso hace un tiempo algo un poco más radical: un edificio residencial cubierto de jardines.

El edificio, o rascacielos, estaría situado en Nueva York, mediría 236 metros de altura y 54 pisos de alto, pero lo interesante no sería su altura, sino su estructura. Asentado por columnas cubriría parcialmente un edificio ya existente con una piel de vidrio que, en espiral, dejaría franjas al aire libre sin cubrir. Justo detrás de esta piel habría jardines y terrazas con plantaciones de verduras y plantas ornamentales. Según el arquitecto sería como traer la naturaleza a la ciudad. Todo el conjunto facilitaría la iluminación natural y mejoraría las condiciones en el interior.

Pero el proyecto está “en el aire”. Si finalmente se aprueba, cuando empiecen las obras la economía no pasará por un buen momento y probablemente no salga así de bonito e interesante.Quizás este proyecto de rascacielos verde no salga adelante, pero esto no debe de impedir que sigamos pensando en soluciones más ecológicas para ahorrar energía y reducir las emisiones de dióxido de carbono en grandes edificios, y no sólo en Nueva York.

Desde esta web se nos ocurre, ahora que el invierno boreal está a punto de caer sobre nosotros y tomando como excusa la anterior noticia, el uso de calefacción cogenerativa. En muchos edificios existen instalaciones de calefacción central que consumen gasóleo mediante su quema directa. Se podrían usar generadores diésel en su lugar para producir electricidad y aprovechar el calor desprendido como calefacción. Desde el punto de vista termodinámico es completamente plausible que con un buen aislamiento térmico, los inquilinos del edificio puedan tener calor en invierno, energía eléctrica propia y además puedan exportar los excedentes a su ciudad. Las emisiones locales serían las mismas, las globales menores y un sistema distribuido de este tipo ahorraría mucha energía.

Las plantas, por otro lado, siempre quedan bien, proporcionan oxígeno y alegran la vista, plántelas donde pueda.

http://nymag.com/news/intelligencer/52569/
http://neofronteras.com/?p=78

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX