Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 1 de mayo de 2009

Crean el primer ordenador que diferencia idiomas leyendo los labios


Puede ser útil para personas sordas, agencias de seguridad y entornos ruidosos

Científicos de la Universidad de East Anglia, en el Reino Unido, han creado el primer ordenador que lee los labios y, además, es capaz de diferenciar diversas lenguas. El sistema está basado en un modelo estadístico de los movimientos de los labios realizados por un total de 23 hablantes bilingües y trilingües que participaron en la investigación. Su nivel de aciertos fue considerable. Este logro supone un importante paso adelante en la tecnología de lectura automática de los labios, y podría tener usos prácticos para personas sordas, y fuerzas de seguridad y militares.


En la pasada IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2009), celebrada en Taipei entre el 19 y el 24 de abril, científicos de la Universidad de East Anglia (UEA), en el Reino Unido, presentaron el primer ordenador capaz de leer los labios que, además, puede diferenciar entre diferentes lenguas.

Según explica la UEA en un comunicado, los ordenadores capaces de leer los labios están en desarrollo desde hace un tiempo, pero ésta es la primera vez que se consigue añadir a un ordenador la capacidad de diferenciar, además, en qué idioma está hablando una persona.

Del fonema al visema

Según se explica en un artículo más extenso publicado por los autores de esta investigación, dirigida por Stephen Cox, de la escuela de ciencias computacionales de la UEA, la Identificación Automática de Lenguaje Hablado (LID) es una tecnología ya madura que alcanza altos niveles de exactitud en tan sólo unos segundos de discurso interpretativo.

Esta tecnología consiste en determinar por medios computacionales el idioma de quien habla basándose sólo en una muestra de voz. Los medios aplicados en este caso van desde la caracterización de características fonéticas de diversos idiomas, al análisis de la prosodia del discurso.

Pero, a medida que el procesamiento del discurso visual se ha ido desarrollando en los últimos años, cada vez ha resultado de mayor interés encontrar recursos computacionales capaces de identificar los idiomas a partir sólo de imágenes.

Así, se prepara a los ordenadores para distinguir los “visemas”, que son la apariencia visual de la pronunciación de un fonema (los fonemas son las unidades sonoras mínimas de las que están compuestas las palabras). Según los investigadores, las técnicas LID basadas en la teoría fonética pueden aplicarse al procesamiento de la información “visémica”.

Cómo se hizo

Los científicos de la UEA desarrollaron una tecnología para el reconocimiento de los idiomas hablados –a partir sólo de información visual- basándose en un modelo estadístico de los movimientos de los labios realizados por un total de 23 hablantes bilingües y trilingües que participaron en la investigación.

Gracias a dicho modelo estadístico, el sistema computacional pudo identificar qué idioma hablaba cada individuo en un momento dado con un nivel elevado de exactitud.

Los idiomas analizados fueron el inglés, el francés, el alemán, el árabe, el mandarín, el cantonés, el italiano, el polaco y el ruso.

En el sistema desarrollado, los datos de video fueron registrados usando un Active Appeareance Model (AAM), un “modelo de apariencia activa”. Los vectores que este proceso produjo permitieron interpretar y clasificar los rasgos físicos del discurso y, posteriormente, relacionar dichos rasgos con el idioma que se estaba hablando: la combinación del movimiento de lengua, labios y mandíbula, así como la detección y el registro de secuencias de movimiento específicas y contracciones del rostro, fue en definitiva lo que permitió al sistema identificar el idioma hablado.

Según afirma Cox, “éste ha sido un emocionante avance en la tecnología de lectura automática de los labios, y constituye además la primera confirmación empírica de algo que ya se sospechaba intuitivamente: que cuando la gente habla diversos idiomas coloca de formas diferentes la boca, en secuencias distintas”.

Así, por ejemplo, entre los hablantes en francés, se constató un uso frecuente del redondeo de los labios, y entre los hablantes en árabe se registraron más movimientos de la lengua.

Esta herramienta podría tener usos prácticos para personas sordas, pero también podría ser aprovechada por fuerzas de seguridad y militares, en entornos ruidosos o en aquéllos en los que la señal de audio no se encuentra disponible.

Antecedentes y futuro

Como hemos dicho, la técnica computacional de lectura de labios no es nueva. Uno de los antecedentes más conocidos de este nuevo sistema es el de un software (el Audio Visual Speech Recognition o AVSR ) creado hace unos años por la compañía Intel, que permite a los desarrolladores informáticos crear ordenadores capaces de leer los labios del usuario.

El software de Intel surgió en un intento de resolver las deficiencias de los programas de reconocimiento de voz, afectados habitualmente por el ruido de fondo o por la mala sintonización del micrófono, y permite que los ordenadores detecten la cara de un orador y los movimientos de su boca, con el fin de que el sistema pueda sincronizar los datos obtenidos a través del vídeo con la identificación de la voz, proporcionando un reconocimiento mucho más exacto.

En definitiva, la detección de gestos y reconocimiento de idiomas son dos elementos que pueden llegar a tener una importancia muy grande en el futuro, aunque aún queda un importante hito que alcanzar: el de la traducción dinámica y casi simultánea.

Controlan con láser el cerebro de un mono


El logro facilitará el desarrollo de terapias neuronales muy específicas e inocuas para humanos

Científicos norteamericanos han logrado aplicar con éxito una novedosa técnica denominada optogenética en monos. Con ella, se han podido controlar y explorar los circuitos neuronales de macacos Rhesus que, además, tras ser sometidos durante nueve meses al experimento, no sufrieron daño alguno. Una vez demostrado que esta técnica, que combina el uso del láser con el de virus genéticamente modificados, no tiene efectos secundarios, los científicos esperan desarrollar gracias a ella terapias neuronales muy específicas y seguras, destinadas al tratamiento de trastornos cerebrales humanos. Asimismo, la optogenética también servirá para comprender la relación existente entre la actividad de los circuitos neuronales y las funciones cognitivas más avanzadas.


Científicos del MIT Media Lab de Estados Unidos han conseguido activar un conjunto específico de neuronas del cerebro de un mono usando lásers o flashes de luz. Este logro permitirá, algún día no muy lejano, controlar el cerebro humano, informa la revista Wired.

Esta misma técnica, denominada optogenética, había sido utilizada anteriormente para controlar y explorar los circuitos neuronales de los cerebros de peces, moscas y roedores, pero ésta es la primera vez que se ha usado en primates.

La optogenética es un campo emergente de investigación que combina la óptica y la genética con el fin de decodificar los mecanismos de la actividad eléctrica neuronal del cerebro, y también de estimular y controlar mediante la luz ciertas secciones del cerebro en momentos diversos.

La optogenética, en definitiva, permite controlar células aisladas y específicas por medio de pulsaciones de luz visible.

Activación neuronal con virus y luz

Según declaró Ed Boyden, neurocientífico del Instituto Tecnológico de Massachussets (MIT) y director de esta investigación, el éxito en la aplicación de la optogenética en monos “abre el camino al desarrollo de nuevas terapias para el tratamiento de algunos trastornos psiquiátricos humanos”.

La belleza de la técnica optogenética radica en su especificidad. La combinación de lásers e ingeniería genética permite a los científicos controlar, al milisegundo, la activación de neuronas de una clase específica e identificar las células y circuitos problemáticos, dejando intactos el resto. Así, se pueden minimizar al máximo los posibles efectos secundarios.

Para su aplicación, los científicos diseñaron genéticamente virus destinados a infectar algunas neuronas con un tipo especial de canal, originalmente descubierto en algas, que es sensible a la luz azul. De esta forma, cuando el láser azul brilló sobre dichas neuronas infectadas, en éstas se abrieron los canales, permitiendo la entrada en ellas de iones que las activaron.

Para la técnica resulta crucial que los virus sean inyectados sólo en una muy pequeña parte del cerebro, y sólo en ciertos tipos de neuronas que, una vez infectadas, realmente abran el canal. El haz láser se concentra así en una pequeña porción del cerebro, en un objetivo muy preciso.

Esta especificidad contrasta con otras técnicas actuales de estimulación neuronal, como los medicamentos o los electrodos, cuyo alcance es mucho más amplio.

Terapias específicas y seguras

El método optogenético fue ideado en 2005 por Boyden y Karl Deisseroth, profesor de bioingeniería y psiquiatría de la Universidad de Stanford, y desde entonces ha sido utilizado para comprender cómo los circuitos neuronales pueden controlar diversos comportamientos, como el aprendizaje en ratones o la conciencia de que se debe escapar de los depredadores, en el caso de los peces.

Sin embargo, hasta ahora, los científicos nunca habían aplicado la técnica en primates. Este paso resultará esencial para el desarrollo de aplicaciones terapéuticas de la tecnología en humanos, sobre todo porque gracias a él se ha demostrado que la técnica es inocua.

De hecho, lo que se ha demostrado con la nueva investigación de Boyden, cuyos resultados aparecen descritos en el artículo “Millisecond-Timescale Optical Control of Neural Dynamics in the Nonhuman Primate Brain” (control óptico a escala temporal de milisegundos en el cerebro de primates no humanos), publicado por la revista Neuron, es que la optogenética no sólo funciona en primates, sino también que resulta segura para ellos.

Los macacos Rhesus (macaca mulatta) empleados en el experimento recibieron múltiples rondas de estimulaciones láser durante ocho o nueve meses, sin que resultasen dañadas las neuronas de su cerebro o se viera afectado el funcionamiento normal de su sistema inmunológico, una evidente preocupación cuando se utilizan virus.

Según Boyden, “muchos trastornos cerebrales están relacionados con cambios en clases específicas de células”, por eso, desde la perspectiva terapéutica “lo que se busca es causar determinados efectos en ciertas células, pero dejar intactas otras”.

Entre las aplicaciones futuras de la optogenética, ahora que se sabe que es segura, podrían figurar las prótesis neuronales emisoras de luz que sustituyan a los electrodos que se usan actualmente para la estimulación cerebral profunda.

Estos electrodos son eficientes, pero activan o silencian un demasiado amplio número de neuronas. Además, para su implantación se requiere de un procedimiento quirúrgico. Por ambas razones, este método se aplica como último recurso, por ejemplo, en enfermos de epilepsia que no responden a los medicamentos.

Aumentar el conocimiento

En definitiva, según Boyden, la capacidad “para curar problemas cerebrales dependerá en última instancia de cómo y cuáles efectos secundarios puedan tener los tratamientos”.

Con la optogenética se podrían detectar “tipos de células específicas, y se podrían utilizar neuromoduladores de artesanía terapéutica para aplicar terapias directas, garantizando al mismo tiempo un alto grado de bienestar”.

Pero, además, esta técnica serviría para estudiar y comprender mejor la relación entre circuitos neuronales específicos y comportamientos sin dañar el cerebro. El interés de los científicos se centraría, en particular, en conocer la relación entre dichos circuitos y las funciones cognitivas superiores características de los humanos.

Y es que, genéticamente, los ratones son un modelo ideal de organismo pero su repertorio de comportamientos no es muy sofisticado. Si los neurocientíficos esperan comprender y tratar problemas como la esquizofrenia, la depresión o algunos comportamientos compulsivos, como las adicciones, resulta necesario aplicar la optogenética a los primates.

La esperanza es que, si este tipo de investigaciones continúa en laboratorios de todo el mundo, sea posible comprender diferentes tipos de neuronas y cómo cada una de ellas contribuye a cada una de las funciones cognitivas más avanzadas.

HP Cloud Assure



Hewlett-Packard anuncia el lanzamiento de HP Cloud Assure, una nueva oferta de Software as a Service (SaaS) diseñada para ayudar a las empresas a adoptar de manera segura y eficaz servicios basados en Cloud. Hewlett-Packard presenta también una serie de actualizaciones de su programa para distribuidores HP SaaS, que permite a los partners ofrecer valor y servicios añadidos a sus clientes.

Cloud computing" es el término que se utiliza para describir los servicios que se pueden prestar y utilizar en Internet mediante un modelo de negocio "bajo demanda, de pago por uso". Esta realidad resulta atractiva porque puede reducir los costes de negocio y ofrecer una mayor flexibilidad y escalabilidad de servicios en toda la empresa. Sin embargo, los departamentos de TI que no sean capaces de garantizar la seguridad, el rendimiento y la disponibilidad de los servicios cloud que ofrecen o consumen, pueden incrementar el riesgo de sus empresas. Esta incertidumbre puede constituir un impedimento para que las compañías adopten más servicios cloud.

"Las empresas, ofrezcan o consuman servicios cloud, deberían estar tan capacitadas para gestionar los riesgos como para obtener importantes ventajas del modelo cloud", afirma Frank Gens, vicepresidente primero y analista principal de IDC. "La nueva oferta de HP tiene como fin hacer frente a lo que IDC ha identificado como las tres principales preocupaciones del cloud computing para las empresas: seguridad, rendimiento y disponibilidad".

Una ofertacompleta


HP Cloud Assure consiste en un conjunto de software y servicios de Hewlett-Packard, que incluyen las soluciones de HP Software & Solutions: HP Application Security Center, HP Performance Center y HP Business Availability Center, y se ofrecen a las empresas mediante HP SaaS. Hewlett-Packard ofrece además a las compañías un equipo de expertos ingenieros que realiza análisis de seguridad, pruebas de rendimiento y monitorización de disponibilidad.

HP Cloud Assure ayuda a los clientes a validar la seguridad, el rendimiento y la disponibilidad:

La seguridad: analizando redes, sistemas operativos, capas de middleware y aplicaciones web. Además, realiza pruebas de entrada automatizadas para identificar posibles vulnerabilidades. De esta forma se ofrece a las empresas una imagen precisa del riesgo de seguridad de los servicios cloud, para garantizar que la información de proveedores y consumidores sea segura frente a accesos no autorizados.
El rendimiento: asegurándose que los servicios cloud cumplan los requisitos de conectividad y ancho de banda del usuario final, y permitan conocer las experiencias del mismo. Esto ayuda a verificar que se cumplan los acuerdos de nivel de servicio y permite mejorar su calidad, la satisfacción del usuario final y la fidelidad al servicio cloud.
La disponibilidad: monitorizando las aplicaciones cloud para aislar posibles problemas e identificar las principales causas con los entornos del usuario final y los procesos empresariales, y analizar los problemas de rendimiento. Esto ofrece una mayor visibilidad, tiempo de servicio sin fallos y rendimiento.

HP Cloud Assure permite a las empresas controlar tres tipos de entornos de servicios cloud:

Infraestructura como Servicio: permite garantizar una capacidad de ancho de banda suficiente y valida los niveles adecuados de red, sistema operativo y seguridad de middleware, para evitar la intrusión y los ataques de denegación de servicio.
Plataforma como Servicio: ayuda a garantizar que las empresas que crean aplicaciones mediante una plataforma cloud, sean capaces de probar y verificar que hayan creado de manera segura y eficaz aplicaciones capaces de escalar y satisfacer las necesidades de la compañía.
Para el Software como Servicio: monitoriza los niveles de servicio de usuario final en las aplicaciones cloud, pruebas de carga a partir de una perspectiva de proceso de negocio, así como pruebas sobre intrusiones en la seguridad.

Ataques de phishing contra el Banco Santander


Los ataques de phising al Banco Santander detectados a comienzos de abril continúan. Lejos de detenerse, en los últimos días los ciberdelincuentes han intensificado su actividad al respecto, según han detectado los laboratorios de seguridad de G Data.

Los ataques de phising consisten en correos electrónicos en los que se solicitan los datos de acceso a banca online, con la excusa de supuestos "mantenimientos regulares y procesos de verificación". El enlace facilitado redirige a una copia prácticamente idéntica de la página legítima de la entidad bancaria, y una vez la víctima introduce en ella sus datos de acceso, quedan a disposición del atacante. G Data recomienda a los usuarios revisar siempre la dirección URL de la página de acceso, lo único que difiere de la web auténtica.

El phising bancario es una de las principales lacras actuales en Internet. Durante el primer trimestre del año, los ataques de phising basados en temáticas financieras fueron los terceros más habituales, tan sólo por detrás de los relacionados con la salud y el webmail.

"Las entidades bancarias jamás piden a sus usuarios que revelen sus datos de acceso. Por tanto, en caso de recibir cualquier correo electrónico de este tipo, elimínelo sin tan siquiera abrirlo", afirma Jorge de Miguel, responsable de G Data . "Últimamente, aprovechando la mayor concienciación de los usuarios frente al problema del phising, se ha producido una vuelta de tuerca: ahora los estafadores piden los datos de acceso con la excusa de mejorar la protección antiphising".

Para estar protegido frente a estas y otras amenazas, es imprescindible contar con una solución de seguridad actualizada permanentemente.

La "Gripe Porcina" se convierte en virus informático


Después de que la Organización Mundial de la Salud (OMS) elevara el nivel de alerta sobre la difusión del virus de la gripe porcina, el equipo de técnicos de Trend Micro (TS4704), líder global en seguridad de contenidos en Internet, advierte de que los spammers rápidamente han aprovechado esta situación de alerta para extender sus campañas de spam. Así, ya se han detectado casos de correo basura con mensajes del tipo "¡La gripe porcina afecta a todo el mundo!" o "¡Brote de gripe porcina!".

Los spammers están utilizando esta técnica de ingeniería social porque aprovechando las últimas noticias y dada la alerta social que se está produciendo, el hecho de incluir estos temas en el asunto del mensaje del email supone incrementar de forma notable la posibilidad de que el destinatario que lo reciba abra estos mensajes de spam.

"Mediante el uso de ingeniería social, la gripe porcina se ha convertido en un virus informático que aprovecha el miedo, la confusión y el interés por la información disponible en la web acerca de la epidemia para propagar códigos maliciosos, correos electrónicos basura e infectar equipos informáticos", tal y como explica Juan Pablo Castro, Coordinador de Tecnología de Trend Micro Latinoamérica.

"La gripe porcina no sólo ha hecho que los ciudadanos permanezcan recluidos en sus hogares. Este fenómeno hará que pasen más tiempo conectados a Internet en busca de información, recomendaciones o comentarios sobre el tema, prolongando de paso su tiempo de exposición a ataques de ciber-criminales. Es la tormenta perfecta para la delincuencia por Internet", comenta el directivo.

El contenido de estos mensajes de spam evidentemente no está relacionado con el virus de la gripe porcina, sino que se trata de un mensaje breve que está relacionado con spam farmacéutico y de medicinas con un link que dirige directamente al usuario a una tienda online que vende medicamentos para la erección.

Asimismo, Trend Micro también advierte de la circulación de correos electrónicos con supuestos vídeos y mensajes del Presidente de México, Felipe Calderón, o de empleados de la Secretaría de Salud, ofreciendo nuevas medidas y datos sobre la epidemia.

Buscar trabajo en las redes sociales



Hoy en día, con la implicación y presencia de las nuevas tecnologías en la vida cotidiana, es raro encontrar a alguien que no forme parte de algún tipo de red social en Internet. Y no para crear un mundo virtual, sino para convertirse en un paso más en la comunicación interpersonal, abierta a nuevas e infinitas posibilidades, personalizadas y multimedia, capaces de crear y recrear vínculos amistosos, familiares y profesionales.

Para el Grupo Michael Page, el crecimiento de estas redes facilita no sólo las relaciones sociales, sino también las laborales. Estas redes funcionan como un escaparate a gran escala. En él, los candidatos se venden, se expresan, muestran valores añadidos a la empresa que busca profesionales de un perfil determinado.

Además, aunque no se esté en búsqueda activa de empleo, formar parte de un networking profesional es importante a todos los niveles.

Basándose en estas cuestiones han realizado un minucioso análisis de las posibilidades laborales que ofrecen las redes sociales.

Ventajas fundamentales

Es conveniente especificar las ventajas de la utilización de las redes sociales y/o profesionales para las empresas y para los candidatos de forma independiente:

Para la empresa, se han convertido en bases de datos de candidatos potenciales:

Acceso a un espectro muy amplio de profesionales de diversos países y sectores, aunque en la mayoría de los casos, la visibilidad de los perfiles está condicionada a la capilaridad de la propia red del hiring manager.

§ Suelen ofrecer datos muy actualizados, pero el grado de detalle de la información del perfil profesional varía mucho, depende de lo que el profesional decide mostrar.

§ Son herramientas on line, que siempre están disponibles y que ofrecen buenos motores de búsqueda (por sector, empresa, palabras clave…)

Es un sistema gratuito (aunque existen los llamados servicios Premium)

Para el candidato, suponen mayor visibilidad en el mercado laboral:

Establecimiento de vínculos con compañeros, partners o clientes que pueden ofrecerte un trabajo en un momento dado

Presencia del currículum para empresas de selección o hiring managers

Inclusión de referencias profesionales en el perfil

Índice de la notoriedad en un determinado sector en función de las relaciones que se establecen en él


Muévete en la red: desde puestos directivos a técnicos

El saber moverse en la red y en el mundo de las comunidades sociales y profesionales supone un valor añadido en la búsqueda de empleo. Esta "selección de personal on line" es válida a todos los niveles: tanto los altos directivos como los puestos para candidatos menos cualificados tienen su lugar en las redes sociales. Lo importante es seguir una serie de recomendaciones que pueden ayudar a que un perfil destaque sobre otro:

Mantén un perfil actualizado


Teje una buena red que responda a tus intereses profesionales

Discrimina entre relaciones 'sociales' y 'profesionales', las redes sociales y las redes profesionales tienen distinto fin y reglas

Respeta las normas de la red profesional

Elige la red social más activa en tu target por sector, segmento y país

Redes para buscar empleo en España

"Es importante, en éste sentido, establecer algunas diferencias entre las redes sociales y las redes profesionales", asegura Domènec Gilabert, manager de Michael Page International.

Las redes sociales, tipo Facebook o Myspace, se crearon para las relaciones personales y la posibilidad de compartir información en comunidades virtuales. La oportunidades profesionales que surgen en esas comunidades son por tanto equiparables a las que tradicionalmente han existido en círculos de amigos.

Las redes profesionales se restringen sin embargo a un entorno profesional y de negocios, en las que por su naturaleza hay un significativo escaparate al mercado laboral, aunque esta no es su razón de ser primordial.

Según el Grupo Michael Page, las redes profesionales más destacadas son las siguientes:

LinkedIn (considerada la nº1 a nivel mundial), Xing o Viadeo. Estas son redes sociales profesionales cuyo objetivo es conectar a trabajadores y especialistas de distintas áreas.

El peligro del "escaparate" de las redes

Las redes sociales y profesionales no representan una amenaza para los candidatos, se trata de una herramienta más que ofrece la tecnología para ampliar las posibilidades en el mundo laboral. Sí es cierto que estos candidatos están más expuestos al mercado y que las empresas podrían contactar con ellos directamente.

jueves, 30 de abril de 2009

La cámara ultrarrápida


El aparato es capaz de captar seis millones de imágenes en un segundo
Su aplicación fundamental será en la investigación médica y biológica
No necesita una iluminación intensa, no hace ruido y no se calienta


Un equipo científico de la Universidad de California ha inventado la cámara más rápida y precisa desarrollada hasta ahora, con la que han conseguido dejar atrás a la tecnología CCD usada en la mayor parte de las cámaras digitales y en tecnología óptica. El invento se presenta en la última edición de la revista Nature.

STEAM (Serial Time-Encoded Amplified Microscopy) es el nombre que le han dado a este artilugio capaz de captar imágenes en rápido movimiento y con un nivel de sensibilidad y resolución sin precedentes. La cámara obtiene fotografías en menos de la mitad de una milmillonésima parte de un segundo. Esto implica que es capaz de captar seis millones de imágenes en un solo segundo.

En otras palabras, con 163 fotogramas por nanosegundo no deja escapar sucesos ultrarrápidos.

Otra excepcional ventaja es que no necesita una iluminación de alta intensidad ni se calienta o hace ruido como los sistemas CCD, por lo que tampoco necesita un sistema de enfriamiento para poder seguir funcionando.

STEAM se caracteriza porque amplifica las imágenes píxel a píxel pudiendo captar sucesos microscópicos.

Dado que se podrán observar fenómenos en movimiento a tiempo real su destino prioritario es la investigación médica y biológica, donde puede llegar a convertirse en una herramienta fundamental para el estudio del interior de las células, o ir viendo el avance de una cirugía con láser.

Los creadores del aparato consideran que la cámara será especialmente útil para observar la comunicación entre células, o la actividad de las neuronas. Incluso creen que podría servir para detectar células cancerígenas en muestras de sangre.

"Nuestro siguiente paso será mejorar la resolución espacial de la cámara para obtener imágenes perfectamente nítidas del interior de las células", ha explicado a la BBC el profesor Bahram Jalili, que ha encabeza al equipo de científicos responsable de este proyecto. "Todavía no hemos alcanzado este objetivo, pero si lo logramos, no habrá límite a las aplicaciones biomédicas que podremos lograr", concluye.

Windows 7 saldrá este otoño... con Windows XP


Microsoft acaba de lanzar la versión 'Release candidate' de Windows 7, el sucesor de Vista, y aprieta el acelerador para que aparezca en las tiendas después del verano.

Se trata de una versión que según la compañía es en un "99% el sistema operativo que se lanzará de forma definitiva en las tiendas" este año. De hecho, se han incorporado mejoras inspiradas en las respuestas de los probadores de su versión en pruebas (beta) y el producto está "cerrado". "A partir de ahora, afinaremos su calidad", comentó Luis Martín, director de unidad de negocio de Windows Client empresas.

La compañía ha confirmado que el sistema incluye a partir de hoy Windows XP Mode y Virtual PC. Se trata, según Martín, de "una máquina virtual completa". Es decir, que es posible arrancar el ordenador con la versión XP, con lo que la compatibilidad con programas actuales será total.

¿Tan mal ha ido Vista como para que Windows 7 se remonte a XP? Según sus datos, en dos los dos años de vida del sistema vendió más de 180 millones de licencias de Vista, la gran mayoría de ellas gracias a las ventas de ordenadores con el sistema preconfigurado. Y no son muchas, teniendo en cuenta que, en total, "hay más de 1.000 millones de usuarios de Windows en todo el mundo".

Microsoft asegura que "Vista ha cumplido sus objetivos marcados, ya que ha elevado el nivel de seguridad y protección del sistema; Windows 7 es más ágil, pero no cede en seguridad".

"Nuestro objetivo es dar opciones a los clientes, y al incluir XP ayudamos a la gente a usar más aplicaciones", afirmó Martín. Según el blog oficial de la compañía, esta virtualización también podría ayudar a las pymes a realizar la transición desde XP a Windows 7. No obstante, esta opción estará disponible sólo en las versiones más caras, la 'Professional' y la 'Ultimate'.

Windows 7 incluye más novedades, como una versión mejorada para 'netbooks' -"este sistema corre muy bien para estos dispositivos, y lo hemos adaptado para máquinas con menos potencia, menos capacidad de proceso y menos pantalla, ya que hay controles que no caben en ella"- y funciones táctiles. En total, seis versiones.
Más novedades

Además, la compañía ha puesto en marcha el programa ACF (Application Competibility Factory), para "ayudar a los clientes a resolver problemas de compatibilidad" de aplicaciones de las que ya disponían en Windows 7, con la colaboración de compañías como Bull, Fujitsu o El Corte Inglés, así como centros de innovación de Micriosoft en Navarra y Cantabria.

Esto se une a otros programas comom MSDN y su portal para desarrolladores, el programa InnovateOn, con más recursos, y el sitio TechNet con un apartado específico para Windows 7 llamado Springboard.

A partir de este momento, hay un plazo de entre dos y cinco meses ("aunque serán seguramente dos", comentó Martín) hasta que aparezca la versión RTM, que es la definitiva que se envía a fabricantes para su comercialización. Tres meses (14 semanas) más tarde, saldrá a la venta de manera oficial.

Se espera que esta versión, que sale hoy para suscriptores de MSDN y Technet, y para todo el mundo el 5 de mayo, sea descargada por más de tres millones de usuarios.

Software Para Hacer Descubrimientos Científicos Automáticamente


Utilizando una mente digital de un robot autorreparable, unos investigadores de la Universidad Cornell han creado un software que utiliza datos en bruto provenientes de observaciones para descubrir leyes fundamentales de la física. La innovación puede ayudar a hacer nuevos descubrimientos científicos, particularmente en sistemas biológicos, en los cuales hay muchos enigmas pendientes de resolver.Hod Lipson y Michael Schmidt, de la Universidad Cornell, han dado a conocer que su algoritmo puede sacar a la luz leyes naturales fundamentales a partir de meras observaciones de un péndulo doble balanceándose y de otros sistemas simples.

Sin enseñanza previa alguna sobre las leyes de la física, de la geometría o de la cinemática, el algoritmo que dirige los cálculos del ordenador ha sido capaz de determinar que los movimientos de los dispositivos derivan de procesos fundamentales específicos.

En los experimentos realizados, el algoritmo descifró en horas las mismas Leyes del Movimiento y otras propiedades que Isaac Newton y a sus sucesores tardaron varios siglos en desentrañar.

Esta innovación deriva del desarrollo del software para Starfish, un robot capaz de repararse a sí mismo cuando es dañado.

Un modelo dinámico es una representación matemática de la forma en que los componentes de un sistema se influyen unos a los otros con el paso del tiempo. Lipson y Schmidt se dieron cuenta de que si un robot puede crear modelos dinámicos de datos provenientes de él mismo, también podía ser viable que crease modelos del mundo que lo rodea.

Cuando Lipson y Schmidt experimentaron con la aplicación de un modelo dinámico basado en ese software, se dieron cuenta de que su algoritmo estaba redescubriendo leyes que eran bien conocidas para los científicos e ingenieros, sugiriendo ello que el algoritmo sería capaz también de ayudar a desvelar nuevas leyes a partir de conjuntos de datos que los humanos no comprendemos tan bien.

El ordenador comenzó su análisis con un amplio conjunto de elementos matemáticos fundamentales, expresiones que el ordenador puede combinar para recrear patrones en el conjunto de datos. Utilizando un proceso computacional conocido como regresión simbólica, y que está inspirado por la evolución biológica, el ordenador tomó entonces la colección de expresiones y las evaluó una contra otra para encontrar coincidencias que reflejasen los datos. Y consiguió el objetivo de hallar aquellos aspectos de los datos que son invariables, es decir que no cambian de una observación a la siguiente aunque ello no resulte obvio para el escrutinio humano.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=1245:maybe-robots-dream-of-electric-sheep-but-can-they-do-science&catid=42:computing&Itemid=62

Galapos

Nuevos Softwares


HP SWFScan

Hewlett-Packard anuncia el lanzamiento de HP SWFScan, una herramienta gratuita para ayudar a los desarrolladores de aplicaciones Flash a proteger sus páginas web ante la vulnerabilidad de la seguridad de aplicaciones, y reducir el riesgo de que los hackers accedan a información sensible.

Amedida que las empresas están modernizando sus aplicaciones para ofrecer a los usuarios una mejor experiencia on-line, pasan a utilizar tecnologías Web 2.0, entre las que se incluye la plataforma Adobe® Flash®. Con Adobe Flash Player instalado en más del 98% de los PC conectados a Internet en todo el mundo, es imprescindible que las aplicaciones web con tecnología Flash incorporada sean desarrolladas con seguridad.

Código más seguro

HP SWFScan permite a los diseñadores Flash ofrecer un código más seguro sin necesidad de ser expertos en seguridad. Esta herramienta es la primera de este tipo que sirve para descompilar las aplicaciones desarrolladas con la plataforma Flash y realizar análisis estadísticos para entender su comportamiento. Esto permite identificar las vulnerabilidades inherentes a una aplicación que no se detectan por los métodos dinámicos tradicionales.

Con HP SWFScan, los desarrolladores Flash pueden:

*Buscar las vulnerabilidades de seguridad conocidas que buscan los hackers maliciosos. Entre ellas se encuentran la información confidencial desprotegida, el cifrado entre páginas web, la escalada de privilegios entre dominios, y la información introducida por el usuario que no es validada.
*Solucionar problemas rápidamente señalando las vulnerabilidades en el código fuente y recibiendo una buena orientación sobre cómo solucionar los problemas de seguridad.
*Verificar la conformidad con las mejores prácticas e instrucciones de seguridad.


Encontrar, solucionar y evitar vulnerabilidades

Un ejemplo de los tipos de vulnerabilidad de la seguridad que puede evitar
HP SWFScan es que la información confidencial quede al alcance de los hackers. Los desarrolladores Flash a menudo crean una vulnerabilidad no intencionada al codificar información de acceso como contraseñas, códigos de cifrado o información de bases de datos directamente en sus aplicaciones.

HP analizó cerca de 4.000 aplicaciones web desarrolladas mediante software Flash y descubrió que el 35% violaba las mejores prácticas de seguridad Adobe. Los hackers pueden explotar esta situación para sortear las medidas de seguridad y conseguir un acceso sin restricciones a la información confidencial. HP SWFScan ayuda a los diseñadores a detectar y corregir estos problemas antes de que se agraven.

Grupo de Investigación de HP

El grupo de investigación sobre seguridad en Internet de HP, que desarrolló
HP SWFScan, cuenta con muchos expertos de prestigio en materia de seguridad. El grupo controla las amenazas de seguridad que existen en Internet y desarrolla nuevas tecnologías para ayudar a los profesionales TIC a eliminar las vulnerabilidades de seguridad de las aplicaciones. Los resultados de la investigación del grupo se incluyen en el centro de seguridad de aplicaciones HP, una serie de productos que permite a los consumidores descubrir, solucionar y evitar estas vulnerabilidades a lo largo de la vida útil de la aplicación.

El centro de seguridad de aplicaciones HP incluye HP Assessment Management Platform como base de la solución, y presenta el software HP DevInspect para diseñadores, el software HP QAInspect para equipos de control de calidad y el software HP WebInspect para expertos en operaciones y seguridad.


HP SWFScan puede descargarse gratis en www.hp.com/go/swfscan.>>


Parasolid 21

Siemens PLM Software ha anunciado la disponibilidad de Parasolid® Version 21.0 (V21), la última versión de su software de modelado geométrico 3D, líder de la industria PLM.

Parasolid V21 incluye numerosas mejoras de modelado a través de una amplia gama de funcionalidades que, en conjunto, representan un importante paso adelante en la capacidad de modelado y la productividad. Estas mejoras beneficiarán a los proveedores de software independiente quienes han autorizado la tecnología de modelado Parasolid para producir más de 350 productos de usuario final líderes en el diseño del producto y el análisis de mercados:

*Operaciones locales- Se han hecho varias mejoras para permitir cambios más complejos de forma significativa mientras se llevan a cabo las ediciones de geometría en local. Por ejemplo, se han añadido opciones para indicar de forma automática el comportamiento deseado cuando las características como los agujeros y patrones interactúan como resultado de una operación de edición local.

*Mejora de la creación de superficies- Se han ampliado las opciones de creación de hojas y superficies sofisticadas y las capacidades de manipulación. Por ejemplo, los usuarios pueden realizar operaciones d curvatura con un mayor control de la rotación así como más configuraciones complejas de curvas de guía. Además, los usuarios pueden realizar operaciones almacenaje entre perfiles mientras se desplazan a lo largo de la trayectoria .

*Apoyo de aplicación. Se ha añadido un nuevo mecanismo de diagnóstico y se han desarrollado las herramientas que ayudan a los desarrolladores de aplicaciones en la rastreo creación, edición y supresión de entidades, para proporcionar más soporte al deshacer y reducir algoritmos sofisticados.

Confirmado otro "0 day" en Adobe Acrobat


Adobe ha confirmado que existe otra grave vulnerabilidad en Adobe Reader que parece estar siendo aprovechada por atacantes para ejecutar código en el sistema (tanto Windows como cualquier otro sistema operativo que lo soporte).

HISPASEC.COM
Adobe ha publicado en su blog una alerta, reconociendo un grave fallo de seguridad del que se conocen todos los detalles, e incluso existe exploit público. El fallo está en la función getAnnots y permite a un atacante, de forma muy sencilla, ejecutar código. Solo tiene que crear un documento PDF con una anotación, y añadir un script al PDF a través de la función OpenAction.

Afecta a todas las versiones conocidas, en sus ramas 9, 8 y 7 y en sus versiones para Mac, Linux y Windows. La única contramedida oficial es, de nuevo, deshabilitar JavaScript.

Adobe se está convirtiendo desde hace ya muchos meses, en objetivo de los atacantes. Es un software popular, los usuarios todavía confían en los documentos PDF (los tienen por inofensivos), no suelen actualizar el lector... y lo más importante: parece que Adobe tiene muchos errores graves todavía por descubrir.

Hay que esperar a ver cómo evolucionan los acontecimientos. Adobe solucionó su último gravísimo problema de seguridad (ocurrido hace solo dos meses) de una forma poco efectiva. Dejó a sus usuarios más de un mes sin actualizaciones. Los de la rama 7 fueron "abandonados" incluso por más tiempo.

En VirusTotal.com hemos detectado claramente la tendencia al alza de análisis de archivos PDF en las últimas horas, sin duda motivados por la alerta generada en torno a este "0 day". Si la media diaria recibida en VirusTotal.com está entre 150 y 200 archivos en formato PDF, hoy ya vamos por más de 400 archivos analizados a mediodía. Ayer superamos los 300.
Recomendamos, si es posible, usar otro lector de archivos PDF hasta que se solucione el fallo. Aunque no estén exentos de contener problemas de seguridad, al menos por ahora no son objetivo claro de atacantes. Hay un buen puñado donde elegir para todas las plataformas en:
pdfreaders.org/

Crean un coche de carreras hecho de vegetales y chocolate


Fue presentado el coche de carreras más ecológico del mundo. Está hecho de vegetales y utiliza chocolate como combustible.

NOTICIASLOCAS.COM
Si uno escucha que está parcialmente construido con elementos de origen vegetal jamás se imaginaría esto. Sin embargo -aunque resulte difícil de creer- el ecoF3 es el primer coche de Formula 3 creado con materiales 100% renovables. El volante está hecho a base de zanahoria, la carrocería de papas y el asiento de brotes de soja.

El ecoF3 utiliza además aceites vegetales como lubricante y tiene un motor capaz de funcionar con chocolate y aceites. El equipo WorldFirst, de la universidad de Warwick, espera que lo dejen competir pronto ya que por la regulación actual su inusual combustible no está permitido en una carrera oficial.

Ver para creer.

Crece la alarma mundial por la gripe porcina, que suma nuevos casos de contagio



México elevó a ocho muertos y 99 los casos confirmados por la gripe porcina, que se cobró una víctima fatal en Estados Unidos, y suma más enfermos en el mundo, lo que provocó que la OMS elevara su nivel de alerta ante un "inminente" riesgo de pandemia.

AFP

Los casos de personas afectadas por virus porcina suman 99, de las cuales ocho lamentablemente fallecieron", dijo el ministro de Salud, José Ángel Córdova, en la noche del martes en la habitual rueda de prensa diaria.

El funcionario dijo que de los 159 casos muertos probables que las autoridades mexicanas venían manejando, sólo restan 84 por confirmar, ya que se han descartado más de 70.

El virus avanza a pasos de gigante. El gobierno peruano anunció un primer caso en su territorio tras divulgarse las pruebas hechas a una argentina hospitalizada con síntomas de ese mal, quien se convirtió en la primera persona contagiada en Sudamérica.

Costa Rica se transformó en el primer país de América Latina donde desembarcó esta gripe después de que el martes dos costarricenses llegados desde México fueran diagnosticados con la enfermedad.

La Organización Mundial de la Salud (OMS) llamó a todos los países a "activar inmediatamente sus planes de preparación para la pandemia", que ya es "inminente", dijo su directora general, Margaret Chan, al elevar su alerta a 5, la penúltima fase antes de la declaración de la pandemia mundial. "Este virus es de un tipo nuevo, muy imprevisible", subrayó Chan.

La OMS calculó en 148 los casos en el mundo, incluidos 8 mortales (7 en México y 1 en EEUU). Estos datos son con frecuencia inferiores a los balances de los países afectados debido a los procesos de verificación efectuados por el organismo.

La ministra española de Sanidad, Trinidad Jiménez, anunció que uno de los 10 casos de gripe porcina detectados en el país es una persona que no viajó a México. "Ha sido un contagio indirecto", subrayó.

El presidente Barack Obama consideró "preocupante" pero lejos del "pánico" la situación generada por la gripe porcina en Estados Unidos, donde se confirmó la muerte de un niño mexicano de 22 meses y se elevó la cifra de personas afectadas a 91. "Esto nos provoca profunda preocupación, pero no pánico", dijo, en una conferencia de prensa por sus 100 días en el poder.

Además, rechazó cerrar la frontera con México, aduciendo que sus asesores de salud le habían asegurado que la medida no tendría sentido dado que el virus ya ha desembarcado en Estados Unidos. El mandatario aseguró que hará "todo lo posible" para controlar su impacto y que Estados Unidos está "tomando las medidas de prevención" necesarias.

México redujo al mínimo las reuniones públicas para darle batalla a la epidemia que, según estimaron las autoridades de ese país, provocará una caída del 0,3% a 0,5% del Producto Interno Bruto (PIB).

En Canadá se detectaron 6 nuevos casos, lo que elevó el total a 19.

Además de España, el virus H1N1 se propagó a otros países de Europa con tres casos en Alemania, uno en Austria y cinco en Gran Bretaña y uno en Suiza.

En medio del pánico, varios países extremaron sus medidas contra México. Cuba suspendió de forma indefinida los vuelos regulares y charters a México, y Argentina ordenó la suspensión de los vuelos desde México hasta el próximo lunes.

Francia -que ya había recomendado no viajar a México, al igual que Italia, GB, Alemania, Canadá e Irán- pidió a la Unión Europea suspender los vuelos hacia allí.

Ecuador -donde no hay casos detectados- decretó el estado de excepción por 60 días, lo que implica liberar recursos humanos y económicos. La medida se suma a la suspensión de vuelos charter con México y de la importación de cerdos y subproductos desde México y Estados Unidos, pese a que según la OMS "ninguna persona (fue) contaminada por cerdos", ya que el virus se transmite de persona a persona.

China, Tailandia, Rusia, Ucrania, la mayoría de los países de los Balcanes, Indonesia y Líbano habían tomado el mismo tipo de medida.

Egipto fue más drástico y anunció el sacrificio "inmediato" de todos los cerdos del país

Un revolucionario sistema de sensores mejorará la vigilancia de grandes infraestructuras


Un revolucionario sistema de sensores eficientes ha sido creado por un investigador de la Universidad de Twente, en Holanda. Se trata de una red inalámbrica diez veces más eficiente que redes de sensores convencionales. Según su creador, sus aplicaciones son múltiples, pero servirá, sobre todo, para vigilar el estado de conservación de infraestructuras, como puentes o puertos, lo que permitirá aumentar a su vez la eficiencia de las redes logísticas y de transporte. Otra de las características de este sistema es que genera un mayor intercambio de información y evita las típicas interferencias que aquejan a las redes desplegadas actualmente

| TENDENCIAS CIENTÍFICAS
El ingeniero Özlem Durmaz Incel, de la universidad holandesa de Twente, ha desarrollado un nuevo método que permite a una red de sensores inalámbricos funcionar diez veces más eficientemente. Una red basada en este método, calificado como "revolucionario", puede usarse para múltiples aplicaciones. Así, su creador afirma que sería útil para vigilar el estado de conservación de puentes, puertos o grandes centros de distribución. Además, aumentaría la eficiencia en las redes logísticas y de transporte.

Según informa la Universidad, Se necesita un gran número de sensores trabajando juntos para funcionar correctamente en complejos procesos logísticos automatizados. Hasta ahora, los ingenieros no habían conseguido que muchos sensores se comunicasen entre sí sin interferencias.

En el puerto de Rotterdam, por ejemplo, cientos de contenedores, camiones y cargueros "hablan" entre sí gracias a una red inalámbrica inteligente. Esta red, sin embargo, ha sufrido todo tipo de interferencias. Este problema técnico ha sido ahora resuelto de un modo muy ingenioso por Özlem Durmaz Incel, que ha hecho uso de una comunicación automatizada cambiando las frecuencias. Esto significa que los sensores pueden siempre hablar sin interrumpir la comunicación de otros. Cuando se produce una interferencia en una frecuencia, las redes cambian automáticamente. Redes de este tipo están ya funcionando, sin interferencias, en lugares donde hay gran número de sensores intercambiando mucha cantidad de información.

Protección efectiva


Este avance asegurará que puertos, puentes y centros de distribución puedan ser protegidos con más precisión y con más eficiencia. Por ejemplo, para detectar peligros en puentes, hay que medir varios factores, como la vibración y la velocidad del viento, en cientos de sensores al mismo tiempo.

La red de sensores ha de ser capaz de recoger y enviar 500 mediciones por segundo. Para monitorizar estos factores correctamente, hay que detectar los problemas con antelación. La vigilancia de grandes puertos y centros de distribución mejorará, dice Incel. En estos lugares, se instalan miles de sensores en una superficie muy pequeña. Monitorizando los alrededores con más precisión, una fuga en una carga puede ser detectada a tiempo.

Este investigación de la Universidad de Twente ha consistido en desarrollar un protocolo multi canal capaz de enviar datos a través de múltiples canales de manera simultánea. Otra de las características del sistema es una eficiencia energética y su escalabilidad.

Asimismo, el nuevo protocolo aumenta la cantidad y la velocidad de intercambio de datos e información. Como resultado, la red no está sujeta a interferencias. De hecho, los datos recibidos doblan a los que se reciben normalmente a través de una frecuencia sencilla.

Alimentarlos y mantenerlos

El uso de sensores para vigilar y controlar infraestructuras es muy común, pero su utilización se enfrenta a dos problemas básicos: cómo alimentarlos energéticamente y cómo mantenerlos. Hace unos meses, ingenieros civiles de la universidad norteamericana de Texas, en Austin, presentaban un proyecto para, precisamente, facilitar el mantenimiento de los sensores que vigilan el estado de los puentes. Hay que recordar la importancia que estas infraestructuras tienen en los Estados Unidos.

La idea es desarrollar un equipamiento sencillo, que cueste poco mantener y que pueda ser utilizado en construcciones ya existentes y de nueva creación. La principal preocupación en estos casos es asegurarse de que los puentes no van a fallar sin un aviso previo. Muchos viejos puentes no han de ser sustituidos sin más, sino que sencillamente necesitan ser monitorizados para detectar signos de corrosión o desgaste.

En concreto, este equipo de ingenieros trabaja también en nuevos métodos para la recogida de datos y en especificaciones para colocar estos sensores en el lugar más adecuado. Los investigadores de Austin prueban a alimentarlos con energías renovables (solar y eólica) o incluso con las vibraciones que produce el tráfico de dichos puentes. De esta manera, se evitaría tener que cambiar las baterías de estos dispositivos, como ocurre en la actualidad. Otro apartado de esta investigación es prevenir que las estructuras de acero interfieran en las señales de radio usadas para la transmisión de los datos.

Hace unos meses, la revista Tendencias 21 recogía otra investigación en este mismo sentido. Ingenieros de la Universidad de Michigan anunciaban la creación de un sistema integrado por cuatro tipos de sensores de última generación para recoger datos diversos respecto al estado de conservación del puente. Una de las novedades del proyecto es que, por primera vez, se podrá medir qué reacción tienen estas infraestructuras cuando sufren la presión directa del tráfico, sobre todo de camiones, gracias a un sensor que llevarán instalados unos vehículos en pruebas.

Kazajistán quiere controlar internet y los medios de comunicación



El Parlamento de Kazajstán ha dado un primer paso para endurecer el control estatal sobre Internet y los medios de comunicación, un paso criticado por organismos de defensa de los derechos humanos.

REUTERS
Si se adopta, la ley permitirá a los tribunales bloquear páginas web, incluidas las extranjeras, y a los fiscales suspender a medios de comunicación. También trataría a los blogs y a los chats como medios.

La Cámara Baja, dominada por el partido Nur Otan del presidente Nursultan Nazarbayev, aprobó el proyecto de ley en la primera lectura. Las autoridades dijeron que ayudaría prevenir el malestar y a proteger los derechos de la gente.

"Países ricos como Francia, Letonia, Lituania e Islandia se han visto sorprendidos por disturbios masivos", explicó Askhat Daulbayev, fiscal general, a los diputados.

"Os acordáis de los acontecimientos recientes en Moldavia", añadió, refiriéndose a las violentas protestas en la antigua república soviética después de unas polémicas elecciones a principios de mes, y agregó que los medios podían jugar un papel clave desatando disturbios y que tienen que ser controlados.

La economía de Kazajistán ha recibido un duro golpe por la crisis. Pero sólo ha habido pequeñas muestras de descontento hasta ahora en el país, donde las protestas públicas están estrictamente controladas. La oposición es débil y dispar, y los principales medios nunca critican a Nazarbayev.

"Kazajistán está apostando sobre seguro apretando las tuercas en el momento de crisis", dijo el analista Dosym Satpayev.

La defensora de la libertad en los medios Tamara Kaleyeva dijo que la ley permitiría tomar medidas de fuerza arbitrarias.

"Las definiciones son muy vagas (...) Eso puede llevar a la infracción del derecho a recibir información y de la libertad de expresión", afirmó.

Google activa rastreadores de búsquedas sobre la gripe porcina



Utilizando nueva herramienta de rastreo, el gigante de Internet Google dijo el miércoles que alcanzó la semana pasada un máximo de búsquedas de información sobre la gripe en México, incluso antes de que las noticias sobre el brote se conocieran a gran escala.

REUTERS
Google ha creado un sistema de rastreo sobre la gripe en México, basado en una herramienta sobre gripe que lanzó el otoño pasado en Estados Unidos y que utilizan los Centros para el Control y Prevención de Enfermedades del país para averiguar dónde se registran brotes de la enfermedad.

La empresa descubrió que las personas enfermas con gripe tienden a buscar el mismo tipo de información en Internet y esas búsquedas pueden ser utilizadas para detectar dónde puede estar produciéndose un brote.

"Hemos visto indicios en México de que los usuarios de Google también buscan temas relacionados con la gripe cuando están experimentando síntomas relacionados", dijo Jeremy Ginsberg, ingeniero jefe del proyecto Flu Trends en Google, en una sesión informativa vía telefónica.

Los estudios muestran que entre un 35 y 40 por ciento de todas las visitas a Internet proceden de personas que buscan información relacionada con la salud.

Ginsberg señaló que los datos obtenidos en México no han sido verificados con los registros de años sobre casos reales de gripe en el país, como se ha hecho con los modelos rastreadores en Estados Unidos, así que los datos podrían no ser fiables.

Sin embargo, sostuvo que la compañía es optimista en cuanto a que el sistema, que genera mapas que se basan en máximos de búsquedas sobre gripe, "refleje la actividad real de la gripe".

"Sí, vimos un pequeño aumento en varias partes de México antes de que los noticiarios importantes empezaran a cubrir (el tema) la semana pasada", dijo.

Ginsberg explicó que la gente buscan cosas diferentes cuando está enferma -como la palabra termómetro- que cuando busca noticias sobre el tema.

Así, se identificó un aumento de búsquedas en Estados Unidos relacionadas con la gripe que se corresponde con el aumento de los casos que se han reportado en el país.

El ingeniero señaló que espera que la herramienta pueda ofrecer otra vía para predecir los puntos conflictivos de un brote.

"Si se extiende rápidamente, podría dar a los funcionarios de salud pública la oportunidad de responder rápidamente", dijo.

La herramienta de gripe de Google para México puede encontrarse en www.google.org/flutrends/intl/en_mx/

Una nueva alianza entre la Biología y la Filosofía es necesaria para el estudio de la vida


La Biología, como ciencia, no trata de la vida en sí misma, sino que estudia las manifestaciones o fenómenos de aquellos seres que llamamos organismos vivos por contraposición al mundo inorgánico. Pero el conocimiento en profundidad de las causas que producen en la evolución la complejidad ontológica de la vida obligan a la ciencia a ir más allá de la limitación impuesta por sus propios métodos para abordar los grandes temas de la Biofilosofía. Cuestiones de fondo que siguen hoy planteadas en la actualidad epistemológica de la biología. Entre los grandes temas básicos de la Biofilosofía destacan la ontología de la complejidad holística y de la teleonomía.

Biología

Recuerdo que no hace mucho leí un artículo de Gustavo Caponi en Ludus vitalis sobre Biofilosofía y el futuro de la biología del desarrollo; el autor llama la atención sobre el énfasis que, en los últimos años, la Biofilosofía ha puesto en los problemas relativos a la filosofía de la evolución legitimando el paradigma neodarwinista imperante, citando a autores como Ernst Mayr, Elliott Sober, Michael Ruse, David Hull, etcétera. Para confirmar esta afirmación, basta dar un vistazo a los índices de la revista Biology and Philosophy y caer en la cuenta del sesgo y desequilibrio de los estudios publicados desde la fundación de la revista cuyo primer volumen es de 1986; los estudios relativos a los problemas evolutivos sobrepasan en mucho a los referentes a la epistemología de la Biología y al estatuto ontológico de lo seres vivos.

Sin embargo, la pregunta pertinente que podemos hacernos, es si siempre la reflexión filosófica sobre la vida ha llegado en el claroscuro del atardecer o si, por el contrario, ha sido tan temprana como la Biología misma. La Biología, como ciencia, no trata de la vida en sí misma, sino que con ayuda del método hipotético-deductivo, estudia las manifestaciones o fenómenos de aquellos seres que llamamos organismos vivos por contraposición al mundo inorgánico.

Así lo entendieron Treviranus y Lamarck, quienes al comienzo del siglo XIX utilizaron el término Biología para describir: «todo lo que es común a vegetales y animales, como todas las facultades que son propias a estos seres sin excepción, debe constituir el único y vasto objeto de una ciencia particular, todavía sin fundar, que, incluso, no tiene nombre y a la que daré el nombre de Biología». Frase sacada de una monografía de Lamarck publicada en 1801.

Lamarck creyó haber formulado un nuevo término y haber creado una nueva ciencia. Sin embargo, parece ser que no fueron ni Treviranus ni Lamarck los que acuñaron el término Biología y habría que acudir a Michael Christoph Hanoi, discípulo de C. Wolff, quien ya en 1766 había utilizado el término Biología en el subtítulo del tercer tomo de su obra Philosophia Naturalis sive Physica dogmatica: Geology, Biology, General Phytology and Dendrology. La Biología nace con la pretensión de formar parte de una de las ciencias de la naturaleza (Naturwissenschaft) como oposición a la Filosofía natural (Naturphilosophie) que tanto había impresionado a Schelling y a los filósofos del romanticismo.

En una obra reciente, Rafael Amo Usanos, citando a F. T. Gottwald, ha propuesto que en la historia del pensamiento biológico se dan tres grandes periodos que se corresponden con otras tantas cosmovisiones (vitalista, materialista y organicista): la del Timeo platónico, donde el universo es imaginado como un inmenso viviente, la dominada por la cosmología mecanicista y la tercera sería la del paradigma de la complejidad.

Una nueva alianza entre la Biología y la Filosofía es necesaria para el estudio de la vida

Biología y Filosofía

Ahora bien, desde el momento en que la Biología se constituye como ciencia que estudia lo que es común a todos los organismos vivos, se plantea para todas las ciencias la relación entre Biología y Filosofía.

En la era de la Biotecnología, la Biofilosofía vuelve a plantearnos los mismos problemas recurrentes, como podemos ver en el título de la obra de Étienne Wilson: De Aristóteles a Darwin (y vuelta). Ensayo sobre algunas constantes de Biofilosofía. Podríamos parafrasear el título y decir: desde Aristóteles a la revolución biotecnológica (y vuelta). Puesto que tratar de definir la esencia de la vida ha sido una cuestión ardua desde Aristóteles hasta nuestros días. El camino más obvio y sencillo es la descripción de los fenómenos que manifiestan los seres que llamamos vivos, por eso la mayoría de las definiciones clásicas de la vida son puramente fenomenológicas o descriptivas, empezando por la definición aristotélica.

Convencidos de que la pregunta que se hizo Schrödinger: «¿Qué es la vida?» escapa a la Biología como ciencia experimental, intentaremos introducirnos en el planteamiento del estado de la cuestión de la Biofilosofía actual en la búsqueda de las bases epistemológicas y ontológicas de la Biología que puedan conducirnos a un discurso coherente; conjuntamente estudiaremos algunos problemas que el desarrollo de la Biología experimental plantea a la fundamentación del discurso coherente al que hemos hecho alusión.

Epistemología del discurso biológico. Una nueva racionalidad

Si consideramos a la epistemología como la reflexión filosófica sobre la ciencia en general y, una vez adjetivada, sobre una ciencia particular, podríamos delimitar la epistemología de la Biología, como aquella parte de la Filosofía que estudia los contenidos de verdad que las ciencias biológicas poseen y formula los cauces de significación; para ello será necesario reflexionar primeramente sobre la propia racionalidad de la Biología. El conjunto de los puntos de partida de esta racionalidad podríamos formularlos así:

• Todo fenómeno puede reducirse a unas cuantas leyes físicas.
• Todos los fenómenos son deterministas.
• El estudio de los sistemas complejos se reduce al resultado de la conducta de sus elementos.
• Afirmación del postulado de la objetividad que supone: «el rechazo sistemático de considerar como conducente a un conocimiento verdadero, toda interpretación de los fenómenos en términos de causas finales».

Frente a este tipo de racionalidad aceptada por algunos como la única racionalidad científica posible, podemos considerar otro tipo de racionalidad que podríamos llamar: «racionalidad teleológica evolutiva», propia de las ciencias biológicas, cuyas características serían:

• No todo el conocimiento es reducible al conocimiento derivado de la física; es decir, la negativa sistemática al reduccionismo epistemológico.
• La afirmación de que la propia metodología física es incapaz de abarcar el estudio de los fenómenos de alto nivel de complejidad, como son el sistema nerviosos central y los comportamientos psicosociales.
• La evidencia de que los organismos vivos se comportan como totalidades, donde los elementos estructurales y funcionales están interconectados entre sí, formando una unidad que al mismo tiempo es un sistema reactivo abierto al medio.
• La afirmación de que la finalidad, la emergencia y el progreso son categorías epistémicas necesarias para la construcción de todas las ramas de la Biología.

La no distinción de estas dos racionalidades y querer avanzar por la arista del diedro mental sin ningún balancín crítico sumió a Jacques Monod en lo que él llamó «flagrante contradicción epistemológica». Así pues, si queremos tener un discurso racional y coherente, que nos permita reflexionar sobre las ciencias biológicas, necesitamos delimitar una serie de categorías que conformen un nuevo paradigma de comprensión.

La formulación de esas nuevas categorías constituyen, a mi juicio, uno de los debates actuales en Biofilosofía, y tiene razón É. Gilson, pues los problemas son constantes y recurrentes. Las categorías o matrices conceptuales fundamentales de este discurso para la comprensión completa de los fenómenos que presentan los organismos vivos serían: comprensión holística (o totalidad), sistema, proceso, teleología, jerarquización, emergencia de novedad, evolución, desarrollo epigenético. En este artículo de Tendencias de las Religiones me referiré a los primeros fenómenos, dejando la, emergencia de novedad, evolución y desarrollo epigenético para otro artículo complementario.

La comprensión holística

Afirmamos que un organismo está vivo cuando percibimos su reactividad como una unidad con individualidad. Los organismos vivos se comportan como unidades interdependientes de estructuras y funciones integradas. «Hay un pequeño agregado de átomos y moléculas que no se encuentra en parte alguna del mundo que llamamos sin vida. Es exclusivo de los seres vivientes; muchos de ellos están constituidos por él, el cual forma parte de ellos como una unidad. Es una unidad con individualidad». Palabras de Sherrington, citadas por Waddington, que afirman la teoría celular y connotan el carácter de totalidad e independencia de todo organismo vivo; independencia del medio del cual paradójicamente no puede prescindir, pues el medio es parte de su misma vida.

A esta unidad con individualidad, Robert Hooke en 1665, en su obra Micrographia, dio, por vez primera, el nombre de célula. Es interesante notar que este concepto primario de unidad lo sacamos de nuestra propia experiencia; nos contradistinguimos de nuestro entorno con la afirmación del «yo», como una unidad en el espacio y en el tiempo. El organismo vivo es un todo aunque no clausurado en sí mismo. La unidad de análisis es la célula. Existe un modelo estructural único.

Teilhard de Chardin llamaría a la célula: «grano elemental de vida, como el átomo es el grano natural de la materia inorgánica». La vida comenzó en el planeta Tierra cuando comenzó la primera estructura individual, frágil e independiente, que llamamos célula. El paso de organismos unicelulares procariontes a unicelulares eucariontes y el paso de organismos unicelulares a organismos pluricelulares, así como la estructuración de ecosistemas, no son sino manifestaciones simbióticas de organizaciones jerárquicas. Dicho en otras palabras, según vayamos cambiando de escala de observación, o niveles de organización, iremos percibiendo unidades integradoras de los fenómenos observados.

Esta experiencia le hizo decir a Teilhard de Chardin: «considerada en su totalidad, la sustancia viviente extendida sobre la Tierra dibuja, desde los primeros estadios de su evolución, las alineaciones de un único y gigantesco organismo».

Así pues, para percibir la vida, no hay que perder de vista esa unidad total de la biosfera que la Bioquímica actual confirma, puesto que son los mismos para todo viviente: los veinte aminoácidos proteinogenéticos, las cuatro bases de los ácidos nucleicos, el código genético y los principales ciclos metabólicos. El que la vida sea una posibilita que se le pueda aplicar calificativos aparentemente antinómicos y decir: que es una en una multidiversidad; caduca para cada individuo y sin embargo perenne; que cada célula es independiente y dependiente del medio; indivisa y, sin embargo, está en continua división en una fase determinada del ciclo celular; y que es invariante, cuando observamos poblaciones a pequeña escala temporal y, sin embargo, es lícito afirmar también que la vida está en continua evolución. La hipótesis sobre el origen simbiótico de los organismos eucariontes, ardorosamente defendida, por Lynn Margulis, tiene cada día más comprobación experimental.

El ser vivo como sistema jerarquizado

Somos herederos de una cultura mecanicista en la que se ha dado un predominio analista, que tiene la pretensión de que el conocimiento exhaustivo de las partes nos llevaría a la comprensión del todo. La Física clásica concibió un universo determinista, en un espacio y tiempo concebidos como absolutos en el que se postulaba la ausencia de toda finalidad. En esta concepción no cabía una visión organicista del ser vivo. Por contraposición la racionalidad sistémica interpreta el universo mediante un discurso no lineal, sino complejo en el que se entrelazan diferentes niveles que se relacionan entre sí a partir de bucles interactivos. Así, la racionalidad sistémica actúa por aproximaciones, utilizando conceptos preñados de significación, con gran apertura semántica y complementariedad comprensiva.

La misma etimología de la palabra sistema (del griego: syn-ístemi, «lo colocado conjuntamente») indica un conjunto de elementos y acontecimientos, que relacionados jerárquicamente entre sí contribuyen a un determinado fin. Cualquier elemento estructural o funcional de un sistema no puede entenderse sino en relación con todos los otros elementos estructurales y funcionales del mismo. Todo sistema es una unidad, aunque no clausurada en sí misma, puesto que el sistema puede estar en continua interacción con otros sistemas jerárquicamente relacionados, formando un nuevo sistema de nivel superior, así «una función no viene determinada nunca por una estructura particular, sino por el contexto de la organización y del medio en que dicha estructura se encuentra sumergida».

El control jerárquico es una de las características esenciales y diferenciales de los sistemas vivos. Los niveles de organización y de complejidad creciente pueden observarse tanto en el orden estructural, como en el orden funcional. Afirma Fritjot Capra: «en el marco mecanicista de la ciencia cartesiana hay fuerzas y mecanismos a través de los cuales estas interactúan dando lugar a procesos. En la ciencia sistémica cada estructura es vista como la manifestación de procesos subyacentes. El pensamiento sistémico es siempre pensamiento procesual».

No tendría sentido fijarse únicamente en la organización jerarquizada para la atribución a un sistema la cualidad de vivo. Todos los artefactos construidos por el hombre, desde el más sencillo como sería una rueda, un instrumento musical, al más complejo aeroplano supersónico, son sistemas jerarquizados en todos sus elementos estructurales, pero todos ellos responden a una finalidad externa que les impuso el inventor de la rueda, el luthier o el equipo de ingenieros aeronáuticos, pues ninguno de estos aparatos por sí mismos son capaces de funcionar. El violín junto con la fricción del arco y los ágiles dedos comandados por el cerebro del violinista forman parte de una unidad jerárquica superior compuesta por el violinista y su instrumento.

La Biología, desde Aristóteles hasta nuestros días, se sigue preguntando, una vez superado todo tipo de animismo, por esa cualidad que tiene un ser vivo, un pajarillo, que le hace poder cantar y volar proclamando el territorio en el bosque en un día soleado.

La imprescindible finalidad

Una gran parte del Corpus Aristotelicum que ha llegado hasta nosotros trata de estudios sobre Biología. Para Aristóteles el principio de animación de todo organismo viviente es el alma definida como entelequia. La misma etimología del término, formado a partir de dos palabras griegas: entelés y échein, es decir, lo que tiene el fin en sí mismo, nos refiere a la entelequia como causa final. Así pues, desde su definición de ser vivo, Aristóteles introduce las explicaciones teleológicas en Biología.

Étienne Gilson comienza el estudio de Aristóteles a Darwin, arriba comentado, diciendo: «La noción de finalidad no ha tenido éxito». Una de las causas de la hostilidad es sin duda el temor a ser contaminada con cualquier tipo de connotación teológica. El debate sigue abierto por el estricto darwinismo ortodoxo de nuestros días, aunque sostenemos que Darwin en este punto como en otros Darwin no fue darvinista.

Por otra parte, no es infrecuente que los biólogos actuales en su discurso usen, más o menos veladamente, categorías finalistas. Es muy interesante a este respecto la correspondencia entre Theodosius Dobzhansky y John C. Greene en la que el abanderado del neodarwinismo reclama para los biólogos el poder hablar en términos que tienen un cierto regusto finalista como: finalidad (purpose), creatividad (creativity), crecimiento (improvement) y tanteo (trials and errors), cuando se observa que esto es lo que ocurre de hecho en la naturaleza.

Arguye que el mismo Ernest Naguel acepta que los biólogos utilicen este lenguaje, puesto que algunos procesos evolutivos suponen: a) aparición de algo nuevo, b) hacen avanzar la vida y c) pueden resultar en éxito o fracaso.

El mismo Greene confiesa que la teoría moderna de explicación del hecho histórico de la evolución está cargada de términos valorativos (higher, lower, success, failure, progress) y concluye: o los biólogos eliminan estos términos de su discurso o tienen que reconocer que la Biología requiere conceptos que solamente pueden interpretarse en una Filosofía de la Naturaleza, en cuyo lenguaje las expresiones valorativas tienen sentido.

Según Greene, el mismo Darwin se encontró a sí mismo prisionero entre los hechos biológicos y la implacable (pitless) lógica de una Filosofía natural mecanicista. De la correspondencia de estos dos biólogos se desprende que el debate sobre la finalidad, una vez más, está planteado en los diferentes presupuestos por la que consciente o espontáneamente se ha optado.

Jacques Monod en su lección inaugural de la Cátedra de Biología Molecular del Collége de France, que viene a ser como el preludio de su obra El azar y la Necesidad, al hablar de las características de los organismos vivos no quiso utilizar la palabra teleología: «la teleonomía es la palabra que puede utilizarse, si por cierto recato se quiere evitar hablar de finalidad». Según Ernst Mayr fue Colin S. Pittendrigh el primer autor en usar el término teleonomía: «parece desafortunado utilizar el término “teleología” y creo que se ha abusado de él. La confusión en que han permanecido los biólogos durante largo tiempo se eliminaría más completamente si todos los sistemas dirigidos a un fin fueran descritos mediante algún que otro término como “teleonómico”».

Teleología (teleonomía) enla explicación biológica


Jacques Monod planteó certeramente el problema epistemológico. La ciencia moderna, en cuyo discurso quiere entrar con pleno derecho la Biología, debe aparecer como ciencia explicativa por sus causas y por tanto objetiva y no proyectiva. Sin embargo, en virtud de la misma objetividad, muchos autores admiten las explicaciones teleológicas en Biología. La aceptación de una racionalidad diferente y de una autonomía epistemológica para la Biología puede ser el camino de solución del problema.

Quizá el genetista y biofilósofo español Francisco José Ayala haya sido entre los biólogos actuales el que mejor ha enfocado el debate sobre la finalidad, puesto que Ayala además de su reconocida labor en el campo de la biología experimental evolutiva, posee una sólida formación filosófica. Ayala reconoce el valor heurístico de las explicaciones teleológicas en los siguientes casos:

• Cuando el estado final o meta es anticipado por una agente.
• En los mecanismos autorreguladores. En general todas las reacciones homeostáticas pertenecen a este tipo de fenómenos teleológicos.
• Las estructuras anatómicas y fisiológicas diseñadas para cumplir una misión.

Al menos estas explicaciones teleológicas, correspondientes a la autorregulación y finalidad, son admitidas espontáneamente por la mayoría de los biólogos. Michael Ruse, en su obra la Filosofía de la Biología, nos dice: «Afirmaré finalmente en este capítulo, que, aunque el pensamiento biológico no presupone una “sólida” teleología (esto es una teleología que postule causas futuras), la Biología tiene, en un sentido más amplio, un elemento teleológico intraducible (aunque quizá eliminable). De manera muy real, los biólogos alcanzan una intelección explicativa refiriéndose al futuro».

Desde el punto de vista heurístico, las explicaciones teleológicas han sido una fuente de progreso del conocimiento. Es obvia la afirmación de que toda la Fisiología está construida bajo la pregunta del para qué de una determinada función. En Bioquímica la estructura de una proteína guarda una relación con la función a realizar catalítica, transportadora, de andamiaje celular, etcétera; igualmente acontece con los ciclos metabólicos.

A este tipo de explicación teleológica Ayala la denominará teleología natural (interna). El concepto de selección natural de Darwin posibilita una explicación natural. Según Ayala: «uno de los mayores logros (de Darwin) fue llevar los aspectos teleológicos al terreno de la ciencia». La teleología natural desde ahora se podría explicar como resultado de leyes naturales.

Este pensamiento de Ayala coincide con la afirmación de Elliott Sober: «Darwin está adecuadamente considerado como un innovador que impulsó la causa del materialismo científico. Pero su efecto sobre las ideas teleológicas fue bastante diferente del de Newton. Mas que desterrarlas de la Biología, Darwin fue capaz de mostrar cómo podían hacerse inteligibles desde un marco naturalista». Es interesante caer en la cuenta que el mismo Darwin aceptó plenamente esta visión teleológica de su pensamiento como consta en su correspondencia con el botánico de Harvard Asa Gray.

En la revista Nature de 4 de Junio de 1874 Asa Gray publicó un artículo titulado sencillamente: «Charles Darwin» y afirmaba: «reconocemos el gran servicio prestado por Darwin a la ciencia natural devolviéndole la teleología, de modo que en lugar de enfrentar morfología y teleología, tendremos a la morfología unida la teleología». Darwin respondió a Gray con una carta en la que le decía: «lo que ha dicho Vd. de la teleología me es especialmente grato y creo que nadie se había fijado en ello. Siempre he dicho que era Vd. el hombre más indicado para darse cuenta», (literalmente: to hit the nail on the head) .

La novedad de la vida en el universo

La filosofía de la biología, la biofilosofía, muestra que la vida, en efecto, no es simplemente puro mundo físico. Lo viviente tiene sus raíces en lo físico. Pero representa una sorprendente novedad emergente que exige una nueva racionalidad explicativa. El holismo biológico supone un nivel de complejidad no visto en el mundo físico. El ser vivo como sistema y proceso jerarquizado teleológicamente dibuja una compleja organización que emerge novedosamente y que exige a la ciencia pasar a rigurosas preguntas filosóficas.

miércoles, 29 de abril de 2009

Una mansión en ruinas de 1926, la pesadilla de Steve Jobs


El fundador de Apple planea derruir el inmueble, considerado de interés arquitectónico
La compró en 1984, tiene 30 habitaciones y el municipio reconsidera la demolición
Una fundación de amigos de la casona, principal defensora ante las autoridades

En 1984, el mismo año que vio la luz el Mac de Apple, Steve Jobs, uno de sus creadores, cerraba la compra de Casa Jackling, una gigantesca mansión de 30 habitaciones construida en 1926 dentro de una kilométrica finca en Woodside (California). Nunca le gustó y siempre quiso derribarla para construir una más pequeña. Sin embargo, las autoridades locales se han negado reiteradamente. La casa goza de una protección especial, dado su valor arquitectónico pues fue diseñada por George Washington Smith, para el millonario Daniel C. Jackling, que llenó la casa caros objetos de artesanía. De ahí que Jobs haya optado por dejar que se caiga a pedazos.

Unas fotografías del interior de la vivienda de Jobs publicadas esta semana por la revista Fortune han avivado la polémica. Las imágenes, que muestran cómo el abandono está convirtiendo la mansión poco a poco en escombros han provocado que la fundación que defiende la conservación del inmueble -Friends of Jackling House- haya puesto el grito en cielo.

Vieja disputa legal


La polémica casa | Woodside History Comitee

La mansión es desde hace varios años objeto de disputa legal entre Jobs, quien pretende derribarla para erigir en su lugar otra más moderna, y un grupo local conservacionista.

El último episodio de esta batalla judicial ha sido el anuncio del ayuntamiento californiano al que pertenece la mansión de que reconsiderará la demanda impuesta por el empresario hace varios años sobre el permiso para derribar la mansión.

La fundación recopila centenares de cartas en contra de las intenciones del multimillonario, que la considera una de las mayores abominaciones en materia de vivienda que jamás haya visto. El inmueble, que ocupa una parcela de 1.725 metros cuadrados y es de estilo colonial español.

Los partidarios de la preservación del edificio, por su parte, consideran que la casa es un tesoro arquitectónico y aseguran que debe ser incluido en el Registro Nacional.

El misterio de los usuarios de Twitter


Al ser una compañía privada, no revela la cantidad de sus usuarios
Tuvo más de 7 millones de visitantes individuales en febrero

Muchos usuarios del sitio Twitter abandonan rápidamente su uso, de acuerdo a ciertos datos que ponen en duda el éxito a largo plazo de la última sensación en las redes de contactos sociales de Internet, empleada por celebridades como prah Winfrey y Britney Spears.

Datos de la firma Nielsen Online, que mide el tráfico en Internet, indican que más de un 60% de los usuarios de Twitter dejaron de usar el sitio web gratuito de contactos sociales un mes después de unirse a él.

"La tasa de retención de la audiencia de Twitter, o el porcentaje de usuarios en un mes dado que vuelven el mes siguiente, es actualmente de un 40%", dijo en una declaración David Martin, vicepresidente de investigación primaria de Nielsen Online.

"Durante la mayor parte de los últimos 12 meses, antes de que Oprah comenzara a usarlo, Twitter había languidecido con menos de un 30% de retención", agregó Martin.
Creciente popularidad

El sitio fue creado en San Francisco hace tres años como un servicio de internet que permite a la gente recibir mensajes de 140 caracteres, o 'tweets', de amigos o celebridades que pueden ser enviadas a pantallas de ordenadores o dispositivos móviles.

Pero Twitter ha gozado de un reciente aumento en popularidad gracias a celebridades como el actor Ashton Kutcher y su reto con la CNN por el millón de seguidores o la estrella de la televisión en EEUU Oprah Winfrey, que lo han alabado y enviado "tweets" que pueden informar a sus seguidores de noticias en progreso o de sus actividades cotidianas.

El presidente de Estados Unidos, Barack Obama, usó Twitter durante la campaña electoral del año pasado, y entre las celebridades que utilizan Twitter están el jugador de baloncesto Shaquille O'Neal y la cantante Miley Cyrus.
Usuarios

Al ser una compañía privada, Twitter no revela la cantidad de sus usuarios, pero de acuerdo a Nielsen Online, el sitio web de Twitter tuvo más de siete millones de visitantes individuales en febrero de este año, comparado con 475.000 usuarios en febrero del 2008.

Pero Martin dijo que una tasa de retención de un 40% limitará el crecimiento del sitio a un límite del 10% en el largo plazo. "Simplemente no hay suficientes nuevos usuarios para compensar aquellos que abandonan el servicio luego de cierto punto" dijo Martin en una declaración.

Martin indicó que Facebook y MySpace, los sitios web de redes sociales más consolidados, disfrutan de tasas de retención que son dos veces mayores y que esas tasas sólo crecieron cuando ambos pasaron sus fases de crecimiento explosivo. Ambos sitios actualmente tienen tasas de retención de un 70%, y Facebook registra unos 200 millones de usuarios.

"Twitter ha disfrutado de un buen avance durante los últimos meses, pero no será capaz de sustentar su ascenso meteórico sin establecer un mayor nivel de lealtad entre sus usuarios", expresó Martin.

Explicación Para Raros Tornados y Relámpagos Asociados a Volcanes


Un informe de 200 años de antigüedad realizado por un capitán de barco, y fotografías de la erupción del Monte Chaiten en el año 2008, están ayudando a los científicos a comprender mejor varios fenómenos meteorológicos enigmáticos relacionados con los volcanes y cuya causa se desconocía.Los resultados del nuevo estudio resuelven un misterio de larga duración sobre la relación entre los penachos volcánicos y los tornados, trombas marinas y relámpagos asociados a ellos, mostrando por primera vez que la rotación de esas columnas volcánicas de humo y cenizas puede ser la causa principal de estos efectos.

En 2008, una fotografía de la erupción del Monte Chaiten en el sur de Chile mostró lo que parecía ser un penacho volcánico envuelto por relámpagos.

Una búsqueda de referencias sobre otros casos de relámpagos en torno a penachos volcánicos llevó a Pinaki Chakraborty (especialista en computación de la Universidad de Illinois), al ingeniero mecánico Gustavo Gioia y a la geóloga Susan Kieffer, a un artículo casi olvidado escrito por un capitán de barco y publicado en 1811.

En ese informe, el capitán exponía sus observaciones de una chimenea volcánica que se hizo visible en el mar, cerca del archipiélago de las Azores, y que formó un gran penacho volcánico.

Según el capitán, el penacho giraba en el agua "como una rueda horizontal" y estuvo acompañada por continuos relámpagos y varias trombas marinas.

Esta combinación de rotación, relámpagos y trombas marinas (o remolinos de polvo si el volcán está en tierra firme) es típica de cierto fenómeno meteorológico familiar que nada tiene que ver con los penachos volcánicos: un tornado.

El mismo proceso que crea un mesociclón en una tormenta con tornados crea también un mesociclón volcánico en un penacho volcánico potente. Lo que sucede en las tormentas de tornados es análogo a lo que ocurre en estos penachos.

Un penacho volcánico potente consiste en una columna vertical de gases calientes y partículas cubierta por encima con un "paraguas" horizontal. Un mesociclón volcánico pone a todo el penacho a girar sobre su eje.

El mesociclón genera trombas marinas o remolinos de polvo, y agrupa las cargas eléctricas en el penacho de tal modo que se forma una envoltura de relámpagos, como se observó de forma indiscutible en la erupción del Monte Chaiten.

El 15 de junio de 1991, la erupción del Monte Pinatubo en las Filipinas fue grabada por un satélite. Las imágenes muestran que el borde del paraguas u hongo del Pinatubo estaba girando alrededor de su centro, lo que concuerda con la presencia de un mesociclón volcánico, según los científicos.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=1218:tornado-like-rotation-is-key-to-understanding-volcanic-plumes&catid=41:geology&Itemid=61

Samsung 17500, con Android


Samsung Electronics dijo que su primer teléfono basado en el sistema operativo Android de Google estaría disponible en los principales países europeos en junio.

REUTERS
La compañía dijo que su aparato 17500 tendría controles táctiles y funcionaría en redes basadas en HSDPA, la tecnología inalámbrica de alta velocidad popular en Europa.

Samsung no reveló los planes específicos para vender el teléfono en Estados Unidos, donde su rival menor, Motorola, está desarrollando su propia gama basada en Android, que saldará al mercado este mismo año.

Android integra características como el Gmail y mapas de Google en el teléfono e incluye un almacén virtual de aplicaciones de software, que compite con el App Store que ayudó a las ventas del iPhone de Apple.

La surcoreana Samsung sigue a la taiwanesa HTC, la primera que lanzó un teléfono basado en el sistema Android el año pasado. HTC tiene un acuerdo exclusivo para vender su teléfono Generation Android a través de Vodafone en cuatro países esta primavera.

Samsung dijo que su teléfono Android tendrá también una cámara de cinco megapixels y una capacidad de memoria de hasta 40 gigabytes, incluida una memoria externa, además de vínculos a Internet basados en el Wi-Fi, la tecnología inalámbrica a gran velocidad de corto alcance a menudo presente en cafeterías y aeropuertos.

La empresa no dijo cuánto costará el aparato.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX