Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

martes, 9 de septiembre de 2008

EL EXPERIMENTO MÁS AMBICIOSO DE LA HISTORIA- Todo a punto para el 'Big Bang' subterráneo


Técnicos del CERN examinan el detector CMS, que forma parte del acelerador de partículas LHC. (Foto: AP)

Todo a punto para el 'Big Bang' subterráneo

El miércoles se inaugura el LHC, el mayor acelerador de partículas del mundo
Simulará el nacimiento del Universo para hallar las partículas más elementales
Su construcción ha tardado dos décadas y ha costado 4.000 millones de euros


El Universo está a punto de renacer a 100 metros bajo tierra. El miércoles empezará a funcionar en el CERN de Ginebra el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más potente del mundo.

Tras dos décadas de trabajo en el diseño y la construcción de una obra faraónica que ha supuesto una inversión de 4.000 millones de euros, los físicos de todo el planeta esperan ansiosos los primeros resultados de lo que muchos consideran el experimento científico más ambicioso de la Historia.

El objetivo es nada más y nada menos que reproducir las condiciones que existían inmediatamente después del Big Bang, con la intención de desentrañar los grandes enigmas que siguen rodeando a la naturaleza de la materia, e identificar con más certeza que nunca los ladrillos fundamentales de los que se componen las estrellas, los planetas y nosotros mismos.

Para conseguirlo, los científicos del Centro Europeo de Investigaciones Nucleares (CERN) lanzarán protones en direcciones opuestas prácticamente a la velocidad de la luz, en el núcleo del LHC: un anillo metálico de 27 kilómetros cuya temperatura interior alcanzará la friolera de 271 grados bajo cero.

Si sus expectativas se cumplen, las partículas subatómicas colisionarán en las entrañas del LHC aproximadamente 600 millones de veces por segundo, y desencadenarán la mayor cantidad de energía jamás observada en las condiciones de un experimento científico.

«Es como ir a Marte. Sabes que te vas a encontrar algo nuevo, porque estás viajando a un lugar al que nadie ha ido jamás», asegura Brian Cox, un físico de la Universidad de Manchester que forma parte del equipo del LHC.

Nunca antes se había construido una máquina tan poderosa para contestar a algunas de las preguntas más antiguas que siempre se ha planteado la Humanidad: ¿De qué está hecho el mundo que nos rodea? ¿Y cómo llegó a ser como es?

«Lo que se descubra en este nuevo acelerador nos permitirá comprender mejor el Universo y las teorías que explican cómo evolucionó», explica la doctora María Chamizo, una investigadora española del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) que también participará en los experimentos pioneros del LHC.

Temores apocalípticos

El bautizo del miércoles será un ensayo general en el que se inyectará un primer haz de protones en el acelerador, para comprobar si es capaz de recorrer sin problemas el recorrido circular del anillo. Si esta primera prueba funciona, ese mismo día se intentará volver a lanzar el haz en dirección contraria. Las primeras colisiones de partículas, sin embargo, no se llevarán a cabo hasta dentro de unas semanas, una vez que los científicos del CERN comprueben que todo funciona a la perfección.

Cuando el LHC empiece a trabajar a pleno rendimiento en los próximos meses, los aproximadamente 10.000 científicos de unos 500 centros de investigación que participan en el proyecto van a tener mucho trabajo. Se calcula que cada año, el acelerador de partículas producirá tantos datos que se necesitaría una pila de CD de una altura de 20 kilómetros para almacenar toda la información generada por sus experimentos.

La inauguración del LHC podía haberse suspendido, sin embargo, si el Tribunal de Derechos Humanos de Estrasburgo se hubiera tomado en serio la demanda interpuesta por un grupo de físicos que a finales de agosto exigieron la paralización del proyecto, al considerar que el acelerador de partículas representaba una gravísima amenaza para la Humanidad. Según estos iluminados, el LHC podría desencadenar un pequeño agujero negro con consecuencias apocalípticas, ya que la Tierra acabaría literalmente engullida por este sumidero cósmico.

A pesar de que la teoría era totalmente extravagante, y el Tribunal de Estrasburgo desestimó la demanda, el CERN se vio obligado a emitir un comunicado de prensa el pasado viernes para tranquilizar a todos aquellos que sigan temiendo que el fin del mundo se acerca. El director general del CERN, Robert Aymar, ha querido zanjar la polémica con rotundidad: «El LHC es seguro y cualquier sugerencia de que sea peligroso es pura ficción».

El “ADN basura” nos hizo humanos


Una secuencia de “ADN basura” humana hace crecer pulgares, muñecas y tobillos a embriones de ratón. Foto: Yale University.

Encuentran una secuencia de ADN no codificante que sería la responsable en parte de la capacidad humana de agarrar y manipular objetos o herramientas e incluso de andar erguidos.



Compartimos un alto porcentaje de nuestros genes con los chimpancés, pero es obvio que fisiológica e intelectualmente somos muy distintos a ellos. Ahora unos científicos han encontrado pistas que indican que pequeñas secuencias de ADN son responsables de nuestros miembros y manos.
La secuencia de ADN encontrada es no codificantes. Este ADN no codificante son regiones de ADN que no sirven para fabricar proteínas y que algunas veces se las ha llamado colectivamente “ADN basura”. Quizás muchas de las diferencias entre humanos y chimpances se deban a este tipo de secuencias.
En los últimos años los expertos se han ido dando cuenta de que este “ADN basura” no es tal y que cumple ciertas funciones, como activar o desactivar ciertos genes. Se han encontrado alrededor de 200.000 secuencias de este tipo en los mamíferos y 1000 de ellas parecen ser exclusivamente humanas.
Desde hace tiempo se sospechaba que los cambios en la expresión de los genes contribuían a la evolución humana, pero era muy difícil de estudiar porque las secuencias que controlaban los genes no habían sido identificadas. El control de algunas de esas secuencias se debería al ADN no codificante. Por tanto, el ADN basura no sería tal y contendría miles de secuencias reguladoras que se encargarían de la expresión de genes. La evolución no sólo estaría dirigida por cambios en las secuencias de genes, sino que además dependería de áreas de ADN no codificante.
Se ha podido ver que algunas de estas secuencias no codificantes se han conservado a lo largo de una gran distancia evolutiva y que, por ejemplo, se pueden encontrar tanto en gallinas como en humanos. Ciertos resultados indicaban que estas secuencias conservadas controlaban los genes que afectan el desarrollo humano.
James Noonan de Yale University y sus colaboradores de otras instituciones examinaron las diferencias entre secuencias humanas y las de otros primates e identificaron una que había que ha sido conservada en diversas especies de vertebrados, pero que había evolucionado muy rápidamente, acumulado variaciones en 16 bases desde la divergencia de los humanos y chimpancés hace 6 millones de años. Esta secuencias de ADN no codificante, que podríamos decir que es específicamente humana, se denominada HACSN1.
Una vez identificada esta secuencia lo investigadores la usaron para manipular embriones unicelulares de ratón. Once días y medio después de la inoculación encontraron que se activaron genes en los embriones de ratón haciendo que éstos desarrollaran extremidades de manera similar a la humana. Así por ejemplo, el pulgar y el primer par de dedos se disponían de la misma manera que en la mano humana. Cuando el equipo inyectó a los embriones secuencias similares de chimpancés y macacos la actividad genética (que se ponía de relieve por un color azul inducido artificialmente) fue confinada solamente a la base de los miembros.
Esto sugiere que HACSN1 podría ser uno de los componentes moleculares “puramente humano”. Se cree que HACNS1 puede haber contribuido a la adaptación de los tobillos, pies, pulgares y muñecas humanas. Rasgos anatómicos críticos que nos dieron la ventaja como especie. Esta secuencia sería, por tanto, un contribuidor fundamental a las diferencias morfológicas entre humanos y simios.
No se sabe muy bien cómo HACSN1 afecta el desarrollo de los miembros porque los investigadores no saben qué gen o genes está influenciando. El próximo paso será modificar genéticamente un ratón con con más complementos de este tipo procedentes de humanos. De esto modo intentarán saber si una particular secuencia podría alterar la posición de los dedos, la rotación del pulgar o hacer algo completamente diferente.
Este estudio podría abrir camino a muchos descubrimientos sobre la singularidad de secuencias genéticas específicamente humanas.

http://www.sciencemag.org/cgi/content/abstract/321/5894/1346

Los expertos se preparan para el reto de seguridad que suponen los futuros ordenadores cuánticos



La X Reunión Española sobre Criptología y Seguridad de la Información ha concluido en Salamanca en una jornada marcada por la intervención de Fausto Montoya, científico del Instituto de Física Aplicada, perteneciente al Consejo Superior de Investigaciones Científicas (CSIC), que ha intentado anticiparse al futuro en una conferencia sobre las posibles medidas de seguridad informática que deberán ponerse en marcha dentro de algunas décadas, cuando supuestamente se hayan desarrollado los ordenadores cuánticos, muchísimo más potentes que los actuales.

SINC
Los ordenadores cuánticos son una entelequia, puede que estén funcionando dentro de 50 ó 100 años", ha señalado el experto en declaraciones a DiCYT. En la actualidad, se encuentran en una etapa de desarrollo muy prematura, "lo que hay son elementos del ordenador cuántico que son tan grandes como una habitación, lo mismo que ocurría con los ordenadores primitivos, pero hasta que se puedan juntar todos estos elementos en poco espacio y sean operativos queda mucho tiempo", asegura.

Con estos artefactos, las operaciones serían mucho más rápidas, ya que el ordenador cuántico no tendría bits, sino qubits (del inglés quantum bit, bit cuántico) "Sería una herramienta formidable para atacar a los algoritmos actuales, pero si hay un ordenador cuántico para atacar, también dispondrá de un ordenador cuántico el que cifre los códigos, es decir, habrán tenido que evolucionar todos los algoritmos, que serán distintos a los de hoy en día", tranquiliza el especialista. "Estaremos en la misma situación: alguien intenta romper un sistema y alguien intenta mejorarlo continuamente", concluye.

Montoya ha recordado que en España se realiza investigación en criptografía desde hace 60 años. "Nunca se ha parado, pero al principio íbamos muy despacio, España estaba muy aislada del exterior y la investigación sólo ha despegado desde 1975", afirma. "Al principio sólo se investigaba en el CSIC o el Ejército, pero ahora en todos los departamentos de Matemáticas de las universidades está presente, sobre todo porque la criptografía ha evolucionado y ahora se basa en teoría de números. Lo que antes era electrónico y tradicional se ha convertido en operaciones matemáticas y algoritmos muy complicados. Esto ha atraído a muchos científicos y el nivel es bueno comparado con el internacional", apunta.

En su opinión, "el usuario normal puede estar tranquilo desde el punto de vista técnico" con respecto a las operaciones que realiza en internet, "los sistemas no se rompen, los académicos podemos detectar algún mínimo fallo que no serviría ni para atacar los sistemas de seguridad más triviales, lo que pasa es que el usuario ordinario tiene que cuidarse de la ingeniería social, es decir, lo que hace el hacker es mandarte un correo y pedirte tu número de cuenta y tus claves, se lo das inocentemente y entonces es cuando te roba", advierte.

Descubren la procedencia de 3.200 europeos gracias a la genética


Mapa genético de Europa



Un equipo internacional de científicos ha conseguido predecir los orígenes geográficos de una amplia muestra de europeos, a partir del análisis del genoma de estos individuos. Esta investigación, que tendría importantes implicaciones para la comprensión del papel de los genes en el desarrollo de enfermedades y en otros estudios de salud basados en el genoma, se diferencia de otras investigaciones en que sus artífices han desarrollado un algoritmo para predecir, con un alto grado de exactitud, el origen geográfico de los individuos a partir, simplemente, de sus variaciones genéticas. Es lógico que cuanto más lejos esté el origen de dos personas distintas, más diferentes serán sus genes respectivos, pero hasta ahora no se había demostrado este hecho a nivel del genoma, aseguran los expertos.


TENDENCIAS CIENTÍFICAS
Un estudio realizado por un equipo internacional de científicos, liderados por el profesor de la Universidad de California en los Ángeles (UCLA) John Novembre, ha permitido predecir los orígenes geográficos de una amplia muestra de europeos, a partir sólo del análisis del ADN de éstos. Este logro tendría importantes implicaciones para la comprensión del papel de los genes en el desarrollo de enfermedades y en otros estudios de salud basados en el genoma, informa la revista Technology Review.

Según explica el científico de la Cornell University, Carlos Bustamante, coautor de la investigación, en un comunicado emitido por la UCLA, "lo que se ha descubierto es que, en Europa, los individuos cuyos cuatro abuelos proceden de una misma región son, como media, más parecidos genéticamente unos a otros que a individuos de zonas más distantes". Las diferencias genéticas han permitido predecir de qué lugar procedía cada individuo, señaló Bustamante.

Esta investigación sería una de las primeras en examinar los patrones de variación genética del genoma de una amplia cantidad de europeos, así como en usar estos datos para determinar la procedencia de los individuos analizados. El genoma es todo el material genético que contienen las células de cada organismo.

La metodología seguida por los científicos podría utilizarse, asimismo, para identificar genes causantes de ciertas enfermedades, y también para estudiar la historia humana reciente. La revista Nature ha publicado un artículo al respecto de este trabajo.

Más de 3.000 europeos

En total, los investigadores utilizaron los datos de 3.200 europeos, centrándose en individuos cuyos abuelos procedían del mismo país. Estos datos fueron facilitados por la empresa británica de investigación bioquímica y farmacéutica GlaxoSmithKline. Los científicos estudiaron más de 500.000 puntos genéticos conocidos como polimorfismos del nucleótido simple (o SNPs), que son una variación en la secuencia del ADN que afecta a un único nucleótido (molécula que integra el ácido nucleico) del genoma.

Los SNPs forman hasta el 90% de todas las variaciones genómicas humanas, y aparecen, como media, entre cada 100 y 300 bases a lo largo del genoma humano. Estas variaciones en la secuencia del ADN pueden afectar a la respuesta de los individuos a enfermedades, bacterias, virus, productos químicos, fármacos, etc. Por otro lado, los SNPs no cambian mucho de una generación a otra, por lo que es sencillo seguir su evolución en estudios de poblaciones.

Una vez vertidos los datos obtenidos en gráficos, los científicos descubrieron que los individuos con estructuras genéticas similares se agrupaban cerca unos de otros, de manera que su distribución hizo visibles las principales características geográficas de Europa.

Según Novembre, "lo realmente sorprendente fue que, cuando compendiamos los datos de los 500.000 SNPs, en tan sólo dos dimensiones, apareciera el mapa de Europa". La distribución de la población por similitudes genéticas permitió distinguir la Península Ibérica, Italia, el sudeste europeo, Turquía y Chipre.

La resolución del mapa genético fue tan precisa que los investigadores pudieron encontrar incluso diferencias entre los suizos de habla francesa, alemana e italiana, que tenían mayores similitudes genéticas con los franceses, los alemanes y los italianos, respectivamente, que entre ellos.

Novembre y sus colegas desarrollaron un novedoso algoritmo que permite clasificar geográficamente a los individuos a partir de sus variaciones en los patrones genéticos. Esta herramienta permitió encontrar los orígenes geográficos de las personas estudiadas, dentro de un radio de entre 300 y 840 kilómetros alrededor del lugar exacto del que, realmente procedían.

En el futuro, los científicos buscarán los orígenes de personas con ancestros recientes procedentes de múltiples lugares, e incluso tratarán de realizar análisis similares con poblaciones de otros continentes.

Algoritmo original

Según John Novembre, otros científicos han publicado recientemente los resultados de investigaciones similares a ésta, como es el caso de los aparecidos recientemente en la revista Current Biology. En dicha investigación, científicos alemanes descubrieron, por ejemplo, que los datos genéticos recopilados (de más de 2.000 europeos) coincidieron con las hipótesis sobre población europea basadas en la propia historia, incluyendo la hipótesis de una expansión del sur hacia el norte.

Novembre afirma que la diferencia con éste y otros estudios previos radica en el uso de algoritmos para predecir, con un alto grado de exactitud, el origen geográfico de los individuos a partir, simplemente, de las variaciones genéticas. Es lógico que cuanto más lejos esté el origen de dos personas distintas, más diferentes serán sus genes respectivos, pero hasta ahora no se había demostrado este hecho a nivel del genoma, explican los expertos.

La caída de los costes del genotipeo -proceso para determinar la constitución genética de cualquier organismo- está facilitando el avance de este tipo de análisis. Gracias a tecnología del chip de ADN, por ejemplo, se puede observar de forma casi instántanea la expresión de todos los genes del genoma de un organismo. Y, otro ejemplo, el chip de ADN de la compañía Affymetrix mide 500.000 SNPs sólo por unos cuantos cientos de dólares.

Otros ejemplos

Otros ejemplos de los que hemos hablado en Tendencias21 sobre estudios de genes y población humana fueron, en primer lugar, el de la investigación de la Universidad de Washington, que permitió reconstruir el pasado de 1.000 personas a partir de sus genes y, en segundo lugar, el del proyecto Epigenoma Humano.

Este proyecto pretende cartografiar los cambios químicos (epigenéticos) que ocurren en la cadena de ADN y los mecanismos que activan o desactivan a los genes, bien determinando el sexo de una persona, bien desencadenando una enfermedad.

El Parlamento Europeo apremia a la Comisión para que prohíba la clonación de animales para su uso alimentario


El 3 de septiembre el Parlamento Europeo adoptó una resolución para que se prohíba la clonación de animales destinados a fines alimentarios, y que se imponga un embargo a las importaciones de animales clonados, sus productos derivados y sus crías. La principal inquietud se debe a la amenaza que supone este tipo de producción para el bienestar animal, la diversidad genética, la confianza del consumidor y la imagen y la naturaleza del modelo agrícola europeo.

CORDIS

La clonación animal se lleva a cabo normalmente mediante transferencia nuclear de la célula somática (SCNT). Este proceso comprende la inserción de genes del animal donante en un óvulo al que se le ha extraído el núcleo. Este óvulo forma a su vez un embrión, que se implanta en una madre portadora. El ganado bovino y porcino clonado con éxito mediante SCNT resulta normal en apariencia, pero se observan graves efectos sobre la salud y anomalías en el desarrollo de estos animales en casos en los que se producen fallos en la fase de «reprogramación» de la clonación.

Los defensores de la clonación animal confían en que la tecnología les permitirá producir ganado de alta calidad, muy productivo y resistente a las enfermedades, y que esto podría conducir a la administración de menos antibióticos, entre otros aspectos beneficiosos. Por ejemplo, si un animal presenta una resistencia natural a la encefalopatía espongiforme bovina (EEB), clonar a ese animal podría contribuir a la eliminación de la enfermedad en un rebaño.

La resolución en contra de la clonación para fines alimentarios se alcanzó tras sopesar los posibles beneficios y las cuestiones éticas, sobre todo las referidas al bienestar animal.

Dado que la Comunidad Europea y los Estados miembros tienen la obligación de «tener plenamente en cuenta las exigencias en materia de bienestar de los animales al formular y aplicar políticas comunitarias en materia de agricultura e investigación», se solicitó a la Autoridad Europea de Seguridad Alimentaria (EFSA) que llevara a cabo un estudio exhaustivo sobre los efectos que tiene la práctica de la clonación en el bienestar animal. Además, la Comisión Europea solicitó la opinión del Grupo Europeo de Ética de la Ciencia y de las Nuevas Tecnologías (EGE).

El estudio de la EFSA concluyó que «la salud y el bienestar animal de una proporción significativa de los animales clonados se veía afectada negativamente, a menudo de forma grave y fatal». Averiguaron que la muerte y la enfermedad antes de alcanzar la madurez, debidas a insuficiencia cardiovascular, inmunodeficiencias, insuficiencia hepática, problemas respiratorios y anomalías musculoesqueléticas, ocurren con más frecuencia entre los animales clonados que en entre los animales nacidos mediante reproducción sexual. También se observaron abortos y problemas durante la gestación en cantidades desproporcionadas en las madres portadoras de los clones.

El EGE, por su parte, concluyó que la clonación de animales destinados a la cadena alimentaria no tenía justificación ética.

En la resolución aprobada por el Parlamento se señala que la cría y el engorde de animales son preocupantes en lo relativo al bienestar y la salud de los animales cuando se utilizan técnicas de cría selectiva, y se citan disfunciones en las patas y afecciones cardiovasculares en el ganado porcino y cojera y mastitis en el ganado bovino. Se teme que la clonación incremente la incidencia de problemas similares.

Además, se considera que la posibilidad de que la clonación «merme de forma significativa la diversidad genética de poblaciones de ganado» constituye una amenaza para la seguridad de la cabaña, puesto que cabe la posibilidad imprevisible de que los animales clonados sean más vulnerables a algunas enfermedades.

La falta de datos sobre las repercusiones de la clonación de animales para el consumo (dado que, sencillamente, las crías de animales clonados aún no han vivido el tiempo suficiente) se consideró una razón de peso para la prohibición del uso de animales clonados, productos derivados (semen, embriones, carne, leche) y crías en la UE. Aceptar la práctica de la clonación se consideró en su día como «una seria amenaza a la imagen y la naturaleza del modelo agrícola europeo, que se basa en la calidad de sus productos, principios de respeto hacia el medio ambiente y cumplimiento de unas estrictas condiciones de bienestar animal».

La resolución apremia a la Comisión a que prohíba, cuando el propósito sea la producción alimentaria, la clonación de animales, la explotación de animales clonados o de sus crías y la venta de carne o productos lácteos derivados de animales clonados o de sus crías. También solicita un embargo a la importación de animales clonados, productos derivados y crías (estos productos no están a la venta en Europa ni en ninguna otra parte del mundo).

Esta resolución sólo es aplicable a la clonación de animales con fines alimentarios. Se aprobó con 622 votos a favor por 32 en contra y 25 abstenciones.

Androula Vassiliou, Comisaria Europea para la Salud y Seguridad de los Alimentos, comentó «basándose en los estudios realizados y el dictamen de la EFSA, la Comisión se planteará si se deben imponer restricciones al respecto».

Nanotubos naturales usados como túneles por microorganismos


Carl Hayden trabaja en una muestra. (Foto: Sandia Labs.)

(NC&T) Para estudiar mejor las utilidades potenciales de estos nanotubos intercelulares, un equipo de científicos ha ideado la manera de formarlos rápida y fácilmente en tubos de ensayo.Los investigadores, de los Laboratorios Nacionales de Sandia, han aprendido a formar nanotubos de esa clase con sorprendente facilidad. Su trabajo es el primero en demostrar que la formación de tales nanotubos no es complicada, sino que puede ser un mero efecto de las interacciones entre proteínas y las membranas celulares.

Ante el descubrimiento de este sistema de transporte, radicalmente diferente, operando en los tejidos humanos, era natural que los investigadores intentaran replicar la formación de los nanotubos. En sus laboratorios, experimentaron con vesículas gigantes de lípidos que emulan a la membrana celular en aspectos cruciales.

Las vesículas gigantes de lípidos se asemejan a las burbujas esféricas de jabón de tamaño micrométrico que existen en el agua. Están compuestas de una membrana de dos capas de lípidos de sólo cinco nanómetros de espesor.

El propósito de los investigadores al realizar los experimentos fue crear condiciones en las que las esferas pudieran cambiar de forma transformándose en cilindros de radio nanométrico.

La investigadora Haiqing Lui, en vez de usar el compuesto utilizado en experimentos anteriores, optó por el conocido como POPC, un lípido simple puro que requiere la mitad de la energía de curvatura del compuesto anterior.

Trabajando con George Bachand, investigador de los Laboratorios de Sandia, encontró que la interacción de la membrana de POPC con una proteína de alta afinidad llamada streptavidina fue suficiente por sí sola para formar los nanotubos.

En los experimentos siguientes, quedó claro que las organelas estaban siendo transportadas con orientación específica en la parte trasera de proteínas motoras dentro de los tubos, y no de forma aleatoria.

Se encontró que las redes tridimensionales de nanotubos también son creadas por los macrófagos (una clase de integrantes de la "fuerza policial" del cuerpo humano), al menos en los experimentos con cultivos de macrófagos. En apariencia y funciones, los tubos se asemejan a una especie de telaraña, capturando a las bacterias y transportándolas hacia los macrófagos, los cuales se las comen.

Martes 8 de septiembre del 2008

INERNET Y SOFTWARE




¿Windows 7 arrancará en 15 segundos?



La mayoría de los usuarios de PC sienten impaciencia cuando se ven en la necesidad de reiniciar el sistema. La situación empeora cuando toma largo tiempo reiniciar Windows, especialmente si el sistema ha estado instalado durante largo tiempo.

INFOCHANNEL
Microsoft se propone hacer algo con la situación, por lo que ha designado un equipo completo dedicado a acelerar Windows 7, no sólo al encender el sistema por primera vez, sino también al activarlo desde la función de suspensión e hibernación.

Básicamente, la compañía intenta mejorar la velocidad de diverso software, y según sus conclusiones preliminares en pruebas de laboratorio, un PC puede necesitar sólo 15 segundos para ser iniciado.

Para que el sistema pueda ser iniciado con tal rapidez es preciso que concurran varios factores. Entre otras cosas, los archivos deben ser leídos en la memoria del PC, componentes importantes de Windows deben ser iniciados, el hardware de la computadora debe ser identificado e iniciado, a la vez que el escritorio de Windows debe ser presentado en pantalla. A lo anterior se suma el inicio de una serie de programas de otros proveedores. En conclusión, se trata de una tarea importante que en caso de cristalizar supondría un importante avance en la experiencia del usuario frente a su PC.




MailDefense Suite

GFI, desarrollador internacional de software de seguridad de red, seguridad de contenido y mensajería, anuncia el lanzamiento de la suite GFI MailDefense. Esta potente herramienta ofrece integrados dos de los productos mas populares de GFI - MailEssentials y MailSecurity, que juntos filtran y limpian los correos entrantes de spam, virus, malware y otras amenazas. Con la misma, el proveedor mantiene su compromiso de ofrecer a las PYMEs europeas soluciones de seguridad globales a un coste asequible.

AP,

GFI MailEssentials, elegida la mejor solución de software anti-spam del año, y GFI Mail Security, software de seguridad para las PYMEs que incluye múltiples motores anti-virus, permitirán de este modo y de una manera conjunta a los administradores de red asegurarse de que los correos entrantes de la empresa están a salvo de amenazas y libres de spam antes de que los usuarios finales los reciban.

La suite GFI MailDefense utiliza múltiples tecnologías, como el filtro bayesiano para eliminar el spam y cinco motores anti-virus, para lograr la máxima seguridad.

La principal característica de esta solución es su sencilla instalación y configuración. De manera que GFI MailDefense es la solución óptima para las compañías que buscan un camino para controlar el spam y los virus de una manera ágil y con un coste asequible



Cablevision Systems ofrece Wi-Fi gratis en Nueva York

El operador de TV por cable de Nueva York Cablevision Systems ha empezado a introducir una red Wi-Fi gratuita a los abonados que quieren acceder a la WEB a través de portátiles y otros dispositivos inalámbricos.

REUTERS

Cablevision dijo que Optimum Wi-Fi es gratuito para los actuales abonados a su servicio de Internet en casa Optimun.

Dijo que el servicio está ya activado en las áreas comerciales y de mucho tráfico en Long Island, suburbios de Nueva York del condado de Nassau y partes del condado de Suffolk. El operador de cable tiene más de 2,4 millones de abonados a Internet, más de la mitad de los hogares que tienen sistema de cable.

La nueva red Cablevision Wi-Fi es ya la más grande del país, según analistas del Grupo Yankee.

El Wi-Fi gratuito a los suscriptores leales puede ayudar a Cablevision en su duelo competitivo con Verizon Communications, que ha lanzado una campaña agresiva en Long Island con una avanzada servicios de vídeo, Internet de alta velocidad y telefonía basada en la fibra óptica.

El sistema Wi-Fi es cada vez más utilizado gracias a la popularidad de dispositivos como iPhone y IPod.

"La última frontera es la conectividad Wi-Fi para cámaras, reproductores de medios e impresoras", dijo Berge Ayvazian, jefe de la oficina de estrategias de Yankee Group,

"A mediados de 2009, empezaremos a ver una nueva categoría de 'aparatos móviles de Internet" y todos ellos estarán conectados vía Wi-Fi".

lunes, 8 de septiembre de 2008

Científicos piden el desarrollo de la energía solar


Un llamamiento a favor de acelerar el desarrollo de la energía solar, cuya tecnología está en fase de hacerse competitiva, fue realizado por científicos en una conferencia internacional concluida el viernes en Valencia.

AFP


El sector de la energía fotovoltaica crece a un ritmo del orden del 40% anual, pero la parte de la energía solar que produce electricidad sigue siendo anecdótica, destacó el investigador francés Daniel Lincot durante la conferencia. "La producción mundial de módulos fotovoltaicos en 2007 representó una superficie de 40 kilómetros cuadrados, cuando para cubrir el consumo eléctrico de un país como Francia o Alemania, serían necesarios unos 5.000 km2", destacó el especialista en su intervención.

"Los recursos en energía solar son enormes y distribuidos por todo el mundo, en todos los países y también en todos los océanos", destacó Lincot, que presidía esta 23 Conferencia europea de energía solar fotovoltaica.

La competitividad de los recursos fotovoltaicos frente a otras energías es "una perspectiva a corto plazo", mientras que los costos de los componentes de los paneles solares son cada vez más bajos, añadió Lincot.

El científico instó a "acelerar el desarrollo" de los paneles solares en el contexto actual "de urgencia" en materia de energía petrolera y de cambio climático. Según el escenario actual, la energía solar representará en 2020 el 3% de la producción de electricidad en Europa, lo que cubrirá una superficie de 1.000 km2, cuando el verdadero arranque del fotovoltaico se espera para los años 2030/2050.

Científicos e industriales del sector hicieron un llamamiento internacional en esta conferencia para "acelerar el desarrollo mundial" de la energía solar, firmado por "más de 200 personalidades", precisó Lincot.

La conferencia reunió a 3.500 expertos y a 715 empresas del sector desde el 1 al 5 de septiembre en Valencia. Alemania y España son los dos países líderes en materia de energía solar, con 4.000 y 600 megawatios de capacidad instalados respectivamente

Un proyecto enlaza Informática Biomédica, tecnologías Grid y Nanoinformática


El pasado mes de junio un consorcio de siete países europeos y latinoamericanos ha lanzado ACTION-Grid, la primera iniciativa financiada por la Comisión Europea para analizar y enlazar tres áreas: Informática Biomédica, tecnologías Grid y Nanoinformática. ACTION-Grid está coordinado por el Grupo de Informática Biomédica de la Universidad Politécnica de Madrid (UPM). El proyecto, según sus responsables, permitirá a todo tipo de investigadores el acceso a nuevas tecnologías desarrolladas en el seno de la UE gracias "puntos de encuentro virtuales".

TENDENCIAS CIENTÍFICAS


Investigadores europeos se han asociado con colegas de los Balcanes Occidentales, el norte de África y Latinoamérica para fortalecer la cooperación en los campos de la informática biomédica, las tecnologías de Grid y la nanoinformática. Su trabajo lo realizan a través de ACTION-Grid («ACCIÓN-Malla»), un proyecto con un presupuesto cercano al millón de euros, financiado por la Unión Europea dentro del Séptimo Programa Marco (7PM). ACTION-Grid arrancó en junio y estará en marcha durante dieciocho meses.

Su trabajo fomentará la formación y la movilidad en la informática biomédica, las tecnologías Grid y la nanoinformática. Grid computing es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado.

Cordis señala al respecto que los resultados se fundirán con los datos de un inventario (resourceome) automatizado, consistente en un listado de métodos y servicios informáticos biomédicos/grid/nano desarrollado por el equipo de ACTION-Grid. Tanto investigadores como diversos usuarios podrán acceder a este listado. En última instancia, el «resourceome» permitirá que investigadores de todas clases accedan a las nuevas tecnologías desarrolladas en la UE.

En la última década, la Comisión Europea ha lanzado varias iniciativas pioneras para enlazar datos clínicos y resultados del proyecto Genoma Humano con otros proyectos relacionados, así como con métodos y herramientas en el área de la Informática Biomédica. La investigación en Medicina Genómica y Personalizada ha abierto nuevos retos que han atraído a numerosos investigadores y profesionales.

Encuentro virtual

Precisamente estas iniciativas han permitido detectar que los científicos europeos que trabajan en estos campos no tenían un "punto de encuentro virtual" donde buscar herramientas ya usadas por otros colegas o, sencillamente, formas de intercambiar información. El proyecto ACTION-Grid viene a cubrir estos huecos.

En este sentido, las tecnologías Grid han aportado una potencia computacional imprescindible en numerosas aplicaciones biomédicas. En el futuro, disciplinas como la nanomedicina necesitará nuevos métodos y herramientas informáticas en áreas tales como el diseño de bases de datos de partículas, modelización, simulación, imágenes y otras.

"Las tecnologías Grid proporcionan la infraestructura tecnológica que la investigación biomédica necesita para muchas aplicaciones. Al mismo tiempo, la nanomedicina promete nuevas propuestas en diagnosis, terapias o gestión del paciente", explica Víctor Maojo, profesor de la Facultad de Informática de la UPM y coordinador de este proyecto, en declaraciones a Bioinform.

Respecto a los datos que se van a "linkar", Maojo señala que, en primer lugar, se detectarán las necesidades de los científicos, sobre todo de las regiones menos desarrolladas. En segundo lugar, se proporcionará un listado de herramientas "open-source" (de código abierto) que pueden ser intercambiadas por los diferentes laboratorios europeos.

Nanoinformática médica

Según informa la Facultad de Informática de la UPM, una de las áreas de interés de ACTION-Grid es Nanoinformática en medicina. En esta dirección, ACTION-Grid es el primer proyecto financiado por la Comisión Europea que aborda el área de Nanoinformática, una nueva disciplina informática, y sus aplicaciones en (nano)medicina.

Las aplicaciones en nanomedicina son cada vez más amplias, e incluyen campos como la biofarmacología (estudio de nuevos medicamentos basados en nanopartículas), materiales implantables para la reparación de tejidos, ayudas a la cirugía mediante nanoherramientas, o herramientas diagnósticas, como nanosistemas para imágenes que pueden ayudar a identificar la aparición de una enfermedad.

En muchas enfermedades, la nanomedicina ofrece soluciones para mejorar los métodos diagnósticos y terapéuticos actuales. Por ejemplo, en la investigación en cáncer se desarrollan nanoestructuras para reconocer células de cáncer y destruir cada célula individualmente. Aunque la mayoría de los análisis prospectivos establecen fechas todavía lejanas en el tiempo para su establecimiento rutinario, las herramientas nanoinformáticas pueden acelerar la agenda de todas estas investigaciones.

ACTION-Grid está coordinado por el Grupo de Informática Biomédica de la Facultad de Informática de Universidad Politécnica de Madrid (FIUPM). Otros participantes son el Instituto de Salud Carlos III (co-líder científico, con la UPM, cuyo director es el Dr. Fernando Martín-Sánchez), Hospital Italiano de Buenos Aires (Argentina) y la Universidad de Talca (Chile) de Iberoamérica, Forth (Grecia), HealthGrid (Francia) y la Facultad de Medicina de la Universidad de Zagreb (Croacia).

http://www.action-grid.eu/

Científicos desarrollan un biosensor para detectar el momento óptimo de fertilidad


Científicos de la Universidad Complutense de Madrid han desarrollado un biosensor electroquímico a partir de nanopartículas de oro capaz de detectar el mejor momento para la fertilización en el ganado bovino. El hallazgo puede suponer importantes ganancias económicas al sector gracias a la mejora de la eficacia en los métodos de reproducción asistida por inseminación artificial de estos animales.

SINC


El trabajo supone una aplicación práctica de los últimos avances en nanotecnología. El equipo de la Complutense ha fabricado un inmunosensor para la detección de progesterona directamente en la leche de vaca. Fabricado con un nanomaterial, las nanopartículas de oro, y basado en la interacción entre la progesterona y la antiprogesterona, este sensor detecta en la leche ligeras variaciones en la concentración de esta hormona relacionada con los períodos de fertilidad de las vacas, y su uso podría mejorar la gestión de la reproducción bovina mediante inseminación artificial.

El uso de esta técnica en lugar de la monta natural en los rebaños es una de las innovaciones más útiles para aumentar la eficacia reproductiva. Esta práctica facilita la rutina de trabajo y consigue, por un lado, una mejora genética, ya que es posible utilizar esperma de alta calidad de cualquier parte del mundo, al tiempo que una optimización de los resultados a nivel económico, ya que con el semen de un único toro es posible inseminar a un gran número de vacas.

Mejorar el sistema

Actualmente el problema radica en detectar el momento óptimo de celo de los animales para llevar a cabo la inseminación: cambios en su comportamiento como por ejemplo el aumento en la actividad, en los mugidos, la menor producción de leche o cambios en el aspecto externo del aparato genital sirven como señales de la llegada del celo en las vacas, lo que obliga a la vigilancia continua para detectar la situación. Con este nuevo sistema, sin embargo, es posible conocer si el bóvido se encuentra o no en estado de celo tan sólo introduciendo el sensor en la leche y registrando la señal eléctrica.

El período de celo de la vaca, o 'ciclo estral', dura veintiún días y está controlado por un complejo sistema de hormonas. Una de ellas, la progesterona, cambia de concentración según el punto del ciclo, por lo que su monitorización permite detectar el momento óptimo de fertilidad. Sin embargo, las variaciones se producen a niveles de concentración muy bajos, del orden de entre dos y cinco nanogramos por mililitro (un nanogramo equivale a la milmillonésima parte de un gramo), por lo que se requiere un dispositivo de alta sensibilidad y con capacidad de medida en tiempo real para poder hacer la detección directamente en la leche o el suero.

El inmunosensor ha sido fabricado con nanopartículas de oro. Este nanomaterial se caracteriza por su excelente capacidad para atraer y retener biomoléculas que, una vez inmovilizadas, mantienen su actividad biológica durante un tiempo prolongado, lo que supone una gran diferencia respecto a otros materiales de características similares.

Secuencian el genoma del "Trichoplax adhaerens"


Los placozoos son animal cuyo cuerpo se compone de sólo cuatro tipos de células y no tienen órganos internos estructurados. Son unos de los organismos pluricelulares más primitivos de este planeta. Se parecen más a una mancha que a un animal, tienen un grosor de tres células, un tamaño de unos pocos milímetros y a simple vista recuerdan a una ameba gigante.


| NEOFRONTERAS.COM

No tienen sistema nervioso, ni sensorial ni muscular. Tampoco parece que se reproduzcan sexualmente, limitándose a partirse en dos a la hora de perpetuarse. Semejante simplicidad sugiere que son muy primitivos y, por tanto, que sus genes pueden proporcionar pistas sobre la evolución de los primeros animales. Por eso se decidió secuenciar el genoma de una de las especies conocidas de este filo: Trichoplax adhaerens.

Según los resultados publicados recientemente por un consorcio, Trichoplax es uno de los seres pluricelulares con el genoma más pequeño. Contiene secuencias de genes reguladores que también están presentes en otros animales y humanos que definen a este ser como uno de los puntos de bifurcación más tempranos en la evolución animal.

A pesar de las decenas de millones de años de evolución que nos separan de ellos, estos seres comparten un 80% de sus genes con los humanos.

En números el genoma del Trichoplax contiene 98 millones de bases, mientras que el humano contiene 3000 millones. En cuanto al número de genes este genoma se compone de 11.514 genes, mientras que el del ser humano contiene de 20.000 a 25.000. En estudios previos se comprobó que el genoma mitocondrial de este organismo es el doble del de otros organismos animales, pero con intrones y secuencias espaciadoras, como en los organismos más primitivos.

A diferencia de lo que pasa con otros genomas secuenciados correspondientes a moscas de la fruta o gusanos, los genes que este ser comparte con los humanos se disponen incluso de la misma manera que en nosotros.

Las secuencias regulatorias encontradas relacionan este animal con los más primitivos antepasados de las especies animales complejas. Según uno de los científicos involucrados en la investigación, este genoma representaría una "piedra de Roseta" genética.

Algunos expertos creían que debía de ser muy primitivo, quizás la forma de vida viva más primitiva posible. Sin embargo, otros creían que podrían ser descendiente por simplificación de los cnidarianos (medusas e hidras) . La idea detrás de la secuenciación de este genoma era comparar dicho genoma con el de estos otros seres y aclarar así el misterio.

Basándose en el análisis de su genoma, el Trichoplax no es nuestro más remoto antepasado pero casi. Parece que se separó del linaje animal principal justo después que las esponjas y antes que las medusas y los animales con simetría bilateral. Por tanto Trichoplax proviene de todos modos de un linaje muy antiguo y puede proporcionar pistas significativas para poder entender cómo evolucionó la vida animal a partir de un antepasado común hace unos 650 millones de años. Este genoma podría establecer un nuevo estándar basal para analizar comparativamente los genomas de distintas especies y sus procesos biológicos. Comparando su genoma con el de otras especies los expertos podrán encontrar el juego de herramientas moleculares común a todos los animales.

Hay que tener en cuenta que los animales de cuerpo blando casi nunca dejan fósiles y una de las formas de estudiar ese pasado tan remoto es estudiar a los descendientes actuales de las formas primitivas de vida animal que debieron de existir en el pasado. Este genoma será importante para saber cómo se produjo la diversificación animal más temprana en la historia evolutiva de nuestro planeta.

Los placozoos fueron descubiertos en 1880 en el agua salada de un acuario, pero se olvidó su existencia hasta que en los setenta del pasado siglo fueron redescubiertos.

Desde entonces se han hallado en las regiones marinas subtropicales cerca de la costa y particularmente en los manglares. Se sabe muy poco de estas criaturas debido a los escasos estudios que se han realizado sobre ella, quizás a partir de ahora la situación cambie. Un ejemplo de su extraña forma de vivir lo representa su sistema de alimentación. Cuando encuentra un trocito de comida se sitúa sobre ella creando una cavidad, después segrega jugos digestivos compuestos por enzimas y "absorbe" el resultado.

Ya se puede tocar la realidad virtual sin guantes


Investigadores japoneses han desarrollado un sistema que permite tocar objetos virtuales en 3D sin necesidad de usar guantes. El dispositivo genera sensaciones táctiles vinculadas a imágenes virtuales mediante el ultrasonido. De esta forma, el usuario puede tocar el mundo virtual simplemente moviendo la mano en el espacio. Las aplicaciones son diversas, pero el sector más interesado por el proyecto ha sido el de los video-juegos.
TENDENCIAS CIENTÍFICAS


La realidad virtual nos invade cada vez más, y los últimos avances en gráficas computerizadas, simulaciones físicas, y tecnologías de visualización demandan un avance también de las técnicas de interacción háptica (es decir, las técnicas que nos permiten sentir con el tacto).

Y es que, con la expansión multimedia, nuestros ojos y oídos están siendo inundados con todo tipo de información sensorial. Pero el tacto sigue abandonado, dada la dificultad tecnológica que entraña lograr sensaciones a este nivel. Sin embargo, es evidente que el público demanda cada vez más interacción y realismo en sus experiencias virtuales.

Hasta ahora, asir un objeto inexistente con nuestras manos y sentirlo, aunque en realidad sólo exista en una pantalla de ordenador, ha sido posible únicamente si nos enfundamos un guante equipado con sensores capaces de decodificar los movimientos de la mano, e imprimirle calculadas sensaciones, a tiempo real.

Sin embargo, la ilusión sensorial se ve minada en estos casos por el peso de esta especie de exoesqueleto que es el guante (que puede pesar alrededor de un kilo), por lo que dista mucho de ser "perfecta".

Solución ultrasónica

Ahora, un equipo de investigadores de la Universidad de Tokio, en Japón, ha conseguido desarrollar una alternativa, que fue presentada en la conferencia sobre infografía o computación gráfica Siggraph 2008, celebrada el pasado agosto en Los Ángeles.

Se trata de un dispositivo bautizado como Airborne Ultrasound Tactile Display - 5k-, que irradia ondas de ultrasonido por el aire, producidas por múltiples transductores de ultrasonido basados en técnicas de síntesis de ondas. Con dichas ondas, se forman campos de presión de alta-fidelidad que pueden "enfocarse" directamente sobre la piel sin riesgo de atravesarla.

El efecto: con este sistema es posible experimentar sensaciones táctiles de un espacio virtual, sin necesidad de usar guantes u otros anexos mecánicos, señala Siggraph 2008 en un comunicado. La finalidad de este invento es aumentar el efecto táctil de los gráficos en tres dimensiones en el espacio, para lograr una sensación más creíble de estar tocando las figuras tridimensionales que aparecen en el ordenador.

Es dispositivo táctil utiliza uno de los fenómenos no lineales del ultrasonido: la presión de la radiación acústica. Diversos patrones espaciales de la presión de esta radiación pueden ser sintetizados usando la interferencia del ultrasonido.

Y es que el sonido es, en efecto, una onda de presión capaz de mover no sólo nuestro tímpano con su empuje, sino también cualquier objeto. Si se utilizan una serie de emisores ultrasonoros cuidadosamente sincronizados, es posible enfocar las ondas sonoras hacia un punto preciso. Y, si ese punto es tocado por la mano, ésta podrá sentirlo aunque no lo veamos.

Europa diseña una plataforma móvil que va más allá del 3G


Europa diseña una innovadora plataforma que va más allá del 3G y que permitirá a los móviles trabajar con servicios de comunicación avanzados y sobre cualquier red, posibilitando así que sean sensibles tanto a la localización como al contexto de sus propietarios. Se trata de una solución que lleva los servicios de telecomunicaciones inalámbricas al nivel de la nueva arquitectura que se prepara para una nueva serie de estándares, y que responde a las crecientes necesidades de los operadores, los desarrolladores, proveedores y consumidores, proporcionando un rango aún mayor de aplicaciones y servicios. La finalidad de esta iniciativa: que Europa mantenga el liderazgo tecnológico que ya alcanzó con la implementación del GSM.

TENDENCIAS CIENTÍFICAS

Ser un sistema total en el ámbito de las tecnologías de comunicación digitales inalámbricas, así como el diseño de referencia y el más coherente marco de trabajo para el sistema de redes futuras, son las ambiciosas expectativas IMT-Advanced, el nuevo estándar global propuesto por la International Telecommunication Union (ITU).

De explorar la forma de implementarlo se encarga WINNER II, un proyecto fundado y financiado bajo el VI Programa Marco de la Unión Europea, y que es continuación del que bajo el nombre WINNER evaluó durante los años 2004 y 2005 las más prometedoras tecnologías y dio a conocer un primer concepto acerca de cómo debería ser la nueva infraestructura en que aquéllas podrían aplicarse, según recuerda ITC Results.

Planificación

Ya antes de ello el proyecto fue planificado partiendo de cero por 38 socios industriales, algunos de ellos gigantes de la electrónica y las telecomunicaciones europeas. Y a pesar de ser tantos y suponer tantos puntos de vista diferentes, el acuerdo alcanzado por estos socios en los objetivos ha supuesto un desarrollo fluido y fructífero, que a día de hoy tiene incluso identificadas las bandas de frecuencia para los futuros servicios IMT-Advanced.

Los objetivos son claros: hacer del uso del móvil, en lo referente a la capacidad de comunicación, una experiencia similar a la que puede conseguirse en la oficina o en casa, consiguiendo por ejemplo 100 Mb/s, una velocidad bastante más elevada que la conseguida por la banda ancha actual.

Innovación e iventiva

El Dr. Werner Moht, de Nokia Siemens Networks y coordinador del proyecto, ha explicado que, si bien la fecha prevista para que todos podamos hacer uso de estas capacidades no está prevista antes de 2015, en algunos países de la UE su puesta en marcha podría adelantarse. Y es que todo depende de las condiciones de los diferentes países y también de las necesidades del mercado.

Según Mohr, con unos mercados saturados, como lo está a día de hoy el europeo y lo estará en unos 10 años también el asiático, la única opción que le queda a Europa es ofrecer soluciones innovadoras con el objeto de seguir siendo competitiva en el mercado global, si es que quiere seguir manteniendo el liderazgo que alcanzó en los años 90 con el establecimiento e implementación del estándar mundial GSM, el más usado en Europa. El Sistema Global para las Comunicaciones Móviles (GSM) es un sistema estándar para comunicación utilizando teléfonos móviles que incorporan tecnología digital.

Se trata, pues, de trabajar duro, invertir en investigación y continuar siendo imaginativos, para conseguir estar en el grupo de los que, mejorando e innovando, no quedarán relegados por una tecnología, siempre en movimiento, que no deja ni por un momento de avanzar.

Comunicación avanzada

Por otro lado, pero en combinación con el WINNER a la hora de abordar los elementos necesarios para una futura plataforma global de telecomunicaciones, y también financiado por el VI Programa Marco de la Unión Europea, el proyecto SPICE (que cuenta entre sus socios con líderes en investigación e industriales como Orange, Alcatel-Lucent, Nokia Siemens Networks y el Fraunhofer Institute) es otra de las piezas clave para que Europa mantenga su liderazgo, y los investigadores en él implicados dan los toques finales a una innovadora plataforma que va "más allá del 3G".

La tecnología móvil 3G es una denominación para tercera-generación de telefonía móvil. Los servicios asociados con la tercera generación proporcionan la posibilidad de transferir tanto voz y datos (una llamada telefónica) y datos no-voz (como la descarga de programas, intercambio de email, y mensajería instantánea).

Tras esa tercera generación, la nueva tecnología será una solución total que lleva los servicios de telecomunicaciones inalámbricas al nivel de la nueva arquitectura que se prepara para una nueva serie de estándares, y que responde a las crecientes necesidades de los operadores de redes, los desarrolladores de servicios y los proveedores y consumidores, proporcionando un rango aun mayor de aplicaciones y servicios.

Un nivel de evolución en el que los móviles trabajarán con servicios de comunicación avanzados, lo harán sobre cualquier red y serán sensibles tanto a la localización como al contexto de sus propietarios, y lo suficientemente "inteligentes" como para hacer oportunas sugerencias.

Mínima muestra

Las demostraciones ya realizadas incluyen sincronización de medios, de modo que la imagen aparezca en la pantalla del móvil, el portátil o la TV, mientras que el audio viene de los auriculares o el estéreo, según explicó el coordinador del proyecto, Christophe Cordier.

Se puede ver parte de una película en la televisión de la habitación de un hotel, y salir de ésta sin perderse detalle del film simplemente con dirigir la vista a la pantalla del móvil, donde continuará emitiéndose para nosotros.

El móvil puede controlar todas nuestras contraseñas para diferentes servicios de Internet, aunque accedamos a la red mediante el ordenador, ya que al móvil se comunica con éste vía Bluetooth para enviarle su señal de seguridad. Los códigos PIN del teléfono pueden ser utilizados como una contraseña universal, sustituyendo a docenas de contraseñas diferentes y aumentando así tanto la simplicidad de uso como la seguridad.

El terminal localiza la ciudad o posición del usuario, crea para él mensajes de alerta si se encuentra todavía en casa a una hora en que ya debería estar en la oficina, le informa de las películas que se proyectan en un multi-cine al que éste acaba de acudir, y a la salida del cine le indica los restaurantes más cercanos, resaltándole los del tipo de comida que él prefiere. Por ejemplo, los restaurantes japoneses, si son estos los favoritos del usuario.

Estas demostraciones son sólo una mínima muestra de las docenas de aplicaciones y protocolos que el equipo de SPICE define e implementa, pero, además de demostrar que la tecnología subyacente funciona, dan una idea de los potenciales servicios de los que el usuario dispondrá en un próximo futuro.

SPICE, junto con el ya mencionado proyecto WINNER II, enfocado a la radiotecnología, y al proyecto Ambient Networks, que se centra en el desarrollo de las futuras redes centrales, define pues en gran medida el marco en que, más allá de 3G, se desarrolla ya la comunicación digital inalámbrica del mañana.

10 razones para usar Firefox 3


El pasado 17 de junio, Mozilla lanzó la versión definitiva de Firefox 3. Una nueva y mejorada versión del navegador de código libre que nace gracias al trabajo de miles de colaboradores y con la intención de hacer más rica, productiva y personalizable la experiencia de los usuarios en Internet.
REDACCIÓN,


El éxito del lanzamiento fue tal, que en tan sólo 24 horas 8.002.530 personas se habían descargado la nueva versión consiguiendo entrar en el libro Guinness de los récords como el software más descargado en 24 horas. Dos meses después del lanzamiento, Firefox 3 ha sido descargado en 28.340.281 ordenadores y la cifra aumenta cada día.

Ante el próximo lanzamiento de Internet Explorer 8, la nueva versión de Opera, la versión de Safari para Windows y con la denominada "guerra de los navegadores", Mozilla resume las 10 razones que pueden ayudarte a elegir Firefox 3 como navegador predeterminado en tu sistema operativo:

Navegación segura

1. Seguridad probada con un seguimiento y registro constante, así como actualizaciones más frecuentes y transparentes para disfrutar de un navegador más seguro.

2. Protección frente a software malicioso y fraudes para estar protegido contra descargas involuntarias tales como virus y troyanos.


Navegación optimizada con miles de mejoras

3. "Barra de direcciones inteligente", que permite encontrar páginas visitadas anteriormente de forma sencilla.

4. "Restablecimiento de sesión": al abrir Firefox permite continuar inmediatamente la navegación con las últimas pestañas abiertas.

5. Recuerda las contraseñas sin mostrar ventana de confirmación, de forma que puedes esperar hasta conectarte correctamente a un sitio web antes de decidir si quieres que Firefox recuerde la contraseña.

6. Nuevo gestor de descargas: los usuarios pueden parar y continuar con una descarga más tarde. También incluye un buscador con capacidades avanzadas de búsqueda para encontrar antiguas descargas.

7. Configurable: cambia el aspecto (temas) y añade nuevas funcionalidades (extensiones) a Firefox a través del gestor de complementos. Más de 5.000 extensiones desarrolladas por la comunidad están disponibles de forma gratuita.

Mayor rendimiento

8. Más rápido en aplicaciones web complejas, tales como Gmail para que el rendimiento sea óptimo incluso en ordenadores antiguos.

9. Usa menos memoria de sistema que cualquier otro navegador del mercado, así podrás aprovechar mejor los recursos del ordenador.

10. Permite a la Web avanzar y desarrollarse al integrar los últimos estándares web, beneficiando a largo plazo a todos los usuarios.

Lunes 8 de septiembre del 2008

SOFTWARE E INTERNET



Litografía para microchips

Su nueva técnica podría sentar las bases para la próxima generación de memorias de ordenador y de circuitos integrados así como de células solares avanzadas y otros dispositivos.
AGENCIAS

El equipo ha creado líneas de aproximadamente 25 nanómetros de ancho, separadas por espacios de 25 nanómetros.

A modo de comparación, los chips del ordenador más avanzado disponible comercialmente en la actualidad tienen un tamaño mínimo de las líneas de 65 nanómetros. Intel anunció recientemente que empezará a fabricar en el 2009 chips con líneas de ancho mínimo en la escala de los 32 nanómetros, y el mapa de ruta de la industria aboga por la adopción de los 25 nanómetros para el periodo del 2013 al 2015.

La técnica del MIT también podría ser económicamente atractiva porque funciona sin necesitar de las técnicas y herramientas de la litografía, las cuales son ampliamente consideradas como esenciales para trabajar a esta escala con la litografía óptica pero que no son baratas ni de uso fácil.

Los patrones periódicos, en la escala nanométrica, si bien tienen muchas importantes aplicaciones científicas y comerciales, son notoriamente difíciles de producir con bajo costo y en cantidades industriales.

El nuevo método podría hacer posible la comercialización de muchas nuevas invenciones en el campo de la nanotecnología que han languidecido en los laboratorios debido a la falta de un método viable de fabricación en grandes cantidades.

El equipo del MIT incluye a Mark Schattenburg, Ralf Heilmann, Chih-Hao Chang y Yong Zhao.



Google cumple 10 años

Cuando en 1998 Larry Page y Sergey Brin crearon un nuevo motor de búsqueda en Internet e intentaron venderlo nadie lo quiso comprar, así que decidieron fundar su propia firma y la nombraron inspirándose en un término matemático: Google.

AGENCIAS

Diez años después, Google es un gigante informático omnipresente en la red -y, a veces, fuera de ella- con 20.000 trabajadores y un valor en bolsa de 150.000 millones de dólares, muy cerca de grandes del sector con décadas de historia como Microsoft o Apple.

Page y Brin, entonces dos estudiantes de la universidad de Stanford, fundaron Google el 7 de septiembre de 1998.

Ese día el estado de California aceptó la solicitud de creación de la empresa, si bien Google no tiene una fecha oficial de aniversario y simplemente celebra el mes de septiembre por la coincidencia de eventos relacionados con la creación de la compañía.

Cansados de buscar un comprador, Page y Brin montaron su propia empresa y lograron 100.000 dólares de capital riesgo de Andy Bechtolsheim, uno de los fundadores de Sun Microsystems.

Google -cuyo nombre deriva del término matemático "googol", un uno seguido de cien ceros- operó al principio en las habitaciones de Brin y Page en un colegio mayor de Stanford.

Con el tiempo, la empresa dio el gran salto a un garaje propiedad de Susan Wojcicki, hoy cuñada de Brin, y en 1999 se mudó a su sede corporativa en Silicon Valley conocida como "Googleplex".

Sus empleados disfrutan allí de unas de las mejores condiciones laborales de todo el sector, con comida y masajes gratis y la posibilidad de dedicar un 20 por ciento de su tiempo de trabajo a iniciativas y proyectos propios.

Google procesa dos tercios de todas las búsquedas mundiales en Internet, un 40 por ciento de la publicidad "online" y accede a información potencialmente confidencial de los cerca de 650 millones de personas que usan diariamente su servicio de búsqueda u otros como YouTube, Google Maps o Gmail.



Kims

Muchas veces sucede que el antivirus que tenemos instalado no logra detectar algunos virus, mientras que otros antivirus si, y eso es algo muy preocupante, ¡pero eso era hasta hoy!, ya que he encontrado Kims, una herramienta que nos permitirá analizar cualquier archivo en nuestro ordenador con 19 de los mejores antivirus del mercado.

GRUPOGEEK.COM

No creo que tengan problemas con la utilización de este software, pero por los dudas les explico brevemente como deben utilizarlo.

Antes que nada, deberán Descargar todos los antivirus que deseen, tildándolos y a continuación deberán presionar el botón de descarga. Luego deberán Actualizar todos los antivirus y eso les tardará un buen rato y les pesará 90 megas aproximadamente, para que no tengan sobresaltos quiero anticiparles que los antivirus Dr. Web, F-Prot y Ikarus les darán error al actualizarlos, no se hagan problema.

Una vez actualizados todos los antivirus del programa hacemos click en Seleccionar y a continuación elegimos el archivo que deseamos escanear, una vez elegido dicho archivo, seleccionamos que antivirus queremos que lo analicen tildando la casilla respectiva a cada antivirus y finalmente hacemos click en Escanear para comenzar el proceso de escáner.

Como se que siempre habrá alguien que no logrará entender bien, les dejo el siguiente tutorial.

http://rapidshare.com/files/135870330/Manual_de_Kims1.0.pdf



Microsoft lanza un plan para mejorar la imagen de Windows Vista


Microsoft ha lanzado una campaña de mercadotecnia de 300 millones de dólares para mejorar la imagen del sistema operativo Windows Vista y responder así a los anuncios de "Mac contra PC" de Apple.

REUTERS

El primer anuncio de Microsoft, creado por la agencia publicitaria Crispin Porter + Bogusky, se difundió el jueves y en él aparecían el cómico Jerry Seinfeld y el cofundador de la compañía, Bill Gates, en una zapatería.

Pese a vender más de 180 millones de licencias desde su lanzamiento en 2007, Windows Vista continúa sufriendo fama de anticuado y de difícil de usar si se le compara con los ordenadores de Apple.

Esa imagen ha sido explotada por los anuncios de Apple "Mac contra PC", en los que aparece un cretino pasado de moda que usa PC y que no está a la altura de un tipo guapo a la última moda usuario de Mac.

"Lo que la marca representa, particularmente en el caso de Windows Vista, ya ha sido definido por los competidores. Ha llegado el momento de que contemos nosotros nuestra historia", dijo Brad Brooks, vicepresidente corporativo de Microsoft.

Apple ha ido ganando mercado frente al PC en los últimos trimestres. En el que acabó en junio, Gartner dijo que Apple constituía un 8,5 por ciento de los pedidos informáticos de Estados Unidos, un incremento del 38 por ciento frente al año anterior.

Microsoft dijo que la publicidad es parte de una iniciativa más amplia a largo plazo para cambiar la percepción que los consumidores tienen de Vista, algo que también incluye crear un rincón de ventas en varios almacenes como Best Buy y Circuit City para explicar los beneficios de Windows.

La compañía dijo también que estaba colaborando con fabricantes informáticos para optimizar los sistemas de cara a acelerar los procesos informáticos y mejorar la experiencia general de usar una máquina con Windows.



Zapproved

Si las horas de reuniones de trabajo son agotadoras, si la discusión de temas por mensajes de correo electrónico son aburridas, y si quieres que en tu entorno laboral, o personal, tomar decisiones de forma más rápida, Zapproved viene al rescate. Se trata de un nuevo servicio que acaba de entrar en escena y que permite mejorar, de forma eficiente, la toma de decisiones para cada proyecto.
GENBETA.COM

Para ello, sólamente tendrás que crear una nueva proposición, ofreciéndote un formulario de envío de correo electrónico en el que indicarás los destinatarios del mismo, con autocompletado incorporado, además del título de la proposición, fecha límite, nombre del proyecto, prioridad, mensaje, incluso archivos adjuntos.

Los destinatarios recibirán un correo html donde podrán aprobar, denegar o dejar simplemente un comentario sobre dicha proposición. Además, en caso de aprobarlo o denegarlo, también podrán dejar sus propios mensajes.

En todo caso, tendrás un panel de mensajería, donde podrás comprobar el estado de todas las propuestas que has enviado, permitiéndote incluso dejar comentarios en las mismas, incluso cancelarlas.

Cuentas con una agenda de direcciones, donde podrás añadir manualmente nuevos contactos, o incluso importarlos desde Outlook, siempre que uses Internet Explorer, además de un histórico de archivos, que podrás visualizar por proyectos, fechas, por quienes hayan enviado proposiciones o por destinatarios.

Lo bueno, al menos durante la beta, es que es completamente gratuito, y para más adelante se plantean incorporar nuevas funcionalidades.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX