Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

miércoles, 19 de mayo de 2010

Big Bang en el universo de las proteínas



Investigadores del Centro de Regulación Genómica (CRG) han encontrado evidencias que apoyan el origen único de la vida gracias a una aproximación computacional de la evolución de las proteínas. El trabajo, publicado en la revista Nature, revela que la evolución de las proteínas todavía no ha llegado a su límite y sigue en expansión. A su vez, aporta mucha información sobre por qué esta evolución es tan lenta y conservadora mostrando que la estructura de las proteínas es más plástica de lo que se creía.

Hace casi 100 años, Edwin Hubble observó que las galaxias más distantes se alejaban de la tierra más rápido que las que se encuentran más cerca. Esta relación entre distancia y velocidad ha sido muy citada como evidencia del origen único del universo y del Big Bang. Ahora, investigadores del Centro de Regulación Genómica (CRG) copian su perspectiva para investigar la divergencia entre las secuencias de proteínas.

“Queríamos saber si la evolución divergente entre proteínas todavía continuaba. Actualmente, podemos encontrar proteínas que casi no han variado después de 3.500 millones de años de evolución y este estudio nos ha permitido ver que su divergencia sigue adelante y que las proteínas tienden a ser cada vez más diferentes a pesar del increíble nivel de conservación”, explica Fyodor Kondrashov, investigador principal del trabajo y jefe del grupo de Genómica Evolutiva en el CRG.

El trabajo llevado a cabo por Fyodor Kondrashov e Inna Povolotskaya va más allá de los estudios de similitud y aborda la evolución de las proteínas desde el punto de vista de las dinámicas evolutivas ofreciendo así una nueva perspectiva sobre cómo las estructuras se mantienen en la evolución. “Igual que el trabajo de Hubble permitió extrapolar lo que él observaba en algunas galaxias hacia todo el universo, utilizando su aproximación a nivel molecular podemos obtener una visión general que nos ofrece la posibilidad de analizar dinámicas evolutivas y predecir los posibles cambios de las proteínas en el futuro” comenta Inna Povolotskaya, primera autora del trabajo y responsable de la obtención y análisis de los datos.

Las proteínas están formadas por combinaciones de aminoácidos. Con sólo 20 tipos de aminoácidos diferentes, es suficiente para formar proteínas distintas. Para obtener los datos de su estudio, los investigadores del CRG han comparado secuencias de proteínas de diferentes especies que se encuentran en la base de datos pública de información genética GenBank. Comparando estas secuencias, los autores han medido la distancia de las proteínas entre ellas y han ideado un método para medir la rapidez con la que las proteínas han acumulado los diferentes cambios. Así, han reproducido la aproximación de Hubble haciendo una correlación entre la distancia entre proteínas y la velocidad de su divergencia. El resultado indica que incluso las proteínas más distantes todavía acumulan diferencias.

El trabajo muestra cómo gracias a las nuevas técnicas de análisis computacional y la bioinformática podemos ampliar conocimientos también a nivel molecular. “Nuestro trabajo es un buen ejemplo sobre cómo podemos aprender cosas nuevas y fundamentales sólo analizando el gran volumen de datos que se pueden obtener en un laboratorio experimental”, afirma Kondrashov.

La mayoría de los cambios en una proteína son inviables o deletéreos porque, de alguna manera, perturban su estructura o función. La observación de los autores por la que afirman que incluso las proteínas más conservadoras todavía se separan, desafía a la primera afirmación porque implica que la mayoría de aminoácidos en una proteína pueden dar lugar a cambios sin ningún efecto negativo. La explicación es que los cambios en los aminoácidos que son inviables en una combinación, pueden ser benignos cuando suceden en otra combinación diferente. “Gracias a nuestro estudio podemos entender mejor la dinámica de la estructura de las proteínas” explica Kondrashov. Ello ofrece una nueva visión a todos los grupos que trabajan en la estructura de proteínas para encontrar nuevas dianas para diseñar medicamentos, etc.

El estudio de Kondrashov y Povolotskaya también aporta nueva información sobre cómo las interacciones entre los diferentes aminoácidos en la estructura de las proteínas retrasa la evolución pero no la frena.

Sobre Fyodor Kondrashov
Fyodor Kondrashow es un joven biólogo nacido en Rusia y criado entre Rusia y los Estados Unidos. Con sólo treinta años ya ha publicado 5 artículos científicos en la revista Nature, además de otros. Recientemente, ha sido galardonado con el Premio Dobzhansky 2010 que otorga la Evolution Society en los EEUU.

Desde 2008, Fyodor Kondrashow lidera el grupo de Genómica Evolutiva del Programa de Bioinformática y Genómica del Centro de Regulación Genómica en Barcelona. Se doctoró en la Universidad de California en San Diego y fue investigador en el National Institute of Health, NCBI, con Eugene Koonin.

En su grupo se esfuerzan para crear un ambiente abierto para investigar numerosas cuestiones diferentes en diversas áreas de la biología y la evolución. Actualmente, se centran en estudios computacionales de información genómica que incluye el análisis de secuencias, datos de expresión, estructura de proteínas y de ARN y redes genéticas y de proteínas. El grupo analiza estos datos bajo el punto de vista de la genética de poblaciones y la teoría evolutiva para describir nuevos fenómenos evolutivos y biológicos.

Los smartphones, cada vez más baratos

Una nueva oleada de teléfonos inteligentes baratos podría hacer por la industria móvil lo que no han conseguir años de espectáculo e inversión en caros sistemas 3G: Combinar unos productos elegantes e "imprescindibles" con precios asequibles para las masas hambrientas de datos.

REUTERS
Los precios de los teléfonos inteligentes (aquellos con funciones similares a las de un ordenador sencillo) están cayendo con rapidez, debido a que los vendedores de terminales están utilizando software gratis como el Android de Google y los precios de los procesadores también están cayendo al simplificarse su fabricación.

El software gratis es significativo, ya que Microsoft cobra hasta 15 dólares por teléfono a los fabricantes que utilizan su sistema operativo móvil.

La empresa china ZTE, que empezó haciendo teléfonos baratos para mercados emergentes, quiere repetir ese éxito en los teléfonos inteligentes con un nuevo modelo que pondrá a prueba por unos 150 dólares el modelo, indicó el lunes He Shiyou, responsable de la división de móviles de la empresa en la Cumbre Tecnológica de Reuters.

Los teléfonos de ZTE se suman a la creciente cosecha de modelos más baratos, pero aún así inteligentes, diseñados para competir con esos modelos tradicionales más caros como el iPhone de Apple, que cuesta más de 600 dólares si se compra libre, o los BlackBerrry de Research In Motion, que suelen costar 250 dólares o más.

"Tendrá una tremenda importancia cuando los teléfonos inteligentes bajen a quizá 100 ó 150 dólares, entonces podrás llegar a todos los segmentos (de consumidores)", indicó en la cumbre, que se celebra en varias oficinas de Reuters en todo el mundo, Johan Wibergh, que dirige la división de equipamiento de redes móviles en Ericsson, el mayor fabricante de equipamiento móvil del mundo.

El teléfono inteligente barato de ZTE, que está fabricando para la operadora local China Unicom, sigue los pasos de otras empresas y podría marcar el principio de una nueva oleada de móviles que llegarían al mercado con precios de entre los 100 y los 150 dólares.

El primer fabricante de móviles del mundo, Nokia, ya vende un modelo a partir de 125 euros, y se espera que las marcas chinas empiecen a llevar los precios a territorio inexplorado.

"Vamos a tener un dispositivo Android por 85 euros para final de año", dijo Oren Nissim, consejero delegado del fabricante de software de navegación por satélite Telmap, en la Cumbre Reuters de París, aunque declinó identificar al fabricante.

Telmap y muchos otros grandes vendedores de software tienen acceso a nuevos modelos mucho antes de que se presenten al público.

ZTE, NOKIA, HUAWEI Y GOOGLE GANARÍAN

Se cree que un éxito de estos modelos intermedios beneficiaría a firmas como ZTE, Nokia y la china Huawei, con experiencia desarrollando móviles para mercados emergentes, sensibles al precio de los productos, y que cuentan con la capacidad de fabricarlos a bajo precio.

"El mercado está viendo una abundancia de teléfonos inteligentes asequibles, pero eso plantea un nuevo reto para las operadoras sobre cómo hacer tarifas de datos atractivas y accesibles en prepago", indicó el analista CCS Insight Geoff Blaber.

También podría beneficiar a las operadoras con redes 3G que quieren recaudar más dinero de los servicios de datos para los que pueden utilizarse estos teléfonos, como los juegos online, la reproducción de música en descarga simultánea desde Internet y la navegación por la Red. Y los fabricantes de equipamiento de redes podrían beneficiarse de las mejores en redes de las operadoras para atender su demanda.

Otro posible beneficiario es Google, ya que su sistema operativo Android se está convirtiendo con rapidez en el favorito de muchos fabricantes de teléfonos inteligentes de gama baja.

Steam, ya disponible para Linux



Hace semanas que se comenzó a hablar de una versión de Steam para Mac OS X, y desde que se conoció la noticia los usuarios de Linux nos preguntábamos si ya puestos -al fin y al cabo, ambas plataformas son casi primas hermanas- en Valve dedicarían también ciertos esfuerzos a trasladar Steam a Linux.
MUYLINUX.COM

Parecía bastante probable hace unos días, cuando se filtraron algunas capturas y también se pudo saber que se había liberado una versión preliminar del cliente de Steam para Linux , y aunque la respuesta se ha hecho de esperar, ya se ha hecho público en medios como The Telegraph en el que hablan sobre todo del cliente para Mac OS X, pero en cuyo artículo terminan diciendo:

"Valve también ha confirmado que hará que Steam esté disponible para los usuarios de Linux en los próximos meses".

Como indican en Phoronix, esta noticia puede representar toda una revolución para el mercado de los videojuegos en Linux, y de hecho ya hay juegos en la tienda Steam que tienen versión nativa para Linux como Unreal Tournament 2004, World of Goo o títulos de id Software como Enemy Territory: Quake Wars o Doom 3. En el artículo original los editores de Phoronix destacan también que "hemos confirmado que los últimos y populares títulos de Valve como Half-Life 2, Counter-Strike: Source o Team Fortress 2 también estarán disponibles al igual que ocurre con Mac OS X".

Se espera que el cliente esté disponible a finales de verano, y a partir de entonces se podrían comenzar a producir los primeros lanzamientos multiplataforma, de los que Portal 2 será probablemente el primero en dar ese paso. Es todo un notición para la plataforma Linux, ya que el último gran lanzamiento de un juego Linux se produjo hace 3 años con la aparición de Enemy Territory: Quake Wars.

Así pues, grandes noticias para los que gustan de disfrutar sus videojuegos en Linux. Esto significará que tendremos un buen montón de posibilidades adicionales -y lo que es más importante, nativas- en nuestro sistema operativo favorito.

Red Hat presenta "Open Your World"


"Open Your World" es un foro mundial en linea, creado para impulsar los ideales de participación y colaboración del código abierto dentro del ámbito de las empresas, la educación, el gobierno, el derecho y la vida en general.
MOUSE

La cita es el jueves 27 de mayo de 2010 y se podrá acceder a través de una transmisión online en todo el mundo.

El foro es presentado por opensource.com, un sitio Web que Red Hat lanzó en enero de este año como un espacio donde es posible explorar y compartir lo que sucede cuando se aplica el código abierto al mundo en general. Michael Tiemann, vicepresidente de Open Source Affairs de Red Hat, quien actuará como anfitrión, presentará el uso de los ideales del código abierto para innovar y mejorar la sociedad.

"Open Your World" será el primero de una serie de foros en línea presentados por opensource.com. El foro incluirá presentaciones de visionarios provenientes de diversas industrias, incluido el Dr. John Halamka, Director de Informática de la Harvard Medical School, Open Source for America, Free Software Foundation Europe and Wikimedia Foundation, entre otros.

El ruido amenaza la salud del corazón

Estudios realizados por investigadores de la Universidad Politecnica de Madrid (UPM) muestran cómo la exposición al ruido puede producir alteraciones cardiacas sin que los sujetos aprecien síntomas de enfermedad.

as patologías que con mayor énfasis han sido estudiadas en la medicina aeronáutica están relacionadas con los factores de presión, altitud, aceleración y ritmo circadiano, así como con los husos horarios y la inmovilidad de los sujetos en vuelos de larga trayectoria.

Sin embargo, las estadísticas señalan que en el caso de los sujetos que se exponen a ruidos de aviones en el campo laboral el mayor número de casos con discapacidad responde a patologías cardiacas, lo que hace pensar que el ruido puede ser un factor de riesgo para la salud del corazón.

Esto llevó al grupo de investigación I2A2 de la Universidad Politécnica de Madrid a realizar una investigación en este ámbito del ruido ocupacional, concretamente en el caso de la aviación militar, tanto para el personal de cabina como para el de mantenimiento de tierra.

Los análisis del ruido realizados demuestran que en todas las fases operativas de las diversas aeronaves militares se genera energía de bajas frecuencias comprendidas entre 16 y 250 Hz, con valores que sobrepasan los 100 dB, y la fase que emite mayor nivel de presión sonora es durante el despegue, en la cabecera de la pista. Los valores pico se registraron en 121 dB, en operaciones en tierra, superando los 135 durante el despegue de los aviones caza tipo VF5 y F16. La dosis de ruido a la que están expuestos los sujetos supera el 100% del valor límite umbral permisible. El nivel equivalente para una jornada de trabajo de 6 horas es superior a los 85 dB como valor criterio de exposición laboral.

Los resultados del estudio muestran que la emisión sonora de baja frecuencia en niveles superiores a 100 dB, en ambientes aeromilitares, causa efectos no auditivos que, al incidir como presión en el cuerpo, pueden producir alteraciones en el corazón sin que los sujetos lleguen a apreciar ningún síntoma. Además, la exposición a estas emisiones provoca modificaciones en el comportamiento que repercuten en las alteraciones cardiacas.

Parámetros cardiacos y parámetros psicoacústico

Para llegar a estas conclusiones se analizaron parámetros cardiacos y parámetros psicoacústicos de trabajadores de la aviación militar, examinándose un amplio número de indicadores en cada caso.

Los resultados electrocardiográficos de estos sujetos presentaron un amplio margen de variabilidad fuera de los rangos normales que pueden ser predictores de graves alteraciones cardiacas en el tiempo.

Los parámetros psicoacústicos evidenciaron que la contribución al desgaste cardiaco puede explicarse por el efecto que causa la exposición a las bajas frecuencias del sonido audible con altos valores de energía, que perturban el descanso y aumentan los estados de fatiga. Asimismo, la irritabilidad, la molestia y los estados de somnolencia generados en el ambiente aeroportuario pueden estar asociados a estas mismas frecuencias de ruido.

En los aspectos cognitivos de la atención y la memoria, parece no haber alteraciones que se hayan manifestado durante la realización de los trabajos, ya sea en labores de mantenimiento o durante maniobras de aviación. Estos aportes pueden contribuir a la base de datos que oriente la revisión de los efectos del ruido en medicina aeronáutica.

Crean un sistema de reconocimiento de objetos que imita al cerebro


Científicos norteamericanos han desarrollado un sistema de reconocimiento de objetos que realiza el mismo tipo de procesamiento visual que se produce en el cerebro. El sistema utiliza un modelo jerárquico para compartir la información común de imágenes diferentes. De esta forma, consigue su objetivo de forma sencilla y eficaz e incluso ahorra espacio de memoria informática.

l tratar de discernir un determinado tipo de objeto en una imagen digital, los sistemas de reconocimiento de objetos convencionales comienzan examinando los elementos destacados del mismo. Un sistema creado para identificar caras, por ejemplo, puede buscar los elementos que parecen ojos, nariz y boca, para después determinar si se ajustan a las normas espaciales establecidas. Pero para ello es imprescindible contar con la intuición humana.

El informático debe decidir qué partes del todo son las más adecuadas para introducirlas en el programa. Eso significa que por cada nuevo objeto añadido al repertorio del sistema, el programador tiene que empezar desde cero para determinar qué partes del objeto son las más importantes.

Algo que resultaría prácticamente inviable ante sistemas diseñados para reconocer millones de tipos de objetos complejos y diferentes. Cada uno de ellos tendría su propio conjunto único de partes, pero éstas se verían diferentes desde distintas perspectivas y su catalogación ocuparía una enorme cantidad de memoria del ordenador.

Para resolver el problema un equipo de investigación de Ciencias de la Computación e Inteligencia Artificial del MIT (Instituto Tecnológico de Massachusetts), en colaboración con científicos de la UCLA (Universidad de California en Los Ángeles), ha creado un nuevo método de reconocimiento de objetos basado en un sistema de interpretación visual por categorías, según un comunicado del MIT.

Un enfoque jerárquico

Como la mayoría de los sistemas de reconocimiento de objetos, el nuevo modelo aprende a identificar datos gráficos nuevos mediante un entrenamiento con objetos ya etiquetados en imágenes digitales. Sin embargo, los modelos convencionales no tienen por qué saber de antemano qué características de los objetos deben buscar.


En el método diseñado por el MIT, lo primero es identificar los rasgos más pequeños posibles (a menudo segmentos cortos de líneas). El siguiente paso es localizar los casos en que estas características de bajo nivel están conectadas entre sí, formando figuras un poco más sofisticadas.

A continuación, busca dónde estas formas más elaboradas están conectadas las unas con las otras, y así sucesivamente, hasta que configura un catálogo jerárquico de las piezas cada vez más complejo, cuya capa superior es un modelo del objeto completo. Una vez que el sistema ha reunido su catálogo de abajo hacia arriba, lo hace en sentido inverso, de arriba hacia abajo, eliminando todas las redundancias.

Para visualizar cómo funciona el sistema, los científicos ilustran su comunicado con el siguiente ejemplo: en un catálogo de piezas para un caballo visto de perfil, la segunda capa de la parte superior podría incluir dos representaciones diferentes de la parte trasera del caballo. Una mostraría la grupa, una pata trasera y parte del vientre, y la otra la rabadilla y las dos piernas traseras. Así, podría resultar que en la gran mayoría de los casos en que el sistema identifica una de estas partes, acabe reconociendo también la otra.

Con este enfoque jerárquico, que va añadiendo nuevas capas de información acerca de los objetos representados digitalmente, se consigue ahorrar memoria, ya que los objetos diferentes pueden compartir varias partes. Es decir, en capas diferentes, los catálogos de piezas de un caballo y un ciervo pueden llegar a tener formas en común. De este modo, cuando una forma se comparte entre dos o varios catálogos, el sistema solo necesita almacenarla una vez.

Lejos de la eficacia del cerebro

Aunque el trabajo de los investigadores promete un uso más eficiente de la memoria del ordenador y el tiempo empleado por los programadores, para Tai Sing Lee, profesor asociado de Ciencias de la computación en la Universidad Carnegie Mellon, lo más importante es que crea una forma más eficaz de llevar a cabo el reconocimiento de objetos.

En su opinión, el funcionamiento de este sistema tiene mucho que ver con la forma en que nuestro cerebro asimila las imágenes. Lee señala que el procesamiento visual en el ser humano parece implicar entre cinco y siete regiones cerebrales distintas, sin embargo nadie está completamente seguro de lo que hacen. "Lo que me aturdió es que el sistema aprende desde cinco hasta siete capas", confiesa Lee. "Eso -añade- sugiere que puede realizar el mismo tipo de procesamiento visual que se produce en el cerebro".

Sin embargo, aunque en los ensayos el método del MIT y la UCLA obtuvo buenos resultados está todavía muy lejos de acercarse al cerebro humano. Y es que, según Lee, el sistema en la actualidad se centra principalmente en la detección de los bordes de los objetos en las representaciones bidimensionales y para alcanzar el rendimiento humano, tendría que incorporar una gran cantidad de información adicional acerca de texturas y contornos en tres dimensiones, como lo hace el cerebro.

El equipo de investigación presentará su proyecto en una conferencia sobre visión por ordenador y reconocimiento de patrones que se celebrará el próximo mes de junio en San Francisco.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX