Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

miércoles, 15 de septiembre de 2010

Crean un ovario artificial con tres tipos de células



Podría ser el primer órgano artificial completamente funcional

Un equipo de investigadores estadounidenses ha conseguido crear un “ovario artificial” en el que se pueden desarrollar los ovocitos (células germinales femeninas) hasta convertirse en óvulos maduros, siguiendo un proceso similar al de los ovarios orgánicos de las mujeres. Estos resultados podrían suponer la creación del primer órgano artificial completamente funcional, afirman los científicos. El ovario artificial servirá para comprender mejor la fertilidad femenina y para preservar la fertilidad de mujeres sometidas a ciertos tratamientos, como la quimioterapia.



Investigadores de la Universidad de Brown y del Women & Infants Hospital of Rhode Island, en Estados Unidos, han conseguido crear un “ovario artificial” en el que se pueden desarrollar los ovocitos (células germinales femeninas) hasta convertirse en óvulos maduros, de la misma forma que estas células maduran en los ovarios orgánicos.

Este logro ayudará a comprender mejor la fertilidad femenina, y también a preservar la fertilidad de aquellas mujeres sometidas a ciertos tratamientos que afectan a la fertilidad, como la quimioterapia.

Actualmente, los investigadores ya están usando el ovario de laboratorio para madurar óvulos humanos, según publica la Universidad de Brown en un comunicado.

Laboratorio viviente

Una de las autoras de la investigación, la directora de la Sección de endocrinología reproductiva e infertilidad del Women & Infants Hospital, Sandra Carson, explica que: “un ovario está compuesto por tres tipos principales de células, y ésta es la primera vez que se crea una estructura tridimensional de tejidos con tres líneas de células”.

Según la investigadora, el ovario artificial no sólo será un auténtico “laboratorio viviente” para el estudio de cuestiones fundamentales sobre cómo funciona un ovario sano, sino que también servirá como plataforma de análisis de cómo ciertos problemas, como la exposición a toxinas u otros productos químicos, pueden afectar a la maduración y a la salud de los óvulos.

Por otro lado, en el aspecto clínico, el ovario artificial podría servir para preservar la fertilidad de mujeres que estén sometidas a tratamientos de quimioterapia.

Esto se haría de la siguiente forma: los óvulos aún inmaduros serían extraídos del organismo y congelados antes del inicio de la quimioterapia o de la radiación, para hacerlos madurar posteriormente fuera de la paciente en el ovario artificial, explican los científicos.

Creación del ovario

Lo que ha permitido que un ovario artificial se convierta en tejido funcional, en lugar de ser sólo un mero cultivo de células, ha sido la combinación de tres tipos de células en una estructura similar al de los ovarios de las mujeres.

Dicha estructura fue generada en el laboratorio de un investigador llamado Jeffrey Morgan. Morgan creó unos platos de Petri (cilindros que usan los biólogos para el cultivo de células) tridimensionales, formados por un gel moldeable de un polisacárido denominado agarosa.

La agarosa es un producto natural que forma una matriz inerte y no tóxica y se utiliza en gran cantidad de técnicas de biología molecular, bioquímica y biología celular. El entorno tridimensional creado por Morgan propicia que las células se acoplen dando lugar a formas específicas.

En el caso del ovario artificial, los investigadores formaron panales de células de la teca interna (que son células productoras de hormonas que se encuentran en los ovarios), que habían sido donadas por pacientes del hospital en edad reproductiva (de entre 25 y 46 años).

Después de que las células de la teca crecieran dentro de la estructura con forma de panal, se insertaron en ésta aglomeraciones esféricas de un segundo tipo de células, denominadas células de la granulosa. Dichas células se colocaron en los agujeros de los panales junto con óvulos humanos no maduros, llamados ovocitos.

En unos días, las células de la teca se acoplaron con las células de la granulosa y los ovocitos, siguiendo un proceso similar al que se da en los ovarios reales.

Posible primer órgano artificial funcional


La gran prueba final consistió en comprobar si la estructura formada podía funcionar completamente como un ovario, dando lugar a óvulos maduros. En experimentos realizados, se constató que, efectivamente, así era.

Según publican los investigadores en la revista especializada Journal of Assisted Reproduction and Genetics, este logro “representa el primer éxito en el uso de ingeniería de tejidos 3-D para la maduración de ovocitos in vitro".

Los resultados obtenidos por los investigadores abren la posibilidad de que se haya conseguido crear el primer órgano artificial completamente funcional. Hasta ahora, se habían dado otros pasos en el desarrollo de órganos artificiales con células, pero no se habían logrado resultados tan avanzados.

Por ejemplo, científicos del Weill Cornell Medical College, de Estados Unidos, anunciaron recientemente el desarrollo de un nuevo y eficiente método para crear células endoteliales, que son las células encargadas de crear los vasos sanguíneos y que recubren el interior de éstos.

Por otro lado, investigadores del MIT (el Instituto Técnico de Massachusets) publicaban el pasado mes de mayo que habían conseguido replicar tejido humano en laboratorio ensamblando unas células con otras. De esta forma, los científicos lograron crear vasos sanguíneos siguiendo una técnica, la «micro-masonry», que se cree que en el futuro podría servir para desarrollar órganos completos.

De la mina San José a la TV


Cuatro de los mineros atrapados saludan a la cámara, en un vídeo para sus familiares. | Efe
"Estamos bien en el refugio los 33". Con este mensaje, escrito en un trozo de papel con rotulador rojo, los mineros atrapados a 700 metros bajo tierra desde el 5 de agosto daban a conocer al mundo que seguían con vida tras dárseles por muertos.
El interés en su país, Chile, pronto fue contagiada al resto de países y a día de hoy, es una productora española la interesada en transmitirla a través de la pequeña pantalla.
A pesar de que aún se desconoce el desenlace, Lince Studios, perteneciente al grupo Endemol, se ha puesto en contacto con la Televisión Nacional de Chile (TNC), que ha manifestado su interés en la creación de un proyecto audiovisual sobre la experiencia de los supervivientes. Aunque no se ha especificado la forma en la que colaborará la cadena, todo apunta a su papel como coproductora.
En estos momentos, el equipo se encuentra en la fase de documentación y una vez que recopilen todos los datos de interés y asistan al final de este acontecimeinto se procederá a la elección del formato y a su consiguiente rodaje.
"Nos limitaremos a contar un hecho que nos ha resultado interesante y, al contrario de lo que han reflejado en algunas informaciones, esperamos poder contar un final feliz", aseguraron a ELMUNDO.es fuentes de la compañía Endemol.
Además, cada minero tendrá su propio personaje y se tratará de reflejar la situación experimentada en sus dos extremos. Desde los momentos de angustia hasta la alegría al ser descubiertos.
De esta forma, el derrumbamiento de la mina San José y el descubrimiento de 33 trabajadores a los que después de 17 días atrapados se les consideraba muertos, compondrían la trama de un formato inicial, pero, si se tienen en cuenta las múltiples noticias surgidas alrededor de los chilenos como las complicadas labores de rescate; el nacimiento de Esperanza, la hija de uno de ellos o el encuentro entre la esposa oficial y la amante de otro, quizás las productoras deberían planterase una trilogía cuyo final feliz, eso sí, es mundialmente deseado.

¿Quién podría estar espiando tu BlackBerry?


Una mujer sostiene una BlackBerry en Bhopal, India . | Efe
Peter Apps (Reuters) | Londres
Las disputas sobre si varios países podrían interceptar de forma efectiva el servicio de mensajería de BlackBerry ha hecho que se preste atención a cómo las agencias de espionaje estatal acceden a las comunicaciones electrónicas.
Para los ejecutivos, la principal pregunta no es si los mensajes pueden ser leídos, sino si esa información será utilizada con fines comerciales.
En cualquier caso, no sorprende saber que la mayoría de los estados no quieren hacer comentarios sobre cómo es utilizada esta información.
Reuters ha hablado con una serie de analistas de la industria y antiguos agentes de los servicios de inteligencia sobre cómo utilizan la vigilancia electrónica varios países.
Rusia
Desde los días de la policía secreta del zar, las agencias de seguridad rusas han tenido la fama de monitorizar estrechamente a los extranjeros y sus comunicaciones. Los expertos en seguridad dicen que muchas habitaciones de hotel están equipadas con micrófonos y que las empresas extranjeras deberían ser muy cautelosas a la hora de elegir la información que llevan al país.
El lanzamiento de BlackBerry en Rusia fue retrasado dos años mientras el FSB, el servicio de seguridad del país, negociaba el acceso de seguridad.
"En Rusia, los periodistas son muy conscientes de que su correo electrónico es interceptado", explica Ian Bremmer, presidente de la consultora de riesgo político Eurasia Group. "Dada la cantidad de dinero implicada, siempre habrá alguien espiando las empresas extranjeras. El FSB tiene los medios y los utiliza. No hay mucho que pueda hacer aparte de escribir los correos sabiendo que podrían ser interceptados".
Además, algunos oligarcas parecen tener vínculos cercanos con el servicio secreto, y Rusia ha dejado claro que ve algunos sectores económicos -particularmente el energético- como sectores clave.
China
China restringe duramente el uso de algunas tecnologías de la comunicación y controla el acceso a Internet tras su 'cortafuegos' en lo que los analistas consideran en parte como un intento de reprimir a los disidentes y la difusión de palabras, ideas e imágenes contrarias al Partido Comunista. Además, el país bloquea múltiples páginas web y herramientas de comunicación como Skype.
En parte debido a su relativamente sencillo ejército, en desequilibro al compararlo con el de Estados Unidos, China es vista como un país que se esfuerza en construir su departamento de 'ciberguerra'.
Además, también ha sido sospechosa en muchas ocasiones de ciberataques a compañías estadounidenses, un factor clave en la decisión de Google de abandonar el país asiático a principios de año.
El buscador no dijo si creía que el Gobierno chino estaba detrás del ataque, pero una comisión asesora perteneciente al Congreso de EEUU dijo en noviembre de 2009 que que el Gobierno del país penetraba en las redes gubernamentales y de defensa estadounidenses para recopilar información.
China, por su parte, ha negado en múltiples ocasiones que su Gobierno apoye a los 'hackers'.
"Los chinos tienen los recursos para asignar 100 agentes a un problema al que el MI6 o la CIA podrían asignar sólo cinco o seis", explica el ex agente de contraterrorismo Fred Burton, ahora vice presidente de la compañía Stratfor. "Están particularmente interesados en atacar firmas emergentes de tecnologías de defensas, pues van tras su propiedad intelectual. Buscan llegar a los proyectos en una etapa temprana de su desarrollo".
Asimismo, en el país muchas empresas están ligadas de cerca al estado, pero esa cercanía no siempre se traduce en aceso a inteligencia comercial.
"No creo que las empresas en China deban asumir que todo lo que escriben es transmitido a directamente a sus rivales comerciales", explica Bremmer. "No todas las compañías chinas tienen conexiones con los oficiales de seguridad que tienen acceso a ese tipo de información".
India
India se convirtió el mes pasado en el último país en pedir al fabricante de BlackBerry, Research In Motion, que otorgase acceso a sus agencias de seguridad a los datos encriptados de los teléfonos. El movimiento, parte de un plan de seguridad electrónica más amplio, partió de las preocupaciones del país de que las comunicaciones de grans eguridad no moritorizadas podrían ayudar a los terroristas a planear ataques.
Sin embargo, muchos analistas ven el riesgo para las compañías occidentales de que material comercialmente sensible pudiera filtrarse a sus rivales mucho menor que en otros países.
"Veo a la India como un país fuertemente inclinado en la dirección del libre mercado", asegura Ian Bremmer. "Es muy difícil tener capitalismo estatal en un sistema que ya es tan difuso y descentralizado, incluso aunque pueda ser una tentación para India ahora que empiezan a competir de una forma más directa con China".
Oriente Medio
Arabia Saudí y los Emiratos Árabes Unidos tienen sus propios conflictos con Research In Motion por el sistema de mensajería de BlackBerry, pero han retirado sus amenazas de interrumpir el servicio de manera absoluta.
En general, los analistas creen que la mayor prioridad de los estados de Oriente Medio y el Golfo, cuando se trata de vigilancia electrónica, es enfrentarse al activismo, la disidencia política y el comportamiento 'inmoral', más que el espionaje comercial.
El experto en seguridad de la información en el Golfo Ali Jahangeri cree que una solución potencial podría ser tener dos sistemas diferenciados de BlackBerry, uno para los usuarios locales, que pudiera ser monitorizado de forma sencilla, y uno más seguro para los clientes internacionales que valoran la confidencialidad.
África
Los servicios secretos africanos son de 'baja tecnología' comparados con los de otras partes del mundo, aunque Fred Burton advierte que los ejecutivos occidentales podrían enfrentarse al espionaje procedente de servicios de inteligencia de países extranjeros con buenas relaciones con África.
Esto podría poner a las firmas occidentales en desventaja en comparación con sus rivales extranjeros de países como China. Por el momento, Nigeria ha dicho que no tiene planes de tratar de acceder a los dispositivos BlackBerry.
Los expertos explican que los países africanos que espían a las compañías extranjeras utilizan métodos más tradicionales como seguir a los directivos o comprar información a los conductores, limpiadores y trabajadores locales.
Organizaciones por la libertad de prensa de Sudáfrica han acusado a China de vender equipamiento de vigilancia electrónica a varios gobiernos autoritarios africanos entre los que se incluye Zimbabwe, donde aseguran que se utiliza para espiar a la prensa y los defensores de los derechos humanos.
Países occidentales
La mayoría de los países occidentales tienen poderosas agencias de espionaje capaces de leer casi todo el tráfico doméstico y parte de los mensajes del exterior. La forma de funcionar depende de la legislación, aunque ésta varía y es imposible decir hasta qué punto es seguida.
En cualquier caso, la intercepción de datos parece ser materia de intercambio frecuente y fluido entre las potencias anglosajonas dominantes -Reino Unido y EEUU, y también Australia, Canadá y Nueva Zelanda
Un libro publicado este año, 'El Estado secreto', del académico Peter Hennessy, dice que entre el 50% y el 80% de las materias de inteligencia discutidas en la reunión semanal del comité de inteligencia proviene de Estados Unidos.
Los estados europeos continentales frecuentemente sospechan que las potencias anglosajonas espían por con fines comerciales. Todo el tráfico europeo de BlackBerry pasa por servidores localizados en Reino Unido o Canadá, y por ello muchos gobiernos europeos son reacios a utilizarlo.
La mayoría de los expertos en seguridad creen que los poderes occidentales ocasionalmente utilizan los servicios de espionaje con fines comerciales, pero su principal objetivo es detectar amenazas y combatir el crimen económico.
Además, algunos expertos creen que la principal amenaza a la que se enfrentan las empresas occidentales, incluso en sus propios países, es la infiltración electrónica de potencias como Rusia y China.
"Las verdaderas joyas de la corona de América no son nuestros secretos gubernamentales, sino nuestra propiedad intelectual", escribe Richard Clarke, antiguo consejero de ciber seguridad de la Casa Blanca, en su libro 'Ciber Guerra'.
"China roba resultados por muy poco dinero (...) y luego los lleva al mercado. El único margen económico del que disfrutaba EEUU (...) está desapareciendo como resultado del ciber espionaje".

Llega el tacto para los robots


Científicos estadounidenses han desarrollado una nueva tecnología para fabricar "piel electrónica", es decir, un recubrimiento artificial que simula el tacto humano y cuya aplicación multiplicará las funciones de los robots y contribuirá a creación de una nueva generación de prótesis, según la revista Nature Materials.

Mientras que la vista y la voz están muy avanzadas en robótica, el sentido del tacto aún es muy rudimentario. Sin embargo, las pruebas independientes realizadas por dos equipos de investigadores estadounidenses, uno dirigido por Ali Javey, Universidad de California, y otro al mando de Zhenan Bao, de la Universidad de Princeton, podría cambiar pronto la situación gracias a una fina lámina compuesta de nanotiras de silicio y cubierta de pequeños sensores del tamaño de un píxel, a la que sus autores han bautizado como e-piel.

La nueva piel electrónica será capaz de detectar cambios de temperatura y presión, tanto leves como intensos, ya que sólo necesita cinco voltios para accionarse. Los investigadores esperan que el invento permita que los robots del futuro sean capaces de manejar objetos con más precisión, así como usar el material en revolucionarias prótesis biónicas. Entre las posibles aplicaciones de la e-piel también se barajan propuestas como una alfombra electrónica que podría reconocer las huellas de los habitantes de la casa, o un asiento de coche cubierto que determine las condiciones físicas del conductor.

martes, 14 de septiembre de 2010

Caos primordial no relativo


Un trabajo teórico sugiere que es posible que el Universo temprano fuera cáotico y que este caos fuera independiente de los observadores, es decir que no fuera relativo, sino absoluto.

Si miramos hacia cualquier parte del cielo, sobre todo al fondo cósmico de microondas, vemos que su aspecto es el mismo. Es decir, el Cosmos es isótropo. Si escogemos cualquier región del Universo lo suficientemente grande (que incluya cúmulos de galaxias) y la comparamos con otra de tamaño similar vemos que se parecen entre sí. Es decir, el Cosmos es homogéneo. Estas dos características constituyen el principio cosmológico y casi todos los modelos que tratan de describir el origen y evolución del Universo se basan en él.

Pero si nos detenemos en la isotropía vemos que hay un problema si admitimos que hubo un Big Bang. Las distintas partes del fondo cósmico de microondas (FCM) son demasiado iguales. Este fondo es un reflejo más o menos exacto de cómo era el Universo justo en la época de la recombinación (380.000 años después del Big bang), cuando éste se hizo transparente por primera vez. Representa las fluctuaciones en la temperatura con una perfil de cuerpo negro, es decir, en equilibrio térmico. Pero esas fluctuaciones son tan similares en todas las partes del FCM que el tradicional modelo de Big Bang no conseguía explicar. Para que haya un equilibrio térmico el plasma que constituía el Universo antes de la recombinación debía de haber termalizado en su totalidad y cada parte debía de haber entrado en comunicación causal con todas las demás. Esto es imposible para las regiones del FCM que son antípodas unas de otras, porque incluso a la velocidad de la luz nunca habría habido tiempo para ello.

Una posible solución al respecto es asumir que el Universo fue creado así: absolutamente homogéneo e isótropo. Pero este tipo de ajustes ultrafinos no son del agrado de los teóricos porque no explican nada.Esto constituyó una gran crisis para el modelo de Big Bang hasta que se propuso la inflación. Según esta hipótesis, el Universo sufrió un periodo de inflación una fracción de segundo después del Big Bang y mucho antes de la recombinación. Estaríamos, por tanto, observando sólo una parte minúscula de la totalidad del Cosmos, una parte que sí tuvo tiempo de ponerse de acuerdo y termalizar y que fue ampliada por la inflación. El campo escalar responsable de esta inflación es totalmente hipotético y estaría controlado por una partícula denominada inflatón. No hay ninguna prueba directa de la existencia de la inflación cósmica o de esa campo escalar, pero permite solventar el problema.

La idea de la inflación no gusta a todo el mundo y algunos han propuesto mecanismos alternativos que expliquen la extremada isotropía del FCM. Uno es suponer que la velocidad de la luz era mucho más rápida durante el Big Bang, de tal modo que sí hubo termalización, dando lugar al patrón del FCM que observamos.
Pero que no necesite que las condiciones durante el Big Bang fueran perfectas, puede que incluso fueran caóticas. Quizás el Universo no fue creado absolutamente uniforme, sino todo lo contrario: caótico. Una idea que se introdujo hace ya 50 años. Si así fueran, la concepción que tenemos del Universo primitivo cambiaría radicalmente.Hace siete años Adilson E. Motter conjeturó que la expansión del Universo durante el Big Bang fue caótica. Ahora él y sus colaboradores han conseguido argumentar mejor esa conjetura con un andamiaje matemático y publicado sus resultados en Communications in Mathematical Physics. Si hubo una fase caótica en el Universo temprano pudo ser absoluta e independiente del observador. Además aportan las herramientas matemáticas para detectar ese caos.El problema que había era saber si el caos era absoluto (independiente del observador) o relativo (dependiente del observador). La segunda opción, tal y como apuntaban otros estudios, llevaba a un callejón sin salida desde el punto de vista teórico.
Según estos investigadores el caos sería absoluto y puede estudiarse según las reglas de la relatividad. Este caos tendría fuertes implicaciones en los cambios erráticos entre corrimientos al azul y al rojo según distintas direcciones cuando el Universo estaba en la fase caótica.

Según Motter puede que el Universo primitivo pudiera expandirse en dos dimensiones del espacio y contrayéndose en una tercera, lo que daría un corrimiento al rojo en el primer caso y al azul en el segundo. Pero la dirección o dimensión de contracción no fue siempre la misma, sino que cambiaba erráticamente entre x, y y z.
Lo malo es que esto, bajo la Relatividad General, significaría que la evolución del Universo primitivo dependió fuertemente de las condiciones iniciales del Big Bang.
Hace 22 años se consiguió demostrar que podría existir un acuerdo entre los distintos observadores sobre la naturaleza caótica del Universo temprano si se daba una invariante relativista.

Universo 1+1


Según algunos modelos el Universo podría tener a pequeña escala sólo una dimensión espacial y otra temporal.

Hace un tiempo publicábamos en NeoFronteras un artículo en el que se hacia una revisión de las alternativas a las teorías de cuerdas. En varias se esas alternativas se obtenía que la dimensión del espacio a pequeña escala (a la escala de Planck) era menor de tres. Ahora surgen más resultados que apoyan esa misma idea.
Lo malo de la escala de Planck es que es tan pequeña que no hay manera de obtener resultados experimentales sobre qué es lo que sucede a esa escala. Las teorías son libres de proponer toda clase de ideas.

Los intentos en estos últimos cuarenta años de describir la realidad, tanto a pequeña escala como a gran escala, han fracasado, principalmente porque no contamos con una teoría cuántica de la gravedad. Nuestros mejores modelos se basan en variedades riemannianas de tres dimensiones espaciales y una temporal (3+1).
Recordemos que el principal problema de la Relatividad General es la presencia de singularidades, lugares en donde las geodésicas tienen un final y en donde la física deja de tener sentido. Se asume que una buena teoría de la gravedad debe de estar libre de singularidades. En algunos casos esto se consigue con alguna suerte de “espuma cuántica” presente en la escala de Planck.Quizás, abandonar la visión 3+1 pueda ayudarnos en nuestro empeño de explicar la realidad. Puede que haya dimensiones espaciales que surjan de manera emergente a partir de la propia física del espacio-tiempo. Desde hace tiempo se sospecha que a esa escala de Planck incluso la propia concepción del espacio-tiempo, la “espuma” antes mencionada no tenga el mismo sentido que tiene en el mundo macroscópico. De ahí han surgido, como subproducto de teorías recientes, espacios fractales o de dimensiones menores a las tres habituales del espacio.

Desde un punto de vista filosófico uno esperaría que una buena teoría no solo proporcionara una teoría cuántica de la gravedad consistente, sino que además dé una explicación al origen del propio espacio-tiempo, algo que las teorías de cuerdas no proporcionan.Steve Carlip, de la Universidad de California en Davis, apunta precisamente a que el espacio-tiempo tenga menos dimensiones que las habituales a la escala de Planck. Aunque parezca contraintuitivo afirma que hay muchos signos que apuntan en esa dirección.Según él en recientes trabajos de teoría cuántica de lazos, cuerdas, aplicaciones del grupo de renormalización sobre Relatividad General y en otras áreas de la gravedad cuántica se apunta a dos dimensiones del espacio-tiempo en la escala pequeña de Plack. En muchos casos el número de dimensiones simplemente colapsa, conforme la escala se reduce, en un proceso denominado reducción espontánea de la dimensión.

Según sostiene Carlip, a esa escala debe de haber sólo una dimensión espacial y una temporal y la dinámica escoge una dimensión especial preferente de entre las tres posibles. Esta dimensión preferente estaría determinada clásicamente y entonces sería alternada al azar por los procesos físicos que estén operando a esas escalas. Esto recuerda un poco a las teorías de variables ocultas propuestas hace tiempo para explicar los extraños resultados de la Mecánica Cuántica.Carlip admite que todavía la idea es muy especulativa, de hecho, la parrafada anterior no está sostenida en el artículo original por ningún aparato matemático y está expresado solamente por lenguaje normal. Pero a diferencia de otros teóricos de la gravedad cuántica, Carlip da pistas del tipo de experimentos que podrían demostrarla. Según él, el mecanismo que propone y que rompe la invarianza Lorentz a la escala de Planck produciría violaciones de esa invarianza que podrían ser aumentados a escalas grandes en las que podrían ser observables, incluso cuando esas violaciones fueran muy pequeñas a la escala de Planck. Esto también podría dar problemas a una posible teoría de este tipo si esas violaciones son magnificados en exceso, pues ya se han puesto límites observacionales a ese tipo de efectos.

http://arxiv.org/abs/1009.1136

Los equipos de Sony y Logitech de Google TV usarán un Intel Atom C4100


Ahora si podríamos entender por qué Otellini afirmaba con tanta seguridad que el primer dispositivo de Google TV estaría llegando este mes, todo se debe a que Intel será quien impulsará este tipo de dispositivos (entiéndase televisores Sony o el set top box de Logitech).Durante la Intel Developer’s Forum (IDF), celebrada ahora mismo en San Francisco, los asistentes han podido notar que dentro de las instalaciones se encuentra un stand exclusivo para Google TV y, aunque no tenemos certeza si ofrecieron alguna demostración, sí podemos asegurar que Intel tiene las manos bien metidas en el proyecto de televisión por internet que está pronto a ser lanzado por Google.

Por supuesto, la forma en que se verá reflejada la intervención del fabrincante obviamente será por medio de los chips, en este caso un C4100 y un Atom (desconocemos el modelo). Al parecer se integrarán dos chips para que uno de ellos se encargue de procesar el streaming, mientras que el otro será capaz de correr aplicaciones.

Lamentablemente no hay fechas oficiales de salida, pero se espera que pronto, quizá este año, vea luz.

Fujitsu desarrolla tecnología para cargar varios dispositivos de forma inalámbrica


Adiós cables, gracias a esta nueva tecnología con la que se han cruzado los investigadores de los laboratorios de Fujitsu ya no tendré que usarlos más y podré cargar varios de mis gadgets simultáneamente sin preocuparme por tropezar alguno de ellos. Por ahora el desarrollo y perfección de este método se encuentra en desarrollo y al parecer no llegará este año ni el que le sigue, llegará en 2012, lamentablemente.

Actualmente hay gran variedad de productos que cumplen con ésta función pero con la diferencia que deben ser usados sobre alguna base y el tiempo de carga es prácticamente el doble, como el AirVolt que venden en ThinkGeek. Y es precisamente lo que pretende eliminar la gente de Fujitsu además de aumentar la efectividad de carga en un 85%.

El gadget, al parecer, cumplirá la misma función que los cargadores convencionales. El método está basado en la resonancia magnética la cual hace sintonizar en un mismo canal toda la frecuencia sin ninguna restricción. Será posible cargar varios dispositivos simultaneamente y, sólo por esto, ya quiero probarla. Por ahora es la única información que tenemos, además de esperar próximamente productos fabricados por Fujitsu para implementar esta tecnología en teléfonos celulares y coches.

Crean una piel electrónica que es sensible al tacto


Un equipo de científicos de la Universidad de Berkeley en California creó una piel electrónica sensible al tacto que podría, al menos en un futuro, darle el sentido del tacto a los robots para que puedan maniobrar objetos sensibles o demasiado livianos. Pero además también podría devolverles el sentido a los pacientes con prótesis en sus extremidades.

Esta piel que la denominaron como e-skin y fue creada a partir de nanocables podría hacer que los robots manejen, por ejemplo, huevos. Ali Javey, uno de los profesores que está llevando adelante el proyecto, comentó que un ser humano sabe cómo agarrar un huevo para que no se rompa, pero si quisiéramos que un robot, por ejemplo, lave los platos o una copa de vino, estos objetos terminarían rotos.

Esta no es la primera vez que tratan de hacer una piel electrónica que brinde sensibilidad pero la diferencia es que los anteriores modelos utilizaban materiales orgánicos porque son flexibles y relativamente fáciles de procesar. Pero el principal problema es que son pobres en lo que a los semiconductores se refiere y por ese motivo necesitarían grandes cantidades de energía para funcionar.

En cambio la e-skin, fue creada a partir de materiales inorgánicos que se tratan de un solo semiconductor. Por esto requiere muy poca cantidad de energía para funcionar correctamente, además es químicamente más estable que la piel orgánica y mantiene el mismo grado de flexibilidad gracias a su construcción que se basó en nanotubos de germanio y silicio adherida a una capa de poliamida.

Las pruebas fueron realizadas con una piel que tenía 7x7cm y que fue dividida en una matriz de 18x19 píxeles. Cada uno de los píxeles tenía un transistor compuesto de cientos de nanocables y la parte exterior recubierta con una goma que era sensible a la presión. Utilizando solamente 5 volts la e-skin fue capaz de detectar la presión que era generada de 0 a 15 kilopascales (que es la fuerza generada usualmente las personas cuando están sosteniendo un objeto).

Sin duda este es un grandísimo avance. Si esta tecnología se llega a producir masivamente, cosa que probablemente se terminará realizando, las personas con, por ejemplo, implantes de brazos o piernas podrían volver a sentir cuando los toquen o ellos toquen objetos. Lo interesante es que los expertos que trabajaron en esto aseguraron que ahora el tamaño de la e-skin es proporcional al tamaño de las herramientas de procesamiento que utilizaron.

E-Quickie: Un vehículo que tomará energía de la carretera


En el futuro lo más seguro es que dejemos de utilizar, de una vez por todas, el petróleo como forma de combustible al menos para los medios de transporte más utilizados que, actualmente en todas las sociedades, son los automóviles. De vez en cuando vemos unos cuantos avances en el mundo de los carros eléctricos o impulsados con energías alternativas y esta vez el E-Quickie, creado por un grupo de estudiantes de Alemania, no necesita ni siquiera que lo recarguen porque obtendrá la energía de las calles.

Esta creación, como dije, fue llevada a cabo por estudiantes de la Universidad de Karlshure, y toma la energía de manera inalámbrica a través de la carretera que tendrá emisores eléctricos. Estos emisores emiten electricidad cuando el automóvil pasa por arriba y éste es recargado de manera inalámbrica a través de receptores que tiene en la parte inferior.

Los mismos estudiantes diseñaron cada uno de los componentes del vehículo para que todo funcionara correctamente. No solamente debían usar partes que ni siquiera existían, sino también mantener un peso ideal para que la energía captada pueda mover el carro y, además, hacerlo lo más aerodinámico posible. Finalmente, toda la parte externa del diseño que ven en la fotografía fue hecha de fibra de carbono para que no sea demasiado pesado.

¿Está el Zune HD2 algo más cerca?


Microsoft es una de esas empresas que si se propone entrar en un mercado, tarde o temprano ahí estará. Se propusieron entrar el mundo de los videojuegos y vaya si lo consiguieron con la Xbox y, más tarde, con Xbox 360. Se propusieron entrar en el sector de los reproductores multimedia portátiles y… en ello están. Se podría considerar que tanto Zune como Zune HD fueron experimentos pues ninguno llego a salir de territorio norteamericano. ¿Podría ser el rumoreado Zune HD2 el que permita dar el salto a este gadget para su consumo masivo en todo el mundo?

Primero debería confirmarse su existencia, por lo que por el momento tendremos que conformarnos con los rumores que van llegándonos. Ya en marzo, mi compañero Axel os comentaba que había datos que apuntaban a su lanzamiento para este mismo año. A mi, personalmente, me parece algo precipitado, pero nuevos datos parecen indicar que, en efecto, su existencia es real y cercana.

Una oferta de trabajo del equipo que desarrolló el Zune HD indica textualmente que el equipo se encuentra “desarrollando actualmente la siguiente generación de dispositivos portátiles para comunicación y entretenimiento”. Esta descipción nos indica que muy probablemente el Zune HD2 utilice el esperado Windows Phone 7 con integración Xbox Live.

No es que sean muchos detalles. Hay quien especula con que el Zune HD2 podría llegar durante el próximo año en 3 modelos: con 16 Gb, con 32 Gb y con 64 Gb. Pero mientras no sea anunciado oficialmente no lo sabremos con seguridad. Tal vez durante la presentación de Windows Phone 7 el mes que viene conozcamos más detalles. A ver si esta es la definitiva y Microsoft se decide a sacar fuera de Estados Unidos un gadget más que interesante.

lunes, 13 de septiembre de 2010

Científicos descubren pequeños paneles solares que se crean por sí mismos



Varios científcos han descubierto moléculas que espontáneamente se ensamblan a si mismas en un modelo que es capaz de transformar luz en energía, es decir que son un pequeño panel solar que se crea por si mismo.
TECNOMAGAZINE.NET

Los investigadores estaban dispuestos a crear un proceso artificial que imitara la fotosíntesis. Ciertas moléculas responden a la luz liberando electrones; el truco era descubrir una sustancia que las mantenga unidas en una estructura consistente. Los fosfolípidos se han encargado de eso y además se unido ellos mismos a nanotubos de carbón, los cuales conducen la electricidad. Mientras los tubos mantienen los fosfolípidos en alineación uniforme, las moléculas fotoreactivas están expuestas a la luz y producen energía que es recogida por el tubo.

La mejor parte es que estos pequeños paneles se pueden dividir y juntar por medio de simples químicos. Luego de ensamblarlo y desmontarlo varias veces, los científicos vieron que no perdía su eficacia. Y eso es grandioso, ya que en caso de perder eficacia con el tiempo, sería un problema para este tipo de sistema.

Todo tiene sentido: si quieres producir mejores paneles solares, debes centrarte en quienes mejor generan energía solar, y no nos referimos a nada de última tecnología, sino algo tan viejo como el planeta mismo, las plantas.

Las leyes físicas no son las mismas en todo el Universo


Las leyes de la física podrían no ser las mismas en todos los lugares del universo. A esta conclusión han llegado astrofísicos británicos y australianos a partir de mediciones de una constante fundamental de la Naturaleza, la llamada "constante de estructura fina" o alfa. Esta constante no es igual en todo el cosmos, explican los investigadores, lo que podría significar que sólo nuestro universo observable está regido por las leyes físicas que conocemos, y que propiciaron la aparición de la vida. De confirmarse los resultados obtenidos, tal vez sea necesaria una revisión de las leyes de la física, afirman los autores de la investigación


Las leyes de la física podrían no ser las mismas en todos los lugares del universo, sugieren ciertas evidencias encontradas por un equipo de astrofísicos de la Universidad de Cambridge y de las Universidades de Nueva Gales del Sur (UNSW) y de Swinburne, en Australia.

En un artículo presentado para su valoración a la revista Physical Review Letters, los investigadores afirman que han descubierto que una de las supuestas constantes fundamentales de la Naturaleza parece no ser realmente constante.

Se trataría de la llamada "constante de estructura fina", que caracteriza la fuerza de la interacción electromagnética o interacción entre partículas con carga eléctrica. Esta constante suele ser representada por la letra griega "α" (alfa).

Profundas implicaciones

Según publica la UNSW en un comunicado, el artículo de los astrofísicos británicos y australianos describe cómo, en una serie de mediciones realizadas, se constató que la constante alfa varía a través del universo.

Según explica uno de los autores del presente estudio, el profesor John Webb, de la Escuela de Física de la UNSW, tras haber medido dicha constante en alrededor de 300 galaxias distantes se reveló que este "número mágico" no es el mismo en la Tierra que en otras partes del cosmos y, además, que cambia continuamente a lo largo de un eje preferencial a través del Universo, es decir, que tendría una orientación.

Webb afirma que este descubrimiento podría tener profundas implicaciones para la comprensión actual de la ciencia: si las leyes de la física se convierten en meras "leyes locales", mientras la parte del Universo que podemos observar ha favorecido la aparición de la vida y el ser humano, en otras regiones del cosmos más distantes podrían existir leyes distintas, que tal vez no habrían facilitado la formación de la vida, al menos tal y como la conocemos.

"Si nuestros resultados son correctos, claramente necesitaríamos nuevas teorías físicas para describirlos de manera satisfactoria", concluye el astrofísico.

Dos instrumentos de medición

Las conclusiones de los investigadores se basaron en mediciones tomadas con dos instrumentos distintos: el Very Large Telescope Project (VLT), de Chile (sistema de cuatro telescopios ópticos perteneciente al European Southern Observatory (ESO), que es la mayor organización astronómica de Europa); y el Keck Observatory de Hawaii, que es el tercer telescopio óptico más grande del mundo.

Según publica la revista Newscientist, hace unos años, Webb utilizó observaciones del telescopio Keck para analizar la luz procedente de galaxias distantes de núcleos extremadamente energéticos, llamadas cuásares.

Los datos obtenidos entonces sugirieron que el valor de la constate alfa había sido ligeramente menor cuando la luz de los cuásares fue emitida, hace 12 mil millones de años, que cuando fue registrada en los laboratorios terrestres.

Recientemente, Webb y sus colaboradores analizaron otros datos, en este caso recopilados por el Very Large Telescope (VLT) de Chile, orientado en otra dirección del cosmos distinta.

Dichos análisis revelaron que el valor de la constante alfa es, en otras partes del universo, ligeramente mayor que en nuestro planeta.

Esta diferencia encontrada sería de tan sólo una millonésima del valor que la constante alfa tiene en nuestra región del espacio pero, según los investigadores, es posible que variaciones mucho más grandes ocurran más allá de nuestro horizonte cosmológico observable.

El análisis de alrededor de 300 mediciones de la constante alfa en la luz procedente de diversos puntos del cielo reveló, asimismo, que la variación de la constante alfa no es aleatoria sino estructurada: parece que el universo tuviera una constante alfa mayor en un lado y una constante alfa menor en el otro lado, explican los científicos.

Revisión de las leyes físicas

Otro de los autores de la investigación, el astrofísico de la Universidad de Swinburne, Michael Murphy, afirma que este descubrimiento obligará a los científicos a repensar su conocimiento de las leyes de la Naturaleza.

Según Murphy, la constante de estructura fina, y otras constantes fundamentales, son absolutamente centrales en las actuales teorías de la física. "Si estas constantes varían, necesitaremos una teoría mejor, más profunda", señala el investigador.

Los resultados obtenidos, si son aceptados y constatados en futuras mediciones, pueden llegar a suponer un desafío para la ciencia moderna, dado que una de las grandes cuestiones de ésta es si las leyes de la física son o no las mismas en todas las partes del universo, y si se han mantenido a lo largo de toda la historia del cosmos.

Biosólidos para fertilizar los campos agrícolas


Un estudio por científicos del Servicio de Investigación Agrícola (ARS) y sus colaboradores provee nuevos detalles sobre como la utilización de biosólidos para fertilizar los campos agrícolas también introduce el triclosan, el cual es un agente antimicrobiano agregado a los jabones y otros productos de limpieza, en el medio ambiente.

EUREKALERT
Los granjeros aplican los biosólidos Clase B, también conocidos como los sólidos de las aguas residuales tratadas, a los campos agrícolas como un fertilizante. Estos biosólidos satisfacen las reglas federales sobre la seguridad y la salud human. Pero hay poca información sobre los niveles de triclosan en estos biosólidos. El triclosan no ha sido identificado como un riesgo a la salud humana, pero la Administración de Drogas y Alimentos de EE.UU. actualmente está realizando un examen científico y reglamentario del compuesto.

En el estudio por el ARS, químico Clifford Rice con el Laboratorio del Manejo Ambiental y la Utilización de Subproductos mantenido por el ARS en Beltsville, Maryland, colaboró con ingenieros Nuria Lozano y Alba Torrents de la Universidad de Maryland. Científico Mark Ramirez de la Autoridad de Agua y Alcantarillados del Distrito Federal también colaboró en este estudio. ARS es la agencia principal de investigaciones científicas de Departamento de Agricultura de EE.UU. (USDA por sus siglas en ingles).

Los científicos determinaron que los niveles de triclosan en los biosólidos Clase B que vinieron de una planta de tratamiento de aguas residuales en un estado de la región del Mid-Atlántico de EE.UU. fueron, por término medio, 15,5 miligramos por kilogramo. Luego los investigadores colectaron muestras de la superficie del suelo de campos en 26 granjas en la parte norteña de Virginia. Algunos de los campos nunca recibieron aplicaciones de biosólidos, mientras otros han recibido de uno a cuatro aplicaciones de biosólidos durante los previos 13 años. La mayoría de los biosólidos vinieron de la planta de tratamiento de aguas residuales en el estudio.

Los investigadores descubrieron que las granjas que nunca recibieron las aplicaciones de biosólidos tuvieron niveles máximos de 4,5 nanogramos de triclosan por gramo de suelo seco. Las granjas que recibieron uno o múltiples aplicaciones de los biosólidos también tuvieron niveles bajos de triclosan, pero las concentraciones variaron de 3,1 nanogramos a 66,6 nanogramos de triclosan por gramo de suelo seco. (Un solo gramo contiene un mil millón de nanogramos.) Los resultados también indican que la descomposición biológica de triclosan en los suelos tratados con los biosólidos llevaron a la pérdida del 78 por ciento del triclosan después de 7 a 9 meses, y el 96 por ciento después de 16 meses.

Nuevas antenas de nanotubos de carbono revolucionan la captación de energía solar


Ingenieros químicos del Massachusetts Institute of Technology (MIT) han desarrollado una nueva metodología de captación de energía solar, que sería mucho más eficaz que las células o paneles tradicionales. Se trata de pequeñas antenas conformadas por un gran número de nanotubos de carbono, capaces de concentrar 100 veces más de energía solar que otros dispositivos empleados en la actualidad. Estas antenas tendrían un enorme campo de aplicación, e incluso podrían utilizarse para desarrollar paneles solares más pequeños y potentes. l desarrollo de nuevas antenas de nanotubos de carbono podría marcar un antes y un después en el campo de la energía solar, dejando obsoletas otras tecnologías tradicionales como las células fotovoltaicas. El principal avance de esta nueva metodología, desarrollada por ingenieros del Massachusetts Institute of Technology (MIT), se relaciona directamente con la posibilidad de concentrar 100 veces más de energía solar que las células o paneles empleados actualmente.

Se trata de diminutos filamentos que contienen unos 30 millones de nanotubos de carbono, capaces de absorber la energía del sol en forma de fotones y posteriormente emitirla para diferentes aplicaciones. Según los ingenieros químicos del MIT, estas pequeñas antenas pueden concentrar una gran cantidad de energía solar, permitiendo el desarrollo de paneles solares con mayor potencia y menores dimensiones.

Gracias a estas nuevas antenas, el lugar que ocupan actualmente las células fotovoltaicas o paneles convencionales en techos de edificios o predios podría estar ocupado por dispositivos de menor tamaño, optimizando de esta manera el espacio empleado y logrando una producción energética mucho mayor.

El especialista Michael Strano y sus ayudantes describen esta nueva tecnología en un artículo recientemente publicado en la edición online de la revista especializada Nature Materials. Además, el hallazgo fue difundido a través de una nota de prensa del Massachusetts Institute of Technology (MIT).
Mayor capacidad de captación energética

Los paneles solares tradicionales generan electricidad mediante la conversión de fotones en una corriente eléctrica, pero la antena de nanotubos de carbono aumenta en forma considerable el número de fotones que se pueden capturar y transformar en energía para ser canalizada en una célula solar.

Por otro lado, vale destacar que estas nuevas antenas también pueden ser útiles para cualquier otra aplicación que requiera la concentración de luz solar, más allá de su uso en el terreno energético. Es así que los filamentos de nanotubos de carbono podrían emplearse además para el desarrollo de gafas de visión nocturna o telescopios, entre otros dispositivos.

Las antenas están compuestas por una cuerda fibrosa de alrededor de 10 micrómetros (millonésimas de metro) de longitud, que contiene unos 30 millones de nanotubos de carbono. Las características de este filamento permiten concentrar una gran cantidad de energía cuando la luz incide en el material.

El próximo paso para avanzar en esta nueva tecnología consiste en combinar un dispositivo fotovoltaico con la antena, con el propósito de lograr que los fotones concentrados en la antena sean convertidos en corriente eléctrica a través de la nueva célula solar.

Nuevos desafíos

La construcción de la antena alrededor de un núcleo de material semiconductor podría provocar el efecto mencionado anteriormente, aunque la eficacia de dicha célula solar dependerá de los materiales utilizados, según los investigadores. De esta manera, la elección del material más conveniente resulta el punto más importante a resolver.

Otra cuestión de importancia es el desarrollo de capas de nanotubos de carbono con diferentes propiedades, capaces de cumplir funciones complementarias y de incrementar la versatilidad de los dispositivos. Asimismo, mientras el costo de los nanotubos de carbono es una limitación en la actualidad para su uso masivo, en un futuro próximo podrían ser muy económicos, de acuerdo a las opiniones de los propios especialistas.

De esta manera, los nanotubos de carbono podrían alcanzar valores similares a los que poseen actualmente los polímetros, utilizados hoy en las tecnologías que permiten desarrollar una célula fotovoltaica convencional. Es así que los nanotubos constituirían un porcentaje mínimo del gasto de construcción de las nuevas células solares, como sucede en la actualidad con los polímeros y su incidencia en el costo de los dispositivos tradicionales.

El equipo de ingenieros del MIT trabaja actualmente en la forma de reducir al mínimo la pérdida de energía a través de los filamentos, incrementando aún más su capacidad de captación energética. Mientras en la actualidad los paquetes de nanotubos de carbono pierden alrededor del 13 por ciento de la energía que absorben, los investigadores creen posible el desarrollo de nuevas antenas que perderían solamente el 1 por ciento de dicha energía.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX