En este Blog Creado Por Ana Del C. Torres, MIS y Profesora UIA es una manera facil rapida y sencilla que se ira actualizando con articulos y enlaces de Tecnologia . Ciencia , Redes . Con temas relacionados con Investigaciones y aportaciones en las Ciencias de Inteligencia Artificial.En Investigaciones Paranormales podras ver articulos y los links de los sites de: Dante Franch,ovni.net entre otros. Todo aquel que desee desarrollar ideas para mejorar este Blog esta bienvenido
Turbinas de Viento
Amazing
Portal De Tecnologia y Ciencias
lunes, 22 de diciembre de 2008
PlayStation Home, 'hackeado'
El mundo virtual que Sony lanzó este mes para la PlayStation 3, construido como una especie de 'Second Life', es ahora más 'personalizable' que nunca. Algunos expertos informáticos han sido capaces de aprovechar una vulnerabilidad para modificar el entorno más allá de lo que permite la compañía.
PlayStation Home, aún en fase de pruebas o 'beta', es un mundo virtual social en tres dimensiones que permite, a través de un personaje o avatar, interactuar con otros jugadores de la PS3.
Según comenta la prensa británica, existen varias modificaciones o 'hacks' para, por ejemplo, cambiar las películas en las pantallas dentro del entorno. No obstante, existe un agujero más preocupante por el que es posible subir o borrar archivos en los propios servidores de PlayStation Home.
Ese agujero de seguridad es el que podría causar más problemas, desde la aparición de código malicioso en la plataforma hasta la posibilidad de tumbar los propios servidores del servicio.
De momento, la plataforma PlayStation Home de Sony no está abierta a la colaboración de terceros desarrolladores, al menos de manera 'oficial'.
Componentes Electrónicos Que Se Pueden Retorcer
Primero construyeron componentes electrónicos que se pueden flexionar. Después fabricaron componentes electrónicos que se pueden estirar. Y ahora, han alcanzado el objetivo final: componentes electrónicos que se pueden someter a cualquier tipo de deformación compleja, incluyendo retorcerlos.Yonggang Huang de la Universidad del Noroeste, y John Rogers de la Universidad de Illinois en Urbana-Champaign, han mejorado su tecnología para que permita la creación de circuitos que pueden ser retorcidos. Tales componentes electrónicos pueden ser utilizados en lugares donde no se podrían utilizar los componentes electrónicos convencionales rígidos, como por ejemplo en el cuerpo humano.
Históricamente, los componentes electrónicos han sido planos y rígidos debido a que el silicio, componente principal de todos estos componentes, es quebradizo e inflexible. Cualquier flexión o estiramiento apreciable deja inutilizable a un dispositivo electrónico.
Huang y Rogers desarrollaron un método para fabricar componentes electrónicos elásticos que incrementa el rango de estiramiento (tanto como un 140 por ciento) y permite al usuario someter los circuitos a torceduras extremas. Esta tecnología emergente promete nuevos dispositivos fotovoltaicos y microfluídicos, transmisores y sensores flexibles, y otras aplicaciones para uso médico y deportivo.
La asociación entre ambos científicos, donde Huang se centra en la teoría, y Rogers en los experimentos, ha sido fructífera en los últimos años. En el 2005, desarrollaron juntos una forma elástica y unidimensional de silicio de un solo cristal que podía ser estirado en una dirección sin alterar sus propiedades eléctricas. Tiempo después, construyeron circuitos integrados elásticos.
A continuación, los investigadores desarrollaron un nuevo tipo de tecnología que permitió colocar los circuitos sobre una superficie curvada. Esta tecnología utilizaba una serie de elementos de circuitería de aproximadamente 100 micrómetros cuadrados que estaban conectados por puentes especiales de metal.
En la nueva investigación, Huang y Rogers han obtenido componentes retorcibles, que serán útiles para una gran cantidad de aplicaciones relacionadas con el cuerpo humano, como por ejemplo la colocación de sensores en el mismo. Para esas aplicaciones especiales, un dispositivo electrónico necesita no sólo doblarse y estirarse sino también retorcerse. De modo que los investigadores han mejorado su tecnología para incorporar esta cualidad. Ahora puede soportar cualquier deformación típica bajo tales circunstancias.
Huang y Rogers están ahora enfocando su investigación hacia otra aplicación importante de esta tecnología: los paneles solares. Y ya han ideado un nuevo proceso de fabricación de células solares de silicio muy finas que se pueden combinar para conformar paneles transparentes flexibles.
Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=685:researchers-make-new-electronics-with-a-twist&catid=43:engineering&Itemid=63
Un anterior calentamiento global produjo una forma de vida exótica
NC&T) La investigación podría ayudar a los científicos a conocer más profundamente los efectos potenciales de los cambios significativos en el clima de la Tierra.
Estos cristales de magnetita recientemente descubiertos (magnetofósiles), con forma de lanza, desenterrados en una excavación en New Jersey, son de tan sólo unos cuatro micrones de largo. Sin embargo, aunque ese tamaño pueda parecernos muy pequeño, son hasta ocho veces más grandes que los magnetofósiles anteriormente conocidos.
Los magnetofósiles son restos de cristales de magnetita producidos por microorganismos de un tipo exótico: las bacterias magnetotácticas, singulares bacterias capaces de orientarse por la dirección del campo magnético de la Tierra.
Los nuevos fósiles son diferentes a cualquier otro cristal de magnetita descrito hasta el momento.
Informes anteriores sugerían que la fuente de la marca magnética en la capa limítrofe entre el Paleoceno y el Eoceno es un tipo de magnetita formado por el impacto de un cometa.
Sin embargo, en un estudio previo al actual, los investigadores ya demostraron que la huella magnética provenía de material biogénico. En el nuevo estudio, han aportado más datos.
La bacteria que produjo los cristales de magnetita constituye una clase completamente nueva de organismo, sobre el que nadie ha informado con anterioridad.
Esta especie de microorganismo vivió durante un período de calentamiento global abrupto conocido como Máximo Térmico del Paleoceno-Eoceno (PETM, por sus siglas en inglés), período en el que las temperaturas en todo el planeta ascendieron entre 5 y 6 grados centígrados durante unos 20.000 años.
Es evidente que un evento climático similar de calentamiento global abrupto tendría un severo impacto sobre nuestra biosfera.
Wiggio
Wiggio es una nueva herramienta interesante que cualquier tipo de grupo de usuarios debería de tener en cuenta. Desde Wiggio, cualquier grupo, ya sean grupos de proyectos escolares hasta cualquier tipo de organizaciones, dispone de una serie de herramientas que cubren algunas de las necesidades que pueda tener actualmente, todo bajo un entorno de usuario funcional, práctico y desenfadado.
GENBETA.COM
Las opciones que Wiggio ofrece a los grupos de usuarios son:
* Un tablón de comentarios en la página principal de cada grupo
* Un sencillo calendario de eventos.
* Un directorio donde alojar documentos para que otros usuarios puedan descargarlos
* Creación de encuentros virtuales mediante conferencias telefónicas o salas de chat, bien al instante o programadas para una fecha determinada.
* Un sencillo sistema de creación de encuestas, que irán dirigidos a los usuarios que se indiquen a la hora de crear las encuestas.
* Un sistema de mensajería, soportando mensajes de textos, mensajes de correo o notas de voz. También dirigidos a los miembros del grupo a elegir.
* Un directorio de enlaces.
Como ven, las opciones que ofrece Wiggio son bastante básicas, permitiendo su uso por parte de cualquier perfil de usuario, quizás más enfocado a grupos de usuarios que no necesitan de herramientas más complejas o bien más completas.
Hay que indicar que podemos crear varios grupos, asignando a cada uno de ellos una contraseña, que será la contraseña que deban usar los miembros dentro de cada grupo en el que forme parte.
China bloquea el acceso a la página web del New York Times
China, que es ampliamente criticada por la censura que aplica a los medios de comunicación, bloqueó esta semana el acceso a la página de Internet de The New York Times, según informó el diario estadounidense.
REUTERS
Cuando los usuarios en ciudades como Pekín, Shangai y Guangzhou intentaron conectarse el viernes a la página nytimes.com recibieron un mensaje diciendo que la página no estaba disponible, informó el periódico.
Tampoco hubo acceso al sitio desde Pekín durante las últimas horas del sábado sin la protección de una Red Privada Virtual (VPN según sus siglas en inglés).
La Oficina de Información Estatal dijo que no tenía información sobre el caso.
El Ministerio de Exteriores dijo esta semana que China, que facilitó el acceso a Internet antes y durante los JJOO en agosto, puede bloquear sitios de Internet de contenido ilegal bajo la ley china.
El país bloquea de manera habitual las páginas que considera indeseables, particularmente aquellas relacionadas con la petición de autonomía para la región del Tíbet o aquellas que son críticas con el Partido Comunista.
El acceso a la versión china de la cadena televisiva BBC, la emisora La Voz de América, el medio de Hong Kong Ming Pao News y Asiaweek, fueron bloqueados a principios de mes, informó Asiaweek.
China tiene el mayor número de usuarios de Internet del mundo, permitiendo a sus ciudadanos un amplio acceso a la información, pero ha creado un equipo que controla Internet eliminando contenidos sensibles, advierte a los blogueros que sobrepasan los límites y bloquea el acceso a ciertos sitios.
En 12 años Internet acabará con la división entre la vida física y virtual
Internet acabará en doce años con la división entre la vida física y virtual, según el 56% de 1.200 expertos encuestados por la Elon University y el Pew Internet and American Proyect. Tres de cada cinco encuestados no cree asimismo que en 2020 las leyes, la industria tecnológica y los medios de comunicación ejerzan ya un control efectivo sobre la propiedad intelectual y el 61% opina que la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales. La expansión de Internet proseguirá y transformará las relaciones sociales básicas, pero no generará necesariamente un mundo mejor, según los expertos
| TENDENCIAS CIENTÍFICAS
La Elon University y el Pew Internet and American Project (iniciativa del Pew Research Center que pretende, sin ánimo de lucro, explorar el impacto de Internet en la sociedad), acaban de publicar un informe titulado The Future of the Internet III en el que expertos en la Red definen cómo será la red de redes en el año 2020.
A los especialistas se les preguntó qué dispositivos se usarán para acceder a Internet entonces, y cómo nos conectaremos; si la tolerancia social se incrementará gracias a las nuevas formas de conexión; si nuestro trabajo y nuestra vida cotidiana serán mejores; y hasta dónde habrá llegado la influencia de la realidad virtual y de la realidad aumentada (conjunto de dispositivos que añaden información virtual a la información física ya existente).
Casi 1.200 opiniones
Los especialistas contestaron, por ejemplo, que en 2020 el teléfono móvil será el dispositivo principal de conexión a la Red; que para entonces seguirá existiendo la lucha entre los defensores del copyright y los piratas; y que las consecuencias para la sociedad de que habitemos un mundo hiper-conectado no están hoy por hoy ni mucho menos claras.
Según se explica en la presentación del informe, para su elaboración fueron consultadas un total de 1.196 personas, entre activistas de la Red, sus artífices y personas involucradas en organizaciones como el World Wide Web Consortium, la ICANN o la Internet Society.
A los participantes en la encuesta se les presentaron ocho posibles escenarios del año 2020 y se les pidió que seleccionaran si estaban "mayormente de acuerdo" o "mayormente en desacuerdo" con cada uno de ellos.
Los resultados fueron los siguientes: un 64% de los especialistas señaló que en 2020 los interfaces de usuario (medios con los que el usuario se comunica con el ordenador) ofrecerán opciones avanzadas de tacto, habla y tecleado.
Por otro lado, el 78% afirmó que la arquitectura original de Internet no habrá sido sustituida por una próxima generación de Red para esas fechas.
Internet no será seguro
Asimismo, tres de cada cinco encuestados no cree que en 2020 las leyes, la industria tecnológica y los medios de comunicación ejerzan ya un control efectivo sobre la propiedad intelectual.
Por el contrario, los especialistas tienden a opinar que la persecución entre los poseedores de los copyrights y los "crackers" (ladrones de información) seguirá existiendo.
De hecho, a la pregunta de si pensaban que en 2020 las tecnologías de protección contra los piratas de la Red serían eficientes, el 61% respondió que creía que no: la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales.
Los resultados de la encuesta han demostrado asimismo que una de las preocupaciones constantes de los expertos es la tensión entre seguridad y privacidad.
Por ello, señalan los especialistas, resulta muy importante aumentar y esclarecer la cooperación entre los líderes implicados en la toma de decisiones sobre Internet, su arquitectura y su política.
Internet y la sociedad
Según Janna Anderson, directora del Imagining Internet Center y profesora de comunicaciones de la Elon University, además de autora principal de este informe, actualmente "Internet es utilizado por un total de 1,6 mil millones de personas, y se espera que mil millones más se conecten pronto".
Es decir, que la sociedad está cada vez más conectada. En 2020, lo estará hasta tal punto que, en opinión de un 56% de los expertos, las divisiones entre el tiempo privado y el tiempo de trabajo, así como entre la realidad física y la virtual, se habrán difuminado. Las relaciones sociales básicas de las personas con acceso a Internet sufrirán un impacto inevitable, aseguran los especialistas.
Por otro lado, los expertos expresan la preocupación de que esta expansión de conexiones a Internet -que avanzarán a medida que los teléfonos móviles se conviertan cada vez más en medios de conexión a la Red- no corra en paralelo con otros avances.
"La imagen que pintan del futuro es que la tecnología dará a las personas la capacidad de ser estar más presentes en el mundo político y económico, pero eso no significará a la fuerza que el mundo vaya a ser más apacible", señala el estudio.
Sólo el 33% de los encuestados señaló estar de acuerdo con la idea de que la diversidad de puntos de vista compartida en Internet propiciará una sociedad más tolerante, con porcentajes más bajos de violencia, de intolerancia y de crímenes.
Otro aspecto de la sociedad que recoge el informe: más de la mitad de los encuestados (el 55%) afirmó que muchas personas estarán en contacto en 2020 con los mundos virtuales o la realidad aumentada.
http://www.elon.edu/docs/e-web/predictions/2008_survey.pdf
http://es.wikipedia.org/wiki/Realidad_aumentada
Las 10 peores profecías del mundo tecnológico
La revista de informática T3 ha publicado una lista con las 10 peores profecías tecnológicas de la historia: un ranking en el que el fundador de Microsoft Bill Gates aparece por partida doble, tras predecir que el spam tenía los días contados y que ningún usuario doméstico llenaría jamás un disco duro de medio mega.
AGENCIAS
Los 10 peores Nostradamus tecnológicos elaborado por la citada revista:
* "El iPod nunca despegará", Alan Sugar, fundador de Amstrad, en 2005.
* "No hay necesidad de tener un ordenador en cada casa", Ken Olsen, fundador de Digital Equipment, en 1977.
* "Las aspiradoras impulsadas por energía nuclear serán una realidad en 10 años", Alex Lewyt, presidente del fabricante de aspiradoras Lewyt, en 1955.
* "La TV no durará porque la gente se cansará rápido de pasar todas las noches mirando una caja de madera", Darryl Zanuck, productor de la 20th Century Fox, en 1946.
* "Nunca se fabricará un avión más grande que éste", un ingeniero de Boeing, al ver el Boeing 247, con capacidad para 10 pasajeros, en 1933.
* "Estamos en el umbral del correo vía cohete", Arthur Summerfield, director general de Servicio Postal, en 1959.
* "Nadie va a necesitar más de 640 Kb de memoria en su PC", Bill Gates, en 1981.
* "Los estadounidenses necesitan el teléfono. Nosotros no. Nosotros tenemos mensajeros de sobra", Sir William Preece, director del la oficina británica de Correos, en 1878.
* "El spam estará resuelto en dos años", Bill Gates, en 2004.
* "Se acabará demostrando que los rayos X son un timo", Lord Kelvin, presidente de la Royal Society, en 1883.
viernes, 19 de diciembre de 2008
YouTube empieza a generar dinero para las discográficas... y para sí mismo
¿De grandes enemigos a mejores amigos? El popular sitio de vídeos YouTube de Google ha seducido a los generadores de contenidos por su gigantesco tráfico y, además, por compartir beneficios por publicidad. Algunos ya ven el gigante de la Red como un generador de millones, en lugar de como una fuente de 'piratería'.
En una entrevista publicada en CNET News, Rio Caraeff, vicepresidente de eLabs del grupo Universal Music, no se corta en afirmar que ve "miles de millones de dólares" que provendrán de la plataforma. Se trata de un claro indicio de que YouTube impulsa importantes beneficios tanto para sí como para quienes se asocien.
"YouTube no es como la radio, que es sólo de promoción", dijo Caraeff, que encabeza la división digital de Universal. "Es un flujo de ingresos, una actividad comercial en sí mismo, y su crecimiento es enorme; de hecho, nuestros ingresos procedentes de esa categoría crecen a un rito anual del 80% en EEUU".
Universal tiene un acuerdo con YouTube similar al que tienen otros grandes sellos discográficos, y que se divide en dos tipos de licencias. Ambas compañías comparten los ingresos de publicidad por los videoclips que el sello cuelga en su canal. Además, también comparten los beneficos publicitarios que genera la música colgada por los propios usuarios.
Acuerdos
Javier Alonso, responsable de Comunidad de YouTube en España, explica que "agunas discográficas como Sony Music Entertainment International y Universal Music, al igual que muchos otros socios, han firmado acuerdos comerciales que permiten a Google insertar publicidad sobre su contenido y repartir el ingreso generado".
"El tipo de publicidad que pueden contratar es el mismo que el que está al alcance de cualquier otra empresa: anuncios textuales, de display y anuncios integrados en vídeo", puntualiza, y destaca que "las ventajas que obtienen tanto las discográficas es que dan a conocer el contenido que posee a millones de usuarios". En España, en concreto, son ya 11 millones de usuarios únicos.
Parece que los números comienzan a demostrar que el futuro de la música está en la Red. La compañía discográfica más grande del mundo creció los nueve primeros meses del año un 3.5% y se incrementó un 33% la cifra de ingresos por ventas digitales y licencias, lo que de alguna manera compensa la drástica bajada de las ventas de discos físicos.
YouTube también gana
Se espera que los beneficios también repercutan en el propio YouTube a medio plazo, algo que preocupaba especialmente al presidente ejecutivo de Google, Eric Schmidt, el pasado verano. No obstante, la compañía no proporciona datos económicos actualizados de momento.
Tras un año desde la puesta en marcha de la publicidad en la plataforma, los resultados publicitarios de YouTube publicados en julio fueron decepcionantes: 127 millones de euros, muy por debajo de las expectativas generadas por un portal con más de 130 millones de visitas al mes.
Nuevas fórmulas publicitarias como el enlace directo a tiendas 'online' ('Click-to-buy') o la compra de búsquedas para promocionar vídeos, un sistema parecido al de Google, parece que están dando sus frutos ahora, o al menos así lo ve Universal Music.
El popular portal de vídeos fue adquirido por Google en 2006 por 1.650 millones de dólares. Desde entonces YouTube se encuentra bajo una gran presión para aumentar sus ingresos. Pese a ser uno de los destinos más populares en Internet, la página no había sabido encontrar un modelo de negocio que le permita generar beneficios a la manera que hizo Google con su buscador.
Los yihadistas se lanzan a por Facebook como medio de difusión de propaganda
La red social estadounidense goza de una tasa de crecimiento espectacular. Según las estimaciones de la propia compañía, cada día se crean 600.000 perfiles, lo que supone un total de 140 millones de usuarios activos. En medio de toda la masa de redes sociales, un grupo de extremistas islámicos ha decidido llevar a cabo un plan para "invadir Facebook". Se podría decir que llega el 'Extremismo 2.0'.
El foro extremista al-Faloja (traducido por Jihadica) airea las virtudes de Facebook para su causa y señala que pueden "utilizar Facebook contra los medios de comunicación".
Según se sugiere en esta información, siete brigadas podrían estar trabajando codo con codo en la red estadounidense. Así, una se encargará de distribuir vídeos y escritos de los "mártires", otra de extender el material e incluso algunas se encargarán de difundir la propaganda en inglés, aunque se presume que la mayor parte de los contenidos estarán en árabe.
El uso de Internet como arma propagandística del Islam no es nuevo. Hace ya tiempo que los grupos extremistas -y los políticos- saben que la Red es el mejor medio para difundir mensajes masivos y por eso se ha utilizado en diversas ocasiones YouTube para transmitir mensajes de una forma más dramática y directa que con un simple comunicado de prensa.
De hecho, hace unas semanas el Grupo de Inteligencia SITE destapó que los extremistas islámicos están recibiendo instrucciones para invadir YouTube con vídeos de propaganda. Un extremista definía la página de vídeos como "uno de los sitios internacionales más grandes y conocidos" y además creía que era el medio perfecto para publicar escenas de ataques occidentales para "avergonzar a los cruzados al difundir vídeos que muestren sus bajas". Es más, se incluye el 'software' que los islamistas deben utilizar para subir vídeos a YouTube.
http://www.siteintelgroup.org/
Reducir la Fricción a Casi Cero Con Lubricantes Hechos de Cristales Líquidos
Los lubricantes en cojinetes y engranajes aseguran que no se pierda demasiada energía por la fricción. Sin embargo, la pérdida, aunque sea relativamente pequeña, no deja de implicar el desperdiciar energía que sería deseable aprovechar. Los lubricantes hechos de cristales líquidos podrían reducir la fricción a casi cero, con el consiguiente ahorro energético.Las cintas transportadoras de equipajes en aeropuertos, las de las cadenas de montaje en fábricas, las escaleras mecánicas, todos estos sistemas deslizantes desperdician cantidades inmensas de energía por culpa de la fricción. En las turbinas eólicas y en los automóviles también se gasta un porcentaje de la energía en la fricción, reduciendo consecuentemente el factor de eficiencia. Los nuevos lubricantes que eliminan casi por completo el efecto de la fricción podrían ser la respuesta. Una vez que han sido puestos en movimiento, los rodamientos funcionan sin apenas impedimentos.
¿Pero qué es lo que hace al nuevo lubricante diferente de los aceites que han estado usándose hasta ahora para lubricar los cojinetes? "Este lubricante está hecho de cristales líquidos como los que se utilizan en los monitores de pantalla plana", explica Andreas Kailer, del Instituto Fraunhofer para la Mecánica de los Materiales (IWM por sus siglas en alemán) en Friburgo. A diferencia de los líquidos normales, las moléculas en los cristales líquidos tienen una cierta orientación; se las podría comparar con fósforos cuyas cabezas apuntasen todas en la misma dirección.
En un proyecto conjunto con el Instituto Fraunhofer para la Investigación Aplicada de los Polímeros, en Potsdam, y la compañía Nematel, con sede en Maguncia, los investigadores están analizando qué cristales líquidos son los más convenientes para su uso como lubricantes y bajo qué condiciones.
Aunque la fricción apenas cambia con la aplicación de uno u otro aceite lubricante convencional, cae casi a cero después de un rato cuando se usan los cristales líquidos. El tiempo que este descenso tarda en aparecer depende principalmente de la presión con que el cilindro móvil se aprieta contra la superficie de contacto.
Para algunos dispositivos mecánicos, la lubricación mediante cristales líquidos no será la adecuada, pero para otros será la solución perfecta.
Como hasta ahora los cristales líquidos se han producido fundamentalmente para los monitores, tienen que ser extremadamente puros, lo que los hace muy caros. Los investigadores planean simplificar el proceso de síntesis, ya que las variedades menos puras también son aceptables como lubricantes. El equipo espera ser capaz de comercializar un lubricante de cristal líquido dentro de tres, cuatro o cinco años.
Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=656:almost-frictionless&catid=43:engineering&Itemid=63
Nuevos Softwares
Joodo
http://www.joodo.com/
Por mucho que intenten demonizar las redes p2p, éstas sirven para algo más que bajarse el disco del artista de turno o el último estreno en el cine. Es un muy buen sistema para compartir archivos, y se puede usar para muchos e interesante cometidos.
WWWHATSNEW
Joodo es una aplicación que hace uso de este protocolo de intercambio, pero de una manera algo diferente a como lo hacen los famosos eMule o eDonkey. Con Joodo no intercambiaremos archivos con el resto del mundo si no que, como de una red social se tratara, solo compartiremos con nuestros amigos, al igual que ellos harán con nosotros.
Tendremos la opción de elegir que archivos compartimos y cuales no, e incluso dar diferentes niveles de visibilidad, porque no todos serán igual de amigos, como en la misma vida real. Así, podremos tener diferentes grupos de amigos, todo bien ordenadito.
Además, tendremos a nuestra disposición un pequeño sistema de chat para poder charlar con ellos, e incluso un reproductor basado en Real Player para poder ver y oír aquellos archivos multimedias que nos interesen.
De esta forma esta herramienta nos puede ser de mucha utilidad a la hora de compartir no solo con nuestro grupo de amigos, si no de usarlo de una manera profesional a la hora de gestionar los archivos a intercambiar entre los trabajadores de nuestra empresa.
Toksta
http://www.toksta.com/
Toksta es un nuevo servicio de mensajería instantánea vía web con soporte para mensajes de textos, de audio y videoconferencia, orientado hacia las redes sociales y foros. Para implementar este servicio en nuestros sitios web sólo hay que seguir dos pasos, en primer lugar configuraremos el aspecto visual de la aplicación y en segundo lugar asignaremos sub-áreas, target y otros datos que nos piden en el formulario, creando ya nuestra cuenta de usuario y eligiendo uno de los lenguajes de programación para obtener el script.
GENBETA.COM
Los usuarios de nuestras redes accederán al sistema de mensajería a través de una nueva ventana pop up que se les abrirá al clickear el enlace que ofrecemos en nuestros sitios web.
Una vez nos hayamos identificado, para cada aplicación a la que queramos aplicar este servicio, ya que podemos añadir varios sitios web, podemos obtener el script en uno de los lenguajes de programación disponibles o bien un plugin para WordPress o algunas versiones de Joomla.
Además, nos permite la configuración de una serie de parámetros, acceder a la lista de usuarios denunciados, volver a configurar el aspecto visual, la creación de una barra de chat, que nos recordará mucho a la barra de chat de Facebook, y comprar reservas, cuyos precios, en euros, variarán en función de la cantidad de usuarios simultáneos online. Esta compra de reservas nos permite limitar el acceso del servicio de mensajería a determinados usuarios.
Por último, Toksta estará financiada mediante publicidad, con lo que compartirá parte de los ingresos publicitarios con los propietarios de los sitios web.
Queda pendiente comprobar el funcionamiento de este servicio, teniendo en cuenta su novedad, con lo que no habrá muchos sitios web que los hayan implementado por el momento, y además, no se nos permite chatear con nosotros mismos, que es el mensaje que me he encontrado a través de WordPress..
SoarPort
http://www.soarport.com/
Si tenéis una gigantesca imagen en vuestro ordenador y queréis compartirla con el resto del mundo, os aconsejo SoarPort.
WWWHATSNEW
Se trata de una aplicación preparada para alojar imágenes de hasta 10 megas de tamaño con la posibilidad de hacer zooms sobre las mismas.
Podéis incluirlas en vuestra web permitiendo a los lectores que jueguen observando los detalles de los zooms realizados, todo con la posibilidad añadida de incluir vuestro código adsense para ganar un dinerillo con las visualizaciones de las fotos.
Estadísticas, comentarios y una estética un poco pobre para un servicio bastante original.
Tendencias de seguridad para 2009
El año se aproxima a su final y algunas personas se preguntan que acontecimientos nos esperan para el año que viene en cuanto a tendencias de seguridad se refiere. Los especialistas del laboratorio de seguridad de G DATA han realizado un análisis exhaustivo de las últimas tendencias en el malware para el año 2009.
REDACCIÓN, AP
Apesar de la recesión económica todo apunta a que la industria del cibercrimen sigue en auge, ésta economía paralela asegurará que en el año que viene, un gran número de ordenadores serán integrados en redes de ordenadores zombie, y millones de usuarios serán víctimas de robos de datos confidenciales y correos de spam.
Entre las principales vías de infección,Ralf Benzmüller, Director del Laboratorio de Seguridad de G DATA destaca las infecciones a través del navegador y sus componentes así como el uso de web fraudulentas y redes sociales para difundir malware, "pese a que los agujeros de seguridad de los navegadores se reducirán a lo largo de 2009, los criminales se aprovecharán de estos a mayor velocidad de la que viene siendo habitual, también los sitios web utilizados para distribuir malware y las redes sociales serán los principales focos de interés de los criminales"
Para Benzmüller, resulta especialmente alarmante la generalización de este tipo de prácticas fraudulentas, "la industria del cibercrimen ha consolidado una sólida red para comercializar su servicio fraudulento, ofreciendo desde kits de iniciación hasta ofertas promocionales. Instrumentos sencillos con los que crear una página de phising o distribuir spam a través de redes botnet alquiladas, son hoy en día de fácil acceso",
Internet una mina de malware
La principal vía de infección para el año que viene será a través del navegador y sus componentes. Aunque el número de agujeros de seguridad disminuya, éstos serán explotados a mayor velocidad de la que viene siendo habitual para distribuir malware. El malware integrado en páginas web fraudulentas también experimentará un importante crecimiento a lo largo de 2009
Una tendencia que también crece es el uso de la popular web 2.0, webs, foros y blogs para distribuir malware, donde la industria del cibercrimen siempre encuentra nuevas vías de actuación (Ej. clickjacking). Otros objetivos atractivos para los criminales son aquellas páginas que, como Google Docs, almacenan información salvada.
Al mismo tiempo, los ataques de los cibercriminales se harán cada vez más sofisticados, distintas vías de infección se combinarán para asegurar el éxito de los ataques. En el caso ideal para los delincuentes, la víctima ni siquiera notará que su ordenador ha sido infectado o que los datos han sido robados.
Robo de datos
Datos de acceso bancario, información de tarjetas de crédito y direcciones de correo electrónico son mercancía habitual dentro del mercado negro de la industria del cibercrimen.
Los datos provienen principalmente de los archivos obtenidos a través de key loggers y otros programas para espiar a los usuarios, aunque la industria del cibercrimen también obtiene su mercancía a través de ataques específicos contra bases de datos de bolsas de empleo, listados de distribución, etc.
Estasbases de datos contienen información confidencial de los usuarios, por lo que las empresas que manejan información sensible tienden a encriptarla. Pese a este aumento en la concienciación en materia de seguridad por parte de las compañías, desde los laboratorios de seguridad de G DATA prevemos un incremento en los ataques a este tipo de bases de datos debido a los cuantiosos beneficios que generan para los cibercriminales.
¿Aún más malware?
Los programas de descarga de archivos maliciosos mejoran día a día, con cada descarga se producen ligeras modificaciones en su software que dificultan el reconocimiento por parte de las soluciones de seguridad. A lo largo de 2008 hemos sido testigos de una avalancha de malware de proporciones hasta ahora desconocida, software espía y puertas traseras han sido los responsables de la mayor parte de los ataques.
Pese a lo que pueda parecer no es imposible que se produzca una nueva inundación de amenazas de seguridad, sin embargo, con los mecanismos anteriormente mencionados que ya han demostrado su eficacia a lo largo de este año, podemos prever que la cantidad de nuevo malware también aumentará en los próximos años. Aunque posiblemente este incremento no será tan acelerado.
Nace "Salupedia", la primera enciclopedia médica en internet
http://www.salupedia.org/
Investigadores valencianos construyen una web enciclopédica 2.0 que remite a los ciudadanos contenidos sanitarios de fiabilidad ubicados en otras fuentes médicas en internet. El proyecto "Salupedia" ha sido subvencionado por el Plan Avanza en España.
SINC
La web desarrollada permite al ciudadano acceder a información confiable sobre salud, recomendada por profesionales. La información no está en la propia página sino que remite a contenidos ya existentes pero dispersos en la red.
Asimismo, incorpora las características de la web 2.0 ya que los usuarios pueden valorara la ayuda recibida por cada artículo, hacer comentarios e incluso subir sus propias recomendaciones.
El doctor y director del proyecto Ignacio Basagoiti indica que "el portal aspira a ser un medio familiar de educación y prevención para los ciudadanos, de los cuales se espera mayores beneficios clínicos porque entienden mejor lo que les ocurre y se implican en su proceso de curación".
El proyecto ha contado con la subvención del Ministerio de Industria, Turismo y Comercio a través de la convocatoria del Plan Avanza para contenidos digitales.
Científicos descubren que la productividad de la selva depende del molibdeno y no del fósforo
Científicos descubren que la productividad de la selva depende del molibdeno y no del fósforo
Un equipo de la Universidad de Princeton ha averiguado que la productividad de la selva tropical, un parte vital del ecosistema terrestre, depende en un elemento raro para la captura de nitrógeno: molibdeno.
NEOFRONTERAS.COM
Las proteínas de su cuerpo o las de cualquier otro ser vivo necesitan de átomos de nitrógeno en su composición química. Los animales pueden obtener este elemento de las plantas, pero a éstas no les es fácil obtenerlo. Gran parte de la atmósfera terrestre está compuesta de nitrógeno gaseoso, pero las plantas no lo pueden asimilar directamente de ella. Las plantas toman nitrógeno a través de sus raíces, generalmente en forma de nitratos y compuestos similares. Una de las limitaciones que tienen las plantas para crecer es la presencia de estos nitratos en el suelo, que son creados por ciertos microorganismos a partir del nitrógeno gaseoso, es lo que se llama fijación del nitrógeno.
En los cultivos agrícolas, cuando se desea aumentar la productividad, se emplean fertilizantes sintéticos basados en compuestos de nitrógeno. Pero en la naturaleza nadie abona artificialmente las plantas. En las selvas la mayor parte del nitrógeno asimilable del suelo proviene de pequeñas bacterias capaces de fijar ese elemento.
Según Lars Hedin, líder de este estudio, hasta ahora se creía el crecimiento desaforado de las selvas tropicales dependía del fósforo del suelo. Hedin y su equipo ha realizado experimentos y medidas en la península gigante de la reserva Barro Colorado de Panamá demostrando que las áreas tratadas con molibdeno conseguían fijar más nitrógeno que las otras. Al parecer no se esperaban este resultado.
Según estos investigadores el molibdeno es esencial para controlar la conversión de nitrógeno gaseoso en fertilizante natural y éste determina el crecimiento de las plantas. Este elemento es 10.000 menos abundante que el fósforo y otros elementos importantes en estos ecosistemas.
El descubrimiento tiene implicaciones en las políticas sobre el cambio climático. En estudios anteriores se decía que la capacidad de las selvas para secuestrar dióxido de carbono era muy limitada. Si el molibdeno es la clave del proceso de asimilación del dióxido de carbono entonces su escasez limita cuánto CO2 se puede secuestrar en los tejidos de las plantas.
La enzima nitrogenasa, que permite convertir el nitrógeno gaseoso en nitratos depende del molibdeno además de otros elementos (como azufre o hierro). Las bacterias del suelo se valen de esta enzima para realizar su tarea, si el molibdeno disponible es escaso no pueden fijar mucho nitrógeno y las plantas crecen menos. El proceso de fijado es bajo el punto de vista bioquímico bastante delicado y puede inhibirse en la presencia de oxígeno o luz.
Varios microorganismos lo pueden realizar, incluyendo las cianobacterias, así como algunas plantas con simbiontes que viven en sus raíces. El trébol rojo, por ejemplo, consigue fijar gracias hasta 300 kg de nitrógeno por hectárea y año, mientras que Clostridium o Azotobacter sólo son capaces de fijar 1 kg.
El molibdeno es un metal plateado que se encuentra en rocas, en el agua marina y en el suelo. Trazas de este metal se han encontrado en espadas japonesas del siglo XIV formando parte de la aleación metálica de las mismas. En tiempo modernos su resistencia mecánica, sus propiedades eléctricas y anticorrosivas han hecho de él un elemento importante en motores cohete, escudos de radiación, filamentos de bombilla y en circuitos eléctricos
Un nuevo dispositivo capta más energía de las olas que otros sistemas ya existentes
Ingenieros estadounidenses y portugueses están trabajando juntos en el desarrollo de un nuevo dispositivo que ya está demostrando ser mucho más eficiente que otros a la hora de convertir la energía mecánica que generan las olas del mar en energía eléctrica. El dispositivo, al que han llamado OWC, consiste en una cámara con una abertura y una conexión a una turbina. Según sus creadores, el OWC aprovecha la compresión del aire dentro de la cámara cuando las olas entran en ella para que la turbina funcione y produzca electricidad. Tres de estos dispositivos serán instalados en un rompeolas en la desembocadura del río Duero en Oporto, Portugal. Generarán 750 Megavatios que darán luz a unos 750 hogares.
TENDENCIAS CIENTÍFICAS
Ingenieros del MIT y del Instituto Técnico Superior de la Universidad Técnica de Lisboa están diseñando un dispositivo que captará significativamente más energía de las olas oceánicas que los sistemas existentes. Esa energía se usará para alimentar una turbina. Por el momento, han construido uno de estos dispositivos a escala.
La energía a partir de las olas es una fuente de energía renovable con un enorme potencial. En algunos sitios, como en el noroeste de los Estados Unidos, la costa oeste de Escocia o el extremo sur de Sudamérica, África o Australia, un dispositivo para extraer energía de las olas podría, teóricamente, generar entre 100 y 200 megavatios de electricidad por kilómetro de costa.
El problema es diseñar un sistema que pueda resistir el poder de corrosión del mar, que esté siempre operativo, que gestione las variaciones estacionales de la intensidad de las olas o que continúe operando incluso en condiciones meteorológicas complicadas, como durante una tormenta.
El profesor Chiang Mei , del Departamento de Ingeniería Civil y Medio Ambiental del MIT, empezó a creer en la energía eólica desde finales de los años 70, durante la crisis energética. Tras la reciente escalada de los precios del petróleo, este profesor ha renovado su interés por aprovechar esta fuente energética.
Según un comunicado del MIT, el profesor Mei y sus colegas han desarrollado unas simulaciones numéricas capaces de predecir las fuerzas de las olas en un dispositivo dado. Estas simulaciones permiten tomar las mejores decisiones para maximizar la captación de energía y proporcionar datos para buscar las maneras más eficientes de convertir la energía mecánica en energía eléctrica.
Portugal, una potencia
Uno de los países con un mejor nivel de investigación y desarrollo en estas técnicas es Portugal. Durante los últimos tres años, Mei ha estado trabajando codo con codo con los profesores Antonio Falcao, Antonio Sarmento y Luis Gato, de la Universidad Técnica de Lisboa. Han estado diseñando una versión piloto a escala de una instalación llamada columna de agua oscilante (OWC, en inglés).
Instalada en o sobre la propia costa, una OWC consiste en una cámara con una abertura. Al mismo tiempo que las olas entran y salen, el nivel del agua dentro de la cámara sube y baja. El movimiento de la superficie del agua obliga al aire a comprimirse sobre ella y, posteriormente, a fluir hacia la abertura que, a su vez, lo dirige hacia la turbina que, en última instancia, convierte la energía mecánica en electricidad.
La turbina está diseñada de tal manera que las palas siempre rotan en la misma dirección, sin que en ello influya un cambio de dirección de la corriente de aire debido al movimiento de entrada y salida de las olas.
El plan de los ingenieros portugueses es integrar la planta OWC en la cabecera de un rompeolas, en la desembocadura del río Duero, en Oporto, al norte de Portugal. En última instancia, la instalación incluirá tres OWCs que generarán 750 kilovatios, suficiente para abastecer de energía 750 hogares. Además, permitirá calmar las aguas en esta área y reducir la erosión local.
Compresión de aire
El reto es diseñar un dispositivo que funcione eficientemente en un espectro amplio de frecuencias de olas. La clave para conseguirlo es la compresión del aire dentro de la cámara OWC. Esta capacidad de compresión no puede ser cambiada, pero el impacto en la elevación del agua en la cámara sí que puedo serlo simplemente cambiando el tamaño de ésta.
Las simulaciones han puesto de manifiesto que, usando una cámara grande, es posible captar más energía en una ola determinada. "Hemos descubierto que es posible optimizar la eficiencia de la OWC haciendo uso de la compresión del aire, algo que, en principio, no es obvio", comenta Mei.
Mei está actualmente trabajando en otros dispositivos parecidos. En concreto está estudiando otras geometrías para el mismo fin. El entusiasmo de Mei por este tipo de energía sigue intacto, pero no deja de ser realista respecto a su nivel de desarrollo tecnológico y respecto a sus costes. Aunque éstos se han reducido mucho en los últimos años, estamos ante un tipo de energía que no podrá ser explotada comercialmente hasta dentro de varias décadas.
"Dado el futuro de las fuentes de energía convencionales, necesitamos investigar más en las energías alternativas", comenta. "Por el momento, la energía eólica y solar están en el punto de mira porque su desarrollo empezó antes. La energía extraída de las olas tiene mucho potencial, pero es una disciplina de la ingeniería relativamente joven que necesita más investigación".
Las telecomunicaciones vía satélite cumplen 50 años
Europa conmemora el lanzamiento del primer satélite de comunicaciones remarcando que el 'Plan de Recuperación' del próximo año invertirá 200.000 millones de euros en extender la banda ancha en todo el territorio comunitario.
SINC
Cuando se lanzaba el primer satélite de comunicaciones el 18 de diciembre de 1958, resultaba difícil imaginar la trascendencia que tendría esa innovación técnica para conformar la sociedad tal y como la conocemos hoy. Han pasado 50 años y, si bien la idea en la que se basa esta infraestructura básica permanece inalterada, conectar puntos distantes entre sí a través de un transmisor de radio que orbita en el espacio, los servicios y los alcances de los satélites han revolucionado las comunicaciones globales, gracias a la TV de alta definición, al internet inalámbrico, a las comunicaciones de emergencia o a los teléfonos móviles, por citar algunos ejemplos.
Hoy, los satélites proporcionan una red de seguridad invisible, una espina dorsal global, en la que se basa la mayoría de nuestras comunicaciones actuales. Y es posible que se hagan todavía más relevantes en el futuro cercano si la UE desea alcanzar los objetivos establecidos en el Plan de Recuperación que se lanzará el próximo año para estimular las economías europeas y mitigar los efectos de la crisis financiera global.
El plan establece un estímulo con plazos establecidos, dirigido y temporal, por un valor aproximado de 200.000 millones de euros, aproximadamente el 1,5% del PIB de la UE, que incluye numerosas "inversiones inteligentes" para generar crecimiento a largo plazo a través de la iniciativa emprendedora, la investigación, la innovación y el acceso a la tecnología. Una de esas medidas concretas es la movilización de 5.000 millones de euros para mejorar las conexiones de la red eléctrica y la infraestructura de banda ancha en toda Europa.
Internet de banda ancha se ha convertido gradualmente en un servicio esencial para reforzar la competitividad y el crecimiento económico en la UE. El objetivo es que el 100% de Europa cuente con cobertura de este servicio en 2010. Para ello, la Comisión Europea y los Estados miembros colaborarán con las partes interesadas "con el fin de acelerar la modernización y la ampliación de las redes". Asimismo, está previsto el apoyo a dicha estrategia con fondos públicos en áreas con servicio insuficiente y áreas de coste elevado, en las que "el mercado no puede prestar ni prestará dichos servicios".
La puesta en marcha de servicios DSL ( Línea del Subscriptor Digital, por sus siglas en inglés, es decir banda ancha fija) y de cable ha crecido "de modo constante" en las ciudades, aunque en las zonas remotas de la UE el despliegue de dichas tecnologías es, en el mejor de los casos, poco atractivo desde el punto de vista comercial, y en el peor de los casos, considerablemente más costoso que otras alternativas.
Según la última revisión i2010 publicada el pasado mes de abril, el servicio DSL está ahora disponible en el 89% de las líneas telefónica de los países UE25, pero el porcentaje ha comenzado a estancarse, mientras que otras tecnologías alternativas continúan siendo marginales. En el caso de áreas rurales, en países como Grecia, República Checa, Malta, o Chipre, no existe ninguna cobertura DSL.
Ciudadanía olvidada
Por esa razón, Giuliano Berretta, presidente de la Asociación Europea de Operadores de Satélites ( ESOA , en inglés), en una carta que ha enviado recientemente al presidente de la Comisión europea José Manuel Durao Barroso, recordaba que los satélites que se encuentran en órbita actualmente pueden ayudar a alcanzar ese objetivo, como tecnología independiente, o contribuyendo al despliegue y a la capacidad de otros sistemas de comunicaciones terrestres "para llegar a la ciudadanía que de otro modo permanece olvidada y desconectada debido a su ubicación en lugares remotos o rurales".
En ese sentido, animó a Barroso a reconocer el papel crucial que pueden desempeñar las comunicaciones vía satélite en el Plan de Recuperación. "Es de interés público recurrir a una solución tecnológica que alcance ese objetivo, del modo más efectivo en costes y en tiempo posible, pues los satélites ya están en el espacio y pueden ofrecer esos servicios de modo respetuoso con la naturaleza, ya que utilizan energía solar y su vida útil es de más de 15 años", ha escrito Berretta.
jueves, 18 de diciembre de 2008
Actualizaciones críticas para los navegadores más populares... en especial para Internet Explorer
Microsoft ha sufrido durante la última semana uno de los peores escenarios conocidos para una vulnerabilidad: es crítica y ha sido descubierta mientras estaba siendo aprovechada por atacantes. Esto implica que todo usuario de Internet Explorer (donde reside el problema) ha estado más o menos expuesto a ejecución de código arbitrario. Finalmente emitirá hoy una actualización de emergencia para solucionar el fallo. Además Firefox, Safari y Opera, los otros navegadores más populares, han actualizado también en los últimos días para solucionar graves problemas de seguridad.
HISPASEC.COM
Los problemas de seguridad en todos los navegadores son una constante. Desde que se tomara consciencia general de la seguridad en remoto del sistema, (añadiendo cortafuegos) y se mejoraran los sistemas de correo (con clientes más seguro por defecto y filtros perimetrales), los asaltos se han desviado a los navegadores. Este es el vector de ataque por excelencia hoy en día para el malware: el usuario visita una página y se intenta explotar una vulnerabilidad del navegador para instalar algún código. Y no sólo al visitar webs de dudosa reputación: muchas páginas legítimas (gracias a problemas de seguridad de sus servidores) están ayudando inconscientemente a propagar malware que los atacantes previamente han incrustado en ellas.
El peor escenario es para Internet Explorer
Así las cosas, un problema de seguridad en un navegador, sea cual sea, supone un importante riesgo. Para Microsoft el asunto se ha complicado en las últimas semanas, por muchas razones. Un día antes del segundo martes del mes de diciembre un mensaje en un foro chino hacía pública una vulnerabilidad (en principio en Internet Explorer 7, luego se comprobó que afectaba a todas las versiones). No existía parche oficial disponible, no necesitaba interacción por parte del usuario y permitía ejecución de código arbitrario con los permisos del usuario usando el navegador. La vulnerabilidad reside en el manejo de etiquetas XML. Se observó que el fallo estaba siendo activamente aprovechado por webs desde hacía tiempo para instalar malware. Microsoft se apresuró a reconocer el fallo y publicar un buen número de métodos para mitigar el problema.
Internet Explorer es el navegador favorito de los atacantes por su cuota de mercado, lo que permite a los atacantes llegar a un mayor número de víctimas. Para complicar el tema, el exploit se hizo público rápidamente, junto con todos los detalles técnicos del fallo. El incidente tenía todos los ingredientes para convertirse en desastre. Finalmente Microsoft ha anunciado que una semana después, el día 17, publicará un parche para solucionar el fallo.
Semana de actualización para otros navegadores
Pero Internet Explorer no es el único navegador que necesita ser actualizado en estos días. Parece que todos se han puesto de acuerdo para lanzar nuevas versiones que corrigen fallos de seguridad. Firefox acaba de anunciar su versión 3.0.5 y 2.0.0.19 (parece que la última de esta rama). Esta nueva versión corrige hasta 11 vulnerabilidades, 3 de ellas críticas, que la Fundación Mozillla (como hace Microsoft) agrupa en 8 boletines de seguridad.
Opera, por su parte, acaba de publicar también su versión 9.63, que corrige siete problemas de seguridad (uno de ellos, leve, descubierto por Matthew de Hispasec Sistemas).
Mac OS, por su parte, acaba de publicar una de sus macro-actualizaciones, que soluciona 21 fallos de seguridad de su sistema operativo, varios de ellos en relación directa con su navegador Safari.
Existe una prueba de concepto pública para uno de los problemas de Firefox, aunque al menos para estos navegadores, no se tiene evidencia de que los fallos estén siendo aprovechados activamente. Esto no exime de una inmediata actualización.
Detectan la "chispa orgánica"
La electrónica molecular o moletrónica se encarga de estudiar la aplicación de moléculas de origen orgánico en la electrónica. Investigadores de la Facultad de Ciencias han detectado una variedad, que por sus propiedades, optimiza la circulación de los electrones.
SINC
En la informática, todos los dispositivos están compuestos por chips que permiten su funcionamiento tal cual lo conocemos. Para ello, estos deben almacenar distintas cantidades de información por lo que necesitan de un soporte a través del cual circulen los electrones.
Esta vía por donde fluyen los impulsos eléctricos se compone de los llamados semiconductores y en la mayoría de los casos suelen estar compuestos por silicio. Éste material inorgánico, por el grado de pureza que se requiere para que cumpla este tipo de función, necesita someterse a un costoso y contaminante proceso de producción que limita considerablemente su rentabilidad económica e incrementa su negativo impacto medioambiental.
Sin embargo, la electrónica molecular u orgánica permite la obtención de semiconductores mucho más sencilla y a un coste inferior. Además, los polímeros, es decir, compuestos formados por cientos de moléculas, ofrecen un alto grado de maleabilidad y de biocompatibilidad que los convierten en idóneos en campos como la fotovoltaica, la fotónica o la medicina.
Ahora bien, existen muchos tipos de semiconductores orgánicos, y por otro lado un gran número de funciones y dispositivos posibles, por lo que es necesario localizar el material que mejor se adapte a cada aplicación. En concreto, el Grupo de Polímeros Conductores de la Universidad de Málaga, dirigido por el doctor Teodomiro López Navarrete, se ha centrado en el estudio de los oligotiofenos.
¿Qué tienen de especial los oligotiofenos?
Principalmente su disposición. Como describe el doctor Juan Casado Cordón, integrante de este equipo, "éstos se ponen en paralelo porque la carga fluctúa de una forma más eficiente. Cuando el electrón entra, se va repartiendo entre las cadenas de una forma más óptima para este tipo de procesos, donde lo importante es el flujo de información. Además, al estar relativamente cercanas la cesión de la misma se hace con el menor gasto energético, podemos decir que el 'salto' que experimenta la carga de una cadena a su vecina es el mínimo".
Precisamente, este equipo ha conseguido describir estos procesos electrónicos mediante técnicas espectroscópicas: se hace incidir luz, de distinta naturaleza, y se analiza la que se transmite y/o dispersa. Esto, en consecuencia, es lo que ha permitido caracterizar los estados electrónicos, ópticos y magnéticos responsables de la gran mayoría de las prestaciones de estos nuevos materiales.
Aplicaciones
Por otra parte, la propiedad de los semiconductores orgánicos que los hacen tan adecuados es su gran flexibilidad. Por el contrario, la razón de que se haya apostado por estos en el ámbito espacial (p. Ej: placas solares de los satélites) y no de forma tan decidida en otras áreas es su alta sensibilidad a la combustión, que caduca su uso en entornos donde el oxígeno esté presente. Tanto es así que, como asegura Casado Cordón, será necesario manipular este tipo de semiconductores a fin de que puedan soportar mejor los factores medioambientales para extender sus aplicaciones. En este sentido se está explorando su aplicación en sistemas encapsulados (aislado del ambiente). "Actualmente, se están alcanzado en algunos casos tiempos de vida de unas 10000 horas, lo que significa un promedio de renovación anual que, combinado con su bajo coste, representa una alternativa muy viable", afirma este científico.
Otra de sus ventajas es su alta compatibilidad biológica. De hecho, se está trabajando en su aplicación en láseres quirúrgicos para su uso en implantes nerviosos y cardiacos, lo que reduciría exponencialmente el riesgo de rechazo de los pacientes.
Según augura este investigador, la informática, la fotovoltaica y la cirugía son sólo una muestra del amplio abanico de posibilidades que se abren gracias a los avances obtenidos en el campo de la electrónica molecular. "De hecho, añade, incluso las editoras de libros y de prensa trabajan desde años en la implantación de los primeros dispositivos electrónicos de lectura con una maleabilidad similar a la del papel".
Este grupo malagueño, que lleva trabajando desde 1992 en este tipo de conductores en colaboración con científicos de Japón, de Estados Unidos y de Alemania, es uno de los referentes nacionales en la investigación de semiconductores. Asimismo, la prestigiosa revista The Journal of American Chemical Society (JACS) -una de las de mayor impacto en ciencias - ha publicado recientemente una comunicación de este Proyecto de Excelencia de la Junta de Andalucía, la primera que hace JACS de la Universidad de Málaga.
Sin duda, la electrónica molecular se postula como una solución sostenible, de futuro y con cada vez más peso en la sociedad. Tanto es así, que el Premio Príncipe de Asturias de Investigación y Ciencia de este año ha sido otorgado, junto a otros 4 investigadores del del campo de materiales orgánicos, al científico estadounidense Tobin Marks, uno de los máximos exponentes de la nanotecnología y de semiconductores orgánicos y substratos trasparentes para la electrónica molecular. Asimismo, el profesor Tobin Marks es colaborador del grupo de la UMA con el que han publicado varios trabajos conjuntos en semiconductores de base tiofénica.
Ya se han derretido dos billones de toneladas de hielo
Más de dos billones de toneladas de hielo terrestre en Groenlandia, Alaska y la Antártida se han derretido desde 2003, de acuerdo con datos nuevos de satélite de la NASA que muestran los indicios más recientes del calentamiento global.
AP
Más de la mitad de las pérdidas de hielos terrestres en los últimos cinco años han ocurrido en Groenlandia, revelan mediciones del peso del hielo por el satélite Grace de la NASA, dijo el geofísico Scott Luthcke, quien agregó que el derretimiento parece estar acelerándose.
Científicos de la NASA planeaban presentar sus hallazgos ayer en la conferencia de la Unión Estadounidense de Geofísica en San Francisco. Luthcke dijo que aún no se han concluido las cifras de Groenlandia para el tercer trimestre del 2008, pero que la pérdida de hielo este año, aunque aún grave, no será tan severa como en el 2007.
Las noticias fueron mejores para Alaska. Luego de una enorme reducción en el 2005, el hielo terrestre allí creció ligeramente en el 2008 a causa mayormente de nevadas copiosas, dijo Luthcke. Desde 2003, cuando el satélite de la NASA comenzó a realizar las mediciones, Alaska ha perdido 400,000 millones de toneladas de hielo terrestre.
A diferencia del hielo marítimo, el derretimiento del hielo terrestre aumenta muy poco los niveles del mar.
En la década de 1990, Groenlandia no contribuyó nada al aumento del nivel del mar. Ahora, esa isla añade casi medio milímetro al incremento del nivel del mar cada año, dijo el científico de la NASA Jay Zwally en una entrevista telefónica desde la conferencia.
Entre Groenlandia, Alaska y la Antártida, el derretimiento de hielos terrestres ha elevado los niveles del mar en el mundo aproximadamente medio centímetro en los últimos cinco años, dijo Luthcke. Los niveles suben también por la expansión del agua cuando se calienta.
Otros estudios que son presentados esta semana en la conferencia apuntan a más preocupaciones sobre el deshielo causado por el calentamiento global, especialmente en los casquetes helados de los mares polares.
''No está mejorando, sigue mostrando indicios fuertes de calentamiento y amplificación'', expresó Zwally. ''La tendencia no se ha revertido'', agregó.
Los científicos que estudian el hielo anunciarán que algunas partes del Artico al norte de Alaska estuvieron entre 5 y 5.6 grados centígrados (equivalentes a 9 o 10 grados Fahrenheit) más cálidas este otoño, un fuerte indicio temprano de lo que investigadores llaman el efecto ártico de amplificación.
Un estudio alemán demuestra que la utilización de biocarburantes es posible
Científicos de Alemania han demostrado que los biocarburantes pueden ser una fuente de energía viable y sostenible y que no entran en conflicto con la agricultura con fines alimentarios. Plantean un sistema en el que se cultivan árboles en suelos degradados en todo el mundo, éstos se emplean como fuente primaria de combustible y se convierten en energías útiles a través de otras fuentes de energía renovable. Los científicos consideran que se trata de un sistema realista y asequible y que tendría un balance neutro de CO2. Se ha publicado un artículo al respecto en la revista Naturwissenschaften.
CORDIS
De acuerdo con la Agencia Internacional de Energía (IEA), cerca del 87% de la energía mundial procede de la explotación de fuentes no renovables de combustible, como el petróleo o el carbón, la mayoría de las cuales (con excepción de la energía nuclear) son ricas en carbono. Se calcula que las reservas de estos recursos energéticos se terminarán por agotar durante los próximos 75 años si se mantiene el ritmo de consumo actual, o antes si se tiene en cuenta que la demanda va en aumento.
Encontrar formas para satisfacer la demanda creciente de energía y, al mismo tiempo, reducir las emisiones de carbono es el objetivo de una intensa actividad investigadora, pero por lo general se ha despreciado la opción que brindan los biocombustibles como fuente de energía sostenible. La posibilidad de que la biomasa sea la base de los combustibles ha sido considerada poco realista debido a que el cultivo de vegetales en tierra fértil para la producción de combustibles se contrapone a la necesidad de incrementar la producción agrícola para alimentar a la creciente población mundial.
En esta nueva proyección sobre los biocombustibles, el profesor Jürgen O. Metzger de la Universidad de Oldemburgo y el profesor Aloys Huettermann de la Universidad de Gotinga proponen cultivar árboles de crecimiento rápido en parcelas cuadriculadas sobre tierras degradadas (en oposición a grandes plantaciones en tierras de cultivo) como sistema principal para la producción de combustibles y, seguidamente, utilizar otras fuentes de energía renovable para convertir la biomasa en un producto aprovechable.
Esta proyección es sin duda realista, concluyen los autores. Además este sistema podría resolver los serios problemas que suponen la degradación de tierras y la deforestación, las cuales contribuyen de manera significativa a la erosión y la contaminación de las aguas litorales.
«La humanidad ha ido degradando, a lo largo de la historia, varios miles de millones de hectáreas de superficie originalmente arboladas y cubiertas de vegetación», señalan los autores. Éstos explican que, mediante la plantación de árboles cuyas necesidades hídricas y de nutrientes sean bajas, se podría llegar a recuperar la fertilidad del terreno, un aspecto cuya importancia no debe subestimarse.
«Un elevado porcentaje de las zonas degradadas es idóneo para la forestación», razonan los autores. «Para luchar contra la desertización y mejorar la fertilidad de los suelos, sería objetivamente beneficioso para todos los países, la población local y la humanidad en general que se llevara a cabo una forestación de estas áreas degradadas y se aprovechara de forma constante la biomasa correspondiente, a fin de cubrir las necesidades internas (y también externas si fuera posible) de energía, combustibles, materiales y sustancias químicas.»
Los científicos demuestran la rentabilidad de su proyección y la cantidad de tierra necesaria. Indican que la inversión necesaria no es mucho mayor que la que necesita una central térmica de carbón y que es mucho menor que la de las centrales nucleares. Además, calculan que podrían utilizarse hasta 3,6 gigahectáreas de tierra para la producción de bioenergía antes de 2050.
Otro aspecto beneficioso, explican, es que la biomasa utilizada para generar energía puede crecer en todos los países y que cada país podría cubrir una porción significativa de su demanda energética total, lo cual reduciría los costes de transporte.
La utilización de biomasa como fuente de energía, afirman los autores, tiene un balance neutro de carbono: el CO2 generado en su combustión no es mayor que la cantidad que necesita la planta para crecer. Por lo tanto este sistema puede ayudar a frenar la acumulación de CO2 en la atmósfera. La biomasa también supone una forma adecuada de almacenar energía, detener la contaminación por escorrentía en el suministro de agua y, hasta cierto punto, controlar la desertización.
No obstante, quedan algunos cabos sueltos. Uno de los más importantes es el desarrollo de nuevas tecnologías que permitan convertir con más eficiencia la energía química almacenada en la biomasa en energía eléctrica. Lo mismo podría decirse de los combustibles fósiles, añaden. Cultivar árboles para obtener combustible es sólo uno de los aspectos necesarios para cubrir la creciente demanda de energía mundial, de acuerdo con el estudio: han de sumarse a la fórmula muchas otras fuentes de energía sostenibles. Asimismo, «el ahorro energético y un uso más eficiente de la energía primaria deben constituir la base de la solución», concluye el estudio.
Una de las mayores virtudes de esta proyección sobre el uso de biocombustibles estriba en la relativamente mínima cantidad de tiempo que requiere para que sus efectos sean apreciables. «La forestación puede comenzar de inmediato, tiene efecto en unos pocos años y puede completarse en algunas décadas», concluye el estudio. «Si la forestación hubiera comenzado en 1992 [...] hoy podríamos estar apreciando un efecto que crecería de forma constante y [esta] biomasa contribuiría en un porcentaje significativo al abastecimiento de energía primaria en el año 2030.»
miércoles, 17 de diciembre de 2008
Nanopartículas en el Hogar, Muchas y Más Diminutas de los Antes Detectado
De los aparatos comunes que empleamos en la cocina se desprenden partículas nanométricas muy pequeñas en cantidades abundantes, cantidades que superan ampliamente a las de las nanopartículas de mayor tamaño emitidas por estos mismos aparatos y que fueron detectadas en estudios anteriores.Las así llamadas partículas ultrafinas (o UFP por sus siglas en inglés) miden de 2 a 10 nanómetros. Son emitidas por automóviles y demás vehículos, así como por una amplia variedad de fuentes en el interior de edificios, y han llamado la atención de la comunidad científica debido a la evidencia creciente de que pueden causar enfermedades respiratorias y cardiovasculares.
Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés) que llevaron a cabo este estudio, desarrollaron una serie de 150 experimentos usando cocinas de gas o eléctricas, y hornos eléctricos, para determinar sus aportaciones respectivas a los niveles de nanopartículas encontradas en el interior de una vivienda típica. En los estudios anteriores sólo se efectuaron mediciones de las partículas con diámetros superiores a 10 nanómetros, pero la nueva tecnología usada en estos recientes experimentos ha permitido medir partículas tan pequeñas como de 2 nanómetros, aproximadamente 10 veces el tamaño de un átomo grande.
Esta gama previamente inexplorada de tamaños entre 2 y 10 nanómetros ha resultado aportar más del 90 por ciento de todas las partículas producidas por fogones, o placas superiores, de cocinas, tanto de gas como eléctricas. Los hornos eléctricos y de gas produjeron la mayoría de sus partículas ultrafinas en el rango de 10 a 30 nanómetros.
Los resultados de estos experimentos deberán ser tenidos en cuenta en futuros estudios sobre la exposición humana a las partículas microscópicas y los efectos de ellas en la salud, sobre todo porque la exposición personal a estas fuentes de partículas ultrafinas en el hogar puede superar a menudo la exposición a las partículas ultrafinas que están en el exterior.
Los investigadores continuarán explorando la producción de estas diminutas partículas por las fuentes domésticas. Muchos aparatos pequeños comunes como los secadores de pelo, las planchas de vapor y las herramientas eléctricas incluyen elementos que calientan o motores. Ambos pueden producir tales partículas. Las personas a menudo usan estos aparatos pequeños a corta distancia de su cuerpo durante períodos de tiempo relativamente largos, así que la exposición podría ser grande aunque las emisiones sean relativamente bajas.
Los experimentos se llevaron a cabo en una casa de prueba de tres dormitorios ubicada en el NIST, y equipada para medir la tasa de ventilación, las condiciones ambientales y las concentraciones de contaminantes.
Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=662:nanoparticles-in-the-home-more-and-smaller-than-previously-detected&catid=39:ecology&Itemid=59
Incorporan un algoritmo a un avión no tripulado para predecir el tiempo con más exactitud
Permite mandar al avión al lugar adecuado para que recoja los mejores datos posibles
Investigadores del Departamento de Aeronáutica y Astronáutica del Instituto Tecnológico de Massachusetts (MIT) han desarrollado un algoritmo que, incorporado a un avión no tripulado, permite que éste tome los mejores datos meteorológicos in situ. De esta manera, se podrá predecir con más exactitud el tiempo. La idea es que los aviones trabajen en equipo y que, de manera autónoma, varíen su ruta y su posición, para conseguir las mejores mediciones en función de por dónde están volando el resto de los aparatos. Sus creadores han tenido que trabajar con muchas variables posibles, lo cual ha supuesto un reto muy importante desde el punto de vista computacional. Tras tres años de investigación, el MIT está en disposición de probar el nuevo algoritmo en condiciones reales.
La predicción meteorológica no siempre tiene la mejor reputación. Todos recordamos errores garrafales. Hoy en día, sin embargo, los modelos computacionales utilizados permiten que las predicciones a 48 horas vista sean muy precisas. En cualquier caso, investigadores del MIT, han desarrollado un pequeño avión autónomo e inteligente al que han incorporado un algoritmo que “caza” datos que mejorará la predicción. La idea de sus creadores es que una flota de aviones esté siempre volando para recoger los datos que ayuden a predecir el tiempo con una mayor precisión.
“El tiempo afecta a muchos sectores económicos, como la agricultura y el transporte”, comenta Nicholas Roy, que ha trabajado en este proyecto, en un comunicado del MIT. “Con más tiempo para planificar, los agricultores pueden, por ejemplo, recoger su cosecha antes de que una tormenta la diezme. Asimismo, las compañías aéreas ajustan sus planes de vuelo con más antelación, reduciendo el impacto sobre los viajeros”.
Por el momento, lo algoritmos han sido testados en una simulación, cuyos resultado han sido presentados recientemente en la IEEE Conference on Decision Control, en Cancún, en Méjico. La marina estadounidense ya ha mostrado su interés por él, y el MIT se encuentra en disposición de ponerlo en práctica.
Las predicciones a largo plazo no son erróneas necesariamente debido a los modelos de predicción, sino porque las condiciones iníciales no fueron medidas con precisión. Estas inexactitudes se deben a vacios o huecos en los datos recogidos.
Los sensores en tierra se usan en la actualidad para recoger la temperatura, la velocidad del viento, la humedad, la densidad del aire o la cantidad de lluvia, pero sólo evalúan las condiciones sobre el terreno. En el mar, donde muchos de los episodios meteorológicos más duros se originan, la cobertura es más escasa todavía. La observación mediante satélites ayuda, pero éstos son “ciegos” a gran cantidad de datos muy útiles, como la velocidad del viento en altitudes bajas.
Aviones no tripulados
Para conseguir una lectura de condiciones más exacta, lo mejor es colocar los sensores allí donde se produce la situación meteorológica. En teoría, los globos puede hacer este trabajo, pero sólo si están en el lugar adecuado y en el momento justo. Por ello, los servicios meteorológicos usan aviones pilotados que recorren rutas preestablecidas tomando diferentes datos. La logística de este procedimiento es complicada y es difícil cambiar las rutas de unos de estos aparatos para responder a un cambio repentino en las condiciones del tiempo.
Por ese motivo, hay mucho interés en utilizar aviones no tripulados para realizar esta labor. La idea es que haya un número constante de aviones volando. Estos aviones trabajarían en colaboración y tendrían la capacidad de posicionarse por sí mismos respecto a los demás para conseguir los mejoras datos posibles.
El problema de esta propuesta es que calcular la localización más útil respecto a los demás es una tarea enormemente compleja. Según los creadores de este algoritmo, requiere el análisis de más de un millón de tablas de datos de cientos de miles de localizaciones de sensores. Procesar toda esta información lleva entre seis y ocho horas. Este es el reto al que han hecho frente los investigadores del MIT.
Retos
Otro de los retos de este proyecto es la gestión del combustible. Eso es lo que opina en Technolgy Review, Dario Floreano, un experto en aviones robotizados del Laboratory of Intelligent Systems de la École Polytechnique Fédérale, en Lausana, Suiza. Los algoritmos tienen que ser capaces de reorientar a los diferentes aviones rápidamente y con mucha eficacia para que mantengan una cobertura óptima. Esto obliga a tener en cuenta muchas variables, incluidos los requerimientos energéticos para las diferentes estrategias de relocalización.
En opinión de este profesor, otro reto es el tamaño. Los aviones tienen que ser pequeños y lo suficientemente seguros como para no poner en peligro objetos o personas en el caso de que sean desplegados muchos al mismo tiempo. En la actualidad, sería posible incorporar estos algoritmos en aviones que pesan menos de un kilo.
Los investigadores del MIT, quieren testar su algoritmo en un aparato relativamente grande. Se trata del ScanEagle, fabricado por Boeing, que pesa unos 18 kilos. Este modelo es capaz de volar más de 1.600 kilómetros, cargado con sensores y equipos de comunicación. De esta manera, sólo cuatro aparatos podrían cubrir un área geográfica importante sin poner en riesgo a personas u objetos.
Después de tres años de investigación usando simulaciones del tiempo por ordenador, el equipo de investigación considera que su algoritmo puede determinar de una manera precisa y rápida hacía qué puntos habría que mandar uno de estos aviones no tripulados para conseguir la mayor cantidad de mediciones posibles.
Nuevos Softwares
Speed.io
http://www.speed.io/
Una cosa que nos preocupa a los internautas es conocer la capacidad real de nuestras conexiones de banda ancha. Y a la lista de tests de velocidad acabamos de conocer a Speed.io, una opción más que nos permitirá contrastar resultados tanto de las diferentes pruebas a través del mismo como a través del resto de servicios de tests de velocidad.
GENBETA.COM
Cuando accedemos al servicio, nos marca nuestro proveedor, nuestra ip actual y nuestro navegador. Una vez comencemos la prueba de velocidad, ésta empezará por la velocidad de bajada, luego por la velocidad de subida, siguiendo por el número de conexiones simultáneas que soporta nuestra línea y nuestro ping. Al lado de cada resultado nos aparecerá la correspondiente evaluación, para saber si la velocidad es muy lenta o excelente.
Una vez tengamos los resultados, éstos los podemos compartir como textos, para lo que nos ofrece un código para añadir a cualquier sitio web, o de manera gráfica, con lo que nos ofrecerá diversas opciones.
Nunca está de más conocer este tipo de servicios, sobre todo, para que no nos den gato por liebre.
Playcrafter
http://www.playcrafter.com/
La creación de juegos nos puede parecer que está muy fuera de nuestro alcance a no ser que estudiemos y trabajemos mucho para aprender a realizarlo. Pero lo que no sabemos es que existen algunas herramientas que nos facilitan esta tarea para aquellos que somos ignorantes en la materia.
WWWHATSNEW
Una de ellas es PlayCrafter, una aplicación web que con la técnica de arrastrar y soltar (Drag&Drop) podremos crear unos juegos que no serán espectaculares, pero servirán para pasar un buen rato.
Antes de comenzar a crear nuestro maravilloso juego tendremos que escoger una plantilla. Tenemos varias, entre ellas juegos de golf, estrategia o deportes.
El sistema nos proporcionará diferentes herramientas para empezar a trabajar, como hemos dicho antes, arrastrándo y soltando los diferentes objetos de los que disponemos, pero también podremos subir imágenes nosotros mismos desde nuestro pc, para personalizar los juegos lo máximo posible.
Una vez que hayamos acabado de diseñar el juego podremos compartirlo con el resto de usuarios o quien queramos, y que puedan disfrutar de aquello que con tanto esfuerzo hemos creados. Además, podremos acceder a la lista de juegos que han creado otros usuario para poder disfrutarlos o aprender de ellos, que nunca viene de más un poquito de ayuda e inspiración.
Todo esto es totalmente gratuito y una forma de dejar volar nuestra imaginación y crear algo con nuestras propias manos.
Smushit
http://www.smushit.com/
Obviamente que si tenemos que elegir entre usar este servicio o un programa que tengamos instalado en nuestro PC, sea cual sea, seguramente escojamos ese programa, por una simple cuestión de comodidad, no mas que eso.
GRUPOGEEK.COM
Pero ¿que sucede si estamos en una PC que no es nuestra y no sabemos que programa usar o si tiene algún programa de edición de imágenes?. Para eso existe Smushit, una web gratuita que nos permitirá reducir el peso de nuestra imágenes fácilmente.
Si bien el sitio está en inglés, no se alarmen, ya que de todas formas, este servicio es realmente muy fácil de usar. Lo único que debemos hacer es subir la imagen, para que luego el sistema optimice automáticamente el peso de nuestra imagen.
Este práctico servicio puede ser conbinado con otras páginas de edición de imágenes para obtener mejores resultados con más alta calidad.
Sugieren estimular el cerebro de gente sana con medicinas
La gente sana debería tener el derecho de usar pastillas para impulsar su actividad mental al igual que los niños hiperactivos o los ancianos amnésicos, opinaron varios expertos en un controversial artículo de una revista científica.
Los estudiantes universitarios ya toman estimulantes cerebrales como Ritalin, obtenidos de forma ilegal, para que les ayuden a estudiar, dijeron los científicos. La demanda de este tipo de medicinas probablemente crecerá entre otros sectores de la población, agregaron.
''Deberíamos abrir las puertas a nuevos métodos para mejorar nuestras funciones cerebrales'' y hacerlo con pastillas es moralmente equivalente a dormir bien o mantener una dieta sana, escribieron los expertos en un artículo publicado ayer para la revista científica Nature.
El artículo pide más investigación sobre el tema y recomienda tomar una serie de precauciones para controlar los riesgos.
A medida que se fabriquen más pastillas para revitalizar las funciones del cerebro, aumentará su demanda entre gente de mediana edad que quiere mejorar su memoria o trabajadores que necesitan realizar varias tareas al mismo tiempo, escribió Martha Farah, una científica de la Universidad de Pennsylvania.''Casi todo el mundo querrá usarlas'', comentó.
''Yo sería el primero en tomarlas si se crearan medicinas sanas y efectivas que fueran mejores que la cafeína'', señaló Michael Gazzaniga, otro investigador de la Universidad de California en Santa Bárbara.
Entre los siete autores, estadounidenses y británicos, hay un experto en ética y el editor en jefe de Nature.
El próximo campeón mundial de futbolín... un robot
Un grupo de investigadores de la Universidad de Friburgo (Alemania) aseguran haber desarrollado un robot que se convertirá en campeón del mundo de futbolín antes de que acabe esta década. Los científicos han conectado las barras que sujetan a los jugadores a motores de alta potencia y a un sistema de control electrónico.
ebajo del tablero, hay una cámara que localiza la posición de la bola 50 veces por segundo y envía los datos al ordenador -preprogramado con conocimientos de la dinámica del esférico-, que calcula si los oponentes pueden bloquear algunas de las direcciones.
Entonces, la máquina ordena a la barra apropiada que entre en acción.
El robot se ha apuntado un 85% de éxito contra una muestra de jugadores corrientes pero, de momento, no está preparado para enfrentarse con expertos, según explicó el investigador Bernhard Nebel en la edición de este sábado del semanario británico New Scientist.
De hecho, un profesional de la liga de futbolín alemana derrotó al robot diez veces contra una.
"Pero en un periodo de entre tres y cinco años, el robot deberá ser capaz de vencer al campeón del mundo", confía Nebel.
La Universidad de Friburgo ha cedido la patente a una compañía de juguetes que espera fabricar una versión más consistente, al precio de 25.000 dolares, que se comercializará a partir del próximo año.
Un hombre construye un robot como "mujer de sus sueños"
Un canadiense de 33 años decidió crear a la mujer ideal luego de, aparentemente, haber sido incapaz de encontrar a una chica que cumpliera con sus expectativas.
Le Trung, un ingeniero de software que vive con sus papás en Ontario, ha gastado 22 mil dólares en Aiko, un robot de cinco pies de altura (1.50 metros, aproximadamente) piel clara y figura delgada, además de gran disposición, informó la página foxnews.com.
"Ella puede reconocer rostros, identificar medicamentos e incluso poner mantequilla al pan tostado", explicó Le Trung, quien también indicó que Aiko habla inglés y japonés, además de leer.
"Aiko no necesita vacaciones, comida o descanso y trabajará 24 horas al día. Es la mujer perfecta", señaló.
Le Trung además dijo que Aiko aún es virgen y no piensa dormir con ella, aunque reconoce que el robot cuenta con sensores en su cuerpo incluidas sus partes íntimas.
Científicos confirman que el Sulfuro de Hidrógeno puede ayudar a regular la presión de la sangre
Muchas personas conocen el olor del sulfuro de hidrógeno, pues esta sustancia es la responsable del desagradable hedor de los huevos podridos, y también es generada por bacterias que viven en el colon humano. Ahora, un equipo internacional de científicos ha descubierto que las células en el interior de los vasos sanguíneos de los ratones (y sin duda, también dentro de los de las personas) producen de manera natural este denostado gas, y que el mismo contribuye a controlar la presión sanguínea.
El hallazgo de que el sulfuro de hidrógeno, o H2S, es producido en el delgado revestimiento de los vasos sanguíneos formado por células endoteliales, se le suma el de que el H2S regula la presión arterial mediante la acción de relajar tales vasos. Esta molécula mensajera, el miembro más nuevo de la familia de los gasotransmisores, es similar en función a las señales químicas representadas por el óxido nítrico, la dopamina y la acetilcolina, que transmiten señales entre las células nerviosas y excitan o refrenan la actividad cerebral.
Ahora que los científicos conocen el papel del sulfuro de hidrógeno en la regulación de la presión sanguínea, será posible diseñar medicamentos que favorezcan su formación, como una alternativa para los métodos actuales de tratamiento contra la hipertensión.
Realizando sus investigaciones sobre cepas de ratones carentes de un gen codificador de una enzima conocida como CSE, de la que se sospechaba desde mucho tiempo atrás de su responsabilidad en la producción de H2S, los investigadores midieron primero los niveles de sulfuro de hidrógeno en diferentes tejidos de esta cepa deficiente en CSE, y compararon estos valores con los de ratones normales. Encontraron que el gas se hallaba en una concentración mucho menor en el sistema cardiovascular de los ratones deficientes. En contraste, los ratones normales tenían mayores niveles del gas, una evidencia significativa de que el sulfuro de hidrógeno es producido de manera normal en los tejidos de los mamíferos empleando la enzima CSE.
Como los gasotransmisores se encuentran presentes en todos los mamíferos, es lógico suponer que los hallazgos de esta investigación puedan tener numerosas aplicaciones en el campo de la fisiología y la medicina humanas.
"En términos de relajación de los vasos sanguíneos, parece como si el sulfuro de hidrógeno fuera tan importante como el óxido nítrico", valora Solomon H. Snyder, neurocientífico de la Universidad Johns Hopkins, y coautor del estudio, refiriéndose al primer gasotransmisor que fue descubierto hace dos décadas como regulador de la presión sanguínea.
Suscribirse a:
Entradas (Atom)
El Cielo
Explosion de Una Supernova
Bienvenidos aquellos que no se conformen en ver en tres dimensiones
Saludos mis amigos(as) ; Colegas y estudiantes
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria