En este Blog Creado Por Ana Del C. Torres, MIS y Profesora UIA es una manera facil rapida y sencilla que se ira actualizando con articulos y enlaces de Tecnologia . Ciencia , Redes . Con temas relacionados con Investigaciones y aportaciones en las Ciencias de Inteligencia Artificial.En Investigaciones Paranormales podras ver articulos y los links de los sites de: Dante Franch,ovni.net entre otros. Todo aquel que desee desarrollar ideas para mejorar este Blog esta bienvenido
Turbinas de Viento
Amazing
Portal De Tecnologia y Ciencias
viernes, 20 de marzo de 2009
Un murciélago en el despegue
Ya es extraño que un murciélago se aferre al tanque de combustible de un transbordador espacial. Casi más raro es que alguien repare en ello y consiga fotografiarlo. Pero lo que es realmente extraordinario es que continue pegado a la nave 'Discovery' después de que se haya acoplado a la Estación Espacial Internacional (ISS) en el espacio, como asegura uno de los analistas de la NASA en la página web de la Agencia espacial norteamericana.
Mirando las imágenes grabadas en vídeo y las fotografías, un experto consultado ha asegurado que se trata de un murciélago guanero o de cola libre al que probablemente se le hubiera roto un ala o alguna articulación de sus patas. Seguramente, el animal murió durante el lanzamiento o en el viaje hasta la órbita.
Este tipo de acontecimientos no son tan inusuales debido a que el Centro Espacial Kennedy, desde el que despegó la misión, está incluido dentro del Refugio Nacional de Fauna Salvaje de Merritt Island. El equipo de lanzamiento realiza seguimientos con radar de las aves para evitar accidentes durante los despegues.
En todo caso, nunca se había registrado un caso de un animal que permaneciese en el lugar del transbordador en el que se había posado y que haya sido visto cambiando de postura antes de la cuenta atrás.
Un sencillo dispositivo de barro, serrín y plata purifica el agua en países pobres
Las nanopartículas de plata matan el 99% de las bacterias presentes en el agua
Una ingeniera de la Universidad de Rhode Island, en los Estados Unidos, ha creado una tecnología tremendamente sencilla que puede contribuir a salvar miles de vidas afectadas por la ingesta de agua en mal estado. Se trata de un filtro fabricado con arcilla, serrín y nanopartículas de plata. Su aspecto es como el de un simple tiesto, pero se ha mostrado ya tremendamente eficaz a la hora de purificar el agua en comunidades de países en vías de desarrollo. Según los estudios de esta ingeniera, su dispositivo filtra el 97% de las bacterias presentes en el agua. Después de añadir las partículas de plata, este porcentaje subió la 99%, ya que ésta no sólo filtra sino que además mata a las bacterias. La gran ventaja de este filtro es que usa materiales y técnicas sencillas conocidas por los habitantes de las zonas donde el agua en mal estado es un problema de salud de primer orden.
Millones de personas en el mundo mueren cada año debido a enfermedades derivadas de beber agua en mal estado. Ahora, un sencillo dispositivo con el aspecto de un tiesto creado por ingenieros estadounidenses podría contribuir a salvar miles de vidas.
El dispositivo es tremendamente simple: un tiesto de barro colocado en una cubeta de plástico con un grifo. Esta es la propuesta de la ingeniera civil Vinka Craver, de la Universidad de Rhode Island, en los Estados Unidos. Según sus investigaciones, cuando el agua pasa a través de esa especie de tiesto de cerámica éste queda purificado y seguro para ser consumido.
“Más de mil millones de personas en el mundo no tienen acceso a agua segura para beber. Además, cerca de dos millones mueren cada año por diarrea y otras enfermedades relacionadas con agua insalubre”, comenta Craver en un comunicado. “El 99% de estas muertes son niños con menos de cinco años de edad. Si conseguimos que se use este sencillo filtro en las casas de los países en vías de desarrollo, se pueden salvar muchas vidas, asegura.
El trabajo lo ha llevado a cabo en colaboración con la organización sin ánimo de lucro Potters for Peace y con ingenieros de la Universidad de Virginia. Ahora, están comprobando la efectividad de los filtros y trabajan para asegurarse de que éstos son aceptados por las comunidades locales de estos países.
Barro local
Como en tantos otros trabajos de ingeniería, la idea es usar recursos baratos, accesibles y sencillos para solucionar un gran problema. Esta “tecnología” se asemeja mucho a un tiesto. En concreto está fabricado con arcilla local y serrín. Pero la gran novedad es que esta mezcla está impregnada con plata coloidal.
Los coloides son sistemas en los que un componente se encuentra disperso en otro, pero las entidades dispersas son mucho mayores que las moléculas del disolvente.
El mecanismo es tremendamente sencillo: cuando la arcilla es calentada, el serrín prende, creando una fina red de poros a través de los cuales el agua se filtra. El resultado es un filtrador que puede ser fabricado con materiales y técnicas locales.
“Potters for Peace empezó a distribuir los filtros en 1998, pero sólo hasta hace poco grupos de ingenieros y estudiantes se han asegurado que éstos funcionan correctamente”, comenta Craver. “Yo he sido la primera en presentar en una publicación científica un estudio de su efectividad a la hora de eliminar bacterias”, asegura.
En ese estudio, determinó asimismo que los filtros de cerámica sin la añadidura de las nanopartículas de plata eran capaces de eliminar el 97% de las bacterias presentes en el agua. Si se añadía la plata, ese porcentaje llegaba hasta el 99%. La plata mata la bacteria, mientras que la arcilla porosa sencillamente la filtra.
Convencer a la gente
En los últimos tres años, Craver ha estado estudiando el uso de los filtros en 70 familias en varias comunidades de Guatemala.
“Uno de nuestros retos es hacer que los filtros sean aceptados por estas comunidades”, comenta Craver. “Mucha gente con la que hablamos no se da cuenta de que el agua que bebe habitualmente es insana, a otros sencillamente no les gusta el sabor del agua purificada o bien no les apetece tener todo el rato un cubo en sus casas”.
El siguiente paso es evaluar el impacto de los filtros en la salud de los residentes. Este verano, esta ingeniera visitará Guatemala para determinar si se han reducido las visitas médicas o el absentismo laboral debido a enfermedades producidas por el agua. Además, comparará el éxito de los filtros con otras tecnologías de purificación que están siendo probadas en la misma zona.
Además, Craver, junto a su colega Sophia Narkiewicz, lanzará un nuevo programa también este verano en la provincia sudafricana de Limpopo para ver si el uso de estos filtros alarga la vida de los enfermos de SIDA.
“La esperanza de vida de los pacientes con VIH se reduce significativamente cuando se enfrentan a diarreas continuadas derivadas de beber agua insalubre”, dice Craver. “Este hecho complica todavía más el estado de su sistema inmune. Les vamos a proporcionar filtros para ver si mejora su salud y amplían sus expectativas de vida”.
Uno de los Objetivos del Milenio de las Naciones Unidas es que el número de gente sin acceso agua segura en 2015 se reduzca a la mitad. Craver tiene la esperanza de que su trabajo para extender estos filtros ayude a conseguir ese objetivo a tiempo.
Mundofotos.net
Desde Dezain Solutions nos avisan de la salida de la nueva versión de Mundofotos, servicio que nos permite crear nuestro álbum de fotografias de manera gratuita, reconvertida en red social. Y como no teníamos constancia de este servicio, vamos a echarle un ojo a ver que tal va, aunque ya nos avisan de que se trata de una opción más simple que Flickr o Picassa. Veamos.
http://www.mundofotos.net/
GENBETA.COM
Como suele ser habitual en muchos servicios, lo primero que tenemos que hacer es disponer de nuestra propia cuenta. Para ello tenemos la opción a través del botón "Crear tu álbum" para registrarnos. Como inconveniente, ya de entrada se nos confunde la creación de nuestro álbum con la creación de nuestra cuenta para alojar nuestro álbum. Otro tema está en que no podemos usar mayúsculas en nuestro nick durante el registro, ya que nos sale un mensaje de error por uso de caracteres no permitidos.
Ya una vez hayamos logrado tener nuestra cuenta, accederemos a nuestro panel, desde el cual podemos configurar nuestro perfil, editar nuestro álbum, disponemos de buscador, de lista de mensajes, de lista de amigos, y además, nos sugerirán a una serie de usuarios conectados. También disponemos de una serie de widgets para incluir en nuestros sitios web.
Muchas de las opciones que nos permiten acceder desde el panel también podemos acceder desde el menú, disponiendo de un menú principal, y dependiendo de la opción elegida, en algunos casos nos sale un sub-menú u otro, desapareciendo el principal hasta que volvamos hacia él.
En lo que respecta al álbum, éste dispone de un tema visual, permitiéndonos elegir otros, aunque de momento sólo hay un tema visual alternativo disponible, estando otros pocos aún en desarrollo. También podemos establecer el orden de las imágenes, bien de forma cronológica o bien inversa, tanto si optamos por la ordenación por categorías como por ordenación de fotos. Ya sólo nos queda por crear las diferentes categorías, y dentro de cada una de ellas subir imágenes de una en una.
Ya desde nuestra página, el resto de usuarios podrán comentar y puntuar nuestras imágenes, entre otras opciones.
La verdad es que aún le queda mucho por madurar, siendo deseable la posibilidad de subir varias imágenes de forma simultánea, ya sea vía web como a través de herramientas de escritorio.
Antivirus y falsos positivos
A Fred Cohen se le conoce como el padre de los "virus informáticos", por ser el primero en acuñar este término en la década de los 80 para describir a estos programas. Además de bautizarlos y analizarlos, en su estudio "Computer Viruses - Theory and Experiments" llegaba a la conclusión de que no existía algoritmo que pudiera detectar todos los posibles virus. Cuando ahora se cumplen 25 años de su estudio podemos decir que Cohen tenía razón y que, además, vamos a peor. Vale que no podamos detectar todo el malware pero, por favor, no detectemos a los que no lo son.
HISPASEC.COM
A lo largo de toda la historia del malware (los virus tienen menos de 30 años, lo que nos quedará aun por ver) las conclusiones de Cohen han pesado como una losa. A diferencia de hace unos años, donde todavía existía publicidad engañosa con aquello de "100% contra virus conocidos y desconocidos", a día de hoy quién más y quién menos no le queda más remedio que esconder sus vergüenzas. Todos asumimos que los antivirus son otra capa de seguridad que pueden minimizar nuestra ventana de amenazas, pero que en última instancia siempre estamos expuestos a sufrir una infección.
Esa conciencia sobre las limitaciones de las soluciones de seguridad y la exposición al riesgo es buena y deseable, porque permite educarnos en un uso más profiláctico de la informática, aplicando más capas de seguridad adicionales o simplemente mejorando nuestros hábitos diarios. De modo que es bueno que seamos conscientes de que nuestro antivirus sólo nos protege contra el 80% de las amenazas que potencialmente podemos recibir, quién dice 80% puede decir 65%, o 50%... pero bueno, al fin y al cabo, nos está protegiendo.
¿Realmente los porcentajes de detección pueden llegar a ser tan bajos? No, según el caso pueden ser aun peor. En los últimos tiempos existe un problema de escalabilidad en la detección de malware, simple y llanamente, los laboratorios antivirus no dan a basto con la producción actual de bichos nuevos. Si en febrero de 2004 podíamos leer en el recién estrenado blog de F-Secure: "Dos nuevas variantes de Bagle han sido avistadas. Otra vez. Parece que tendremos un fin de semana ocupado", ¿qué tendrían que decir hoy en cualquier laboratorio antivirus donde se reciben a diario miles de nuevas variantes de malware?.
Está claro que la opción de escalar el problema aplicando a los métodos de análisis tradicionales una regla de tres no es buena, si se han multiplicando por miles los especímenes diarios que puede recibir un laboratorio la solución no es multiplicar por mil los analistas. Entre otras cosas porque el negocio de los antivirus dejaría de ser rentable. Así que ahora se trabaja mucho en la automatización de análisis y heurísticas para aumentar los ratios de detección. El efecto secundario de esta automatización y heurísticas más agresivas es que los antivirus tienen un mayor número de falsos positivos, es decir, se equivocan más al detectar como malware algo que en realidad no lo es.
Esta problemática, lejos de ser una anécdota, es cada vez más preocupante. Ya la hemos tratado en una-al-día anteriormente, y vamos a peor. En Hispasec recibimos día sí, día también, mensajes de desarrolladores preguntando o quejándose de que los antivirus de VirusTotal están detectando como malware su software legítimo, con las interferencias y problemas que ello les causa ante sus clientes y su reputación global. Nosotros mismos hemos sufrido en propias carnes que VTuploader, la herramienta para enviar ficheros a VirusTotal, fuera detectada hace unas semanas, teniendo que solicitar la corrección de las firmas a los antivirus implicados.
Algo está fallando en los antivirus cuando, incluso, están aumentando los falsos positivos con los propios ficheros legítimos de Windows. Se supone que comprobar la no detección de componentes de Windows debe ser la medida más básica de control de calidad antes de publicar una nueva actualización.
Estamos ante una carrera loca por ver quién detecta mayor número y más rápido (de lo que sea), y nos estamos olvidando de que, ante todo, un antivirus no debería molestar ni interferir (demasiado) en el normal funcionamiento de los sistemas y los programas legítimos. Un usuario o una empresa puede llegar a entender que un antivirus no detecte todos los virus del mundo, incluso que se le cuele alguno que otro, pero difícilmente podrá aceptar que el antivirus le cuelgue el ordenador, borre ejecutables que no debe, o impida la ejecución de una aplicación corporativa.
No todo vale para detectar más. Estamos perdiendo el foco. Es un desmadre.
Fujitsu lanza el primer libro electrónico en color
La compañía japonesa Fujitsu de electrónica y servicios informáticos puso en venta el primer modelo de libro electrónico con textos e imágenes en color.
AFP
La compañía japonesa Fujitsu de electrónica y servicios informáticos puso en venta el primer modelo de libro electrónico con textos e imágenes en color.
Esta pizarra electrónica (24 x 16 x 1,25 cm, de 385 gramos de peso), que de generalizarse suprimiría las estanterías y haría más ligeras las maletas de los lectores, tiene una paleta de 260.000 colores. Tiene un rendimiento de 40 horas con la batería cargada, según la configuración, y sólo consume energía cuando se cambia de página.
El Flepia cuenta con tecnologías de telecomunicación (Wifi, Bluetooth 2.0), un puerto USB para conectarlo al ordenador y permite la descarga de obras literarias incluso mediante un teléfono móvil conectado a internet por red móvil.
En Japón existen sitios que ofrecen libros digitales para teléfonos portátiles y otros terminales. Estas librerías de la red proponen unas 20.000 obras de diferentes géneros y precios en los dos formatos de libro electrónico que reconoce el Flepia.
Según Fujitsu, en una tarjeta de memoria SD de 4 gigas se pueden almacenar cerca de 5.000 obras digitales de 300 páginas.
Este aparato, en venta desde el miércoles en un solo sitio de internet por 99.750 yenes (unos 1.000 dólares), tiene una pantalla de 8 pulgadas de diagonal (21 cm) para una lectura más cómoda que en un móvil y es un objeto polivalente que ya hace las veces de "biblioteca de bolsillo" para los ávidos lectores japoneses.
El Flepia también sirve para leer correos electrónicos y trabajar sobre documentos personales y profesionales (presentaciones, informes, tablas...).
Este sustituto de los libros impresos fue probado recientemente en restaurantes, donde los clientes podían consultar no sólo los menús, sino también las páginas de los diarios.
Fujitsu no se ha asociado aún a diarios de prensa escrita, aunque algunos grupos ya han hecho pruebas internas.
La conciencia se extiende por el cerebro siguiendo un patrón
La conciencia humana y su relación con el cerebro ha sido hasta ahora un misterio difícil de resolver. Gracias a un experimento realizado con enfermos de epilepsia que, por su patología, llevaban implantados electrodos en lo más profundo del cráneo, científicos del INSERM de Francia han logrado registrar la actividad cerebral correspondiente a un proceso consciente: la lectura de palabras. Así, han conseguido establecer cuatro marcadores en dicha actividad, que diferenciarían la conciencia de la no-conciencia. Estos resultados podrían, por ejemplo, ayudar a buscar señales de conciencia en personas que sufren daño cerebral pero también despejan las dudas sobre la naturaleza de la conciencia: ésta es dinámica y se distribuye por todo el cerebro, y no se encuentra en un lugar específico de éste.
TENDENCIAS CIENTÍFICAS
La conciencia es una propiedad emergente de la mente humana, pero cuestiones básicas acerca de ella, como sus tiempos, su localización o la dinámica de los procesos neuronales que permiten el acceso consciente a la información que nos rodea, aún no han sido determinadas.
Esta falta de información se ha subsanado en parte gracias al trabajo realizado por un equipo de neurocientíficos (Raphaël Gaillard, Stanislas Dehaene, Lionel Naccache y otros) de la unidad de "Neuroimaginería Cognitiva" del Institut National de la Santé et de la Recherche Médicale (INSERM).
Estos investigadores han demostrado, por vez primera, que el acceso a la conciencia se expresa, en el cerebro, mediante cuatro marcadores diferentes de actividad cerebral, informa el INSERM en un comunicado.
El hallazgo de dichos marcadores fue posible gracias a los electrodos implantados en los cerebros de un grupo de personas con epilepsia, que previamente habían sufrido esta intervención como consecuencia de su enfermedad, y que se prestaron a ayudar a los científicos en su investigación.
Oportunidad de conocer la conciencia
Según explica al respecto la revista New Scientist, las señales de actividad neuronal detectadas y recogidas por los electrodos parecen demostrar que la conciencia es producto de la actividad coordinada de todo el cerebro y que existiría una "marca de conciencia", es decir, un patrón de actividad neuronal correspondiente a la conciencia y que vendría determinado por los cuatro marcadores antes mencionados.
En la revista PLOS Biology, donde se ha publicado el artículo que detalla el experimento, se explica que algunos neurocientíficos han argumentado que la conciencia se encuentra en un solo lugar del cerebro, pero que la idea predominante en la actualidad es que la conciencia sería una propiedad más global.
Pero, hasta el momento, probar cualquiera de estas teorías ha resultado un verdadero desafío, dado que las técnicas no invasivas, como la exploración de resonancia magnética o el electroencefalograma, pueden dar información espacial o temporal, pero no ambas.
La única manera de conseguir ambos datos simultáneamente es implantar electrodos en lo más profundo del cráneo, pero por razones éticas esta operación no puede realizarse con personas sanas. La oportunidad brindada por los enfermos de epilepsia ha abierto la puerta a los científicos.
Experimentando con palabras
En el experimento participaron 10 individuos a los que se habían implantado electrodos intracraneales para tratarlos para un tipo de epilepsia que es resistente a los medicamentos.
Mientras que se registraban las señales recogidas por dichos electrodos, los investigadores fueron proyectando palabras ante los ojos de los participantes, durante tan sólo 29 milisegundos. Estas palabras podían ser amenazadoras (matanza, ira) o emocionalmente neutras (primo, ver).
Los vocablos a veces iban precedidos y seguidos de "máscaras" visuales, que evitaban que las palabras fueran procesadas de manera consciente (percepción subliminal), y otras veces podían verse con claridad, esto es, que las palabras podían ser procesadas conscientemente.
Los participantes debían presionar un botón para indicar la naturaleza de cada vocablo, lo que permitió a los científicos confirmar si habían sido conscientes de él o no.
Cuatro marcadores
En total, los investigadores recibieron información de 176 electrodos, que cubrían casi la totalidad del cerebro de los participantes. Así, pudieron establecer que la conciencia de las palabras percibidas podía asociarse a los siguientes cuatro marcadores.
En primer lugar, durante los primeros 300 milisegundos del experimento, la actividad cerebral fue muy similar tanto durante las tareas conscientes como durante las tareas no inconscientes, lo que indica que el proceso de conciencia tarda más o menos ese tiempo en comenzar.
Inmediatamente después, diversos tipos de actividad cerebral se produjeron (oscilaciones tardías y prolongadas y aumento de la potencia en las frecuencias gamma), pero sólo con aquellas palabras de las que los participantes habían sido conscientes y no con las otras.
También se constató un aumento tardío y prolongado de las oscilaciones simultáneas (sincronías) de dos áreas cerebrales distantes, en las frecuencias beta. Por último, se reveló un aumento tardío y prolongado de la comunicación recíproca entre áreas cerebrales distantes.
Un proceso convergente y dinámico
Dado que estos marcadores sólo se registraron cuando los voluntarios fueron conscientes de las palabras, Gaillard y sus colaboradores señalan que los cuatro supondrían una "marca o patrón de la conciencia".
Tal y como explican los investigadores en el comunicado del INSERM, estos cuatro marcadores, que aparecen 300 milisegundos después de la percepción de una palabra, reflejarían una cooperación cerebral intensa.
Esta convergencia de marcadores caracterizaría el proceso de la conciencia y aportaría una visión más moderna de ésta. En lugar de buscar un sitio específico donde encontrarla, la conciencia deberá ser considerada una dinámica general y distribuida de la actividad cerebral, concluyen los investigadores.
Bernard Baars neurocientífico del Neuroscience Institute in San Diego, California, que en 1983 propuso una teoría sobre la conciencia como un "lugar de trabajo global" (en lugar de que la conciencia esté localizada en único punto del cerebro), afirma en Newscientist estar "emocionado por estos resultados" que, según él, proporcionan la "primera evidencia realmente sólida y directa" de su teoría.
Baars apunta, además, que el hallazgo de esta "marca de conciencia" podría ayudar a buscar señales de conciencia en personas que sufran daño cerebral o en niños y animales con la ayuda de técnicas no invasivas, como el electroencefalograma.
Cibergamigos: cada vez más
Antaño hacer amistades por Internet resultaba extraño. Ahora, cuatro de cada diez internautas españoles (un 43 por ciento) han conocido a gente en Internet con la que mantienen el contacto. Además, cada es más cotidiano llegar a mantener encuentros físicos entre "ciberamigos": en nuestro país lo hacen casi 7 de cada 10 internautas.
EUROPA PRESS
Según revela el estudio 'Digital World Digital Life' de TNS , España es el cuarto país de los 16 participantes en el estudio que más amigos on-line (nuevos amigos conocidos a través de Internet) tiene, solamente por detrás de China (un 75 por ciento de ellos tiene amigos que ha conocido a través de Internet), Corea (52 por ciento) e Italia (46 por ciento).
Los más reticentes a relacionarse con desconocidos a través de la red son los internautas de Dinamarca (18 por ciento), Países Bajos (23 por ciento), Finlandia (25 por ciento) y Estados Unidos (26 por ciento).
Por otro lado, los países con más internautas que acceden a conocer en persona a sus amigos on-line son Alemania (lo han hecho un 76 por ciento de los alemanes), Suecia (75 por ciento), Francia (75 por ciento), Dinamarca (74 por ciento) y Noruega (73 por ciento).
Los internautas españoles son propensos a entablar relaciones más estrechas con sus conocidos de Internet: casi siete de cada diez, un 66 por ciento de los que tienen amigos on-line, dicen haber quedado en persona con gente que han conocido en Internet.
PERFIL: VARON Y JOVEN
En Europa el perfil de un internauta español que más amistades entabla a través Internet es el de un varón de entre 16 y 34 años, sobre todo estudiantes y trabajadores a tiempo parcial, urbanitas y solteros (sin relación estable o con pareja, pero que no viven con ella).
En total, en la actualidad mantenemos el contacto con 11 amigos que hemos conocido en Internet. Los hombres lo hacen con casi 15 personas, y las mujeres con cerca de 8. De todas las personas con las que se relacionan los internautas, tanto a través de Internet como fuera de él, un 28,7 por ciento son amigos online.
Tendemos a relacionarnos en mayor medida con personas de nuestro propio país, mediante e-mail, por delante de los servicios de mensajería instantánea, los blogs personales, las llamadas a través de Internet y los foros o redes sociales on-line.
Además, tres de cada diez encuestados reducen el tiempo que dedican al teléfono gracias a internet, facilita las relaciones personales, aunque entre las principales pegas está la desconfianza de no confiar la verdadera identidad de la otra persona, por lo que dos de cada diez no creen que estos amigos on-line puedan considerarse amigos reales
jueves, 19 de marzo de 2009
Un gen muerto resucitó en nuestro linaje
Un gen, muerto en nuestro linaje hace 50 millones de años volvió a activarse hace 25 millones de años
Hace entre 40 y 50 millones de años un gen denominado IRGM dejó de funcionar en los antepasados de los modernos monos. Pero 25 millones de años después, en el linaje de los humanos y los grandes simios, tres eventos aleatorios activaron de nuevo este gen.
En mamíferos como la rata y los perros el gen IRGM ayuda a protegerlos de bacterias patógenas como la salmonela. Sin este gen los ratones expuestos a la salmonela mueren en un par de días.
En humanos y simios también parece que se usa este gen. Nuestros cuerpos producen una versión de la proteína IRGM y los estudios genéticos han identificado supresiones cerca del gen como un factor de riesgo de cara a la enfermedad de Crohn, una condición autoinmune gastrointestinal. Sin embargo, el papel del IRGM en humanos y simios sigue sin ser claro.
Evan Eichler, de University of Washington (Seattle) se interesó en la evolución de este gen. Él y su equipo secuenciaron IRGM en varias especies de primates.
En los análisis vieron que los lemures portan tres copias de este gen, uno de ellos funcional. Así que en algún punto después de la aparición de los lemures el gen quedó totalmente desactivado. El los macanos pudieron ver que el gen era funcional, así que en algún momento antes de la aparición de los macanos la funcionalidad del gen quedó restaurada.
El equipo descubrió en los monos una pieza que podría denominarse “ADN basura” en el comienzo del gen. Esta inserción ensucia el promotor del gen, una región crítica para la producción de proteínas. Para empeorar las cosas el gen del mono luce un determinado número de codones de paro, un tipo de “semáforos en rojo” genéticos que evitan la producción de cualquier proteína funcional. En las quince especies de mono que los investigadores analizaron, tanto en el viejo como en el nuevo mundo, encontraron este tipo de codones, que implicaban que el gen estaba muerto. Es decir, estas modificaciones hacen de este “gen” algo totalmente inútil.
Pero humanos, simios y monos comparten un mismo antepasado, por tanto IRGM debe de haber resucitado en algún momento de la línea evolutiva. La explicación que dan estos investigadores es que se dieron nada menos que tres eventos aleatorios que finalmente trajeron este gen a la vida de nuevo.Basándose en las diferencias genéticas entre monos, simios y humanos estos investigadores fueron capaces de saber cómo evolucionó este gen en los últimos 50 millones de años. Al principio los restos de un antiguo virus (un retrovirus endógeno) saltaron desde algún punto del genoma a una región “río arriba” del gen durmiente IRGM, creando un promotor nuevo. Entonces, dos mutaciones posteriores eliminaron las señales de paro restantes. Estos tres eventos no relacionados restauraron la función de este gen.
Eichler afirma que todavía queda mucho que aprender acerca del IRGM. La pregunta más importante es si el nuevo gen actúa de la misma manera que el gen antiguo. Los investigadores no están seguros al 100% en este aspecto. Quizás el cuerpo todavía está empezando a usarlo. Las diferentes poblaciones humanas muestran diferente patrones de actividad de IRGM. Quizás se deba a que la especie está todavía averiguando cómo hacer uso de un gen relativamente nuevo.
Los humanos portamos muchos genes que están presentes en nuestro genoma pero que no tienen ninguna funcionalidad conocida, generalmente se les considera parte del “ADN basura”. Un 60% de estos genes está asociado con la pérdida de capacidades del sentido del olfato. Es concebible, según Cemalettin Bekpenque que otros genes no funcionales almacenados en nuestro genoma puedan volverse a activarse de nuevo en el futuro.
En todo caso es increíble que parte de la historia evolutiva de cada especie esté todavía ahí, en cada genoma, a la espera de ser descubierta o incluso reactivada. Millones de años de evolución a la espera de ser leídos.
http://sciencenow.sciencemag.org/cgi/content/full/2009/306/1
Creación de ribosomas sintéticos
La síntesis de ribosomas artificiales nos acerca aún más hacia un segundo génesis en la Tierra, esta vez de la mano del hombre.
Investigadores de la Universidad de Harvard han conseguido dar un paso más en el objetivo de obtener vida artificial consiguiendo crear ribosomas, que son los lugares donde la información genética es leída y las proteínas creadas a partir de esa información. Se esperan avances en el conocimiento de la Biología fundamental y avances industriales a partir de este hallazgo.
George Church, de la Harvard Medical School, informó recientemente en un simposium sobre la obtención de miles de millones de ribosomas sintéticos funcionales que además fueron capaces de sintetizar luciferasa.
Aunque todavía no se ha creado vida artificial y ésta no es la meta fundamental de este grupo de investigadores, Church dijo que este logro es un importante paso adelante en esa dirección.
Los ribosomas son los orgánulos celulares que a partir de la información genética que les llega del ADN (no lee directamente el ADN sino el ARN que porta esa información) construyen la proteína específica de cada gen. Las proteínas son fundamentales a la hora de formar las estructuras celulares, además de desempeñar labores enzimáticas, permitiendo así la síntesis de otras biomoléculas y el control del metabolismo. Los ribosomas son una de las maquinarias celulares más complejas y no han sufrido muchos cambios desde el momento de su aparición en la evolución biológica.
Sin síntesis de proteínas la vida no es posible, por eso este hallazgo representa una pieza clave en la recreación de vida artificial.
Estos investigadores extrajeron los ribosomas naturales de la bacteria E coli y los dividieron en sus partes constituyentes. Eliminaron el ARN ribosómico y entonces sintetizaron nuevo ARN a partir de sus constituyentes fundamentales.
Según Church a pesar de que el descubrimiento ha creado excitación entre los investigadores que trabajan en Biología Básica, son las posibles aplicaciones industriales las que están empujando este campo.
En la industria de fabricación de proteínas se usan ribosomas naturales que evolucionaron de forma natural durante millones de años en las levaduras con fines biológicos, pero no industriales. La idea es recrear ribosomas sintéticos alterados que encajen mejor con las necesidades de la industria. De esta manera se tendrá un mejor control sobre estos procesos.
El avance acaba con un periodo de 40 años en el cual se ha progresado muy poco en la creación de ribosomas artificiales. El último avance significativo se realizó en 1968 cuando unos investigadores ensamblaron ribosomas, pero en un ambiente químico inusual para la síntesis de proteínas (lo que les hacía inútiles).
Estos científicos creían que crear ribosomas artificiales y producir proteínas era probablemente el paso más difícil en la creación de vida sintética. Se sorprendieron muchísimo al descubrir que lo pudieron hacer en sólo un año.
La meta última es la creación de un genoma artificial de unos 150 genes que sea el mínimo capaz de mantener las funciones de mantenimiento y reproducción celulares. Aunque todavía queda un tiempo para esto.
En el simposium participaron otros investigadores del ramo como Jack Szostak, también de la Harvard Medical School, que presentó su más reciente investigación en la creación y propagación de células sintéticas, mostrando como formar espontáneamente membranas “celulares” a partir a partir de lípidos (grasas) bajo ciertas condiciones. Además aportó pistas sobre cómo la información genética básica podría haber sido almacenada originalmente y expresada en forma de moléculas de ARN. Actualmente explora las propiedades de moléculas similares al ARN en busca de variaciones que las haga buenas candidatas para almacenar y replicar información genética sin necesidad de la compleja maquinaria que necesitan el ADN y ARN actuales.
Craig Venter, que también participó en la reunión, describió su trabajo en busca de genes alrededor del mundo, mencionando los ambientes extremos en los que son capaces de vivir algunos microorganismos. Una base de datos, en crecimiento, y que actualmente contiene 50.000 familias de genes, permite a la industria escoger aquellos genes que les puedan ser útiles para su aplicación. Según Venter usando ingeniería genética se podrán crear genomas sintéticos que permitan obtener cosas útiles como combustibles limpios. “Creo que estamos limitados principalmente por nuestra imaginación”, añadió.
http://www.news.harvard.edu/gazette/2009/03.12/11-ribosomes.html
http://neofronteras.com/?p=700
El cloud computing se consolida como modelo empresarial para las TICs
El cloud computing se consolida como modelo empresarial para las TICs
Google, Amazon o Salesforce.com ya han apostado por este sistema
Según el modelo cloud computing, consumidores y empresas, en lugar de gestionar sus propios sistemas informáticos, contratan los servicios que necesitan de un tercero que los presta desde sus centros de proceso situados en la red (cloud). Con ello, la forma en la que consumidores y empresas adquieren y utilizan las TICs ha iniciado un cambio significativo de gran importancia que terminará transformando la industria informática. Empresas como Google, Amazon o Salesforce ya han apostado por este modelo y están mejorando notablemente sus posibilidades. No obstante, también existen un conjunto de riesgos potenciales que conviene tener presentes.
El cloud computing se consolida como modelo empresarial para las TICs
Cloud computing es un término relativamente conocido. Consiste en el acceso, a través de diversas aplicaciones que residen en múltiples dispositivos (ordenadores, PDA y móviles), a información de internet pero cuya información se almacenan en ordenadores diferentes a los propios. De tal modo que el software es incorporado como un servicio. Por otro lado, el cloud computing tiene una característica muy importante y diferenciadora que consiste en que el acceso a la información de servicio es siempre compartido. Ejemplos de este cloud computing son Amazon EC2 o Google Apps que proveen aplicaciones de negocio accesibles desde un navegador mientras que el software y los datos son almacenados en los servidores.
Posibilidad empresarial
El cloud computing es una buena posibilidad para las empresas TIC. Ello es debido a que se cambia el modelo de relación comercial entre el consumidor y la empresa. En este modelo, en lugar de gestionar sus propios sistemas informáticos, contratan los servicios que necesitan de un tercero que los presta desde sus centros de proceso situados en la red (cloud).
Por ello, el Centro del IE Business School para el Análisis de la Sociedad de la Información y las Telecomunicaciones, Enter, ha hecho público un informe que analiza el modelo de cloud computing y sus futuras posibilidades, afirmando que este nuevo modelo tiene un futuro brillante.
Transformaciones en proceso
Tal y como se explica en el informe de Enter, aceptar este modelo supone admitir dos cosas. Primero, que los ordenadores y las aplicaciones informáticas se encuentren situadas y gestionadas en grandes centros de datos (datacenters). Estos datacenters prestarán servicio a los clientes, los cuales accederán a éstos gracias a Internet browser. Segundo, los usuarios pagarán por el uso que realicen que los servicios sin necesidad de preocuparse de adquirir el hardware ni el software necesario.
Para muchas empresas, informa Enter, especialmente las pymes, los servicios de cloud computing son una propuesta muy atractiva. El gran problema, a día de hoy, es que parece que no hay una gran oferta. No obstante, según este Centro de Análisis, si hubiese una oferta fiable y madura no faltarían clientes.
En este sentido, todo parece indicar que se va a producir una rápida transformación en el sector. Ello es debido, según Enter, a varias razones: las tecnologías y los estándares esenciales para su funcionamiento se han desarrollado mucho y la industria ya tiene una buena experiencia en la gestión de grandes datacenters. Por otro lado, las grandes empresas del sector ya ofrecen servicios de este tipo y le dan gran importancia a su posicionamiento en este campo.
Ventajas y desventajas para las empresas
Respecto al modelo convencional, un cliente puede tener diversas ventajas entre las que destacaremos las siguientes. Acceso inmediato a los servicios sin necesidad de adquirir hardware o software, costes anuales potencialmente inferiores debido al uso de servicios, y ventajas provenientes de una conexión a Internet (aplicaciones disponibles desde cualquier lugar de acceso).
En relación con las desventajas o con los posibles riesgos, en línea con lo que explica José Antonio Fernández para ENTER, es posible hacer determinadas afirmaciones. En primer lugar, es preciso asegurar que los datos de los clientes estén separados de los demás y perfectamente controlados (téngase en cuenta que éstos estarán en el cloud, que es un entorno compartido). En segundo lugar, existe la necesidad de garantizar la seguridad al cliente: control de datos, registro de los mismos, aplicación legislativa, procedimientos de salida y recuperación de datos, etc.
En definitiva, el modelo de cloud computing trae consigo un buen número de posibilidades pero también un conjunto de riesgos potenciales. Muchos de ellos, como viene siendo habitual, vinculados a la seguridad en la red. No obstante, es previsible que estas desventajas iniciales se acaben solucionando.
ExtraFilm Designer
ExtraFilm, empresa líder especializada en el revelado, la producción y la entrega a domicilio de productos fotográficos, presenta su nuevo software: ¡ExtraFilm Designer! La creación de tus libros de fotos y agendas resulta tan fácil como un juego de niños…
No te preocupes para elegir el diseño que más te gusta! ExtraFilm Designer te ofrece una libertad total en la creación de tu libro de fotos. Elige tu mismo la disposición de tus fotos, 2, 3 o 10 fotos por página, alineadas o de lado, pequeñas o grandes y ¡haz lo que quieras!
A través de una panoplia de efectos y de símbolos originales, podrás explorar toda tu creatividad. Añada un cuadro negro o blanco, inserta tu foto dentro de un efecto "redondo", rodea tus páginas y temas de corazones, flores o chanclas…etc.
Por último, utiliza la colección de fondos para darle tu propio estilo a tu página y cambiar de fondo a tu gusto. Podrás elegir un tema por página: ¡Basta ya de poner siempre el mismo fondo blanco o rosa a lo largo de las 80 páginas!
La corrección automática "Autofix" permite mejorar en un solo clic el aspecto general de las fotos. El tiempo de creación se reduce a solo 5 minutos con la función "Auto rellenar". La función "Ojos rojos" corrige los colores a veces muy diferentes de tus ojos…
En algunos clics, crearás tu libro de fotos que te será enviado directamente a casa y en pocos días gracias al servicio de Correos.
IBM negocia la compra de Sun Microsystems, según el WSJ
La compañía de servicios informáticos IBM está en conversaciones para adquirir Sun Microsystems por al menos 6.500 millones de dólares (unos 5.000 millones de euros), según el diario Wall Street Journal, en un acuerdo que podría reforzar su negocio de servidores contra rivales como Hewlett-Packard.
REUTERS
El precio equivaldría a una prima de cerca de un 100 por ciento sobre el precio de cierre de Sun del martes en el Nasdaq, de 4,97 dólares por acción, señaló el diario, citando fuentes cercanas a las conversaciones.
El fabricante de ordenadores estadounidense Sun, que no pudo ser contactado de inmediato para emitir comentarios, suena desde hace tiempo como un objetivo de compra para International Business Machines, HP, Dell o Cisco Systems.
"Tiene sentido desde el punto de vista de la consolidación de la industria, pero mirando el rendimiento de Sun en el último par de años, no es una de mis preferidas para que la comprara IBM", dijo el analista Robert Jacobsen de Jyske Bank. "Dicho eso, existe claramente una enorme sinergia si se combinan estas dos empresas", agregó.
Los títulos de Sun en Francfort subían un 54 por ciento tras la información de la página web de The Wall Street Journal, que menciona que la compañía se había acercado a algunos gigantes tecnológicos con la esperanza de ser adquirida.
HP declinó hacer una oferta, aseguró el diario citando a una persona con conocimiento de la materia.
El medio indicó que el acuerdo con IBM podría llegar esta misma semana, aunque las conversaciones también podrían fracasar. Si IBM compra a Sun, sería la mayor adquisición de la compañía desde la compra del fabricante canadiense de software Cognos en cerca de 5.000 millones de dólares, en enero de 2008.
Una empresa de base tecnológica almeriense desarrolla un escaparate interactivo
InnovaGlass es una pantalla táctil de gran tamaño que se proyecta en el cristal de cualquier escaparate permitiendo la interacción sencilla e intuitiva por parte del usuario que controla un PC por medio de sus manos. Las posibilidades que ofrece esta pantalla son inmensas.
SINC
Novateq Guerrero SLNE es una spin-off surgida de la Universidad de Almería dedicada a la realización de proyectos de Investigación, Desarrollo e Innovación. Dentro de su marca comercial Metaglass , orientada a la Innovación Visual, ha desarrollado un novedoso escaparate interactivo denominado InnovaGlass. Esta EBT fue merecedora del Programa Campus, impulsado por la Consejería de Innovación, Ciencia y Empresa de la Junta de Andalucía, en noviembre de 2008.
InnovaGlass es una pantalla táctil de gran tamaño (entre 40 y 100 pulgadas) que se proyecta en el cristal de cualquier escaparate permitiendo la interacción sencilla e intuitiva por parte del usuario que controla un PC por medio de sus manos. Las posibilidades que ofrece esta pantalla son inmensas así como sus usos.
Destaca su utilización en comercios donde los escaparates se convierten en una ventana abierta las 24 horas para mostrar sus productos y servicios o en centros comerciales, que establecen puntos de acceso a información a través de esta tecnología para mostrar las tiendas que albergan, su localización y lo que se puede encontrar en ellas. Agencias de viajes, inmobiliarias, agencias de trabajo temporal o restaurantes son ejemplos de negocios donde el uso de esta herramienta produce un impacto notable.
Mediante el formato innovador de InnovaGlass, el escaparate pasa a ser una herramienta atractiva que llama la atención de los peatones y les ofrece información a demanda sobre un elenco de artículos y servicios ilimitados, ya que este catálogo no es de carácter restringido. Este hecho ha promovido que entidades locales y nacionales, como es el caso de Viajes el Corte Inglés o Cajamar, se hayan puesto en contacto con Novateq.
Su aplicación también resulta muy interesante en museos, ya que permite mostrar información sobre las obras que albergan en su interior de una forma llamativa e innovadora. Asimismo, el usuario puede acceder o conocer de forma específica los contenidos que considere más interesantes o centrarse en algunos aspectos en concreto.
Su instalación en stands de ferias y congresos, así como en otros eventos, llama la atención del público incrementando el número de visitas de los mismos. "La innovación visual es una necesidad estos días, es una herramienta esencial en todos y cada uno de los aspectos del mundo de los negocios. El éxito a la hora de lanzar un producto o un servicio depende en gran medida de la forma en la que se muestra al público y de si los clientes potenciales pueden apreciar su valor", asegura Pablo Quero, gerente comercial de Novateq.
Inmune al vandalismo
Respecto a los aspectos técnicos, posee un software de control fácilmente personalizable. Se puede crear un software específico para cada pantalla, adaptarlo específicamente a la página web de una determinada empresa o para reproducir vídeos, imágenes y animaciones. Por último, se trata de un dispositivo inmune al vandalismo. Debido a que interactúa a través de un campo magnético creado entre el vidrio del expositor y el dispositivo, el cristal se toca desde fuera mientras que toda la tecnología está en el interior del habitáculo evitándose la posibilidad de daño.
Actualmente, Novateq, junto con una empresa valenciana -Industrias Técnicas Alís y Milán,S.L.-, está introduciendo mejoras en este desarrollo tecnológico con el fin de crear un sistema "multitáctil", es decir, un software capaz de reconocer simultáneamente la posición de varios dedos y de ambas manos.
Nace "Mobifriends.com", para conocer gente a través de la red o del móvil
Por fin, se lanza al mercado un servicio totalmente gratuito para conocer gente nueva tanto a través de Internet como del móvil y disponible en español, catalán e inglés. Mobifriends.com es la primera red gratuita de contactos que ofrece todas las prestaciones y opciones del servicio tanto vía Web como a través del móvil.
Mobifriends, con sede en Barcelona, lanza al mercado este servicio con el objeto de convertirse en una plataforma gratuita en la que el usuario puede conocer gente nueva, encontrar pareja, amistad o compartir aficiones. Pese a que en la actualidad existen numerosos portales de contactos online, no todos están disponibles también a través del móvil y, lo que es muy significativo, no son totalmente gratuitos, ya que aunque el registro sí que lo es, el resto de servicios tienen coste para el usuario. Además, en la mayoría de portales de contacto online sólo es posible encontrar pareja, mientras que en mobifriends, además de buscar pareja, también se puede hacer nuevos amigos o encontrar personas para compartir intereses o aficiones comunes.
Mobifriends.com dispone de varios servicios de comunicación, todos ellos gratuitos, como son: envío de mensajes y mobis (unos divertidos mensajes animados), chat con texto, webcam y micrófono en el Videomessenger. Además, el site está pensado para que el usuario acceda de un modo fácil e intuitivo, y con un cuidado diseño en todos los contenidos.
Google actualiza su navegador "Chrome"
Google ha lanzado una nueva versión de su navegador Chrome, continuando en sus esfuerzos por hacerse un hueco en un mercado dominado por Microsoft.
REUTERS
Se trata de la primera gran actualización del programa dirigida al público general desde que Google entró en el negocio de los navegadores, hace seis meses.
El nuevo Chrome ofrece a los internautas más velocidad y un puñado de nuevas opciones, como autocompletar la información personal en formularios online y un nuevo sistema para que los usuarios arrastren tablas de diferentes páginas dentro de la ventana del navegador.
Google está a un distante cuarto puesto en este mercado, con una cuota de mercado del 1,2 por ciento en todo el mundo en febrero, según la empresa de investigación de mercado Net Applications.
El líder del mercado es el Internet Explorer de Microsoft, que en febrero tenía una cuota de mercado del 67,4 por ciento, mientras que el Firefox de la fundación Mozilla supone en torno al 22 por ciento. El Safari de Apple tenía entonces una cuota de mercado del 8 por ciento.
El mes pasado, Google se sumó oficialmente a un proceso antimonopolio de la Unión Europea contra Microsoft, describiendo el negocio como "incompetitivo en gran parte". La UE ha acusado al gigante del software de abusar de su posición dominante al integrar su navegador con su sistema operativo para ordenadores, Windows.
Según una entrada del martes en el blog oficial de Google, el nuevo Chrome beta carga algunas páginas web entre un 25 y un 35 por ciento más rápido que la versión anterior.
Las nuevas opciones estaban disponibles antes para los programadores a través de la versión "developer" ("desarrollador"), pero la empresa ha incluido ahora todas las actualizaciones anteriores en una nueva edición beta - es decir, en pruebas - más fiable que está disponible para su descarga.
También existe una versión más pulida y llamada "estable", basada en el beta anterior.
La informática cambiará la vida y la sociedad humanas en los próximos 20 años
La tecnología informática a desarrollarse en los próximos 20 años aportará soluciones para el fracaso de cosechas, ayudará a entender el pensamiento y los objetivos que impulsaron a los personajes históricos, o también analizará la situación económica de un país y propondrá posibles soluciones, según un dossier elaborado por de la British Computer Society (BCS). Asimismo, la tecnología informática creará verdaderos "archivos de conocimiento" que, gracias a complejas interrelaciones, serán capaces de analizar los problemas de la sociedad humana.
TENDENCIAS CIENTÍFICAS
Las nuevas tecnologías informáticas que se desarrollarán en los próximos años podrían ser capaces de hacer frente a problemas humanos relacionados con la economía o la vida en sociedad, según el dossier Grand Challenges in Computing Research 2008 que acaba de publicar la British Computer Society (BCS) con los materiales de la conferencia que con el mismo nombre se celebró en Londres hace ahora un año.
Según este dossier, la tecnología a desarrollarse en los próximos 20 años podría ser capaz de aportar soluciones para el fracaso de cosechas, ayudar a entender el pensamiento y los objetivos que impulsaron a los personajes históricos, o también analizar la situación económica de un país y proponer posibles soluciones. El informe de la BCS sobre estos grandes retos de la informática fue comentado en un artículo del sitio Silicon.com.
Algunos de los desafíos que se plantean estas investigaciones, por ejemplo, se relacionan con el empleo de la tecnología informática para explotar el valor de la inteligencia humana a lo largo del tiempo, creando verdaderos "archivos de conocimiento" que, gracias a complejas interrelaciones, sean capaces de analizar los problemas de la sociedad humana.
Grandes desafíos en áreas sensibles
Otro de los grandes desafíos para la tecnología computacional en los próximos 20 años es el desarrollo de sistemas robóticos más sofisticados y eficientes, capaces de emular la arquitectura del cerebro humano. Al mismo tiempo, un propósito de gran importancia es eliminar los errores tecnológicos, desarrollando sistemas informáticos más fiables, seguros y eficaces.
En la relación con la naturaleza, otro de los retos es desarrollar una tecnología que permita a los ordenadores "leer" el mapa de las funciones internas y externas de las especies vegetales, algo que ayudaría enormemente a los científicos a comprender los procesos más complejos que tienen lugar en el reino vegetal. Este conocimiento podría ser utilizado en el campo de la agricultura, para planificar cosechas y otras actividades de manera más eficiente.
El desafío de acoplar los avances informáticos al mundo vegetal es el objetivo del Proyecto In Vivo-In Silico, dirigido por el profesor Andrew Bangham, del Centro de Biología Computacional de la Universidad de East Anglia, en el Reino Unido.
El mencionado proyecto de investigación tiene un plazo de tiempo fijado en 2020 para conseguir los resultados esperados, y es considerado como una gran esperanza para poder hacer frente a los complejos problemas causados por la pérdida de cosechas en distintas partes del mundo.
Capitalizar la memoria humana
Un segundo proyecto de investigación, conducido por el profesor de inteligencia artificial de la Universidad de Southampton (Reino Unido), Nigel Shadbolt, encara el problema de la memoria humana. Se llama Memories for Life y su propósito es capitalizar los avances informáticos para lograr que toda la información, experiencias y emociones de un ser humano a lo largo de toda su vida, puedan ser almacenadas en un único disco en el transcurso de los próximos 20 años. Como ya hemos informado en otro artículo, los ordenadores ya son capaces de reconocer emociones humanas.
Esta investigación podría desembocar en importantes avances en inteligencia artificial y realidad virtual, brindando precisiones con respecto a la forma de relacionarse de determinadas personas con sus semejantes y pudiendo capitalizar experiencias individuales que podrían ser útiles en otras situaciones.
Un tercer proyecto busca crear los mecanismos necesarios para que la tecnología informática sea capaz de recrear el pasado. De esta forma, se podrán vivir virtualmente acontecimientos históricos, para poder comprender con mayor detalle las circunstancias de los mismos y el comportamiento de los personajes que los protagonizaron. Al mismo tiempo, el hombre sería capaz de "viajar" a sitios históricos sin necesidad de trasladarse físicamente.
Esta investigación se desarrolla bajo la conducción del profesor David Arnold, decano de la Facultad de Gestión y Sistemas de Información de la Universidad de Brighton, también en el Reino Unido. Indudablemente, los desafíos planteados por la BCS son tan complejos como motivadores, y confirman que la revolución informática a sucederse en los próximos 20 años cambiará para siempre el mundo que hoy conocemos.
¿Una nueva revolución industrial?
De acuerdo al profesor Dame Wendy Hall, ex - presidente de la BCS y uno de los autores del informe sobre los grandes retos que afronta la tecnología informática en las próximas dos décadas, el impacto de las nuevas tecnologías se sentirá concretamente en la infraestructura, la alimentación, el clima y la vida cotidiana del hombre.
Según el especialista, estos cambios tendrán una importancia similar a los acontecidos durante la revolución industrial concretada a fines del siglo XIX. De esta manera, puede concluirse que las nuevas tecnologías informáticas poseen aún un potencial de cambio y transformación sociocultural que hoy solamente es posible vislumbrar a grandes rasgos.
Internet Explorer 8
Microsoft Corp lanza hoy al mediodía en España la versión definitiva de su navegador Internet Xplorer 8 (IE8), la cual promete mayor velocidad y más seguridad que su antecesor.
INFOBAE
Tras un año de versiones de pruebas públicas, hoy se lanza la nueva versión del navegador de Microsoft, que incluye una serie de características pensadas para intentar arañar parte del mercado perdido frente a otros, sobre todo Firefox de Mozilla.
"Internet Explorer 8 es más fácil, más rápido y más seguro", proclamó durante su presentación en Madrid Verónica Olocco, responsable de la División de Windows Client de Microsoft Ibérica, según El Mundo de España.
De acuerdo a unas pruebas realizadas por la propia compañía, IE8 es más rápido que la competencia (Chrome, Firefox) en la mayor parte de los sitios más visitados del mundo, gracias a mejoras como su optimización para JavaScript, por ejemplo. "Los tests son relativos, naturalmente", comentó a continuación Olocco, quien añadió que "IE8 no se desarrolló para ser más rápido en el laboratorio, sino en casa".
El navegador, del que se habló mucho en los últimos meses, estrena dos características muy remarcadas por Microsoft. Por un lado, la figura de los aceleradores, una función que permite seleccionar parte del texto de un sitio web y, como si se tratase del botón derecho del mouse, despliega una ventana (si se hace click en un botón que aparece sobre el texto seleccionado) que permite a su vez funciones variadas, desde localizar la dirección en un mapa hasta enviar un correo con esa información o traducir el propio texto sin abrir pestañas nuevas.
Por otro lado, IE8 presume su Web Slice, otra función que permite ver en la nueva pestaña de favoritos miniversiones de los sitios web seleccionados, sin necesidad de abrirlos.
Se trata de una función que requiere, por un lado, que el sitio web seleccionado en favoritos se haya adaptado (existe un kit de desarrollo para ello) y, por otro, que la propia función no esté deshabilitada. "Cualquier sitio web puede adaptarse con el kit de desarrollo para IE8 (IEK)", apuntó Olocco.
La seguridad viene reforzada por dos herramientas. El filtro SmartScreen previene el phishing a través de avisos bastante grandes que alertan al usuario si éste aterriza en un sitio potencialmente inseguro. Además, el modo de navegación InPrivate borra el historial y evita la instalación de cookies. "El navegador se lanza con la seguridad predeterminada al máximo", apuntó Olocco.
La versión se podrá descargar de internet a partir de hoy en varios países, en versiones para Windows XP (imprescindible el Service Pack 2) y Windows Vista, aunque la demostración fue realizada sobre Windows 7, el nuevo sistema operativo de Microsoft que saldrá a finales de año, según la compañía.
Por último, el navegador será naturalmente compatible con Silverlight, la plataforma multimedia online de Microsoft para juegos, videos, y animaciones dinámicas con gráficos avanzados, que compite con otras tecnologías como flash de Adobe.
Mientras prosigue la llamada guerra de los navegadores, tras las mejoras de Firefox y Safari y la aparición en el panorama de Chrome de Google, Microsoft mantiene un nuevo frente abierto con la Unión Europea, que teme un eventual abuso de posición dominante por parte de Microsoft.
Fruto de estas acusaciones fue la reciente respuesta de la compañía, que permitirá en Windows 7 desactivar el navegador. "Estaremos de acuerdo con lo que diga la Unión Europea en este aspecto", comentó Juan Carlos Fernández, director general de consumo y online de Microsoft Ibérica.
Apple presenta un software para cortar y pegar
Apple ha presentado una actualización de su software para el iPhone con nuevas funciones, como la de cortar y pegar y la de notificaciones automáticas, en un momento en el que la compañía se posiciona para un mayor crecimiento en el disputado mercado de la telefonía móvil.
REUTERS
Muchos usuarios llevan tiempo esperando la función de copiar y pegar texto en el iPhone. Esa posibilidad existe desde hace mucho en aparatos como la BlackBerry de Research In Motion.
Apple dijo también que su sistema operativo 3.0 para el iPhone tendría la capacidad de dar soporte a alertas automáticas, como las de un resultado deportivo o la llegada de un mensaje instantáneo.
La compañía, que vende iPhones en 80 países, informó de que los consumidores ya se habían descargado 800 millones de aplicaciones para el iPhone de su tienda.
martes, 17 de marzo de 2009
IBM prepara una web hablada
Europa Press
Cegados por nuevas tecnologías como las pantallas 'multi touch' o el emergente seguimiento de la vista para controlar los dispositivos, a veces no reparamoso en técnicas que no sean visuales.
IBM ha desarrollado una tecnología con la que pretenden que el usuario "hable" con un tipo de web sólo para móviles.
La división india de IBM ha ideado una nueva forma de concebir los hipervínculos, con respecto a la que tenemos de Internet para los ordenadores en la actualidad.
"La gente hablará a la web y la web responderá", ha avanzado el director asociado del Laboratorio de Investigación de IBM India Manis Gupta, en declarciones al India Times.
"La tecnología de investigación es análoga a Internet. Al contrario que los ordenadores personales, funcionará en móviles, donde la gente puede crear sencillamente sitios de su voz", ha continuado Gupta.
La web hablada es una red de sitios de voz o "voz y respuesta interconectadas". La compañía ha hecho algunas pruebas en Andhra Pradesh y Gujarat, en la India, y el tipo de innovación que la gente ha descubierto con esta nueva forma de interconectar sitios ha dejado a los que lo han probado "atónitos", según Gupta.
Para este tipo de sitios, IBM ha desarrollado un nuevo protocolo, denominado Procolo de Transferencia de Hiperdiscurso -Hyperspeech Transfer Protocol, (HSTP)-, que es similar al Protocolo de Transferencia de Hipertexto -Hypertext Transfer Protocol (HTTP)-, que es el empleado en Internet en ordenadores.
Linux: 15 años de historia
La historia de Linux se remonta hasta 1987, año en el que se creó MINIX. Ya en 1991 Linus Torvalds, padre de Linux, vino con el código necesario para acceder a los servidores UNIX de la universidad donde estudiaba.
INFOCHANNEL
Sin embargo no fue hasta el 13 de marzo de 1994 cuando la primera versión de Linux salió a la luz. Ya en 1996 el aspecto del sistema operativo empieza a tomar la forma actual con la creación de Tux, pingüino que se convirtió en su logo.
La historia de éxito del sistema operativo de código libre sigue y es el año 2000 cuando se anuncia el primer celular que funciona en base a este. Llega 2004 y la primera versión de Ubuntu, una de las distribuciones de este sistema que tiene como objetivo acercar el sistema a las masas.
Han pasado 15 años ya y la meta es aumentar la presencia de Linux en el mundo de la tecnología, ahora con el auge de los netbooks se presenta una nueva oportunidad para el sistema que gracias a su liviandad y su versatilidad puede sacar un mejor provecho a estos equipos.
nuevos Softwares
documentales-Wikihist
http://www.wikihist.com/
Pablo Griñevich, argentino, me manda esta web que él mismo ha construido para divulgar vídeos históricos de las más diversas categorías.
WWWHATSNEW
Se trata de Wikihist, una web que, con una estética no muy trabajada, permite a cualquier usuario colaborar con su contenido subiendo vídeos con contenido relacionado al tema del portal.
Con bastante material sobre las diferentes guerras que nuestro planeta ha presenciado, Wikihist puede convertirse en una joya de los amantes de la historia.
Newsified
http://newsified.com/
Cuando nos asomamos a cualquier sitio web social, en la mayoría de los casos nos encontraremos con un apartado que nos ofrece unos pocos contenidos destacados, obligándonos a navegar por dicha web para conocer más contenidos interesantes.
GENBETA.COM
Pues bien, la filosofía que hay detrás de Newsified es la de permitirnos conocer más contenidos destacados en algunos de los sitios sociales de un solo vistazo, presentado más en un formato de noticias, alejándose del formato blog.
Los sitios sociales que en la actualidad están soportados son: Digg, Reddit, Metafilter, Delicious y YouTube. Para cada uno de ellos se nos permitirá conocer más contenidos destacados de los que ofrecen en los propios sitios web. Desde la página principal se nos dará acceso a los contenidos destacados de cada sitio soportado, disponiendo cada uno de ellos de una url propia cuyo nombre del sitio web social será el subdominio en Newsifield.
Respecto a los contenidos, conoceremos los últimos que hayan sido añadidos, además de los contenidos más destacados en cada una de las categorías que disponga cada sitio.
En resumen, lo que se pretende con Newsifiled es la de que podamos ver de a simple vista más contenidos destacados de algunos sitios web sociales. Además de servir como experimento de diseño web.
Cisco venderá servidores para centros de datos
Las empresa Cisco Systems dijo que venderá servidores para centros de datos, un paso que la enfrentará socios como IBM y Hewlett-Packard.
REUTERS
El fabricante de equipos de red presentó el Sistema Unificado de Computación, diseñado para incorporar tecnologías de computación, almacenaje y virtualización, incluyendo las desarrolladas por EMC y VMware.
Los propietarios del nuevo sistema pueden llegar a recortar gastos de capital en un 20 por ciento y gastos operativos en un 30 por ciento, según Cisco.
Bajo la dirección de su consejero delegado, John Chambers, Cisco se ha diversificado frente a sus negocios tradicionales de routers y almacenamiento a una gama más amplia de productos, lo que incluye sistemas de videoconferencia y software.
La expansión de la compañía al mercado de los servidores está considerada como un desafío directo a IBM y HP, que como socios han ayudado a vender equipos de redes de Cisco a sus clientes.
Además de EMC y VMware, otros socios de Cisco para su nueva estrategia de centro de datos son Intel, Microsoft, BMC Software y Accenture.
Robots desfilando por la pasarela
La robot HRP-4C, capaz de hablar, sonreír, sorprenderse y enfadarse, desfilará como una modelo profesional, aunque sin ropa, en la Semana de la Moda que se celebrará del 23 al 29 de abril en la capital japonesa, informó hoy la cadena de televisión pública NHK.
HRP-4C", desarrollada por un equipo científico del Instituto Nacional de Ciencia y tecnología Industrial Avanzada de Japón, mide 1,58 centímetros, pesa 43 kilogramos y tiene un rostro de silicona que representa la "típica belleza japonesa", agrega NHK.
Según el jefe del grupo de científicos encargado de su desarrollo, Shuji Kajita, este robot reconoce la voz y puede imitar los movimientos del cuerpo humano, por lo que se podría utilizar tanto en la industria del entretenimiento, por ejemplo en la moda, como sustituyendo a trabajadores humanos en las pruebas de seguridad.
La modelo puede simular con casi total perfección alegría, sorpresa o enfado gracias a los ocho motores ocultos bajo su bello rostro, que obedecen a las órdenes humanas.
Tiene además los ojos ligeramente menos rasgados que los de una japonesa y recuerda a algunos personajes femeninos de historias de manga (cómic nipón), de acuerdo con sus promotores.
La humanoide mueve su cuerpo de aluminio negro y plateado gracias a otros treinta motores, que le permiten mover los brazos y las piernas, además de caminar.
El HRP-4C, que fue presentado este lunes en Tsukuba, en la provincia de Ibaraki (norte de Tokio), no está a la venta por el momento pero se planea lanzarlo al mercado a un precio de 200.000 dólares la unidad.
Una nueva aleación de materiales acerca hacia la refrigeración magnética doméstica
La aleación puede demostrar ser el material buscado durante mucho tiempo para permitir con la debida viabilidad práctica la refrigeración magnética en lugar de los sistemas de compresión de gas hoy usados para los frigoríficos y los aparatos de aire acondicionado domésticos. La técnica de refrigeración magnética, aunque utilizada durante décadas en la ciencia y la industria, todavía tiene que superar muchos obstáculos técnicos y medioambientales para llegar a los hogares, pero la investigación en la que ha colaborado el NIST los puede haber superado.
La refrigeración magnética depende de los materiales denominados magnetocalóricos. El efecto experimentado por estos materiales puede usarse en el ciclo de refrigeración clásico, y los científicos han logrado de esta manera temperaturas de casi el cero absoluto. Dos factores han impedido que la refrigeración magnética pase al mercado del consumidor particular: La mayoría de los sistemas magnetocalóricos que funcionan cerca de la temperatura ambiente requieren tanto del prohibitivo gadolinio, un caro y raro metal, como del arsénico, un veneno mortífero.
La aleación que el equipo ha encontrado (una mezcla de manganeso, hierro, fósforo y germanio) no es meramente el primer material magnetocalórico con temperatura de trabajo cercana a la temperatura ambiente que no contiene nada de gadolinio ni de arsénico (lo cual lo hace más seguro y barato), sino que también tiene propiedades magnetocalóricas tan buenas que un sistema basado en él podría rivalizar en eficiencia con los sistemas clásicos de compresores de gas.
Trabajando junto a los científicos visitantes de la Universidad de Tecnología de Pekín, e inspirados por ellos, el equipo del NCNR usó el avanzado equipamiento del NIST para analizar la nueva aleación. Comprobaron que cuando se expone a un campo magnético, la estructura cristalina del material recién descubierto cambia por completo, lo que explica su excepcional manera de comportarse.
Averiguar cómo ajustar con precisión este cambio en la estructura cristalina puede permitir incrementar aún más la eficacia de esta aleación.
El bosón de Higgs... cada vez más cerca
El bosón de Higgs cada vez tiene menos espacio para esconderse, en caso de que exista. Científicos del Fermi National Acelerator Laboratory (Fermilab, Departamento de Energía de EEUU) anuncian que han excluido una significante fracción del rango de masas en el que podría hallarse el bosón de Higgs o partícula de Dios. Es la única partícula del Modelo Estándar de la Física que aún no ha podido observarse y que permitiría explicar por qué las partículas tienen masa y comprender las fuerzas fundamentales de la materia.
SINC
Previamente, científicos del CERN, el Laboratorio Europeo de Física de Partículas, habían establecido que el Higgs tendría una masa de entre 114 y 185 GeV/c2. Ahora, los últimos análisis de los datos extraídos en los experimentos del acelerador Tevatrón de Chicago excluyen de ese posible rango el intervalo entre 160 y 170 GeV/c2.
Además, esta semana el Fermilab ha anunciado el hallazgo del quark top "soltero" (single top), un quark sin su pareja de antimateria. "Esta observación nos da confianza en que será posible detectar también el Bosón de Higgs", afirma Javier Cuevas, coordinador del grupo de Física Experimental de Altas Energías de la Universidad de Oviedo que ha participado en ambos experimentos. "En caso de que el bosón de Higgs exista, los resultados que registraría el detector serían prácticamente los mismos que acabamos de observar con el descubrimiento del single top, aunque es posible diferenciar ambas partículas", explica Javier Cuevas.
La observación del top "soltero" permite la determinación de uno de los parámetros del modelo estándar, el acoplamiento entre el quark top, y el quark b, que forma parte de la denominada matriz de Kobayashi y Maskawa, los últimos Premios Nobel de Física. Por otra parte, los investigadores están utilizando en la búsqueda del bosón de Higgs la técnica desarrollada para este descubrimiento. La asturiana Bárbara Álvarez, que actualmente está en el Tevatrón de Chicago, presentará su Tesis doctoral en este análisis, supervisada por el profesor Javier Cuevas de la Universidad de Oviedo. Además, otro joven investigador, Bruno Casal, estudiante del IFCA que ha participado directamente en el experimento del single top, leerá su tesis, que desarrolla este tema, a finales de año y supervisada por A. Ruiz y R. Vilar.
Contribución española
En el hallazgo han participado investigadores de la Universidad de Oviedo, del IFCA (CSIC-UC, Cantabria), del Ciemat y del IFAE de Barcelona. Entre los apoyos a la participación española en el LHC y el Tevatrón se encuentran el Plan Nacional de I+D+i del Ministerio de Ciencia e Innovación y el Programa Marco de la UE, entre otros apoyos regionales, como el Plan de Ciencia Tecnología e Innovación del Principado.
Tevatrón versus LHC
"El acelerador Tevatron del Fermilab sigue abriendo caminos de investigación básica, que el LHC analizará en profundidad en los próximos años", valora el equipo de la Universidad de Oviedo.
El LHC, el Gran Colisionador de Hadrones que el CERN ha puesto en marcha en las inmediaciones de Ginebra volverá a funcionar este otoño, después de que el pasado 19 de septiembre una conexión eléctrica defectuosa entre segmentos del cable superconductor lo detuviera, y con él, a la máquina más grande y evolucionada del mundo. Pero, como explica Javier Cuevas, los comienzos del Tevatrón también fueron duros. "En esta sana competencia por la búsqueda del boson de Higgs, el LHC y el Tevatrón se complementan y contribuyen al estudio íntimo del comportamiento del Universo", afirma Javier Cuevas.
Científicos descubren una nueva mutación del Alzheimer
CORDIS
Los descubrimientos, sobre los que se ha publicado un artículo en la revista Science, podrían conducir a la creación de nuevos tratamientos contra el Alzheimer y tener implicaciones para el análisis genético de familias en las que hay antecedentes de esta enfermedad. El apoyo de la UE al estudio provino de la iniciativa NEURON («Red de financiación europea para la investigación neuronal»), financiada por la línea presupuestaria del Sexto Programa Marco (6PM) «Coordinación de las actividades de investigación».
El Alzheimer es una de las formas de demencia más comunes entre los más mayores. Se caracteriza por una acumulación en el cerebro de placas compuestas por fragmentos de proteínas beta amiloide. Estos fragmentos proceden de una proteína más grande denominada proteína precursora amiloide o APP. Los pacientes que la sufren acaban por perder la capacidad de razonar, recordar, pensar y comunicarse y aquellos que se encuentran en los estadios más avanzados de la enfermedad dependen completamente de terceras personas. Por el momento no existe una cura para la enfermedad de Alzheimer.
A pesar de que el porcentaje de los casos de Alzheimer que tienen origen hereditario es mínimo, las personas enmarcadas en esta categoría suelen desarrollar la enfermedad mucho antes y, además, su progresión es mucho más rápida si se compara con los casos «normales». Se ha identificado una serie de mutaciones relacionadas con el Alzheimer de aparición precoz, todas ellas localizadas en el gen responsable de la producción de APP o en los genes de la presenilina 1 y la presenilina 2.
Todas estas mutaciones son dominantes, lo que significa que la gente que tiene una única copia de la mutación desarrollará Alzheimer aunque también posea una versión sana del gen.
En cambio, la mutación genética que se acaba de descubrir es recesiva, lo que significa que las personas que la poseen no desarrollarán la enfermedad a no ser que hayan heredado dos copias de la misma. La mutación se detectó en un paciente con demencia precoz que acudió a su médico de cabecera con molestias relacionadas con el comportamiento y la cognición a la edad de 36 años. La situación del paciente continuó empeorando y en cuestión de ocho años era completamente dependiente. La hermana menor del paciente también padece una deficiencia cognitiva leve.
Al analizar la mutación se descubrió que provoca tanto una mayor producción de beta amiloide como una mayor tendencia de la beta amiloide a aglomerarse en placas.
No obstante, en pacientes con una copia del gen mutada y otra sana, la proteína normal y la mutada interactuaban de tal forma que la formación de placa quedaba paralizada. Este descubrimiento coincide con otro según el cual la gente que sólo porta una copia mutada del gen no sufre Alzheimer ni siquiera durante la vejez.
De acuerdo con los investigadores, estos descubrimientos muestran la importancia de analizar a gente con y sin demencia en busca de mutaciones del gen APP. Indican también que las variantes genéticas consideradas inocuas pueden llegar a provocar enfermedades en individuos con dos copias de dicha variante.
Los investigadores concluyen que «la identificación de dichas mutaciones podría ayudar a prevenir la enfermedad en los portadores.»
lunes, 16 de marzo de 2009
DOMÓTICA El hogar 'enchufado', más cerca
El futuro de la red de banda ancha en casa se despeja con una norma de la UIT
Conectará los electrodomésticos entre sí a través del enchufe
Se podrá ver TV en alta definición por Internet y en cualquier habitación
Imagine que ve su serie favorita en el televisor del salón. Como ya es tarde, prefiere terminar el programa en el ordenador de la habitación, así que pausa la retransmisión y continúa más tarde, como si tal cosa, tumbado cómodamente en la cama. No parece ninguna panacea tecnológica, desde luego, pero hasta hace poco era más bien un sueño.
El futuro de una red de banda ancha que conecte todos los electrodomésticos del hogar entre sí a través de la línea eléctrica o del teléfono se despeja. El principal impulso vino desde la Unión Internacional de Telecomunicaciones (UIT) al aprobar recientemente una norma para solventar las incompatibilidades que se daban entre las diferentes tecnologías disponibles para acceder a Internet por enchufe y fomentar la aparición de productos y servicios bajo un estándar común.
El desarrollo de esta tecnología combina las posibilidades de comunicar entre sí diferentes aparatos de la casa -como ordenadores, televisiones o teléfonos, por ejemplo- con una conexión a Internet mucho más veloz que en la actualidad, ya que puede llegar a los 320 Mbps. En España, todavía un elevado porcentaje de la población conectada mantiene 1 Mbps de velocidad, según denuncia la Asociación de Internautas.
Ver televisión en alta definición por la red y desde cualquier punto de la vivienda será una de las posibles aplicaciones de esta incipiente "red de entretenimiento en casa", tal y como la identifica la UIT. Hasta ahora, el principal obstáculo para el avance de la televisión por Internet era precisamente la limitada velocidad de las conexiones más habituales de banda ancha.
La infraestructura también permitirá progresos en otros terrenos como el de "la domótica del hogar o la telemedicina", afirma Malcom Johnson, director de la Oficina de Normalización de las Telecomunicaciones en la UIT.
La utilización de la red eléctrica emerge como una solución a los problemas de alcance en las actuales conexiones de banda ancha sin cables. Allá donde haya un enchufe será posible acceder a Internet. Esto no quiere decir que el WiFi desaparecerá, sino que podrá ser una alternativa, si se quiere, en caso de que éste falle.
Además, al utilizar líneas ya existentes en la casa se evita tender un nuevo cableado. La UIT cree que a partir del próximo año los fabricantes de chips podrían lanzar al mercado los receptores necesarios para poner todos los equipos en red.
HomeGrid Forum, organización creada para promover esta tecnología, cree que su implantación incrementará la fidelidad de los clientes hacia sus proveedores gracias a una mejor calidad de servicio. Mientras, HomePNA, una de las plataformas de fabricantes especializados en redes por cable en el hogar que ha accedido a colaborar con ella, asegura que permitirá incrementar el número de conexiones de banda ancha, captar nuevos clientes y que favorecerá la competencia en el sector.
El desarrollo de esta tecnología no está exento de un debate sobre el papel que los fabricantes tendrán sobre las redes de banda ancha del hogar. HomeGrid niega que la tecnología G.hn sea un intento de ceder control a los proveedores, como sostienen algunas voces críticas, y reafirma su posición neutral en este sentido. Lo cierto es que el estándar supone un marco, según la organización, tanto para la actividad de los proveedores como para el desarrollo de aplicaciones más enfocadas a los consumidores.
Cocinas solares
Es época de crisis. ¿Pero es sólo una o son varias? Hay una financiera, de la que todo el mundo habla y la que más noticias genera. Pero existe además una crisis ambiental y también una energética: los recursos de la Tierra están sobreexplotados y la Humanidad mantiene un ritmo de vida difícil de sostener. Este es el tipo de reflexión que ha llevado a un grupo de emprendedores a ofrecer un ejemplo de las soluciones que puedan allanar el camino a un futuro más verde y sostenible.
Alsol es el nombre de la empresa recién creada para fabricar cocinas solares. Un sencillo aparato capaz de obrar el milagro: generar calor con coste cero. Quizá la solución perfecta para una época de bolsillos en quiebra, de subida de tarifas eléctricas y de incertidumbre.
El Sol ha estado calentando la Tierra desde hace 5.000 millones de años y se cree que aún le quedan otros tantos de actividad. ¿Por qué no capturar parte de esas radiaciones y darles una aplicación útil? Eso es lo que hace la cocina solar: recoger los rayos solares mediante una parabola metálica construida con aleaciones de gran poder de refracción y concentrarlos todos en un punto focal en el que se sitúa un recipiente. El resultado es que, en unos pocos minutos, el agua hierve... Basta un poco de espacio y un día ligeramente soleado para poder cocinar cualquier plato.
Cocinando al sol en grupo.
El invento no es nuevo, desde luego. Ya Arquímedes recurrió al efecto lupa de los rayos solares para incendiar las naves enemigas que acosaban Siracusa. O eso al menos dice la leyenda. Lo que sí es nuevo es que, en pleno siglo XXI, alguien desarrolle el concepto para fabricar en serie un sencillo y útil aparato.
Al frente de la iniciativa está Manuel Vílchez, un dinámico activista ambiental catalán embarcado durante años en ofrecer soluciones eficientes y verdes para la vida cotidiana. Ahora, junto a un grupo de 18 socios, se ha transformado en empresario y ha puesto en marcha la primera compañia española que fabrica cocinas solares de precisión usando materiales de primera calidad. En Alsol prefieren referirse a su producto como "aparatos solar-domésticos" en contraposición a los "electro-domésticos" habituales.
Empleada en ayuda al desarrollo
La primera cocina solar fue diseñada hace 20 años por un ingeniero alemán, Dieter Seifert. Desde entonces ha sido destinada a la cooperación internacional, en proyectos de ayuda al desarrollo y protección al medio ambiente, por ejemplo para proporcionar una fuente de energía a poblaciones de áreas deforestadas, ahorrándoles el penoso esfuerzo de la búsqueda de madera y evitando que acabaran con la escasa vegetación en su búsqueda de leña.
Pero en Occidente la cocina solar es una desconocida. A Vílchez esta paradoja le parece un poco despreciativa para el mundo en desarrollo. Algo así como si el aparato sólo valiera para los pobres, pero nadie se atreviera a 'perder el tiempo' usándolo en el mundo rico. Por eso, lleva años haciendo demostraciones por toda España de cómo funciona. Pretende mostrar la capacidad de las energías renovables. "Basta una estructura de aluminio bien diseñada y expuesta al sol para fabricar una paella", afirma.
Efe
El presidente Zapatero observó en 2007 el funcionamiento de una cocina solar
Vílchez ha promocionado la cocina solar en multitud de foros. Hace dos años, durante una de esas demostraciones tuvo a un espectador de excepción en la figura del presidente del Gobierno.
Rodríguez Zapatero y la ministra de Medio Ambiente Cristina Narbona asistieron a la exhibición de Vílchez, que preparó una paella con la sola fuerza del sol durante la feria España Solar, celebrada en Madrid en junio de 2007. "Cocinar con el sol es el uso más sabroso de las energías renovables" dice Vílchez, "se disfruta mucho, tienes una aplicación inmediata del poder de la energía solar y tienes el refuezo del alimento que preparas con el sol ante tus ojos, que es una cosa que le llega a todo el mundo".
Herramienta divulgativa
¿Será la cocina solar la solución para todos hogares españoles? En realidad, no, porque los inventores no pretenden que todos nos olvidemos de los fogones, las vitrocerámicas y demás aparatos habituales. "No es una propuesta para sustituir nuestras cocinas, nadie lo ha hecho ni lo ha pensado", afirma Vílchez, "pero con los tiempos que vienen y los que corren es un "símbolo de cultura energética, del conocimiento y la experiencia con las renovables".
Los fabricantes de Alsol piensan que es una herramienta divulgativa y educativa estupenda para sensibilizar a los ciudadanos en la cultura del ahorro energético. "Es un vehículo de difusión de cultura energética para la ciudadanía. A una sociedad como la europea, analfabeta en cuestiones energéticas y con necesidad de caminar hacia las renovables, pero que no sabe nada, le viene muy bien tener esto para aprender a sensibilizar jugando".
[foto de la noticia]
Los 18 socios de Alsol no han montado la fábrica, sino que han recurrido a un taller existente para materializar los productos. Ellos se encargan del diseño y la distribución. El coste de una cocina básica es de 265 euros, un precio que apenas deja margen por el coste de la materia prima y porque "los procesos industriales pequeños llevan muchos gastos además del de la mano de obra, que es mucho por ser una cocina muy manual pero con alta calidad de acabados", afirma Vílchez.
La previsión es fabricar unas 900 al año del modelo Alsol 1.4, que tiene un diámetro de parábola de 140 centímetros. Este aparato desmontable tiene una potencia de 600 watios y es capaz de calentar un litro de agua en ocho minutos y funcionar a una temperatura máxima de 200º C con aceite.
Ya hay planes para hacer modelos medianos y pequeños y toda una gama de accesorios. Además, hay contactos con fabricantes de cacerolas y tapaderas. Y se está investigando materiales que permitan emplear el calor retenido, afirma Vílchez..
Sobre su exportación al Tercer Mundo, Vílchez opina: "Se ha usado mucho en cooperación. Pero en muchos lugares es difícil de entender. Tiene que ser una ayuda y un complemento a lo que tengan, pero no un sustituto ni una imposición. Es verdad que sirve de mucho en lugares con problemas de leña y deforestación, como el Sahel. Pero nosotros no queremos hacerlas para fuera. Queremos que los ciudadanos españoles las vean, conozcan el poder del sol y piensen que el camino futuro es el de las renovables".
Para el promotor de la cocina solar, tener una en las escuelas españolas sería importante para que las nuevas generaciones comprendan en directo el poder del sol.
Suscribirse a:
Entradas (Atom)
El Cielo
Explosion de Una Supernova
Bienvenidos aquellos que no se conformen en ver en tres dimensiones
Saludos mis amigos(as) ; Colegas y estudiantes
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria