En este Blog Creado Por Ana Del C. Torres, MIS y Profesora UIA es una manera facil rapida y sencilla que se ira actualizando con articulos y enlaces de Tecnologia . Ciencia , Redes . Con temas relacionados con Investigaciones y aportaciones en las Ciencias de Inteligencia Artificial.En Investigaciones Paranormales podras ver articulos y los links de los sites de: Dante Franch,ovni.net entre otros. Todo aquel que desee desarrollar ideas para mejorar este Blog esta bienvenido
Turbinas de Viento
Amazing
Portal De Tecnologia y Ciencias
jueves, 30 de diciembre de 2010
¿No querías tableta? Pues...
El pasado 22 de diciembre hacía un breve repaso por algunas de las marcas que, se esperan, presenten nuevas tabletas durante la próxima semana. Más vale que le guste esto de pellizcar cristales y pulsar con el dedo sobre la pantalla porque vamos a tener sobredosis. Recopilando información para varios artículos en los que estoy trabajando me he encontrado con una lista de por lo menos media docena y probablemente me deje alguna en el tintero (¿LG o MSI, tal vez?) Por ahora tengo:
1. Asus. Ayer pusieron los dientes largos soltando en la red la foto que acompaña este post. Va a presentar una tableta ligera y pequeña como el iPad o el Galaxy Tab y equipada con Android pero también algunos modelos más pesados e incluso híbridos de portátil y tableta equipados con Windows.
2. Acer. Ya mostró en diciembre sus apuestas para este mercado. Llegarán en primavera y apostará también por dos sistemas operativos: Android y Windows. También tendrá diferentes tamaños de pantalla, de siete pulgadas a diez.
3. HP. Todo apunta a que desvelará sus planes para WebOS y que estos tendrán que incluir, casi seguro, un dispositivo de tamaño y prestaciones parecidas a las propuestas de Apple y Samsung. WebOS es uno de los sistemas operativos móviles más interesantes pero lleva casi medio año moviéndose con desesperante lentitud.
4. RIM. En Las Vegas habrá oportunidad de ver el PlayBook en acción aunque los últimos rumores apuntan a un retraso en su lanzamiento hasta mayo debido a la escasa autonomía que tiene el prototipo que hasta ahora se ha enseñado en ferias y demás.
5. Motorola. Su polémico vídeo prácticamente le obliga a sorprender en la feria con un modelo
6. Dell. Streak ha pasado por 2010 con un éxito discreto. Ahora la compañía americana apuesta por un modelo de mayor tamaño.
Y por supuesto una docena de modelos de referencia de fábricas chinas, el esqueleto que luego usan los grandes para construir sus propios productos, y muchos productos de marca secundaria o desconocida.
Lo interesante es que muchas de ellas vienen sin una fecha de lanzamiento concreta y con la gran incógnita del precio. Parece que el hardware está más o menos listo pero aún no hay una fecha definitiva para el debut de Honeycomb, la versión de Android que moverá estos bichos. Tampoco se sabe muy bien si los modelos con Windows tendrán una versión adaptada especial o simplemente se limitarán a usar Windows 7, una fórmula que no ha dado buen resultado este año.
Entrevista a Sebastian Mallaby
Sebastian Mallaby. | Getty
La historia del los hedge funds 'More Money Than God' ('Más dinero que Dios'), de Sebastian Mallaby, fue derrotada por 'Fault Lines', del ex economista jefe del FMI Raghuram Rajan, en la lucha por el Premio al Libro Financiero del Año de Goldman Sachs y Financial Times. Aún así, la obra de este ex periodista de 'The Economist' y actual investigador del Consejo de Relaciones Exteriores, que también ha sido finalista dos veces al Pulitzer, se ha convertido en uno de los libros del año en EEUU.
Pregunta: ¿Está la crisis de la deuda de España, como dicen algunos, generada por ordenadores que usan HFT captando diferencias diminutas en el precio y el interés de los bonos?
Respuesta: Al contrario. Todas las operaciones en Europa son ahora fruto del análisis de la situación política. Eso se debe a que en el ‘macro trading’ [operaciones basadas en acontecimientos macreoconómicos, como la supervivencia del euro o la recesión en España] los Gobiernos tienen un poder enorme. Si un hedge fund llegara a la conclusión de que el BCE no va a seguir comprando deuda española indefinidamente o que no va a haber un rescate del país si la situación empeora, podría atacar a España. Pero sólo lo haría para acelerar un colapso que ya se iba a producir por sí solo.
P.- Algunos fondos cuantitativos han detectado una relación entre el buen tiempo y las subidas de la bolsa, y otros entre la cotización de la aerolínea United Airlines y la papelera International Paper. Hasta el verano, el precio del petróleo y del cobre iban de la mano, igual que los de la energía y las materias primas agrícolas. ¿No dispara eso la volatilidad del mercado, al conectar activos que no tienen nada que ver entre sí, máxime usando HFT?
R.- Yo creo que los sistemas cuantitativos no generan más volatilidad. Por ejemplo, en 1980, la plata y el precio del ganado tenían una correlación del 100% [es decir, sus precios evolucionaban exactamente igual] cuando los Hermanos Hunt [dos inversores especializados en oro y en materias primas preciosas] tuvieron que cerrar sus posiciones en ambos mercados. Así que pueden producirse correlaciones sin sentido sin necesidad de usar 'Quants'.
P.- Los primeros 'grandes' de los hedge funds —como Alfred Winslow Jones o Soros— usaban mucho el análisis técnico. Ahora utilizan más el análisis cuantitativo y el HFT.
R.- Sí, Robertson [uno de los gestores de más éxito de los ochenta y noventa con su fondo Tiger, es decir, Tigre] se basaba mucho en análisis cuantitativo, pero también analizaba factores como la moral del equipo gestor de las empresas en que invertía. Y esa tradición se mantiene con los 'cachorros del Tiger0 [los fondos herederos de Tiger]. Pero Jim Simons [el fundador de Reinassance] es más cuantitativo y propenso al trading de alta frecuencia. Éste es un tipo de 'trading' que no existía en los 80, pero que está ganando importancia, sin duda.
Las máquinas que controlan la economía
El Western Union del número 60 de la calle Hudson, base de programadores.
• Entrevista al experto en los hedge founds, Sebastian Mallaby
• 'Se puede lograr una rentabilidad del 5%, pero se tarda dos semanas'
• 'No ven la televisión ni oyen la radio, así que no son proclives a pánicos'
Sergei Aleynikov ha sido declarado culpable de robar un algoritmo. Y le pueden caer 10 años de cárcel. Un algoritmo es, según el Diccionario de la Real Academia, "un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema". Y, también, "un método y notación en las distintas formas del cálculo". Nadie conoce los detalles del algoritmo que robó Aleynikov. Pero sí hay una cosa clara: es una herramienta matemática que permite a su propietario, el banco de inversión Goldman Sachs, ganar millones de dólares al año.
Aleynikov no era un 'trader' de Goldman Sachs, sino un programador de ordenadores del banco, en el que cobraba 400.000 dólares brutos anuales (300.000 euros). En 2009 este ciudadano estadounidense emigrado de Rusia en 1991, recibió una oferta de 1,15 millones de dólares brutos (875.000 euros) para irse a trabajar a Teza Technologies, en Chicago. Aleynikov aceptó y decidió llevarse el algoritmo con él, transfiriéndolo a un servidor en Alemania. Goldman Sachs le descubrió. Y acabó en la cárcel.
Teza Technologies quería el algoritmo de Goldman porque es una empresa que hace 'trading de alta frecuencia'. O, como se le conoce en Estados Unidos, 'HTF' ('High Frequency Trading'). Es un tipo de operación en mercados financieros basado en el uso de ordenadores y programas informáticos que compran y venden en literalmente milisegundos todo tipo de activos financieros. Es un sistema prácticamente desconocido por el gran público, pero que se ha convertido en el rey de los mercados.
Así, mientras la opinión pública sigue pensando en las viejas mesas de contratación atendidas por jóvenes con camisa y corbata mirando una pantalla mientras chillan "compra" o "vende", la gran mayoría de las transacciones financieras del mundo las hacen ordenadores programados y almacenados en edificios como el nuevo centro de datos por valor de 76 millones de euros que Atlantic Metro Communications está construyendo cerca de Wall Street, para acomodar fundamentalmente ordenadores, técnicos y programadores.
Cada una de esas máquinas rastrea permanentemente el mercado, analizando las diferentes plataformas de contratación—sean éstas bolsas, mercados de renta fija o materias primas, prácticamente a la velocidad de la luz. Su objetivo es encontrar tendencias en la evolución de los precios de los activos, o anormalidades en el mercado.
Operando a 0,0025 segundos
Por ejemplo, una acción de una empresa puede cotizar durante unos segundos un céntimo más cara en Frankfurt que en Londres. En ese caso, el ordenador compra esas acciones en Londres y las vende en Frankfurt. O puede estar lanzando constantemente órdenes de compra y venta, buscando infinitesimales diferencias de precios con las que hacer beneficio. En el fondo, es el clásico 'comprar barato y vender caro', pero con márgenes de decimales y en tiempos que no superan los 0,0025 segundos.
Los márgenes son minúsculos. Pero el volumen de las operaciones, inmenso, como demuestra que los alquileres del edificio de Western Union en el número 60 de la calle Hudson -el centro de comunicaciones más próximo a Wall Street— se hayan disparado.
Pero con el HTF también han crecido las incertidumbres. Porque no hay que olvidar que el mercado queda, así, en manos de máquinas. Según la revista Institutional Investor, nada más y nada menos que entre el 50% y el 70% de todas las transacciones en todas las Bolsas de Estados Unidos se realizan por medio de 'trading de alta frecuencia', a pesar de que esta técnica sólo empezó a popularizarse a partir de 2004.
En el mercado de divisas su presencia es aún más reciente: llegó en 2007, y ya supone el 25% del mercado 'spot' (al contado), de acuerdo a este estudio del Banco de Pagos Internacionales de Basilea (BIS, según sus siglas en inglés). Eso significa que 283.000 millones de euros en monedas cambian de manos cada día por medio de este sistema.
Los expertos afirman que las cifras son más pequeñas. "El HTF emplea muy poco capital. Si, por ejemplo, dicen que un banco invierte un millón de dólares en 'trading de alta frecuencia', puede ser en realidad que un ordenador haya comprado y vendido 20 veces acciones por 50.000 dólares", ha explicado a ELMUNDO.es Irene Aldridge, autora del libro 'High Frequency Trading' y socia del Able-Alpha Trading, una consultora especializada en estas operaciones.
Eso explica aparentes paradojas como que, según la consultora británica TABB, el 'trading de alta frecuencia' supusiera el 60% de los intercambios de títulos en EEUU y el 40% en el Reino Unido en 2009, pero sólo alcanzara un volumen de negocio de 16.000 millones de euros. La mayor parte de las operaciones de este tipo son de autocartera, o sea, realizadas con fondos propios —no de los clientes— por los bancos y fondos.
Las ventajas
Las ventajas de este trading son evidentes. Con el 'análisis fundamental', que se basa en examinar los estados financieros de una empresa, "se puede lograr una rentabilidad del 5%, pero se tarda dos semanas", explica Aldridge, ya que hay que analizar la información y dar las órdenes de compra. Con el HFT el margen es del 0,1%, pero se repite muchas veces a lo largo del día. Además, en este segmento del mercado, los costes están cayendo constantemente. El ordenador que valía 2 millones de euros en 1984 cuesta hoy 1.000, aunque eso no incluye programarlo, algo que es mucho más caro.
El HFT, está transformando de arriba abajo la operativa de los mercados financieros. Sus consecuencias son cuatro:
• La transformación de los brokers en una especie en peligro de extinción. "Los bancos están reemplazando a todos esos intermediarios que les cuestan millones de dólares al año con ordenadores", explica Aldridge. Un ordenador como los utilizados en HFT no cuesta más de 1.000 euros. A su vez, programarlo no sale por menos de 225.000 euros, si bien normalmente la cifra real es mucho más alta. En todo caso, esas cantidades son inferiores a las de un 'broker' que cobra fácilmente 2 ó 3 millones de euros cada año;
• La destrucción del análisis técnico, es decir, del examen de los 'charts' y gráficos de bolsa. En realidad, el HTF sólo ha acelerado una tendencia desatada con la llegada de los 'quants', es decir, de expertos —a menudo físicos, astrónomos o matemáticos— capaces de desarrollar modelos de análisis de los valores cada día más sofisticados. El 'trading de alta frecuencia' no puede sobrevivir sin este tipo de sistemas, por lo que su demanda es cada día mayor. Así, el hedge fund Renaissance Technologies, probablemente el más rentable del mundo, tiene 300 empleados, y ni un solo economista. Su fundador, Jim Simons, era uno de los matemáticos más prestigiosos de EEUU, con una amplia carrera en el mundo académico y en el de la Defensa, hasta que a los 40 años decidió que ya estaba bien de investigar y que iba a aplicar sus conocimientos matemáticos a buscar tendencias en el mercado y diferencias imperceptibles en precios. El resultado: una fortuna de 6.500 millones de euros, según 'Forbes';
• La creación de una nueva generación de instituciones financieras, desconocidas por el gran público, pero que están entre las más rentables del mundo y que, además, frecuentemente no tienen sus cuarteles generales en Nueva York o el Londres. Renaissance—que está cerca de los Hamptons, una zona turística a 200 kilómetros de Nueva York—es sólo una de ellas. Otras destacadas son Getco —en Chicago—y Tradebot—en Kansas City—, las 'número uno' y 'dos' del sector, respectivamente, con un volumen de transacciones diario superior en cada una de ellas a los mil millones de acciones. En total, entre 200 y 400 bancos, brokers y fondos realizan ‘trading de alta frecuencia’ de forma regular en EEUU, aunque los activos con los que operan son de lo más normal: Citigroup, Bank of America, General Electric e Intel han sido los cinco valores más negociados por estos traders entre abril de 2008 y abril de 2010, según la consultora Woodbine Associates;
• La explosión del mercado. Hasta hace apenas tres o cuatro años, la mayor parte de las operaciones de cambio de divisas, por ejemplo, se hacían por teléfono. Ahora, cada día se utilizan más ordenadores y HTF. La consecuencia, según el BIS, es que el volumen del mercado de divisas ha crecido un 20% en tres años, hasta rozar los 4 billones de dólares diarios (3 billones de euros) "a pesar de la crisis financiera de 2007 a 2009 y de las recientes turbulencias en el mercado de bonos soberanos europeos".
Ahora bien, el 'trading de alta frecuencia' también es controvertido. Como ha señalado el senador por Delaware Ted Hauffman "tenemos todos esos gorilas, y ¿sabes qué? los metemos en zoos con gente que no tiene ni la autoridad ni la información para manejarlos".
Y es que el 'high frequency trading' tiene muchos enemigos. Por varios motivos. El más obvio, como señala Hauffman, es que no está regulado. Para complicar las cosas, estas operaciones se llevan a cabo a menudo en los llamados 'dark pools', es decir, mercados en los que el comprador y el vendedor no se identifican, con lo que la opacidad de la operación es total. En tercer lugar, los 'traders de alta frecuencia' suelen operar con muy poca liquidez, con lo que, "pueden caer como dominós si un acontecimiento inesperado les obliga a mantener posiciones en las que registran minusvalías por poco más de unos segundos", como han explicado Nicholas Paisner y Edward Hadas en el boletín 'online' Breakingviews.
También está el hecho de que los algoritmos no tienen en cuenta la calidad de la gestión de una empresa o la situación política de un país que acaba de realizar una emisión de bonos: a ellos sólo les interesa el precio y la marcha del mercado. Para los ordenadores, los bonos de Portugal, España, Grecia, Francia o Bélgica no son deuda de países con Gobiernos, sindicatos y situaciones políticas diversas, sino simplemente activos financieros que comprar y vender. En ese contexto, los ordenadores refuerzan de forma dramática las tendencias del mercado.
Así se pueden producir aberraciones como las sucedidas durante el 'flash crash', es decir, el famoso derrumbe de Wall Street del 6 de mayo, cuando el parqué neoyorkino perdió 998 puntos en cinco minutos y los recuperó en otros quince. En aquella ocasión, el operador de alta frecuencia Tradervox llegó a vender, en un claro ejemplo de cómo pueden reaccionar los ordenadores en un contexto de caos, acciones del gigante de la consultoría Accenture por un centavo de dólar, a pesar de que la empresa cotizaba a cuarenta dólares antes de que el mercado, literalmente, se volviera loco.
Pero ésa es sólo la parte negativa del HTF. Los defensores de este sistema usan casi los mismos argumentos para ensalzar sus ventajas. Afirman, en primer lugar, que los algoritmos "no ven la televisión ni oyen la radio, así que no son proclives a pánicos ni a euforias especulativas", como señala Aldridge. Es decir: estabilizan el mercado. Al mismo tiempo, su operativa incrementa, al menos en teoría, la liquidez del mercado.
Lo cierto es que, mientras el debate continúa, el high frequency trading sigue creciendo. Los esfuerzos de los demócratas del Senado de EEUU por regularlo están virtualmente paralizados después de que en las elecciones del pasado 2 de noviembre los republicanos, que se oponen de plano a cualquier control, lograran una minoría de bloqueo lo suficientemente grande como para impedir cualquier reforma. Y, al fin y al cabo, hay que tener en un cuenta que, por mucho que se eche la culpa a los ordenadores, los programadores son siempre seres humanos. De hecho, el 'flash crash' del 6 de mayo no empezó con ningún ordenador, sino complemente con un operador que dio una orden de venta de Accenture tan monstruosamente alta que tumbó él sólo el mercado.
Lo cual puede ser bueno o malo. Como afirma en sus memorias 'My Life As a Quant? Emanuel Derman, un físico sudafricano que fue uno de los pioneros de los métodos cuantitativos en Wall Street, y que hoy da clase en la Universidad de Columbia, "a capacidad de provocar tremenda destrucción con tus modelos es una fuente de enorme responsabilidad". Por ahora, sin embargo, a quien han traído más destrucción los algoritmos del ‘trading de alta frecuencia’ es a Sergei Aleynikov.
El muro fronterizo complica la recuperación de los bisontes en México
Imágen de un bisonte americano conocido como 'Bison bison'.
Efe | México
La recuperación de la población de bisonte americano, una especie prácticamente desaparecida en el territorio mexicano, se ha visto dificultada por la construcción del muro fronterizo entre México y Estados Unidos que se interpone en sus rutas migratorias.
El mamífero terrestre más grande del continente americano, cuyo nombre científico es 'Bison bison', habitó las planicies del norte de México por cientos de años, pero la industrialización y el empleo de su piel para elaborar cintas de transporte en máquinas, prácticamente lo extinguió en el territorio mexicano.
Por esta razón, varios especialistas negaban incluso que hubiera pertenecido a la fauna mexicana, según ha explicado este miércoles el científico Rurik List, del Instituto de Ecología (IE) de la Universidad Nacional Autónoma de México (UNAM).
List y un grupo de investigadores demostró que los norteños estados de Sonora, Chihuahua, Coahuila, Nuevo León, Durango y posiblemente Zacatecas, fueron parte del hábitat original del bisonte. Sin embargo, más allá de la depredación que el bisonte sufrió en México los investigadores están ahora preocupados por cómo un muro fronterizo con Estados Unidos puede dificultar sus movimientos en este país.
Por esta razón, los científicos mexicanos pretenden que las autoridades estadounidenses reconsideren la construcción del muro fronterizo, el cual busca impedir el ingreso de migrantes indocumentados a territorio estadounidense, en áreas biológicamente importantes para el movimiento de animales como el bisonte.
Los últimos bisontes
En México existen solamente dos manadas de bisontes americanos, que se mueven ambas libremente por las inmediaciones de la reserva de la biosfera de Janos, de 543.000 hectáreas, ubicada en el estado de Chihuahua, fronterizo con EEUU.
El origen de la primera manada, descubierta en 1988 por Gerardo Ceballos, investigador de la UNAM, podría estar en dos donaciones de animales en la década de 1920 y en los años cincuenta del gobierno de Arizona (EEUU) al de Chihuahua, "con lo que se formó una población que se ha movido por más de 80 años entre México y Estados Unidos".
En 2003, después de varios intentos, List efectuó una serie de vuelos por la zona y encontró a ese grupo de alrededor de 130 ejemplares, a los que les ha seguido la pista.
"Descubrimos que se mueven en dos ranchos de Estados Unidos y tres de México. En nuestro territorio son considerados especie en peligro, protegida por las leyes, pero en cuanto cruzan la frontera se consideran ganado", precisó.
La segunda manada fue donada por el Parque Nacional de 'Wind Cave', en Dakota del Sur (EEUU) y consta actualmente de 21 ejemplares y una cría.
La secuenciación del genoma del árbol del cacao mejorará la calidad del chocolate
Árbol del cacao ( 'Theobroma cacao')
•Identifican 28.798 genes de una variedad del árbol del cacao llamada criollo
•El hallazgo ayudará a obtener plantas más resistentes y a mejorar las cosechas
Con razón lo llaman el 'alimento de los dioses'. Gracias al árbol del cacao ('Theobroma cacao') obtenemos exquisitas variedades de chocolate que los científicos esperan mejorar muy pronto tras haber logrado descifrar el genoma de una de las mejores y más delicadas variedades de esta planta que crece en Centroamérica y algunos países de América del Sur.
La secuenciación del genoma del árbol del cacao permitirá crear variedades más resistentes y mejorar la calidad de este preciado alimento que los humanos disfrutamos desde hace más de 3.000 años gracias al buen hacer de mayas y aztecas.
Al mismo tiempo, un grupo de científicos estadounidenses ha logrado descifrar el genoma de la fresa salvaje ('Fragaria vesca'), una especie similar a la fresa cultivada pero biológicamente más simple.
Mejores cosechas
Ambos estudios, publicados en el último número de la la revista 'Nature Genetics', ayudarán a conseguir plantas más resistentes a las plagas y contribuirán a mejorar las cosechas de ambos productos.
La investigación sobre el genoma del árbol del cacao ha sido coordinada por el Centro para la Cooperación Internacional en la Investigación Agrícola para el Desarrollo (CIRAD, en sus siglas en francés). Para llevarla a cabo se escogió una variedad del árbol de cacao conocida como criollo y que es utilizada para producir chocolates negros de excelente calidad. Los mayas descubrieron sus propiedades hace más de 3.000 años y es uno de los árboles más antiguos que siguen siendo cultivados en Centroamérica. De esta planta se obtiene también la manteca de cacao, una sustancia muy utilizada para fabricar cosméticos y alimentos.
28. 798 genes
Sin embargo, esta planta tropical es muy delicada y particularmente susceptible a las plagas, por lo que, a pesar de su gran calidad, la producción del cacao a partir de la variedad criolla no es siempre rentable. Para asegurarse una buena cosecha, la mayoría de los agricultores suele escoger variedades más resistentes y de peor calidad. De hecho, apenas el 5% de la producción mundial de cacao se obtiene a partir de este tipo de árboles, según señalan los autores del estudio, encabezados por el francés Xavier Argout.
En concreto, los científicos han identificado 28.798 genes en el árbol del cacao. Entre ellos están los que influyen en el sabor, el olor y el color del chocolate, así como los que determinan el nivel de antioxidantes.
También han localizado un grupo de genes que ayudan a proteger al árbol de enfermedades. Gracias a ellos los científicos esperan poder desarrollar nuevas variedades con tanta o incluso mayor calidad que la variedad criolla pero más resistentes a las plagas, con lo será más fácil producir excelentes chocolates.
El alimoche colonizó las Islas Canarias gracias al hombre
Un alimoche en un centro de recuperacion. | Marga Estebaranz
El alimoche o buitre egipcio ('Neophron percnopterus') se asentó en las Islas Canarias hace unos 2500 años a raíz de la llegada de los primeros colonizadores, según un estudio del CSIC. Antes, el alimento de este ave carroñera se basada en los restos de roedores y algunas aves, pero con las primeras poblaciones de beréberes llegaron los grandes mamíferos terrestres, y así su expansión y fortalecimiento.
Rosa Agudo, investigadora de la Estación Biológica de Doñana (CSIC) y sus colegas, han realizado un estudio comparativo en el que se demuestra que la comunidad de alimoches canarios presenta importantes ventajas físicas en comparación con los grupos de esta especie presentes en otros puntos de la Península Ibérica.
La investigación, que ha sido publica en el último número de la revista BMC Evolutionary Biology, revela que los carroñeros canarios son un 16% ciento más pesados y un 3% más grandes que sus semejantes peninsulares. La comparación se ha efectuado entre 242 alimoches de Fuerteventura y otros 143 ejemplares nativos de otros puntos de la Península Ibérica. Según los investigadores, se trata de un estudio pionero, ya que demuestra que los asentamientos humanos también pueden aportar beneficios para el fortalecimiento, diversificación y expansión de determinadas especies de la fauna silvestre.
"Los resultados sugieren que la actividad humana puede provocar la evolución divergente de una especie en una escala de tiempo relativamente breve", explica Rosa Agudo, una de las responsables de la investigación. Los resultados indican que la llegada al archipiélago de las primeras poblaciones de beréberes, procedentes del norte de África, lo convirtió en un espacio con abundantes fuentes de alimento gracias a sus rebaños de cabras. Este suceso no sólo facilitó la colonización del alimoche, catalogado como especie en peligro de extinción por la Unión Internacional para la Conservación de la Naturaleza, sino que además propició su expansión.
Antes de la llegada de los colonos, las Islas Canarias sólo ofrecían a los carroñeros los restos de roedores, aves y algunas especies marinas. La ausencia de grandes mamíferos terrestres y animales domésticos explica que esta especie no se interesara por el territorio canario antes de la llegada de los colonos.
El mapa más detallado de la Tierra, disponible en Internet
El mapamundi elaborado con la información del satelite Envisat. | ESA
La Agencia Espacial Europea presenta su nuevo mapa de la superficie terrestre
•Permitirá a los científicos estudiar los efectos del cambio climático
•Esperan que la información cartográfica ayude a prevenir crisis humanitarias
El nuevo mapa mundial de la superficie terrestre ya está a disposición del público y puede consultarse gratuitamente en Internet a través del portal del proyecto GlobCover. Se trata de la cartografía más detallada elaborada hasta ahora.
Este mapamundi ha sido desarrollado por la Agencia Espacial Europea (ESA) en colaboración con la Universidad Católica de Lovaina (Bélgica) y cuenta con una gran resolución, diez veces superior a la de otros mapas. La anterior versión de GlobCover, publicada en 2005, fue descargada por unas 8.000 personas.
La cartografía fue creada a partir de los datos obtenidos a lo largo de 2009 por el satélite Envisat, que fue lanzado al espacio en 2002. En concreto, se utilizó el instrumento MERIS (Medium Resolution Imaging Spectrometer), con una resolución de 300 metros.
Prevenir crisis humanitarias
El mapa podrá ayudar a los científicos a estudiar los efectos del cambio climático y será una herramienta útil para frenar la pérdida de biodiversidad en el planeta.
Naciones Unidas participa en el proyecto a través de la Organización para la Agricultura y la Alimentación (FAO) y de su Programa de Medio Ambiente (UNEP). GlobCover será utilizado para actualizar los datos disponibles sobre los cambios que se están produciendo en la superficie terrestre.
Uno de los principales objetivos será mejorar la capacidad de la comunidad internacional para reaccionar ante una catástrofe natural o una crisis humanitaria antes de que sea demasiado tarde.
La detallada información ofrecida por el mapa ayudará a identificar con antelación en qué zonas del globo es probable que se produzca una emergencia.
7.000 millones de seres humanos en 2011
Ya somos casi 7.000 millones de seres humanos. | AP
• El mayor crecimiento demográfico se registra en la actualidad en África
Esta Nochevieja, sobre la superficie de nuestro pequeño planeta vivirán 6.934 millones de seres humanos. Es más del doble que hace sólo 50 años. A lo largo de 2011, la cifra superará los 7.000 millones y las previsiones de Naciones Unidas apuntan a que a mediados de este siglo se alcanzarán los 9.000. Son números que para algunos ponen a la Tierra al borde del colapso, aunque cada vez son más los que entienden que no se trata de un problema de superpoblación, sino de un insoportable derroche cada vez mayor de recursos naturales que son limitados.
Entre los que ahora resucitan las viejas teorías de Thomas Malthus está la Fundación de Población Mundial (DSW, en sus siglas en alemán). Malthus, en su tratado de 1798, ya aventuraba que la población crece más rápidamente que los recursos, y por ello predecía que se producirían guerras, epidemias y hambre entre los pobres para alcanzar el equilibrio.
En un informe presentado en Hannover, DSW ha recordado esta semana que cada segundo nacen 2,6 bebés, haciendo hincapié en que el 82% de esa población vive en países en desarrollo y que es en África donde crece a mayor ritmo.
De hecho, se prevé que la población africana alcanzará los 2.000 millones hacia 2050, el doble que en 2010. "La mayoría de los países africanos ya no produce lo suficiente para sus habitantes. La pobreza en África subsahariana se reduciría una quinta parte si se pudieran evitar allí los embarazos no deseados", apunta en su comunicado.
Embarazos no deseados
Su directora, Renate Bähr iba más lejos. "Hoy 75 millones de mujeres de países emergentes tienen embarazos no deseados porque no tienen información sobre contracepción. Si queremos luchar contra la pobreza, debemos evitar estos embarazos", argumentaba.
Sin embargo, la demografía apunta otro dato: el ritmo de aumento de la población mundial se ha reducido más del 40% desde los años 70. Es más, en Europa no se llega al nivel de reemplazo (2,1 hijos por mujer) y en España sólo es de 1,4, lo que se logra gracias a las inmigrantes.
Desde otra perspectiva, según la Asociación de la Población americana, todos los habitantes de la Tierra ocuparían el equivalente al estado de Texas, con 500 metros cuadrados para cada familia. Entonces, ¿realmente somos tantos? "No. Y ese ritmo de aumento está disminuyendo deprisa. Se cree que tocaremos techo en los 9.000 millones, pero esa estabilización no vendrá de la planificación familiar impuesta, sino de la disminución de la pobreza. Cuando en África se viva mejor, tendrán menos hijos", señala el demógrafo del CSIC Julio Pérez Díaz.
Desde el ámbito ecologista, Juan Carlos del Olmo, secretario general de WWF España, recuerda que, a su actual ritmo de consumo, ya son precisos dos planetas y medio: "La auténtica bomba en este planeta es la combinación de una población muy elevada con un consumo desaforado. Si todos los humanos derrocharan recursos como aquí, estallaría".
2011: El año en que Nintendo le vio las orejas a Apple
Dicen que 2011 va a ser un año de portátiles y de secuelas en las consolas grandes. Los datos que tenemos hasta el momento apoyan esta sensación. Para empezar, Nintendo lanzará su 3DS en marzo, convirtiéndose en el primer dispositivo con tecnología 3D que no necesita gafas para ser visualizado. Nuevos conceptos de juegos en los que tres dimensiones, realidad aumentada y modelo de juegos en descarga se darán la mano en torno a una consola a la que, a priori, solo le falta conexión 3G para ser definitiva.
Por otro lado, Sony ya está empezando a lanzar sus globos sonda sobre una heredera para la PSP, una segunda oportunidad para la portátil del gigante japonés que introduzca el control táctil y quizá también tecnología 3D, pero al estilo de la hermana mayor, la PS3.
Esa es otra de las apuestas para este 2011: las tres dimensiones. Pero una apuesta en la que parece que Sony se ha quedado sola. PlayStation ya ha apostado por ellas en 2010 a través de Gran Turismo y lo próximo será Killzone 3, sin embargo, hasta que no haya suficientes teles con tecnología 3D en las casas, no tendrá sentido seguir haciendo juegos que aprovechen esta tecnología porque dividirían o harían que los estudios dedicasen muchos recursos a un aspecto ‘menor’ del juego.
Lo que no tiene pinta de decaer es el modelo de juegos en descarga tal y como lo han planteado Apple y Android. El único peligro de éstos es la ‘selva’ de contenidos en la que se están convirtiendo los bazares de aplicaciones y juegos en los que solo destacan algunos productos extraordinariamente (y a veces hasta extrañamente) populares. Nintendo se apunta a la descarga con 3DS. Cierto que DSi ya permitía descargarse algunos juegos y aplicaciones y que WiiWare lleva funcionando más de dos años (como también las tiendas de juegos de Xbox Live y PlayStation Network), sin embargo ahora Nintendo ha decidido ponerse una venda en los ojos, abaratar el kit de desarrollo para 3DS y levantar la mano en cuanto a las restricciones de contenido. Saben que por ahí les está ganando Apple y Android la batalla y que por ahí es por donde tienen que atajarla.
Y con este modelo de descarga constante y de consumo rápido y encapsulado, las compañías desarrolladoras de superproducciones se plantean un nuevo método de distribución que en cierto modo ya está introduciéndose en el mercado, los juegos por entregas, como las series de televisión. Venta de juegos por capítulos emulando el éxito de las series de la tele en los últimos tiempos. Esto no quiere decir que los juegos largos se vayan a acabar, pero sí que se plantea una tendencia a acortar y abaratar para ofrecer consumo rápido y desarrollos más flexibles y adaptados a lo que va pidiendo el jugador.
En cualquier caso, 2011 no será un año revolucionario en cuanto al concepto de las grandes producciones. Destacan en los listados de lanzamientos las secuelas a títulos con un número 3 al final (Gears of War 3, FEAR 3, Uncharted 3, Mass Effect 3,…), es decir, lo mismo de siempre pero ‘repeinado’. Más balas, más bichos, más alto y más feo… pero con la misma cojera habitual en conversaciones poco fluidas, entrada difícil para nuevos jugadores o la eterna barrera de las exclusivas por plataformas.
Es la ‘nube’ o los juegos en ‘la nube’ lo que quiere acabar con ese concepto de plataformas y consolas y juegos físicos que sólo plantean dificultades. Gaikai y Onlive quieren (eso no quiere decir que lo vaya a ser) que 2011 sea el año de despegue de sus servicios de juego a través de Internet. El juego está allá arriba, en la nada, en el infinito… usted solo necesita un mando o un teclado y un ratón para conectarse a la diversión. Los embudos de las operadoras en países como el nuestro pueden convertirse en la soga por la que mueran estos servicios que sugieren videojuegos de habitación de hotel y que en realidad están diciendo ‘todos tus juegos preferidos caben en un router’.
Pero todo esto son especulaciones, en las primeras semanas de enero el mundo se asombrará con algún invento que se presente en el CES, a finales de enero la 3DS empezará a enseñar las orejas ante su inminente salida en Japón, por junio habrá anuncios de juegos inimaginados y puede que hasta tengamos que prepararnos ante una nueva ‘venida’ de la Wii. Y antes de mitad de año, todo lo que está escrito aquí encima será irrelevante ante las sorpresas que siempre depara el todavía adolescente mundo del videojuego.
miércoles, 29 de diciembre de 2010
Coche de Hidrógeno de Agua de Japón
Que emocionante será el momento en que las energías libres estén al alcance de Todos a través de Internet, ya sea que se puedan conseguir o bien con instructivos para fabricarlas por mano propia.
http://www.youtube.com/watch?v=Kq-WHxX2l-w&feature=player_embedded
Empieza a visualizar tu auto, funcionando con Agua... que te parece?
Desarrollan un reactor que transforma luz solar en combustible
Investigadores del Instituto de Tecnología de California en Pasadena (Estados Unidos) han desarrollado un reactor que puede producir con rapidez combustible a partir de la luz solar, utilizando dióxido de carbono y agua más un componente llamado óxido cérico. El descubrimiento se da a conocer en la revista 'Science'.
El proceso es semejante al que utilizan las plantas para crecer, utilizando energía del sol para convertir el dióxido de carbono en polímeros basados en el azúcar e hidrocarburos aromáticos.
Las plantas crecen utilizando la energía del sol para convertir el dióxido de carbono en polímeros basados en el azúcar y aromáticos.
Estos componentes a su vez pueden liberarse de su oxígeno a través de miles de años de degradación subterránea para producir combustibles fósiles o a través de un proceso más rápido de disolución, fermentación e hidrogenación para producir biocombustibles.
Aún ahora, convertir la luz solar en un combustible químico no es el proceso más eficaz y la generación práctica de combustibles solares continúa estando muy lejos.
Los investigadores han explorado recientemente posibles alternativas al uso de la luz solar para convertir el dióxido de carbono en combustible de hidrocarburos sin basarse en el proceso de crecimiento y descomposición de las plantas.
Los científicos, dirigidos por William Chueh, demuestran ahora un posible diseño de reactor en el que la luz solar concentrada calienta el óxido cérico, un óxido de un metal de cerio terrestre raro, hasta una temperatura lo suficientemente alta para desprender parte del oxígeno de su entramado.
El material después está listo para despojar los átomos de oxígeno del agua o el dióxido de carbono para reemplazar lo que falta, produciendo hidrógeno o monóxido de carbono, que a su vez puede combinarse en la forma de los combustibles que utilizan catalizadores adicionales.
El reactor posee una cavidad con una abertura en forma de ventana a través de la que entra concentrada la luz solar y está diseñado para reflejar internamente múltiples veces la luz, asegurando una captura eficiente de la energía solar entrante.
Las piezas cilíndricas de óxido cérico se colocan dentro de la cavidad del reactor y están sujetas a varios cientos de ciclos de calentamiento y enfriamiento para inducir la producción de combustible.
Fuente: EuropaPress
lunes, 27 de diciembre de 2010
Suscribirse a:
Entradas (Atom)
El Cielo
Explosion de Una Supernova
Bienvenidos aquellos que no se conformen en ver en tres dimensiones
Saludos mis amigos(as) ; Colegas y estudiantes
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria