Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 19 de diciembre de 2008

YouTube empieza a generar dinero para las discográficas... y para sí mismo



¿De grandes enemigos a mejores amigos? El popular sitio de vídeos YouTube de Google ha seducido a los generadores de contenidos por su gigantesco tráfico y, además, por compartir beneficios por publicidad. Algunos ya ven el gigante de la Red como un generador de millones, en lugar de como una fuente de 'piratería'.

En una entrevista publicada en CNET News, Rio Caraeff, vicepresidente de eLabs del grupo Universal Music, no se corta en afirmar que ve "miles de millones de dólares" que provendrán de la plataforma. Se trata de un claro indicio de que YouTube impulsa importantes beneficios tanto para sí como para quienes se asocien.

"YouTube no es como la radio, que es sólo de promoción", dijo Caraeff, que encabeza la división digital de Universal. "Es un flujo de ingresos, una actividad comercial en sí mismo, y su crecimiento es enorme; de hecho, nuestros ingresos procedentes de esa categoría crecen a un rito anual del 80% en EEUU".

Universal tiene un acuerdo con YouTube similar al que tienen otros grandes sellos discográficos, y que se divide en dos tipos de licencias. Ambas compañías comparten los ingresos de publicidad por los videoclips que el sello cuelga en su canal. Además, también comparten los beneficos publicitarios que genera la música colgada por los propios usuarios.
Acuerdos

Javier Alonso, responsable de Comunidad de YouTube en España, explica que "agunas discográficas como Sony Music Entertainment International y Universal Music, al igual que muchos otros socios, han firmado acuerdos comerciales que permiten a Google insertar publicidad sobre su contenido y repartir el ingreso generado".

"El tipo de publicidad que pueden contratar es el mismo que el que está al alcance de cualquier otra empresa: anuncios textuales, de display y anuncios integrados en vídeo", puntualiza, y destaca que "las ventajas que obtienen tanto las discográficas es que dan a conocer el contenido que posee a millones de usuarios". En España, en concreto, son ya 11 millones de usuarios únicos.

Parece que los números comienzan a demostrar que el futuro de la música está en la Red. La compañía discográfica más grande del mundo creció los nueve primeros meses del año un 3.5% y se incrementó un 33% la cifra de ingresos por ventas digitales y licencias, lo que de alguna manera compensa la drástica bajada de las ventas de discos físicos.
YouTube también gana

Se espera que los beneficios también repercutan en el propio YouTube a medio plazo, algo que preocupaba especialmente al presidente ejecutivo de Google, Eric Schmidt, el pasado verano. No obstante, la compañía no proporciona datos económicos actualizados de momento.

Tras un año desde la puesta en marcha de la publicidad en la plataforma, los resultados publicitarios de YouTube publicados en julio fueron decepcionantes: 127 millones de euros, muy por debajo de las expectativas generadas por un portal con más de 130 millones de visitas al mes.

Nuevas fórmulas publicitarias como el enlace directo a tiendas 'online' ('Click-to-buy') o la compra de búsquedas para promocionar vídeos, un sistema parecido al de Google, parece que están dando sus frutos ahora, o al menos así lo ve Universal Music.

El popular portal de vídeos fue adquirido por Google en 2006 por 1.650 millones de dólares. Desde entonces YouTube se encuentra bajo una gran presión para aumentar sus ingresos. Pese a ser uno de los destinos más populares en Internet, la página no había sabido encontrar un modelo de negocio que le permita generar beneficios a la manera que hizo Google con su buscador.

Los yihadistas se lanzan a por Facebook como medio de difusión de propaganda



La red social estadounidense goza de una tasa de crecimiento espectacular. Según las estimaciones de la propia compañía, cada día se crean 600.000 perfiles, lo que supone un total de 140 millones de usuarios activos. En medio de toda la masa de redes sociales, un grupo de extremistas islámicos ha decidido llevar a cabo un plan para "invadir Facebook". Se podría decir que llega el 'Extremismo 2.0'.

El foro extremista al-Faloja (traducido por Jihadica) airea las virtudes de Facebook para su causa y señala que pueden "utilizar Facebook contra los medios de comunicación".

Según se sugiere en esta información, siete brigadas podrían estar trabajando codo con codo en la red estadounidense. Así, una se encargará de distribuir vídeos y escritos de los "mártires", otra de extender el material e incluso algunas se encargarán de difundir la propaganda en inglés, aunque se presume que la mayor parte de los contenidos estarán en árabe.

El uso de Internet como arma propagandística del Islam no es nuevo. Hace ya tiempo que los grupos extremistas -y los políticos- saben que la Red es el mejor medio para difundir mensajes masivos y por eso se ha utilizado en diversas ocasiones YouTube para transmitir mensajes de una forma más dramática y directa que con un simple comunicado de prensa.

De hecho, hace unas semanas el Grupo de Inteligencia SITE destapó que los extremistas islámicos están recibiendo instrucciones para invadir YouTube con vídeos de propaganda. Un extremista definía la página de vídeos como "uno de los sitios internacionales más grandes y conocidos" y además creía que era el medio perfecto para publicar escenas de ataques occidentales para "avergonzar a los cruzados al difundir vídeos que muestren sus bajas". Es más, se incluye el 'software' que los islamistas deben utilizar para subir vídeos a YouTube.

http://www.siteintelgroup.org/

Reducir la Fricción a Casi Cero Con Lubricantes Hechos de Cristales Líquidos



Los lubricantes en cojinetes y engranajes aseguran que no se pierda demasiada energía por la fricción. Sin embargo, la pérdida, aunque sea relativamente pequeña, no deja de implicar el desperdiciar energía que sería deseable aprovechar. Los lubricantes hechos de cristales líquidos podrían reducir la fricción a casi cero, con el consiguiente ahorro energético.Las cintas transportadoras de equipajes en aeropuertos, las de las cadenas de montaje en fábricas, las escaleras mecánicas, todos estos sistemas deslizantes desperdician cantidades inmensas de energía por culpa de la fricción. En las turbinas eólicas y en los automóviles también se gasta un porcentaje de la energía en la fricción, reduciendo consecuentemente el factor de eficiencia. Los nuevos lubricantes que eliminan casi por completo el efecto de la fricción podrían ser la respuesta. Una vez que han sido puestos en movimiento, los rodamientos funcionan sin apenas impedimentos.

¿Pero qué es lo que hace al nuevo lubricante diferente de los aceites que han estado usándose hasta ahora para lubricar los cojinetes? "Este lubricante está hecho de cristales líquidos como los que se utilizan en los monitores de pantalla plana", explica Andreas Kailer, del Instituto Fraunhofer para la Mecánica de los Materiales (IWM por sus siglas en alemán) en Friburgo. A diferencia de los líquidos normales, las moléculas en los cristales líquidos tienen una cierta orientación; se las podría comparar con fósforos cuyas cabezas apuntasen todas en la misma dirección.

En un proyecto conjunto con el Instituto Fraunhofer para la Investigación Aplicada de los Polímeros, en Potsdam, y la compañía Nematel, con sede en Maguncia, los investigadores están analizando qué cristales líquidos son los más convenientes para su uso como lubricantes y bajo qué condiciones.

Aunque la fricción apenas cambia con la aplicación de uno u otro aceite lubricante convencional, cae casi a cero después de un rato cuando se usan los cristales líquidos. El tiempo que este descenso tarda en aparecer depende principalmente de la presión con que el cilindro móvil se aprieta contra la superficie de contacto.

Para algunos dispositivos mecánicos, la lubricación mediante cristales líquidos no será la adecuada, pero para otros será la solución perfecta.

Como hasta ahora los cristales líquidos se han producido fundamentalmente para los monitores, tienen que ser extremadamente puros, lo que los hace muy caros. Los investigadores planean simplificar el proceso de síntesis, ya que las variedades menos puras también son aceptables como lubricantes. El equipo espera ser capaz de comercializar un lubricante de cristal líquido dentro de tres, cuatro o cinco años.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=656:almost-frictionless&catid=43:engineering&Itemid=63

Nuevos Softwares



Joodo
http://www.joodo.com/

Por mucho que intenten demonizar las redes p2p, éstas sirven para algo más que bajarse el disco del artista de turno o el último estreno en el cine. Es un muy buen sistema para compartir archivos, y se puede usar para muchos e interesante cometidos.

WWWHATSNEW
Joodo es una aplicación que hace uso de este protocolo de intercambio, pero de una manera algo diferente a como lo hacen los famosos eMule o eDonkey. Con Joodo no intercambiaremos archivos con el resto del mundo si no que, como de una red social se tratara, solo compartiremos con nuestros amigos, al igual que ellos harán con nosotros.

Tendremos la opción de elegir que archivos compartimos y cuales no, e incluso dar diferentes niveles de visibilidad, porque no todos serán igual de amigos, como en la misma vida real. Así, podremos tener diferentes grupos de amigos, todo bien ordenadito.

Además, tendremos a nuestra disposición un pequeño sistema de chat para poder charlar con ellos, e incluso un reproductor basado en Real Player para poder ver y oír aquellos archivos multimedias que nos interesen.

De esta forma esta herramienta nos puede ser de mucha utilidad a la hora de compartir no solo con nuestro grupo de amigos, si no de usarlo de una manera profesional a la hora de gestionar los archivos a intercambiar entre los trabajadores de nuestra empresa.



Toksta
http://www.toksta.com/

Toksta es un nuevo servicio de mensajería instantánea vía web con soporte para mensajes de textos, de audio y videoconferencia, orientado hacia las redes sociales y foros. Para implementar este servicio en nuestros sitios web sólo hay que seguir dos pasos, en primer lugar configuraremos el aspecto visual de la aplicación y en segundo lugar asignaremos sub-áreas, target y otros datos que nos piden en el formulario, creando ya nuestra cuenta de usuario y eligiendo uno de los lenguajes de programación para obtener el script.

GENBETA.COM
Los usuarios de nuestras redes accederán al sistema de mensajería a través de una nueva ventana pop up que se les abrirá al clickear el enlace que ofrecemos en nuestros sitios web.

Una vez nos hayamos identificado, para cada aplicación a la que queramos aplicar este servicio, ya que podemos añadir varios sitios web, podemos obtener el script en uno de los lenguajes de programación disponibles o bien un plugin para WordPress o algunas versiones de Joomla.

Además, nos permite la configuración de una serie de parámetros, acceder a la lista de usuarios denunciados, volver a configurar el aspecto visual, la creación de una barra de chat, que nos recordará mucho a la barra de chat de Facebook, y comprar reservas, cuyos precios, en euros, variarán en función de la cantidad de usuarios simultáneos online. Esta compra de reservas nos permite limitar el acceso del servicio de mensajería a determinados usuarios.

Por último, Toksta estará financiada mediante publicidad, con lo que compartirá parte de los ingresos publicitarios con los propietarios de los sitios web.

Queda pendiente comprobar el funcionamiento de este servicio, teniendo en cuenta su novedad, con lo que no habrá muchos sitios web que los hayan implementado por el momento, y además, no se nos permite chatear con nosotros mismos, que es el mensaje que me he encontrado a través de WordPress..




SoarPort
http://www.soarport.com/

Si tenéis una gigantesca imagen en vuestro ordenador y queréis compartirla con el resto del mundo, os aconsejo SoarPort.

WWWHATSNEW
Se trata de una aplicación preparada para alojar imágenes de hasta 10 megas de tamaño con la posibilidad de hacer zooms sobre las mismas.

Podéis incluirlas en vuestra web permitiendo a los lectores que jueguen observando los detalles de los zooms realizados, todo con la posibilidad añadida de incluir vuestro código adsense para ganar un dinerillo con las visualizaciones de las fotos.

Estadísticas, comentarios y una estética un poco pobre para un servicio bastante original.

Tendencias de seguridad para 2009



El año se aproxima a su final y algunas personas se preguntan que acontecimientos nos esperan para el año que viene en cuanto a tendencias de seguridad se refiere. Los especialistas del laboratorio de seguridad de G DATA han realizado un análisis exhaustivo de las últimas tendencias en el malware para el año 2009.
REDACCIÓN, AP

Apesar de la recesión económica todo apunta a que la industria del cibercrimen sigue en auge, ésta economía paralela asegurará que en el año que viene, un gran número de ordenadores serán integrados en redes de ordenadores zombie, y millones de usuarios serán víctimas de robos de datos confidenciales y correos de spam.

Entre las principales vías de infección,Ralf Benzmüller, Director del Laboratorio de Seguridad de G DATA destaca las infecciones a través del navegador y sus componentes así como el uso de web fraudulentas y redes sociales para difundir malware, "pese a que los agujeros de seguridad de los navegadores se reducirán a lo largo de 2009, los criminales se aprovecharán de estos a mayor velocidad de la que viene siendo habitual, también los sitios web utilizados para distribuir malware y las redes sociales serán los principales focos de interés de los criminales"

Para Benzmüller, resulta especialmente alarmante la generalización de este tipo de prácticas fraudulentas, "la industria del cibercrimen ha consolidado una sólida red para comercializar su servicio fraudulento, ofreciendo desde kits de iniciación hasta ofertas promocionales. Instrumentos sencillos con los que crear una página de phising o distribuir spam a través de redes botnet alquiladas, son hoy en día de fácil acceso",


Internet una mina de malware

La principal vía de infección para el año que viene será a través del navegador y sus componentes. Aunque el número de agujeros de seguridad disminuya, éstos serán explotados a mayor velocidad de la que viene siendo habitual para distribuir malware. El malware integrado en páginas web fraudulentas también experimentará un importante crecimiento a lo largo de 2009

Una tendencia que también crece es el uso de la popular web 2.0, webs, foros y blogs para distribuir malware, donde la industria del cibercrimen siempre encuentra nuevas vías de actuación (Ej. clickjacking). Otros objetivos atractivos para los criminales son aquellas páginas que, como Google Docs, almacenan información salvada.

Al mismo tiempo, los ataques de los cibercriminales se harán cada vez más sofisticados, distintas vías de infección se combinarán para asegurar el éxito de los ataques. En el caso ideal para los delincuentes, la víctima ni siquiera notará que su ordenador ha sido infectado o que los datos han sido robados.

Robo de datos

Datos de acceso bancario, información de tarjetas de crédito y direcciones de correo electrónico son mercancía habitual dentro del mercado negro de la industria del cibercrimen.
Los datos provienen principalmente de los archivos obtenidos a través de key loggers y otros programas para espiar a los usuarios, aunque la industria del cibercrimen también obtiene su mercancía a través de ataques específicos contra bases de datos de bolsas de empleo, listados de distribución, etc.

Estasbases de datos contienen información confidencial de los usuarios, por lo que las empresas que manejan información sensible tienden a encriptarla. Pese a este aumento en la concienciación en materia de seguridad por parte de las compañías, desde los laboratorios de seguridad de G DATA prevemos un incremento en los ataques a este tipo de bases de datos debido a los cuantiosos beneficios que generan para los cibercriminales.

¿Aún más malware?

Los programas de descarga de archivos maliciosos mejoran día a día, con cada descarga se producen ligeras modificaciones en su software que dificultan el reconocimiento por parte de las soluciones de seguridad. A lo largo de 2008 hemos sido testigos de una avalancha de malware de proporciones hasta ahora desconocida, software espía y puertas traseras han sido los responsables de la mayor parte de los ataques.

Pese a lo que pueda parecer no es imposible que se produzca una nueva inundación de amenazas de seguridad, sin embargo, con los mecanismos anteriormente mencionados que ya han demostrado su eficacia a lo largo de este año, podemos prever que la cantidad de nuevo malware también aumentará en los próximos años. Aunque posiblemente este incremento no será tan acelerado.

Nace "Salupedia", la primera enciclopedia médica en internet


http://www.salupedia.org/

Investigadores valencianos construyen una web enciclopédica 2.0 que remite a los ciudadanos contenidos sanitarios de fiabilidad ubicados en otras fuentes médicas en internet. El proyecto "Salupedia" ha sido subvencionado por el Plan Avanza en España.
SINC

La web desarrollada permite al ciudadano acceder a información confiable sobre salud, recomendada por profesionales. La información no está en la propia página sino que remite a contenidos ya existentes pero dispersos en la red.

Asimismo, incorpora las características de la web 2.0 ya que los usuarios pueden valorara la ayuda recibida por cada artículo, hacer comentarios e incluso subir sus propias recomendaciones.

El doctor y director del proyecto Ignacio Basagoiti indica que "el portal aspira a ser un medio familiar de educación y prevención para los ciudadanos, de los cuales se espera mayores beneficios clínicos porque entienden mejor lo que les ocurre y se implican en su proceso de curación".

El proyecto ha contado con la subvención del Ministerio de Industria, Turismo y Comercio a través de la convocatoria del Plan Avanza para contenidos digitales.

Científicos descubren que la productividad de la selva depende del molibdeno y no del fósforo



Científicos descubren que la productividad de la selva depende del molibdeno y no del fósforo

Un equipo de la Universidad de Princeton ha averiguado que la productividad de la selva tropical, un parte vital del ecosistema terrestre, depende en un elemento raro para la captura de nitrógeno: molibdeno.

NEOFRONTERAS.COM
Las proteínas de su cuerpo o las de cualquier otro ser vivo necesitan de átomos de nitrógeno en su composición química. Los animales pueden obtener este elemento de las plantas, pero a éstas no les es fácil obtenerlo. Gran parte de la atmósfera terrestre está compuesta de nitrógeno gaseoso, pero las plantas no lo pueden asimilar directamente de ella. Las plantas toman nitrógeno a través de sus raíces, generalmente en forma de nitratos y compuestos similares. Una de las limitaciones que tienen las plantas para crecer es la presencia de estos nitratos en el suelo, que son creados por ciertos microorganismos a partir del nitrógeno gaseoso, es lo que se llama fijación del nitrógeno.

En los cultivos agrícolas, cuando se desea aumentar la productividad, se emplean fertilizantes sintéticos basados en compuestos de nitrógeno. Pero en la naturaleza nadie abona artificialmente las plantas. En las selvas la mayor parte del nitrógeno asimilable del suelo proviene de pequeñas bacterias capaces de fijar ese elemento.

Según Lars Hedin, líder de este estudio, hasta ahora se creía el crecimiento desaforado de las selvas tropicales dependía del fósforo del suelo. Hedin y su equipo ha realizado experimentos y medidas en la península gigante de la reserva Barro Colorado de Panamá demostrando que las áreas tratadas con molibdeno conseguían fijar más nitrógeno que las otras. Al parecer no se esperaban este resultado.

Según estos investigadores el molibdeno es esencial para controlar la conversión de nitrógeno gaseoso en fertilizante natural y éste determina el crecimiento de las plantas. Este elemento es 10.000 menos abundante que el fósforo y otros elementos importantes en estos ecosistemas.

El descubrimiento tiene implicaciones en las políticas sobre el cambio climático. En estudios anteriores se decía que la capacidad de las selvas para secuestrar dióxido de carbono era muy limitada. Si el molibdeno es la clave del proceso de asimilación del dióxido de carbono entonces su escasez limita cuánto CO2 se puede secuestrar en los tejidos de las plantas.

La enzima nitrogenasa, que permite convertir el nitrógeno gaseoso en nitratos depende del molibdeno además de otros elementos (como azufre o hierro). Las bacterias del suelo se valen de esta enzima para realizar su tarea, si el molibdeno disponible es escaso no pueden fijar mucho nitrógeno y las plantas crecen menos. El proceso de fijado es bajo el punto de vista bioquímico bastante delicado y puede inhibirse en la presencia de oxígeno o luz.

Varios microorganismos lo pueden realizar, incluyendo las cianobacterias, así como algunas plantas con simbiontes que viven en sus raíces. El trébol rojo, por ejemplo, consigue fijar gracias hasta 300 kg de nitrógeno por hectárea y año, mientras que Clostridium o Azotobacter sólo son capaces de fijar 1 kg.

El molibdeno es un metal plateado que se encuentra en rocas, en el agua marina y en el suelo. Trazas de este metal se han encontrado en espadas japonesas del siglo XIV formando parte de la aleación metálica de las mismas. En tiempo modernos su resistencia mecánica, sus propiedades eléctricas y anticorrosivas han hecho de él un elemento importante en motores cohete, escudos de radiación, filamentos de bombilla y en circuitos eléctricos

Un nuevo dispositivo capta más energía de las olas que otros sistemas ya existentes



Ingenieros estadounidenses y portugueses están trabajando juntos en el desarrollo de un nuevo dispositivo que ya está demostrando ser mucho más eficiente que otros a la hora de convertir la energía mecánica que generan las olas del mar en energía eléctrica. El dispositivo, al que han llamado OWC, consiste en una cámara con una abertura y una conexión a una turbina. Según sus creadores, el OWC aprovecha la compresión del aire dentro de la cámara cuando las olas entran en ella para que la turbina funcione y produzca electricidad. Tres de estos dispositivos serán instalados en un rompeolas en la desembocadura del río Duero en Oporto, Portugal. Generarán 750 Megavatios que darán luz a unos 750 hogares.

TENDENCIAS CIENTÍFICAS
Ingenieros del MIT y del Instituto Técnico Superior de la Universidad Técnica de Lisboa están diseñando un dispositivo que captará significativamente más energía de las olas oceánicas que los sistemas existentes. Esa energía se usará para alimentar una turbina. Por el momento, han construido uno de estos dispositivos a escala.

La energía a partir de las olas es una fuente de energía renovable con un enorme potencial. En algunos sitios, como en el noroeste de los Estados Unidos, la costa oeste de Escocia o el extremo sur de Sudamérica, África o Australia, un dispositivo para extraer energía de las olas podría, teóricamente, generar entre 100 y 200 megavatios de electricidad por kilómetro de costa.

El problema es diseñar un sistema que pueda resistir el poder de corrosión del mar, que esté siempre operativo, que gestione las variaciones estacionales de la intensidad de las olas o que continúe operando incluso en condiciones meteorológicas complicadas, como durante una tormenta.

El profesor Chiang Mei , del Departamento de Ingeniería Civil y Medio Ambiental del MIT, empezó a creer en la energía eólica desde finales de los años 70, durante la crisis energética. Tras la reciente escalada de los precios del petróleo, este profesor ha renovado su interés por aprovechar esta fuente energética.

Según un comunicado del MIT, el profesor Mei y sus colegas han desarrollado unas simulaciones numéricas capaces de predecir las fuerzas de las olas en un dispositivo dado. Estas simulaciones permiten tomar las mejores decisiones para maximizar la captación de energía y proporcionar datos para buscar las maneras más eficientes de convertir la energía mecánica en energía eléctrica.

Portugal, una potencia

Uno de los países con un mejor nivel de investigación y desarrollo en estas técnicas es Portugal. Durante los últimos tres años, Mei ha estado trabajando codo con codo con los profesores Antonio Falcao, Antonio Sarmento y Luis Gato, de la Universidad Técnica de Lisboa. Han estado diseñando una versión piloto a escala de una instalación llamada columna de agua oscilante (OWC, en inglés).

Instalada en o sobre la propia costa, una OWC consiste en una cámara con una abertura. Al mismo tiempo que las olas entran y salen, el nivel del agua dentro de la cámara sube y baja. El movimiento de la superficie del agua obliga al aire a comprimirse sobre ella y, posteriormente, a fluir hacia la abertura que, a su vez, lo dirige hacia la turbina que, en última instancia, convierte la energía mecánica en electricidad.

La turbina está diseñada de tal manera que las palas siempre rotan en la misma dirección, sin que en ello influya un cambio de dirección de la corriente de aire debido al movimiento de entrada y salida de las olas.

El plan de los ingenieros portugueses es integrar la planta OWC en la cabecera de un rompeolas, en la desembocadura del río Duero, en Oporto, al norte de Portugal. En última instancia, la instalación incluirá tres OWCs que generarán 750 kilovatios, suficiente para abastecer de energía 750 hogares. Además, permitirá calmar las aguas en esta área y reducir la erosión local.

Compresión de aire

El reto es diseñar un dispositivo que funcione eficientemente en un espectro amplio de frecuencias de olas. La clave para conseguirlo es la compresión del aire dentro de la cámara OWC. Esta capacidad de compresión no puede ser cambiada, pero el impacto en la elevación del agua en la cámara sí que puedo serlo simplemente cambiando el tamaño de ésta.

Las simulaciones han puesto de manifiesto que, usando una cámara grande, es posible captar más energía en una ola determinada. "Hemos descubierto que es posible optimizar la eficiencia de la OWC haciendo uso de la compresión del aire, algo que, en principio, no es obvio", comenta Mei.

Mei está actualmente trabajando en otros dispositivos parecidos. En concreto está estudiando otras geometrías para el mismo fin. El entusiasmo de Mei por este tipo de energía sigue intacto, pero no deja de ser realista respecto a su nivel de desarrollo tecnológico y respecto a sus costes. Aunque éstos se han reducido mucho en los últimos años, estamos ante un tipo de energía que no podrá ser explotada comercialmente hasta dentro de varias décadas.

"Dado el futuro de las fuentes de energía convencionales, necesitamos investigar más en las energías alternativas", comenta. "Por el momento, la energía eólica y solar están en el punto de mira porque su desarrollo empezó antes. La energía extraída de las olas tiene mucho potencial, pero es una disciplina de la ingeniería relativamente joven que necesita más investigación".

Las telecomunicaciones vía satélite cumplen 50 años



Europa conmemora el lanzamiento del primer satélite de comunicaciones remarcando que el 'Plan de Recuperación' del próximo año invertirá 200.000 millones de euros en extender la banda ancha en todo el territorio comunitario.

SINC
Cuando se lanzaba el primer satélite de comunicaciones el 18 de diciembre de 1958, resultaba difícil imaginar la trascendencia que tendría esa innovación técnica para conformar la sociedad tal y como la conocemos hoy. Han pasado 50 años y, si bien la idea en la que se basa esta infraestructura básica permanece inalterada, conectar puntos distantes entre sí a través de un transmisor de radio que orbita en el espacio, los servicios y los alcances de los satélites han revolucionado las comunicaciones globales, gracias a la TV de alta definición, al internet inalámbrico, a las comunicaciones de emergencia o a los teléfonos móviles, por citar algunos ejemplos.

Hoy, los satélites proporcionan una red de seguridad invisible, una espina dorsal global, en la que se basa la mayoría de nuestras comunicaciones actuales. Y es posible que se hagan todavía más relevantes en el futuro cercano si la UE desea alcanzar los objetivos establecidos en el Plan de Recuperación que se lanzará el próximo año para estimular las economías europeas y mitigar los efectos de la crisis financiera global.

El plan establece un estímulo con plazos establecidos, dirigido y temporal, por un valor aproximado de 200.000 millones de euros, aproximadamente el 1,5% del PIB de la UE, que incluye numerosas "inversiones inteligentes" para generar crecimiento a largo plazo a través de la iniciativa emprendedora, la investigación, la innovación y el acceso a la tecnología. Una de esas medidas concretas es la movilización de 5.000 millones de euros para mejorar las conexiones de la red eléctrica y la infraestructura de banda ancha en toda Europa.

Internet de banda ancha se ha convertido gradualmente en un servicio esencial para reforzar la competitividad y el crecimiento económico en la UE. El objetivo es que el 100% de Europa cuente con cobertura de este servicio en 2010. Para ello, la Comisión Europea y los Estados miembros colaborarán con las partes interesadas "con el fin de acelerar la modernización y la ampliación de las redes". Asimismo, está previsto el apoyo a dicha estrategia con fondos públicos en áreas con servicio insuficiente y áreas de coste elevado, en las que "el mercado no puede prestar ni prestará dichos servicios".

La puesta en marcha de servicios DSL ( Línea del Subscriptor Digital, por sus siglas en inglés, es decir banda ancha fija) y de cable ha crecido "de modo constante" en las ciudades, aunque en las zonas remotas de la UE el despliegue de dichas tecnologías es, en el mejor de los casos, poco atractivo desde el punto de vista comercial, y en el peor de los casos, considerablemente más costoso que otras alternativas.

Según la última revisión i2010 publicada el pasado mes de abril, el servicio DSL está ahora disponible en el 89% de las líneas telefónica de los países UE25, pero el porcentaje ha comenzado a estancarse, mientras que otras tecnologías alternativas continúan siendo marginales. En el caso de áreas rurales, en países como Grecia, República Checa, Malta, o Chipre, no existe ninguna cobertura DSL.

Ciudadanía olvidada

Por esa razón, Giuliano Berretta, presidente de la Asociación Europea de Operadores de Satélites ( ESOA , en inglés), en una carta que ha enviado recientemente al presidente de la Comisión europea José Manuel Durao Barroso, recordaba que los satélites que se encuentran en órbita actualmente pueden ayudar a alcanzar ese objetivo, como tecnología independiente, o contribuyendo al despliegue y a la capacidad de otros sistemas de comunicaciones terrestres "para llegar a la ciudadanía que de otro modo permanece olvidada y desconectada debido a su ubicación en lugares remotos o rurales".

En ese sentido, animó a Barroso a reconocer el papel crucial que pueden desempeñar las comunicaciones vía satélite en el Plan de Recuperación. "Es de interés público recurrir a una solución tecnológica que alcance ese objetivo, del modo más efectivo en costes y en tiempo posible, pues los satélites ya están en el espacio y pueden ofrecer esos servicios de modo respetuoso con la naturaleza, ya que utilizan energía solar y su vida útil es de más de 15 años", ha escrito Berretta.

jueves, 18 de diciembre de 2008

Actualizaciones críticas para los navegadores más populares... en especial para Internet Explorer



Microsoft ha sufrido durante la última semana uno de los peores escenarios conocidos para una vulnerabilidad: es crítica y ha sido descubierta mientras estaba siendo aprovechada por atacantes. Esto implica que todo usuario de Internet Explorer (donde reside el problema) ha estado más o menos expuesto a ejecución de código arbitrario. Finalmente emitirá hoy una actualización de emergencia para solucionar el fallo. Además Firefox, Safari y Opera, los otros navegadores más populares, han actualizado también en los últimos días para solucionar graves problemas de seguridad.

HISPASEC.COM
Los problemas de seguridad en todos los navegadores son una constante. Desde que se tomara consciencia general de la seguridad en remoto del sistema, (añadiendo cortafuegos) y se mejoraran los sistemas de correo (con clientes más seguro por defecto y filtros perimetrales), los asaltos se han desviado a los navegadores. Este es el vector de ataque por excelencia hoy en día para el malware: el usuario visita una página y se intenta explotar una vulnerabilidad del navegador para instalar algún código. Y no sólo al visitar webs de dudosa reputación: muchas páginas legítimas (gracias a problemas de seguridad de sus servidores) están ayudando inconscientemente a propagar malware que los atacantes previamente han incrustado en ellas.

El peor escenario es para Internet Explorer

Así las cosas, un problema de seguridad en un navegador, sea cual sea, supone un importante riesgo. Para Microsoft el asunto se ha complicado en las últimas semanas, por muchas razones. Un día antes del segundo martes del mes de diciembre un mensaje en un foro chino hacía pública una vulnerabilidad (en principio en Internet Explorer 7, luego se comprobó que afectaba a todas las versiones). No existía parche oficial disponible, no necesitaba interacción por parte del usuario y permitía ejecución de código arbitrario con los permisos del usuario usando el navegador. La vulnerabilidad reside en el manejo de etiquetas XML. Se observó que el fallo estaba siendo activamente aprovechado por webs desde hacía tiempo para instalar malware. Microsoft se apresuró a reconocer el fallo y publicar un buen número de métodos para mitigar el problema.

Internet Explorer es el navegador favorito de los atacantes por su cuota de mercado, lo que permite a los atacantes llegar a un mayor número de víctimas. Para complicar el tema, el exploit se hizo público rápidamente, junto con todos los detalles técnicos del fallo. El incidente tenía todos los ingredientes para convertirse en desastre. Finalmente Microsoft ha anunciado que una semana después, el día 17, publicará un parche para solucionar el fallo.

Semana de actualización para otros navegadores

Pero Internet Explorer no es el único navegador que necesita ser actualizado en estos días. Parece que todos se han puesto de acuerdo para lanzar nuevas versiones que corrigen fallos de seguridad. Firefox acaba de anunciar su versión 3.0.5 y 2.0.0.19 (parece que la última de esta rama). Esta nueva versión corrige hasta 11 vulnerabilidades, 3 de ellas críticas, que la Fundación Mozillla (como hace Microsoft) agrupa en 8 boletines de seguridad.

Opera, por su parte, acaba de publicar también su versión 9.63, que corrige siete problemas de seguridad (uno de ellos, leve, descubierto por Matthew de Hispasec Sistemas).

Mac OS, por su parte, acaba de publicar una de sus macro-actualizaciones, que soluciona 21 fallos de seguridad de su sistema operativo, varios de ellos en relación directa con su navegador Safari.
Existe una prueba de concepto pública para uno de los problemas de Firefox, aunque al menos para estos navegadores, no se tiene evidencia de que los fallos estén siendo aprovechados activamente. Esto no exime de una inmediata actualización.

Detectan la "chispa orgánica"


La electrónica molecular o moletrónica se encarga de estudiar la aplicación de moléculas de origen orgánico en la electrónica. Investigadores de la Facultad de Ciencias han detectado una variedad, que por sus propiedades, optimiza la circulación de los electrones.

SINC
En la informática, todos los dispositivos están compuestos por chips que permiten su funcionamiento tal cual lo conocemos. Para ello, estos deben almacenar distintas cantidades de información por lo que necesitan de un soporte a través del cual circulen los electrones.

Esta vía por donde fluyen los impulsos eléctricos se compone de los llamados semiconductores y en la mayoría de los casos suelen estar compuestos por silicio. Éste material inorgánico, por el grado de pureza que se requiere para que cumpla este tipo de función, necesita someterse a un costoso y contaminante proceso de producción que limita considerablemente su rentabilidad económica e incrementa su negativo impacto medioambiental.

Sin embargo, la electrónica molecular u orgánica permite la obtención de semiconductores mucho más sencilla y a un coste inferior. Además, los polímeros, es decir, compuestos formados por cientos de moléculas, ofrecen un alto grado de maleabilidad y de biocompatibilidad que los convierten en idóneos en campos como la fotovoltaica, la fotónica o la medicina.

Ahora bien, existen muchos tipos de semiconductores orgánicos, y por otro lado un gran número de funciones y dispositivos posibles, por lo que es necesario localizar el material que mejor se adapte a cada aplicación. En concreto, el Grupo de Polímeros Conductores de la Universidad de Málaga, dirigido por el doctor Teodomiro López Navarrete, se ha centrado en el estudio de los oligotiofenos.

¿Qué tienen de especial los oligotiofenos?

Principalmente su disposición. Como describe el doctor Juan Casado Cordón, integrante de este equipo, "éstos se ponen en paralelo porque la carga fluctúa de una forma más eficiente. Cuando el electrón entra, se va repartiendo entre las cadenas de una forma más óptima para este tipo de procesos, donde lo importante es el flujo de información. Además, al estar relativamente cercanas la cesión de la misma se hace con el menor gasto energético, podemos decir que el 'salto' que experimenta la carga de una cadena a su vecina es el mínimo".

Precisamente, este equipo ha conseguido describir estos procesos electrónicos mediante técnicas espectroscópicas: se hace incidir luz, de distinta naturaleza, y se analiza la que se transmite y/o dispersa. Esto, en consecuencia, es lo que ha permitido caracterizar los estados electrónicos, ópticos y magnéticos responsables de la gran mayoría de las prestaciones de estos nuevos materiales.

Aplicaciones

Por otra parte, la propiedad de los semiconductores orgánicos que los hacen tan adecuados es su gran flexibilidad. Por el contrario, la razón de que se haya apostado por estos en el ámbito espacial (p. Ej: placas solares de los satélites) y no de forma tan decidida en otras áreas es su alta sensibilidad a la combustión, que caduca su uso en entornos donde el oxígeno esté presente. Tanto es así que, como asegura Casado Cordón, será necesario manipular este tipo de semiconductores a fin de que puedan soportar mejor los factores medioambientales para extender sus aplicaciones. En este sentido se está explorando su aplicación en sistemas encapsulados (aislado del ambiente). "Actualmente, se están alcanzado en algunos casos tiempos de vida de unas 10000 horas, lo que significa un promedio de renovación anual que, combinado con su bajo coste, representa una alternativa muy viable", afirma este científico.

Otra de sus ventajas es su alta compatibilidad biológica. De hecho, se está trabajando en su aplicación en láseres quirúrgicos para su uso en implantes nerviosos y cardiacos, lo que reduciría exponencialmente el riesgo de rechazo de los pacientes.

Según augura este investigador, la informática, la fotovoltaica y la cirugía son sólo una muestra del amplio abanico de posibilidades que se abren gracias a los avances obtenidos en el campo de la electrónica molecular. "De hecho, añade, incluso las editoras de libros y de prensa trabajan desde años en la implantación de los primeros dispositivos electrónicos de lectura con una maleabilidad similar a la del papel".

Este grupo malagueño, que lleva trabajando desde 1992 en este tipo de conductores en colaboración con científicos de Japón, de Estados Unidos y de Alemania, es uno de los referentes nacionales en la investigación de semiconductores. Asimismo, la prestigiosa revista The Journal of American Chemical Society (JACS) -una de las de mayor impacto en ciencias - ha publicado recientemente una comunicación de este Proyecto de Excelencia de la Junta de Andalucía, la primera que hace JACS de la Universidad de Málaga.

Sin duda, la electrónica molecular se postula como una solución sostenible, de futuro y con cada vez más peso en la sociedad. Tanto es así, que el Premio Príncipe de Asturias de Investigación y Ciencia de este año ha sido otorgado, junto a otros 4 investigadores del del campo de materiales orgánicos, al científico estadounidense Tobin Marks, uno de los máximos exponentes de la nanotecnología y de semiconductores orgánicos y substratos trasparentes para la electrónica molecular. Asimismo, el profesor Tobin Marks es colaborador del grupo de la UMA con el que han publicado varios trabajos conjuntos en semiconductores de base tiofénica.

Ya se han derretido dos billones de toneladas de hielo



Más de dos billones de toneladas de hielo terrestre en Groenlandia, Alaska y la Antártida se han derretido desde 2003, de acuerdo con datos nuevos de satélite de la NASA que muestran los indicios más recientes del calentamiento global.

AP
Más de la mitad de las pérdidas de hielos terrestres en los últimos cinco años han ocurrido en Groenlandia, revelan mediciones del peso del hielo por el satélite Grace de la NASA, dijo el geofísico Scott Luthcke, quien agregó que el derretimiento parece estar acelerándose.

Científicos de la NASA planeaban presentar sus hallazgos ayer en la conferencia de la Unión Estadounidense de Geofísica en San Francisco. Luthcke dijo que aún no se han concluido las cifras de Groenlandia para el tercer trimestre del 2008, pero que la pérdida de hielo este año, aunque aún grave, no será tan severa como en el 2007.

Las noticias fueron mejores para Alaska. Luego de una enorme reducción en el 2005, el hielo terrestre allí creció ligeramente en el 2008 a causa mayormente de nevadas copiosas, dijo Luthcke. Desde 2003, cuando el satélite de la NASA comenzó a realizar las mediciones, Alaska ha perdido 400,000 millones de toneladas de hielo terrestre.

A diferencia del hielo marítimo, el derretimiento del hielo terrestre aumenta muy poco los niveles del mar.

En la década de 1990, Groenlandia no contribuyó nada al aumento del nivel del mar. Ahora, esa isla añade casi medio milímetro al incremento del nivel del mar cada año, dijo el científico de la NASA Jay Zwally en una entrevista telefónica desde la conferencia.

Entre Groenlandia, Alaska y la Antártida, el derretimiento de hielos terrestres ha elevado los niveles del mar en el mundo aproximadamente medio centímetro en los últimos cinco años, dijo Luthcke. Los niveles suben también por la expansión del agua cuando se calienta.

Otros estudios que son presentados esta semana en la conferencia apuntan a más preocupaciones sobre el deshielo causado por el calentamiento global, especialmente en los casquetes helados de los mares polares.

''No está mejorando, sigue mostrando indicios fuertes de calentamiento y amplificación'', expresó Zwally. ''La tendencia no se ha revertido'', agregó.

Los científicos que estudian el hielo anunciarán que algunas partes del Artico al norte de Alaska estuvieron entre 5 y 5.6 grados centígrados (equivalentes a 9 o 10 grados Fahrenheit) más cálidas este otoño, un fuerte indicio temprano de lo que investigadores llaman el efecto ártico de amplificación.

Un estudio alemán demuestra que la utilización de biocarburantes es posible



Científicos de Alemania han demostrado que los biocarburantes pueden ser una fuente de energía viable y sostenible y que no entran en conflicto con la agricultura con fines alimentarios. Plantean un sistema en el que se cultivan árboles en suelos degradados en todo el mundo, éstos se emplean como fuente primaria de combustible y se convierten en energías útiles a través de otras fuentes de energía renovable. Los científicos consideran que se trata de un sistema realista y asequible y que tendría un balance neutro de CO2. Se ha publicado un artículo al respecto en la revista Naturwissenschaften.

CORDIS
De acuerdo con la Agencia Internacional de Energía (IEA), cerca del 87% de la energía mundial procede de la explotación de fuentes no renovables de combustible, como el petróleo o el carbón, la mayoría de las cuales (con excepción de la energía nuclear) son ricas en carbono. Se calcula que las reservas de estos recursos energéticos se terminarán por agotar durante los próximos 75 años si se mantiene el ritmo de consumo actual, o antes si se tiene en cuenta que la demanda va en aumento.

Encontrar formas para satisfacer la demanda creciente de energía y, al mismo tiempo, reducir las emisiones de carbono es el objetivo de una intensa actividad investigadora, pero por lo general se ha despreciado la opción que brindan los biocombustibles como fuente de energía sostenible. La posibilidad de que la biomasa sea la base de los combustibles ha sido considerada poco realista debido a que el cultivo de vegetales en tierra fértil para la producción de combustibles se contrapone a la necesidad de incrementar la producción agrícola para alimentar a la creciente población mundial.

En esta nueva proyección sobre los biocombustibles, el profesor Jürgen O. Metzger de la Universidad de Oldemburgo y el profesor Aloys Huettermann de la Universidad de Gotinga proponen cultivar árboles de crecimiento rápido en parcelas cuadriculadas sobre tierras degradadas (en oposición a grandes plantaciones en tierras de cultivo) como sistema principal para la producción de combustibles y, seguidamente, utilizar otras fuentes de energía renovable para convertir la biomasa en un producto aprovechable.

Esta proyección es sin duda realista, concluyen los autores. Además este sistema podría resolver los serios problemas que suponen la degradación de tierras y la deforestación, las cuales contribuyen de manera significativa a la erosión y la contaminación de las aguas litorales.

«La humanidad ha ido degradando, a lo largo de la historia, varios miles de millones de hectáreas de superficie originalmente arboladas y cubiertas de vegetación», señalan los autores. Éstos explican que, mediante la plantación de árboles cuyas necesidades hídricas y de nutrientes sean bajas, se podría llegar a recuperar la fertilidad del terreno, un aspecto cuya importancia no debe subestimarse.

«Un elevado porcentaje de las zonas degradadas es idóneo para la forestación», razonan los autores. «Para luchar contra la desertización y mejorar la fertilidad de los suelos, sería objetivamente beneficioso para todos los países, la población local y la humanidad en general que se llevara a cabo una forestación de estas áreas degradadas y se aprovechara de forma constante la biomasa correspondiente, a fin de cubrir las necesidades internas (y también externas si fuera posible) de energía, combustibles, materiales y sustancias químicas.»

Los científicos demuestran la rentabilidad de su proyección y la cantidad de tierra necesaria. Indican que la inversión necesaria no es mucho mayor que la que necesita una central térmica de carbón y que es mucho menor que la de las centrales nucleares. Además, calculan que podrían utilizarse hasta 3,6 gigahectáreas de tierra para la producción de bioenergía antes de 2050.

Otro aspecto beneficioso, explican, es que la biomasa utilizada para generar energía puede crecer en todos los países y que cada país podría cubrir una porción significativa de su demanda energética total, lo cual reduciría los costes de transporte.

La utilización de biomasa como fuente de energía, afirman los autores, tiene un balance neutro de carbono: el CO2 generado en su combustión no es mayor que la cantidad que necesita la planta para crecer. Por lo tanto este sistema puede ayudar a frenar la acumulación de CO2 en la atmósfera. La biomasa también supone una forma adecuada de almacenar energía, detener la contaminación por escorrentía en el suministro de agua y, hasta cierto punto, controlar la desertización.

No obstante, quedan algunos cabos sueltos. Uno de los más importantes es el desarrollo de nuevas tecnologías que permitan convertir con más eficiencia la energía química almacenada en la biomasa en energía eléctrica. Lo mismo podría decirse de los combustibles fósiles, añaden. Cultivar árboles para obtener combustible es sólo uno de los aspectos necesarios para cubrir la creciente demanda de energía mundial, de acuerdo con el estudio: han de sumarse a la fórmula muchas otras fuentes de energía sostenibles. Asimismo, «el ahorro energético y un uso más eficiente de la energía primaria deben constituir la base de la solución», concluye el estudio.

Una de las mayores virtudes de esta proyección sobre el uso de biocombustibles estriba en la relativamente mínima cantidad de tiempo que requiere para que sus efectos sean apreciables. «La forestación puede comenzar de inmediato, tiene efecto en unos pocos años y puede completarse en algunas décadas», concluye el estudio. «Si la forestación hubiera comenzado en 1992 [...] hoy podríamos estar apreciando un efecto que crecería de forma constante y [esta] biomasa contribuiría en un porcentaje significativo al abastecimiento de energía primaria en el año 2030.»

miércoles, 17 de diciembre de 2008

Nanopartículas en el Hogar, Muchas y Más Diminutas de los Antes Detectado



De los aparatos comunes que empleamos en la cocina se desprenden partículas nanométricas muy pequeñas en cantidades abundantes, cantidades que superan ampliamente a las de las nanopartículas de mayor tamaño emitidas por estos mismos aparatos y que fueron detectadas en estudios anteriores.Las así llamadas partículas ultrafinas (o UFP por sus siglas en inglés) miden de 2 a 10 nanómetros. Son emitidas por automóviles y demás vehículos, así como por una amplia variedad de fuentes en el interior de edificios, y han llamado la atención de la comunidad científica debido a la evidencia creciente de que pueden causar enfermedades respiratorias y cardiovasculares.

Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés) que llevaron a cabo este estudio, desarrollaron una serie de 150 experimentos usando cocinas de gas o eléctricas, y hornos eléctricos, para determinar sus aportaciones respectivas a los niveles de nanopartículas encontradas en el interior de una vivienda típica. En los estudios anteriores sólo se efectuaron mediciones de las partículas con diámetros superiores a 10 nanómetros, pero la nueva tecnología usada en estos recientes experimentos ha permitido medir partículas tan pequeñas como de 2 nanómetros, aproximadamente 10 veces el tamaño de un átomo grande.

Esta gama previamente inexplorada de tamaños entre 2 y 10 nanómetros ha resultado aportar más del 90 por ciento de todas las partículas producidas por fogones, o placas superiores, de cocinas, tanto de gas como eléctricas. Los hornos eléctricos y de gas produjeron la mayoría de sus partículas ultrafinas en el rango de 10 a 30 nanómetros.

Los resultados de estos experimentos deberán ser tenidos en cuenta en futuros estudios sobre la exposición humana a las partículas microscópicas y los efectos de ellas en la salud, sobre todo porque la exposición personal a estas fuentes de partículas ultrafinas en el hogar puede superar a menudo la exposición a las partículas ultrafinas que están en el exterior.

Los investigadores continuarán explorando la producción de estas diminutas partículas por las fuentes domésticas. Muchos aparatos pequeños comunes como los secadores de pelo, las planchas de vapor y las herramientas eléctricas incluyen elementos que calientan o motores. Ambos pueden producir tales partículas. Las personas a menudo usan estos aparatos pequeños a corta distancia de su cuerpo durante períodos de tiempo relativamente largos, así que la exposición podría ser grande aunque las emisiones sean relativamente bajas.

Los experimentos se llevaron a cabo en una casa de prueba de tres dormitorios ubicada en el NIST, y equipada para medir la tasa de ventilación, las condiciones ambientales y las concentraciones de contaminantes.

Información adicional en: http://www.scitech-news.com/ssn/index.php?option=com_content&view=article&id=662:nanoparticles-in-the-home-more-and-smaller-than-previously-detected&catid=39:ecology&Itemid=59

Incorporan un algoritmo a un avión no tripulado para predecir el tiempo con más exactitud



Permite mandar al avión al lugar adecuado para que recoja los mejores datos posibles

Investigadores del Departamento de Aeronáutica y Astronáutica del Instituto Tecnológico de Massachusetts (MIT) han desarrollado un algoritmo que, incorporado a un avión no tripulado, permite que éste tome los mejores datos meteorológicos in situ. De esta manera, se podrá predecir con más exactitud el tiempo. La idea es que los aviones trabajen en equipo y que, de manera autónoma, varíen su ruta y su posición, para conseguir las mejores mediciones en función de por dónde están volando el resto de los aparatos. Sus creadores han tenido que trabajar con muchas variables posibles, lo cual ha supuesto un reto muy importante desde el punto de vista computacional. Tras tres años de investigación, el MIT está en disposición de probar el nuevo algoritmo en condiciones reales.


La predicción meteorológica no siempre tiene la mejor reputación. Todos recordamos errores garrafales. Hoy en día, sin embargo, los modelos computacionales utilizados permiten que las predicciones a 48 horas vista sean muy precisas. En cualquier caso, investigadores del MIT, han desarrollado un pequeño avión autónomo e inteligente al que han incorporado un algoritmo que “caza” datos que mejorará la predicción. La idea de sus creadores es que una flota de aviones esté siempre volando para recoger los datos que ayuden a predecir el tiempo con una mayor precisión.

“El tiempo afecta a muchos sectores económicos, como la agricultura y el transporte”, comenta Nicholas Roy, que ha trabajado en este proyecto, en un comunicado del MIT. “Con más tiempo para planificar, los agricultores pueden, por ejemplo, recoger su cosecha antes de que una tormenta la diezme. Asimismo, las compañías aéreas ajustan sus planes de vuelo con más antelación, reduciendo el impacto sobre los viajeros”.

Por el momento, lo algoritmos han sido testados en una simulación, cuyos resultado han sido presentados recientemente en la IEEE Conference on Decision Control, en Cancún, en Méjico. La marina estadounidense ya ha mostrado su interés por él, y el MIT se encuentra en disposición de ponerlo en práctica.

Las predicciones a largo plazo no son erróneas necesariamente debido a los modelos de predicción, sino porque las condiciones iníciales no fueron medidas con precisión. Estas inexactitudes se deben a vacios o huecos en los datos recogidos.

Los sensores en tierra se usan en la actualidad para recoger la temperatura, la velocidad del viento, la humedad, la densidad del aire o la cantidad de lluvia, pero sólo evalúan las condiciones sobre el terreno. En el mar, donde muchos de los episodios meteorológicos más duros se originan, la cobertura es más escasa todavía. La observación mediante satélites ayuda, pero éstos son “ciegos” a gran cantidad de datos muy útiles, como la velocidad del viento en altitudes bajas.

Aviones no tripulados

Para conseguir una lectura de condiciones más exacta, lo mejor es colocar los sensores allí donde se produce la situación meteorológica. En teoría, los globos puede hacer este trabajo, pero sólo si están en el lugar adecuado y en el momento justo. Por ello, los servicios meteorológicos usan aviones pilotados que recorren rutas preestablecidas tomando diferentes datos. La logística de este procedimiento es complicada y es difícil cambiar las rutas de unos de estos aparatos para responder a un cambio repentino en las condiciones del tiempo.

Por ese motivo, hay mucho interés en utilizar aviones no tripulados para realizar esta labor. La idea es que haya un número constante de aviones volando. Estos aviones trabajarían en colaboración y tendrían la capacidad de posicionarse por sí mismos respecto a los demás para conseguir los mejoras datos posibles.

El problema de esta propuesta es que calcular la localización más útil respecto a los demás es una tarea enormemente compleja. Según los creadores de este algoritmo, requiere el análisis de más de un millón de tablas de datos de cientos de miles de localizaciones de sensores. Procesar toda esta información lleva entre seis y ocho horas. Este es el reto al que han hecho frente los investigadores del MIT.

Retos

Otro de los retos de este proyecto es la gestión del combustible. Eso es lo que opina en Technolgy Review, Dario Floreano, un experto en aviones robotizados del Laboratory of Intelligent Systems de la École Polytechnique Fédérale, en Lausana, Suiza. Los algoritmos tienen que ser capaces de reorientar a los diferentes aviones rápidamente y con mucha eficacia para que mantengan una cobertura óptima. Esto obliga a tener en cuenta muchas variables, incluidos los requerimientos energéticos para las diferentes estrategias de relocalización.

En opinión de este profesor, otro reto es el tamaño. Los aviones tienen que ser pequeños y lo suficientemente seguros como para no poner en peligro objetos o personas en el caso de que sean desplegados muchos al mismo tiempo. En la actualidad, sería posible incorporar estos algoritmos en aviones que pesan menos de un kilo.

Los investigadores del MIT, quieren testar su algoritmo en un aparato relativamente grande. Se trata del ScanEagle, fabricado por Boeing, que pesa unos 18 kilos. Este modelo es capaz de volar más de 1.600 kilómetros, cargado con sensores y equipos de comunicación. De esta manera, sólo cuatro aparatos podrían cubrir un área geográfica importante sin poner en riesgo a personas u objetos.

Después de tres años de investigación usando simulaciones del tiempo por ordenador, el equipo de investigación considera que su algoritmo puede determinar de una manera precisa y rápida hacía qué puntos habría que mandar uno de estos aviones no tripulados para conseguir la mayor cantidad de mediciones posibles.

Nuevos Softwares



Speed.io
http://www.speed.io/

Una cosa que nos preocupa a los internautas es conocer la capacidad real de nuestras conexiones de banda ancha. Y a la lista de tests de velocidad acabamos de conocer a Speed.io, una opción más que nos permitirá contrastar resultados tanto de las diferentes pruebas a través del mismo como a través del resto de servicios de tests de velocidad.

GENBETA.COM
Cuando accedemos al servicio, nos marca nuestro proveedor, nuestra ip actual y nuestro navegador. Una vez comencemos la prueba de velocidad, ésta empezará por la velocidad de bajada, luego por la velocidad de subida, siguiendo por el número de conexiones simultáneas que soporta nuestra línea y nuestro ping. Al lado de cada resultado nos aparecerá la correspondiente evaluación, para saber si la velocidad es muy lenta o excelente.

Una vez tengamos los resultados, éstos los podemos compartir como textos, para lo que nos ofrece un código para añadir a cualquier sitio web, o de manera gráfica, con lo que nos ofrecerá diversas opciones.

Nunca está de más conocer este tipo de servicios, sobre todo, para que no nos den gato por liebre.


Playcrafter
http://www.playcrafter.com/

La creación de juegos nos puede parecer que está muy fuera de nuestro alcance a no ser que estudiemos y trabajemos mucho para aprender a realizarlo. Pero lo que no sabemos es que existen algunas herramientas que nos facilitan esta tarea para aquellos que somos ignorantes en la materia.
WWWHATSNEW

Una de ellas es PlayCrafter, una aplicación web que con la técnica de arrastrar y soltar (Drag&Drop) podremos crear unos juegos que no serán espectaculares, pero servirán para pasar un buen rato.

Antes de comenzar a crear nuestro maravilloso juego tendremos que escoger una plantilla. Tenemos varias, entre ellas juegos de golf, estrategia o deportes.

El sistema nos proporcionará diferentes herramientas para empezar a trabajar, como hemos dicho antes, arrastrándo y soltando los diferentes objetos de los que disponemos, pero también podremos subir imágenes nosotros mismos desde nuestro pc, para personalizar los juegos lo máximo posible.

Una vez que hayamos acabado de diseñar el juego podremos compartirlo con el resto de usuarios o quien queramos, y que puedan disfrutar de aquello que con tanto esfuerzo hemos creados. Además, podremos acceder a la lista de juegos que han creado otros usuario para poder disfrutarlos o aprender de ellos, que nunca viene de más un poquito de ayuda e inspiración.

Todo esto es totalmente gratuito y una forma de dejar volar nuestra imaginación y crear algo con nuestras propias manos.


Smushit
http://www.smushit.com/

Obviamente que si tenemos que elegir entre usar este servicio o un programa que tengamos instalado en nuestro PC, sea cual sea, seguramente escojamos ese programa, por una simple cuestión de comodidad, no mas que eso.

GRUPOGEEK.COM
Pero ¿que sucede si estamos en una PC que no es nuestra y no sabemos que programa usar o si tiene algún programa de edición de imágenes?. Para eso existe Smushit, una web gratuita que nos permitirá reducir el peso de nuestra imágenes fácilmente.

Si bien el sitio está en inglés, no se alarmen, ya que de todas formas, este servicio es realmente muy fácil de usar. Lo único que debemos hacer es subir la imagen, para que luego el sistema optimice automáticamente el peso de nuestra imagen.

Este práctico servicio puede ser conbinado con otras páginas de edición de imágenes para obtener mejores resultados con más alta calidad.

Sugieren estimular el cerebro de gente sana con medicinas



La gente sana debería tener el derecho de usar pastillas para impulsar su actividad mental al igual que los niños hiperactivos o los ancianos amnésicos, opinaron varios expertos en un controversial artículo de una revista científica.

Los estudiantes universitarios ya toman estimulantes cerebrales como Ritalin, obtenidos de forma ilegal, para que les ayuden a estudiar, dijeron los científicos. La demanda de este tipo de medicinas probablemente crecerá entre otros sectores de la población, agregaron.

''Deberíamos abrir las puertas a nuevos métodos para mejorar nuestras funciones cerebrales'' y hacerlo con pastillas es moralmente equivalente a dormir bien o mantener una dieta sana, escribieron los expertos en un artículo publicado ayer para la revista científica Nature.

El artículo pide más investigación sobre el tema y recomienda tomar una serie de precauciones para controlar los riesgos.

A medida que se fabriquen más pastillas para revitalizar las funciones del cerebro, aumentará su demanda entre gente de mediana edad que quiere mejorar su memoria o trabajadores que necesitan realizar varias tareas al mismo tiempo, escribió Martha Farah, una científica de la Universidad de Pennsylvania.''Casi todo el mundo querrá usarlas'', comentó.

''Yo sería el primero en tomarlas si se crearan medicinas sanas y efectivas que fueran mejores que la cafeína'', señaló Michael Gazzaniga, otro investigador de la Universidad de California en Santa Bárbara.

Entre los siete autores, estadounidenses y británicos, hay un experto en ética y el editor en jefe de Nature.

El próximo campeón mundial de futbolín... un robot


Un grupo de investigadores de la Universidad de Friburgo (Alemania) aseguran haber desarrollado un robot que se convertirá en campeón del mundo de futbolín antes de que acabe esta década. Los científicos han conectado las barras que sujetan a los jugadores a motores de alta potencia y a un sistema de control electrónico.

ebajo del tablero, hay una cámara que localiza la posición de la bola 50 veces por segundo y envía los datos al ordenador -preprogramado con conocimientos de la dinámica del esférico-, que calcula si los oponentes pueden bloquear algunas de las direcciones.

Entonces, la máquina ordena a la barra apropiada que entre en acción.

El robot se ha apuntado un 85% de éxito contra una muestra de jugadores corrientes pero, de momento, no está preparado para enfrentarse con expertos, según explicó el investigador Bernhard Nebel en la edición de este sábado del semanario británico New Scientist.

De hecho, un profesional de la liga de futbolín alemana derrotó al robot diez veces contra una.

"Pero en un periodo de entre tres y cinco años, el robot deberá ser capaz de vencer al campeón del mundo", confía Nebel.

La Universidad de Friburgo ha cedido la patente a una compañía de juguetes que espera fabricar una versión más consistente, al precio de 25.000 dolares, que se comercializará a partir del próximo año.

Un hombre construye un robot como "mujer de sus sueños"



Un canadiense de 33 años decidió crear a la mujer ideal luego de, aparentemente, haber sido incapaz de encontrar a una chica que cumpliera con sus expectativas.

Le Trung, un ingeniero de software que vive con sus papás en Ontario, ha gastado 22 mil dólares en Aiko, un robot de cinco pies de altura (1.50 metros, aproximadamente) piel clara y figura delgada, además de gran disposición, informó la página foxnews.com.

"Ella puede reconocer rostros, identificar medicamentos e incluso poner mantequilla al pan tostado", explicó Le Trung, quien también indicó que Aiko habla inglés y japonés, además de leer.

"Aiko no necesita vacaciones, comida o descanso y trabajará 24 horas al día. Es la mujer perfecta", señaló.

Le Trung además dijo que Aiko aún es virgen y no piensa dormir con ella, aunque reconoce que el robot cuenta con sensores en su cuerpo incluidas sus partes íntimas.

Científicos confirman que el Sulfuro de Hidrógeno puede ayudar a regular la presión de la sangre



Muchas personas conocen el olor del sulfuro de hidrógeno, pues esta sustancia es la responsable del desagradable hedor de los huevos podridos, y también es generada por bacterias que viven en el colon humano. Ahora, un equipo internacional de científicos ha descubierto que las células en el interior de los vasos sanguíneos de los ratones (y sin duda, también dentro de los de las personas) producen de manera natural este denostado gas, y que el mismo contribuye a controlar la presión sanguínea.

El hallazgo de que el sulfuro de hidrógeno, o H2S, es producido en el delgado revestimiento de los vasos sanguíneos formado por células endoteliales, se le suma el de que el H2S regula la presión arterial mediante la acción de relajar tales vasos. Esta molécula mensajera, el miembro más nuevo de la familia de los gasotransmisores, es similar en función a las señales químicas representadas por el óxido nítrico, la dopamina y la acetilcolina, que transmiten señales entre las células nerviosas y excitan o refrenan la actividad cerebral.

Ahora que los científicos conocen el papel del sulfuro de hidrógeno en la regulación de la presión sanguínea, será posible diseñar medicamentos que favorezcan su formación, como una alternativa para los métodos actuales de tratamiento contra la hipertensión.

Realizando sus investigaciones sobre cepas de ratones carentes de un gen codificador de una enzima conocida como CSE, de la que se sospechaba desde mucho tiempo atrás de su responsabilidad en la producción de H2S, los investigadores midieron primero los niveles de sulfuro de hidrógeno en diferentes tejidos de esta cepa deficiente en CSE, y compararon estos valores con los de ratones normales. Encontraron que el gas se hallaba en una concentración mucho menor en el sistema cardiovascular de los ratones deficientes. En contraste, los ratones normales tenían mayores niveles del gas, una evidencia significativa de que el sulfuro de hidrógeno es producido de manera normal en los tejidos de los mamíferos empleando la enzima CSE.

Como los gasotransmisores se encuentran presentes en todos los mamíferos, es lógico suponer que los hallazgos de esta investigación puedan tener numerosas aplicaciones en el campo de la fisiología y la medicina humanas.

"En términos de relajación de los vasos sanguíneos, parece como si el sulfuro de hidrógeno fuera tan importante como el óxido nítrico", valora Solomon H. Snyder, neurocientífico de la Universidad Johns Hopkins, y coautor del estudio, refiriéndose al primer gasotransmisor que fue descubierto hace dos décadas como regulador de la presión sanguínea.

Investigadores europeos logran una prótesis con sensibilidad real



Científicos suecos cuya labor ha sido financiada con fondos comunitarios han conseguido «engañar» al cerebro de personas con amputaciones en las extremidades superiores para que sientan una mano protésica como si fuera suya. Los resultados suponen un gran avance en el campo de las neuroprótesis y hacen que la ciencia esté cada vez más cerca de conseguir el desarrollo de una mano protésica «inteligente» con sensibilidad al tacto. Se ha publicado un artículo al respecto en la revista Brain.

La investigación recibió fondos del proyecto SmartHand («Prótesis para la mano inteligentes y bioadaptativas»), el cual recibió 1,8 millones de euros mediante el Sexto Programa Marco (6PM) y fondos adicionales del Consejo Europeo de Investigación. Los investigadores de SmartHand pretenden incorporar avances realizados en la nanobiociencia, la neurociencia cognitiva y la informática para desarrollar una mano protésica inteligente con todas las características básicas de una real.

Además de sentir un «dolor fantasma» en el miembro ausente, la gente que ha sufrido una amputación padece a menudo depresión grave y fobia social, así como una imagen distorsionada de sí mismos. Tal y como se establece en los objetivos de SmartHand, crear una mano artificial funcional que se pueda sentir como parte del cuerpo de una persona mejoraría en gran medida la calidad de vida de los pacientes, ya que estos recobrarían la imagen positiva de sí mismos y se sentirían más aceptados socialmente.

Los investigadores sometieron a estudio a dieciocho personas con amputaciones entre la muñeca y el codo y que utilizaban una prótesis de manera regular. Se preguntó a los sujetos acerca del síndrome del miembro fantasma y sobre otras sensaciones relacionadas con la ausencia de la extremidad. También si sentían tacto en sus dedos o cualquier otra parte de la mano al tocar distintas partes del muñón. Tras esta evaluación, se sometieron a la denominada «ilusión del brazo de goma».

Dicha ilusión consistía en tocar el muñón del miembro amputado del sujeto sin que el paciente mirara el muñón, sino en su lugar un brazo de goma manipulado a la vez. El experimento hace que el cerebro interprete información visual, táctil y espacial en conflicto y provoca como resultado una percepción distorsionada. Los sujetos, en distintos grados, sintieron que la presión procedía de la mano protésica en lugar del muñón.

Los científicos quedaron gratamente sorprendidos puesto que, cuando este experimento se lleva a cabo en sujetos «normales», su exactitud debe ser elevada para que la ilusión funcione. «En individuos normales es fundamental estimular exactamente los mismos puntos en el brazo de goma y en el real para que la ilusión surta efecto», escriben. «Así que, ¿cómo podría funcionar la ilusión en amputados que ni siquiera tienen una mano que estimular?»

Los resultados plantean cuestiones fundamentales sobre la forma en la que el cerebro distingue las distintas partes del propio cuerpo y los objetos del entorno.

El éxito de la ilusión fue confirmado mediante la descripción de la propia experiencia de los sujetos, la tendencia a señalar el brazo de goma al pedirles que indicaran el punto de estimulación y las pruebas de respuesta fisiológica, como por ejemplo si comenzaban a sudar cuando se pinchaba la mano de goma con una aguja. Muchos sujetos sintieron el brazo de goma como si fuera suyo. Curiosamente, los investigadores observaron que si el tiempo transcurrido desde la amputación era menor, la ilusión cobraba más fuerza.

Los descubrimientos abren nuevas puertas para la creación de miembros protésicos que se puedan sentir como parte del propio cuerpo.

«De ahora en adelante exploraremos las posibilidades de desarrollar un miembro protésico que sea capaz de registrar el tacto y estimular el muñón en el que está colocado», declaró el Dr. Henrik Ehrsson del Instituto Karolinska (Suecia). «Si engañar al cerebro de esta forma hace posible la creación de una prótesis con sensibilidad, podemos estar ante un avance importante hacia la creación de miembros protésicos más prácticos que los que hay en el mercado hoy en día.»

Cada vez más consumidores prefieren el ordenador a la televisión para ver contenidos audiovisuales


El 76% de los consumidores de medios digitales y entretenimiento en todo el mundo ha visionado vídeos en su ordenador, mientras que un 32% afirma haberlos vistos en un dispositivo portátil o un teléfono móvil, según una encuesta de IBM (NYSE:IBM). De aquellos que han visto vídeos en el PC, un 45% los ve con regularidad, varias veces al mes.

Amedida que avanza su adopción, el vídeo online come terreno a la televisión. Del 50% de los encuestados que ha visto contenidos audiovisuales online, un 36% afirma que este hecho ha provocado que vea la televisión bastante menos. El comportamiento de los "teleadictos" ha cambiado, ya que adoptan alternativas como la denominada 'placeshifting' que, entre otras cosas, permite ver los canales del propio televisor o vídeo desde un dispositivo remoto.

Estas son algunas de las conclusiones de la segunda edición de la encuesta global online sobre hábitos de consumidores de medios digitales y entretenimiento, elaborada por el IBM Institute for Business Value, dentro del informe "Beyond Advertising: Fact or Fiction". La encuesta cuenta con un total de 2.800 testimonios de usuarios en todo el mundo y ofrece pistas al sector publicitario a la hora de elaborar sus estrategias futuras. Así, el estudio concluye que los particulares buscan mensajes de marketing integrados y personalizados y que la publicidad puede sobrevivir si las empresas siguen las reglas de los consumidores.


Redes sociales e información personal

Según el informe, el 60% de los consumidores de medios digitales y entretenimiento maneja ya de forma habitual las redes sociales en la web, mientras que el 40% tiene previsto utilizar Internet en sus dispositivos móviles. La encuesta desvela también que servicios como las redes sociales (tipo Facebook) o webs de vídeos online (como YouTube) tienen cada vez más éxito. De hecho, el ritmo de adopción de estas nuevas formas de comunicación por parte de los usuarios se duplicó con respecto a los datos de la encuesta anterior.

Por otra parte, cerca del 60% del total de los participantes en el estudio afirma que ofrecerían información personal, como edad, sexo, estilo de vida o preferencias en comunicaciones, a cambio de incentivos como descargas gratuitas de música o descuentos en tiendas.


Estrategias de publicidad

El estudio refleja el consumo a gran escala de contenidos digitales a través del PC y de teléfonos móviles. Los modelos financiados con publicidad (es decir, no pagados por el consumidor) son los preferidos por los encuestados en una proporción de tres a uno (más del 70% de los encuestados). Sin embargo, mientras que el uso de los servicios de contenidos digitales se ha popularizado, la interactividad se restringe a los consumidores más expertos en el medio digital. Las interacciones más frecuentes de este tipo de consumidores con el medio digital son la subida de videos y las valoraciones.

A la pregunta de cuándo prefieren ver la publicidad vinculada con vídeos online, la mayoría responde que la prefiere antes o después del vídeo. Además, los encuestados no están satisfechos con el modelo publicitario de la televisión tradicional, basado en interrupciones de películas con anuncios o el uso de publicidad indirecta ("product placements") en los programas.


Las jóvenes generaciones utilizan hasta cinco dispositivos

Los consumidores más expertos en el medio digital utilizan nuevos dispositivos multimedia. Así, el segmento de jóvenes de 13 a 24 años tiene entre cuatro y cinco dispositivos. Los más populares son los reproductores de música, como el iPod, consolas como Sony PlayStation, Microsoft Xbox o Nintendo Wii, televisores de alta definición (HDTV) y juegos portátiles. Los más aficionados a estos aparatos, estimados en un 15% del mercado, tienen de media entre siete y ocho dispositivos multimedia. Los más populares son los reproductores de música portátiles, las HDTV, los grabadores de vídeo digitales (DVR) y los teléfonos con Internet, como iPhone o BlackBerry.

Por otra parte, los usuarios reclaman mayor convergencia entre dispositivos. Más del 40% de los encuestados está interesado en la portabilidad de contenidos, es decir, la capacidad de ver y transportar un determinado contenido a distintos dispositivos. Casi uno de cada cinco encuestados se muestra interesado en que los sistemas de mensajería estén adaptados a todos los terminales.

"Con el surgimiento de la Web 2.0, millones de personas pueden crear, publicar y consumir contenidos instantáneamente. Para sobrevivir, los anunciantes tienen que entender cómo llegar a sus audiencias objetivo a través de múltiples dispositivos", declaró Dick Anderson, director general de IBM Media & Entertainment. "Conocer las preferencias específicas de cada segmento de consumidores y ofrecer contenidos y mensajes coherentes es esencial para el éxito a largo plazo".

Yahoo crea una nueva barra de herramientas para su buscador


Yahoo ha presentado una nueva barra de herramientas que permitirá a los usuarios acceder a su correo electrónico mientras hacen una búsqueda en Internet, el último paso en una estrategia de apertura a sus usuarios y terceros.

Firefox, Yahoo, Microsoft y otros crean barras de herramientas, unas pequeñas tiras que se colocan en la parte de arriba del buscador, para dar un acceso más rápido y más fácil a las opciones de Internet.

La barra de Yahoo, que estará disponible a finales de esta semana, permitirá a los usuarios acceder a una serie de programas sin dejar la pagina en la que estén.

Por ejemplo, los usuarios podrán recibir notificaciones de sus correos en la barra y abrirlos. La compañía también ha mostrado un nuevo diseño para la bandeja de entrada, que combina opciones de red social y permite a los usuarios entrar en programas de terceros.

Yahoo tiene alrededor de 275 millones de usuarios de su correo electrónico. Su portal se basa en ingresos por publicidad y la empresa afirma que tiene una audiencia de más de 500 millones de consumidores.

Como es normal con Yahoo, los cambios se hacen poco a poco y más adelante estarán a disposición de todos los usuarios.

La compañía coloca su nueva estrategia de apertura como un paso más en mitad de una transición. Está buscando un nuevo jefe ejecutivo para reemplazar a Jerry Yang, que ha dimitido. También ha informado a 1.500 empleados de que van a ser despedidos.

lunes, 15 de diciembre de 2008

¿Se aleja Google de la neutralidad de la Red ?



El WJS levanta las alarmas sobre posibles conversaciones con proveedores de Red
Google asegura que se trata de acuerdos para mejorar el almacenamiento caché


La prensa estadounidense publica que existen una supuestas conversaciones entre el gigante de la Red y compañías de telecomunicaciones para obtener más velocidad para las aplicaciones del buscador. Google matiza: se trata de acuerdos sobre el uso de la memoria caché para mejorar la velocidad de los servicios, algo que no viola ningún principio sobre neutralidad de la Red

El diario 'The Wall Street Journal' (artículo de suscripción) asegura que Google negocia con proveedores de cable con el fin de crear una red más rápida para sus propios contenidos, según "documentos revisados" por el diario.

Así, se desprende de dicho artículo que uno de los principales defensores de la llamada 'neutralidad de la Red' (que consiste en que los proveedores de Red no puedan imponer condiciones especiales a nadie ni beneficiar un tipo de tráfico frente a otro) estaría traicionando precisamente dicho principio.

Las compañías proveedoras de Red se han quejado repetidas veces de que los generadores de contenido para Internet no contribuyen al mantenimiento de la infraestructura necesaria para que exista la propia Red, mientras que el tráfico crece cerca del 50% anual.

Según el WSJ, no se ha llegado a un acuerdo precisamente porque podrían verse violadas las normas y directrices de la Comisión Federal de Comunicaciones estadounidense (FCC) para preservar la neutralidad de la Red.

Otros gigantes de Internet parecen haber 'suavizado' sus posturas a favor de la neutralidad de la Red, según el mismo artículo. Así, Microsoft y Yahoo! "se han ido retirando en silencio de la coalición formada hace dos años para proteger la neutralidad de Red" y han forjado acuerdos con compañías de cable y telefónicas.

En virtud de las conversaciones entre Google y los proveedores de Red, con el nombre interno OpenEdge, colocaría servidores del buscador dentro de la red de los proveedores de servicios, según los documentos revisados por el WSJ.
Google se defiende

Richard Whit ha escrito un post en el blog oficial de Google en el que desmiente la información del WSJ, a la que califica de "confusa".

Whit asegura que los "proveedores de banda ancha no deben tener permitido priorizar el tráfico basándose en la fuente, la propiedad o el destino de su contenido (...) aunque deberían tener la flexibilidad necesaria para usar actualizaciones de red, como el uso del almacenamiento caché". "Nuestro compromiso con el principio de neutralidad de la Red sigue siendo tan firme como siempre", afirma.

El uso de memoria local caché, recuerda Whit, es una práctica común de proveedores de Internet que ayuda a distribuir mejor los contenidos y a aliviar la congestión de las redes troncales de Internet.

Lo que negocia Google es colocar servidores con memoria caché en las instalaciones de los proveedores de Red, lo que reduiciría el ancho de banda del proveedor necesario para reproducir, por ejemplo, un vídeo de Youtube, al no tener que ser transmitido varias veces.
Reacciones

Las reacciones al artículo del WSJ no se han hecho esperar. Sitios especializados como Google Dirson remarcan el hecho de que la compañía siempre ha sido una de las grandes defensoras de la neutralidad de la Red, hasta el punto de que logró arrancar un compromiso al presidente electo de EEUU, Barack Obama, para que incluyese la defensa de la neutralidad en su programa electoral.

"En caso de ser cierto, Google tendría el reto de explicar a los miles de desarrolladores y emprendedores del mundo por qué sus aplicaciones van a tener mayor prioridad que la de cualquier nuevo proyecto que surja en Internet", asegura el blog Dirson, que añade que la compañía debería "intentar mantener su imagen alejada de empresa monopolística al estilo de Microsoft, de la que ha intentado desprenderse durante los últimos años".

Otro, como el profesor del IE y bloguero Enrique Dans, directamente no se lo creen. "Google es una empresa con los principios de la neutralidad de la Red sólidamente imbricados en su ADN, con Vint Cerf, uno de sus mayores defensores, en plantilla, y que ha recibido visitas de Obama al Googleplex", afirma Dans en un post. "Sencillamente, resulta imposible que, de la noche a la mañana, abandone sus tesis y se convierta al lado opuesto", concluye.

Robots sociales, la nueva generación


Su capacidad de desarrollar actividades cognitivas y emotivas obligará a decidir qué posición ocuparán en la sociedad futura

Un robot social es aquel que interactúa y se comunica con las personas (de forma sencilla y agradable) siguiendo comportamientos, patrones y normas sociales. Para eso –además de tener apariencia humanoide– se necesita que disponga de habilidades que se ubican dentro del dominio de la llamada inteligencia social. La mayoría de los robots actuales funcionan relativamente bien en entornos controlados, como –por ejemplo– los laboratorios, pero surgen problemas cuando operan en entornos más reales, tales como oficinas, casas o fábricas. No obstante, en poco tiempo el robot hogareño se acoplará a la vida del Hombre como alguna vez lo hizo el teléfono, la televisión, el automóvil y la computadora personal. Ahora bien, si un robot puede desarrollar tanto actividades cognitivas (razonamiento) como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa dentro de una sociedad.


Se puede definir al “robot inteligente autónomo” como un sistema compuesto por un controlador electrónico acoplado a un cuerpo mecánico, y con ciertas características de autonomía, fiabilidad, movilidad y versatilidad. De este modo, esta máquina necesita de adecuados sistemas sensoriales (para percibir el entorno en donde se desenvuelve), de una precisa estructura mecánica adaptable (a fin de disponer de una cierta destreza física de locomoción y manipulación), de complejos sistemas efectores (para ejecutar las tareas asignadas) y de sofisticados sistemas de control (para llevar a cabo acciones correctivas cuando sea necesario) [Moriello, 2005, p. 172].

Es importante tener presente que la función técnica de los robots no es reemplazar al ser humano, sino aliviarlo de todas aquellas tareas consideradas repetitivas, rutinarias, monótonas, aburridas, arduas, tediosas, fatigosas, insalubres, peligrosas y desagradables. Los autómatas deberían coexistir y cooperar con las personas.

Taxonomía

Una clasificación de los robots inteligentes autónomos podría ser en zoomórficos, humanoides, híbridos y polimórficos [Moriello, 2005, p. 138/9]. Los robots zoomórficos se distinguen fundamentalmente porque sus sistemas de locomoción imitan a la de algunas criaturas; por ejemplo, serpientes, cuadrúpedos o arácnidos. Los humanoides (androides o ginoides, según su versión masculina o femenina, respectivamente) podrían considerarse un caso particular del robot zoomórfico en el que el sistema de translación es bípedo, pero se caracterizan principalmente por tratar de reproducir –en mayor o menor medida– la forma del ser humano y sus movimientos.

Bajo la denominación de híbridos se agrupa a aquellos robots que combinan las características de los demás tipos descriptos anteriormente (por ejemplo, un brazo robótico montado sobre una plataforma móvil con ruedas). Por último, los robots reconfigurables o polimórficos tienen la particularidad de que pueden “reconfigurarse” a sí mismos, adaptando su estructura para realizar cada tarea específica. Consisten en una serie de unidades articuladas que pueden unirse en cadenas extensibles, lo cual les permite una amplia gama de posibilidades: caminar, serpentear, nadar o incluso volar. Una vez terminada una labor, la estructura se puede auto-reconfigurar para ejecutar otros trabajos diferentes.

Otra clasificación de los robots inteligentes autónomos podría ser en aéreos, acuáticos y terrestres. Dentro de esta última, se los podrían subclasificar, a su vez, en robots con ruedas y con patas: dos (bípedos), cuatro (cuadrúpedos), seis (hexápodos) y ocho (octópedos).

Robots humanoides

Un robot humanoide es aquel que no sólo tiene la apariencia, sino que también ejecuta movimientos que se asemejan al de un ser humano. También es fundamental la habilidad de interacción social, para lo cual el robot necesita contar con un modelo cognitivo-afectivo del ser humano y de capacidades de comunicación, comprensión y aprendizaje [Adams et al, 2000].
Existen fundamentalmente tres razones para adoptar la forma humanoide: una “filosófica”, otra “psicológica” y, la última, “pragmática” [Moriello, 2005, p. 180/1].

En primer lugar, algunos filósofos cognitivos sostienen que la forma corporal es crítica para el ser humano (para sus pensamientos, sentimientos, conocimientos y lenguaje), ya que organiza y unifica la experiencia vivenciada en diferentes niveles de complejidad. En efecto, el Hombre piensa y habla en términos de su cuerpo; usa su modelo corporal como referencia, como eje central para construir su mundo. Además, algunos neurólogos afirman que el sentido del mundo, de las cosas e –incluso– de la propia identidad surge de la actividad permanente del cuerpo insertado en un entorno específico [Haselager y Gonzalez, 2003].

En consecuencia, si se intenta construir un robot con inteligencia similar a la del Hombre, necesariamente debe poseer un cuerpo lo más parecido al de éste. Sin embargo, y puesto que es harto difícil lograr construir una aproximación genuina, existe el peligro de que se imite sólo lo superficial, pero que se pierda totalmente sus aspectos más profundos.

En segundo lugar, y para que el robot gane experiencia, necesita un gran número de interacciones con los seres humanos. Si el robot tiene una forma humanoide, sería más fácil y natural interactuar con él, ya que las personas le atribuirían no sólo características vivientes sino incluso humanas (las personas están acostumbradas a ciertas reacciones y formas del lenguaje corporal cuando hablan con otras).

Es decir, le adjudicaría estados mentales, pero que tienen poca o ninguna referencia con respecto a la competencias reales del robot [Duffy, 2002]. Esto ayudaría a dichas personas a racionalizar la situación, basándose sobre la observación de las conductas dentro de un dado entorno. El mejor modo de superar el miedo que la humanidad siente ante la máquina inteligente consiste en darles una forma lo más familiar posible. A fin de lograr una adecuada interacción, se debe hacer hincapié sobre algunos temas importantes; por ejemplo, detectar caras e interpretar los gestos faciales, establecer un contacto visual y seguir la mirada de las personas, distinguir las voces humanas de otros sonidos, respetar el espacio personal, etc. [Brooks, 2002].

En tercer lugar, está la ventaja de que utilizarían toda la gama de instalaciones, espacios y servicios, así como aparatos, herramientas y utensilios tecnológicos concebidos para las personas. En suma, podrían participar del “mundo humano”. Después de todo, el homo sapiens ha modificado su entorno de tal manera de hacerlo confortable únicamente para satisfacer las necesidades de un ser con un torso, un par de piernas y brazos, y una cabeza encima de los hombros.

Robots hogareños

La mayoría de los robots funcionan relativamente bien en entornos controlados, como –por ejemplo– los laboratorios, pero surgen problemas cuando operan en entornos más reales, tales como oficinas, casas o fábricas [Vilarroya, 2006, p. 148]. No obstante, muchos están convencidos de que, en poco tiempo más, el robot hogareño se acoplará a la vida del Hombre como alguna vez lo hizo el teléfono, la televisión, el automóvil y la computadora personal.

Hay varios factores importantes para el éxito de los robots hogareños [Moravec, 2000] [Fritz, 2007]. En primer lugar, que tenga un precio razonable, preferiblemente más barato que un automóvil de gama media. En segundo lugar, que sea capaz de moverse y operar –de modo confiable y seguro– dentro del hogar y que el usuario no se vea obligado a llamar al especialista cada vez que ponga en marcha el robot o cambie su rutina.

En tercer lugar, y a fin de no causar temor, debería tener un tamaño y un peso moderados: tal vez el de un adolescente normal de 12 años de edad sería lo adecuado. En cuarto lugar, debería trabajar fiablemente durante un tiempo prudencial (al menos durante medio año).

Por último, debería tener la inteligencia apenas necesaria para limpiar, encerar, lavar, planchar, transportar objetos alrededor de la casa, sacar la basura, utilizar los electrodomésticos del hogar, reconocer a las personas, sostener conversaciones simples y atender visitas. Esto incluye la habilidad para resolver los pequeños problemas cotidianos que los humanos no tienen ni siquiera que pensar (mantenimiento del equilibrio, navegación adecuada, control de la presión manual, coordinación ojo-brazo-mano, etc.) [Balkenius, 2003].

Para ayudar a la gente en sus numerosos quehaceres, no es obligatorio que el robot tenga forma humana: el automóvil no copia las cuatro patas de los animales, ni el avión imita el vuelo de las aves. ¿Se necesita la forma humana para abrir puertas, cuando éstas pueden ser automáticas? ¿Es necesario un androide para ejecutar el trabajo de un mensajero o el de una aspiradora, cuando un robot equipado con ruedas puede realizar esas mismas tareas con más rapidez y con menos consumo de energía…, además de ser mucho más barato? El robot humanoide parece tener pocas ventajas sobre los robots diseñados para tareas específicas; sin embargo, son mucho más aptos para fomentar la interacción con las personas.

Robots sociales

Un robot social es aquel que interactúa y se comunica con las personas (de forma sencilla y agradable) siguiendo comportamientos, patrones y normas sociales. Para eso –además de tener apariencia humanoide– se necesita que disponga de habilidades que se ubican dentro del dominio de la llamada inteligencia social. Se debe tener en cuenta que la socialización con las personas es un tema difícil, ya que los robots y los humanos no comparten un lenguaje común ni perciben el mundo de la misma forma.

También es importante que el robot exhiba una cierta “personalidad” distintiva. Hay varias razones para creer que si un robot tuviera una personalidad convincente, la gente estaría más dispuesta a interactuar y establecer algún tipo de relación con él. En particular, la personalidad del robot puede proporcionar una realimentación útil, ofreciendo a los usuarios una manera de modelar y entender su conducta [Fong, Nourbakhsh y Dautenhahn, 2003]. De esta manera, el robot podría reconocer el estado de ánimo del usuario (por el tono de su voz) e, incluso, intentar modificarlo si lo considera necesario.

Otras tareas menos llamativas, pero muy útiles, serían la de acompañante: encontrar y reproducir canciones, grabar programas de televisión, escribir y enviar mensajes de textos y/o correos electrónicos, tomar fotografías, dar la hora, etc. Incluso ayudar a las personas mayores y/o con capacidades disminuidas, a las cuales podrían alimentar, recordarles la toma de medicamentos, recopilarles información diversa (noticias, espectáculos, artículos, direcciones, teléfonos), etc.

A fin de interactuar de manera adecuada, los robots sociales necesitarían básicamente ser capaces de comunicarse con las personas manteniendo diálogos de alto nivel. Para eso, deberían cumplir con una serie de requisitos. Necesitarían ser capaces de seguir visualmente los movimientos del interlocutor (cara, ojo, cuerpo, brazos, manos). También deberían poder reconocer e interpretar el habla humana, lo cual incluye el discurso afectivo, las órdenes discretas y el lenguaje natural.

De igual modo, necesitarían sintetizar la voz humana y reproducirla sin problemas, idealmente con cierta modulación (no con el clásico tinte robótico). Asimismo, deberían tener la capacidad de reconocer las expresiones faciales, los gestos y las acciones humanas y disponer de una cierta capacidad expresiva. Esta última consiste fundamentalmente en la posesión de un rostro, con componentes faciales primarios como ojos, párpados, cejas, mejillas, labios, mandíbula y frente. Finalmente, deberían poder interpretar la conducta social de las personas a través de la construcción de elaborados modelos cognitivos-afectivos.

Algunos dilemas

Es fácil notar que cualquier cosa que pueda hacer un robot no es propia para un ser humano. Es decir, si una persona hace el trabajo que puede hacer un robot, se está desaprovechando muchas de sus capacidades y habilidades. No obstante, ¿qué sucederá en un futuro mediano? Si los robots se vuelven cada vez más complejos y versátiles, ¿no desplazarán a los humanos de sus ocupaciones, convirtiéndolos en algo obsoleto?

Si un robot puede desarrollar tanto actividades cognitivas (razonamiento) como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa dentro de una sociedad. De acuerdo con las actuales leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes; no son personas legales. ¿Uno lo podría tratar como se le antojase?, o ¿tendrían “pensamientos” y “sentimientos”, con lo cual sería reprochable tratarlos de ciertas maneras? El propietario, ¿tendría derecho a destruir su programación inteligente? ¿Se podría considerar como un asesinato? Por otra parte, el reemplazar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico viejo, ¿no sería moralmente reprochable? En las ciudades, ¿es posible que emergieran legiones de anticuados robots “sin propietarios”?, ¿serían ilegales o indocumentados?

Mucho antes de construirlos, se debería tener definido si no es una crueldad producir en masa androides sintientes y pensantes y luego destruirlos en enormes “campos de exterminio”. Es probable que, con el tiempo, los robots demanden la igualdad de “derechos legales”. Pero, ¿qué tipo se les debería otorgar y/o negar? ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia y particular sociedad?, ¿con sus propios gobernantes?, ¿quiénes tendrán derecho a “votar”?

Por último, y a medida que los robots se vuelvan más y más complejos, es probable que necesiten modelos (físicos, biológicos, psicológicos, sociales) más reales de las personas en general. Sin embargo, ¿podría aceptarse la modelación detallada del usuario (sus gustos, sus inclinaciones, sus placeres, sus secretos) tanto sea a partir de equipos de programadores-psicólogos como a partir del propio aprendizaje del robot?, ¿no constituiría esto una violación a la intimidad del usuario? Y de aceptarse, ¿el robot debería ser capaz de reconocer cuándo la persona está actuando de forma errática y/o equivocada y tomar las medidas correctivas del caso? [Fong, Nourbakhsh y Dautenhahn, 2003].



Bibliografía

1. Adams, Bryan; Breazeal, Cynthia; Brooks, Rodney y Scassellati, Brian, Humanoid Robots: A New Kind of Tool IEEE Intelligent Systems (julio/agosto, 2000), vol. 15, N° 4, p. 25-31.
2. Balkenius, Christian (2003): From Isolated Components to Cognitive Systems ERCIM News (abril), N° 53. Tema Especial: Cognitive Systems.
3. Brooks, Rodney (1998): Prospects for Human Level Intelligence for Humanoid Robots. MIT, julio, Laboratorio de Inteligencia Artificial.
4. Duffy, Brian (2002): Anthropomorphism and Robotics. The Society for the Study of Artificial Intelligence and the Simulation of Behaviour (AISB 2002). 3-5 Abril.
5. Fong, Terrence; Nourbakhsh, Illah y Dautenhahn, Kerstin (2003): A survey of socially interactive robots. Robotics and Autonomous Systems, vol. 42, N° 3-4, 2003, 143-166.
6. Fritz, Walter (2007): Sistemas Inteligentes y sus Sociedades. Última actualización.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX