Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 18 de enero de 2008

French Company Develops Car That Runs on Compressed Air



A car that runs on air?

What seemed like a pipe dream may soon become reality as Frenchman Guy Negre hopes versions of his compressed air car will be produced in India this year by Tata Motors Ltd after a 15 year quest for backers for his invention.

Negre believes the time is right for his design with oil prices at record highs and pressure on carmakers to improve the fuel efficiency of their vehicles.

"My car is zero pollution in town and almost no pollution on the highways," he added, saying the vehicle could travel 100 kilometres at a cost of one euro in fuel.

The former Formula One motor racing engineer's invention depends on pressurised air to move the pistons, which in turn help to compress the air again in a reservoir. The engine also has an electric motor, which needs to be periodically recharged, to top up the air pressure.

The bottles of compressed air -- similar to those used by divers -- can be filled up at service stations in several minutes.

EXTENDED RANGE

The latest versions of the cars -- MDI made an entire series of prototypes of engines and vehicles -- also include a fuel engine option to extend the car's range when not in reach of a special power plug or service station.

Tata, India's largest carmaker with revenue of $7.2 billion in its last financial year, concluded a deal in 2007, investing 20 million euros. Pre-production in India is set for 2008, Negre said.

The vehicle, protected by some 50 patents, will cost some 3,500 to 4,000 euros. Using composite materials, it will weigh not more than 330 kilos and its maximum speed is 150 kilometres per hour.

"The lighter the vehicle, the less it consumes and the less its pollutes and the cheaper it is; it's simple," Negre said.

MDI's models which typically have a rounded shape a bit like a speech balloon in a cartoon include the Minicat urban vehicle, the Citycat for longer distances with an added tank for ethanol, diesel or bio-fuel and a taxi version.

Negre said he aimed to set up mini factories in regions where the car is used. "No transport, no parts suppliers. Everything will be made at the place of sale in production units that can make one car per half hour," said Negre.

"That is more profitable, more ecological than the big factories of the large carmakers."

Negre is not the only inventor working on compressed air engines. Urugay's Armando Regusci, Australia's Angelo di Pietro and South Korea's Chul-Seung Cho have also produced designs.

But Negre has the backing of Tata, whose global ambitions were last week underscored when it was named preferred buyer of the Jaguar and Land Rover brands from Ford Motor Co.

El bipedismo surgió de una mutación genética hace 21 millones de años





Descubre que un simio del Mioceno ya era capaz de caminar erguido, por lo que pudo ser un ancestro humano

- Los orígenes de uno de los rasgos que caracterizan al ser humano, el bipedismo , podrían retroceder hasta hace 21 millones de años, 15 millones más de lo que se pensaba hasta ahora, a tenor de los resultados de un exhaustivo estudio sobre la espina dorsal de más de 200 fósiles de mamíferos que vivieron a lo largo de 250 millones de años.

El estadounidense Aaron G. Filler, que trabaja en el Museo de Zoología Comparada de Harvard y el Centro Médico Cedars Sinaí, ha descubierto que un antiguo simio, el 'Morotopithecus bishopi', encontrado en Uganda en los años 60, habría sido el primero en enderezar la columna para caminar erguido debido a una mutación genética. Filler denomina a estos bípedos como 'hominiformes' y los considera los antepasados comunes de chimpancés y humanos.

Para llegar a esta conclusión, que publica en la revista 'PLoS ONE', el autor se ha aprovechado de los avances de la genética homeótica, una mutación en los genes de los embriones por la cual se producen transformaciones en las vértebras.

Una de estas mutaciones habría sido la que permitió poner el cuerpo vertical en un individuo de un ancestro humano. "Lo que ocurrió a nivel embriológico es literalmente impresionante", ha señalado Aaron Filler, experto en biología espinal.

Filler explica en su trabajo que este defecto de nacimiento fue el que cambió la disposición de las vértebras. Aquel individuo habría sido el primer ser bípedo de la historia en una familia de cuadrúpedos.
Comparación de huesos del primate y de un 'Homo Sapiens' (Foto: Aaron G. Filler)
Ampliar foto


El mejor ejemplo de este tipo de organismo sería el 'Mortopithecus', hoy extinguido, pero hay otros. Entre ellos, según recuerda Filler, están los 'Oreopithecus', los 'Pieralopithecus catalaunicos' (encontrado en Barcelona), el 'Orrorin', y el 'Sahelanthropus'.

"Además, el bipedismo es común entre todos los simios, pero es el método de locomoción en tierra dominante entre los gibones, por ejemplo. También se ha sabido que los orangutanes lo practican. Hoy ya no es posible decir que mi teoría es imposible. La denomino el modelo Humanian, frente al troglodita, el de un ancestro que caminaba con los nudillos", defiende el investigador en declaraciones a elmundo.es.

"Creo que el origen del bipedalismo surgió en un sola generación por una mutación genética en el Mioceno», añade Filler. El científico, que dedicó su tesis a la evolución de la espina dorsal en mamíferos, asegura: "Aceptamos que el 'Australopithecus' es humano aunque su cerebro es como el de un simio y decimos que los humanos nos separamos de los chimpancés hace seis millones de años, pero si un antepasado común fue bípedo, entonces esa criatura también debería ser llamada humano y no simio. Así que varios simios modernos deberían ser calificados como humanos", concluye.

Pero la teoría de la mutación de Filler es polémica y muchos paleontólogos no están convencidos. Entre ellos José María Bermúdez de Castro, director del Centro Nacional para la Investigación de la Evolución Humana. "Si aquel simio de hace 21 millones de años fuera un ancestro humano, los chimpancés también serían bípedos", explica el paleontólogo.

El especialista español sí cree que el bipedimo pudo haber aparecido antes de lo que ahora sabemos con certeza. "Quizás surgió y luego desapareció porque en aquel momento, por el entorno y el clima, no generaba ventajas andar erguido. Sin embargo, hace unos seis millones de años sí que puedo ser ventajoso andar sobre dos patas porque había menos bosques", explica. De hecho, el éxito del bipedismo como modo de locomoción se atribuye a la expansión de la sabana, puesto que evitaría el calor, permitía liberar las manos y significaba un ahorro de energía en momentos de escasez de alimentos.

Fuente:
http://www.elmundo.es/

Descubren mutación genética que origina leucemia




Esto permitirá desarrollar tratamientos específicos y menos agresivos.
Por Agencia EFE
Londres - Un grupo de científicos británicos ha descubierto la mutación genética que origina la leucemia en los niños gracias al seguimiento de dos gemelas, una afectada por la enfermedad y otra sana.
El estudio, publicado hoy en la revista científica estadounidense "Science" y calificado por la comunidad científica como un "gran paso", permitirá que se desarrollen tratamientos específicos, menos intensivos y menos agresivos.
La investigación -hecha por la Universidad de Oxford, el hospital infantil Great Ormond Street de Londres y la asociación de investigación médica Cancer Research- explica que el desarrollo del cáncer de las células sanguíneas en la infancia requiere que un "reducido pero crucial grupo de células" sufra dos mutaciones.
La primera se produce durante el primer periodo de gestación, lo que hace que algunas células de la médula ósea se conviertan en "preleucémicas", pero es necesario que una segunda mutación se dé durante los primeros meses de vida del niño.
Esa segunda modificación genética, probablemente causada por una infección común -como la de un resfriado- cambiaría el estado de las células preleucémicas a células malignas.
"Estas son las células (las malignas) que causan y mantienen la enfermedad. Ya que ahora conocemos esas células, esperamos poder encontrar su talón de Aquiles para combatirlas", dijo el profesor Tariq Enver, responsable de la investigación y miembro de Unidad de Investigación Hematológica Molecular de la Universidad de Oxford.
Los investigadores han averiguado que estas células resisten la quimioterapia, por lo que el riesgo de recaída es alto.
El estudio indica también que el uno por ciento de los niños tienen células preleucémicas, pero de éstos un número muy reducido sufre la segunda y peligrosa mutación.
Los científicos británicos han llegado a esas conclusiones a raíz de estudiar a dos gemelas, Olivia e Isabella, de cuatro años y residentes en Kent (sur de Inglaterra).
Ambas tenían células preleucémicas, pero sólo una de las niñas desarrolló la enfermedad.
Cuando estaban en el útero materno, las células de una de las pequeñas sufrieron una mutación que las convirtió en preleucémicas, y se transmitió por la sangre a la otra.
Sin embargo, una infección común de Olivia hizo que esas células sufrieran la segunda modificación genética, lo que significó que la pequeña cayera enferma de leucemia.
Isabella aún tiene un 10 por ciento de posibilidades de sufrir este tipo de cáncer -todavía se puede producir la segunda mutación-, pero el riesgo irá disminuyendo hasta que desaparezca en la adolescencia, cuando las células preleucémicas serán erradicadas.
La investigación ha sido recibida con entusiasmo por la comunidad científica en el Reino Unido.
"La identificación de las células que provocan la leucemia ha sido uno de los misterios más perseguidos por los investigadores del cáncer y este estudio es un paso que nos acerca (a su resolución)", comentó Bruce Morland, pediatra del hospital infantil de Birmingham (centro de Inglaterra).
Este descubrimiento, además, abre el camino a la investigación de tratamientos menos agresivos, más cortos y con menos efectos secundarios, ya que se buscará atacar únicamente a las células que originan la enfermedad.
Vaskar Saha, profesor de Pediatría y Oncología de Cancer Research, señaló que el estudio "aumenta la esperanza de poder identificar el riesgo de recaída en los niños tratados con quimioterapia y desarrollar medicinas eficaces".
La leucemia aparece cuando la médula ósea comienza a producir glóbulos blancos de manera descontrolada y, junto al cáncer linfático, es la modalidad de tumor que más afecta a los niños.

Los problemas con las baterías de litio frenan el desarrollo del coche eléctrico




VEHíCULOS ELéCTRICOS

Cuando la industria automotriz se reúna aquí esta semana para la Feria Internacional del Automóvil de Norteamérica, el tema de conversación favorito será la energía eléctrica.

Fuente: THE WALL STREET JOURNAL

Las automotrices desde General Motors Corp. hasta Toyota Motor Corp. presentarán una nueva generación de autos que funcionan principalmente con electricidad.
Pero hay algo que le baja el voltaje a los entusiastas de esta tecnología: las baterías. En medio de todos los avances, nadie ha descubierto cómo fabricar una batería lo suficientemente pequeña y que a la vez almacene la energía suficiente para estos autos nuevos y que además no corra el riesgo de incendiarse.
Los límites de la tecnología del auto eléctrico se ven en uno de los modelos más conocidos: el Chevy Volt de GM.
Los ejecutivos de GM hablan del prototipo, que el fabricante de Detroit espera producir en tres años, casi cada vez que hablan sobre su visión de autos "sin gasolina". Pero GM todavía no ha logrado resolver el problema de la batería.
Varias empresas están compitiendo para desarrollar la batería adecuada para la próxima generación de autos eléctricos. En la carrera están los grandes fabricantes asiáticos de baterías frente a una serie de pequeñas empresas jóvenes, casi todas de Estados Unidos. Cada una está tratando de desarrollar una fuente viable de energía para autos eléctricos de largo alcance y para híbridos de electricidad y gasolina como el Volt, los cuales utilizan más electricidad que los híbridos que se encuentran en el mercado.
Pero la tecnología más prometedora, la de baterías de iones de litio como las que se utilizan en las computadoras portátiles y celulares, ha estado llena de problemas.
La semana pasada, por ejemplo, la batería de un portátil fabricada por una empresa coreana estalló en llamas. También, las autoridades de transporte de EE.UU. dijeron que no permitirán que los viajeros lleven este tipo de baterías en su equipaje facturado.
Los fabricantes de autos no pueden dejar que los vehículos se "incendien y quemen a la abuela y a los dos niños sentados sobre media tonelada de baterías en el auto", dice Tim Spitler, un investigador de materiales de baterías de Altair Nanotechnologies, que está trabajando para desarrollar una batería para autos.
Los crecientes precios del petróleo, sumados a la preocupación pública por el calentamiento global han llevado a las automotrices a aumentar sus esfuerzos para construir autos que funcionen con combustibles alternativos. La esperanza es que los autos que funcionen con poderosas baterías ayuden a reducir el dióxido de carbono total que emiten los autos de pasajeros y que, según los científicos, es un contribuyente importante al calentamiento global.
Toyota, GM y otras automotrices han estado experimentando varios sistemas diferentes para aprovechar la energía eléctrica: un nuevo tipo de híbridos conocidos como plug-ins (algo así como conectados), que utilizan pequeños motores de gasolina para potenciar ocasionalmente las baterías y autos que funcionan completamente con baterías. Los dos sistemas requieren que los autos se conecten a una fuente de electricidad para ser recargados.
El conocido Toyota Prius híbrido, que no necesita conectarse, requiere parte del impulso que le da la gasolina cuando comienza a acelerar y tiene un consumo promedio de 19,56 kilómetros por litro. GM dice que su Volt (que se conecta) será diseñado para que funcione con baterías hasta por 64 kilómetros que es la distancia de un recorrido típico.
La tecnología más prometedora es la de litio. Las baterías de iones de litio, a diferencia de las baterías alcalinas desechables que se venden en las farmacias, almacenan cantidades de energía en una celda pequeña y pueden ser recargadas una y otra vez.
Toyota había planeado el uso de baterías de litio en una nueva versión del Prius que lograría un rendimiento de entre 25,5 y 34 kilómetros por litro, de acuerdo con ingenieros de la empresa. Pero los problemas de seguridad llevaron a la compañía a atrasar el lanzamiento de la tecnología de litio para finales de 2010 o principios de 2011.
Este retraso representó una oportunidad para los fabricantes de baterías de EE.UU. para alcanzar a los japoneses, que parecían dominar el mercado.
A principios del año pasado, GM invitó a 27 productores de baterías de litio de todo el mundo para que presentaran muestras de baterías e información de desempeño para que fueran consideradas para el programa Volt.
GM seleccionó dos "proveedores de desarrollo", consorcios de empresas cuyas tecnologías serán probadas en el Volt. Uno de ellos incluye a A123 Systems, una empresa joven liderada por un grupo de científicos del Instituto Tecnológico de Massachussets. El otro grupo es liderado por la empresa coreana de químicos LG Chem Ltd.

MAS Cruce de animales y humanos





Se aprobó la creación de embriones híbridos en busca de ciertas curas.
Londres (EFE) - El regulador de fertilidad y embriología del Reino Unido anunció ayer que ha dado luz verde a la creación de embriones híbridos, que combinan ADN de animales y seres humanos, destinados a la investigación con fines terapéuticos.

La Autoridad para la Fecundación y Embriología Humanas (HFEA) informó de que ha dado licencias a dos equipos de científicos para aplicar una medida que, según los médicos, puede ayudar a conseguir terapias para curar enfermedades como el Alzheimer o el Parkinson.
La HFEA ya adelantó el pasado septiembre que autorizaba, en principio, esa práctica, aunque su aprobación plena no se había consumado hasta ahora, tras efectuar varias consultas que indican que la ciudadanía acepta esa idea.

El regulador ha otorgado los permisos a dos universidades, el Kings College de Londres y la Universidad de Newcastle (norte de Inglaterra), que había solicitado las licencias pertinentes.

Los embriones citoplásmicos tienen un 99.9% de ADN humano y sólo el 0.1% restante, de origen animal. Sólo utilizarán los embriones híbridos como “una herramienta científica” para tratar enfermedades humanas.


¿Cómo se crean?

Estos embriones tienen un 99.9 % de ADN humano y sólo el 0.1% restante, de origen animal.
Para su creación, los científicos usan óvulos de coneja o vaca, vaciados de casi toda su información genética, y en los que se implantan núcleos con ADN de distintos tipos de células humanas.

Los embriones resultantes son mayoritariamente humanos aunque en los mitocondrios, orgánulos de la célula donde se produce la energía mediante la degradación de moléculas orgánicas, queda un resto de ADN de procedencia animal.


Según la HFEA, ambas solicitudes “satisfacen todos los requerimientos de la ley”, por lo que se ha concedido a ambos centros universitarios “licencias de investigación de un año”.
Otros centros que deseen hacer investigaciones similares tendrán que enviar igualmente la solicitud al regulador, que analizará cada caso y tomará una decisión.

El doctor Lyle Armstrong, del equipo de la Universidad de Newcastle, dijo que la decisión de la Autoridad es una “gran noticia”.

Armstrong quiso hacer hincapié en que sólo utilizarán los embriones híbridos como “una herramienta científica” para tratar enfermedades humanas.
Desde el Kings College, el doctor Stephen Minger también se declaró complacido con el pronunciamiento de la HFEA.

“Agradezco a la comunidad científica, las organizaciones de pacientes y las asociaciones benéficas relacionadas con enfermedades por todo el apoyo que hemos recibido durante los últimos 18 meses. Su respaldo ha sido inestimable”, apuntó Minger.


“Golpe a la dignidad humana”

Por contra, John Smeaton, director de la Sociedad para la Protección de los Niños Nonatos (SPUC), afirmó que la decisión del regulador representa un “golpe desastroso para la dignidad humana en el Reino Unido”.La decisión anunciada por la Autoridad para la Fecundación y la Embriología Humanas se tomó después de varios meses de consultas.
Los también llamados embriones citoplásmicos tienen un 99.9% de ADN humano y sólo el 0.1% restante, de origen animal.

Para su creación, los científicos usan óvulos de coneja o vaca, vaciados de casi toda su información genética, y en los que se implantan núcleos con ADN de distintos tipos de células humanas.

Los embriones resultantes son mayoritariamente humanos aunque en los mitocondrios, orgánulos de la célula donde se produce la energía mediante la degradación de moléculas orgánicas, queda un resto de ADN de procedencia animal.

Las células madres o troncales que se extraen de los embriones son células no especializadas que pueden luego diferenciarse en distintos tipos de tejido, algo de lo que se ocuparán los científicos en el laboratorio.

Según sus partidarios, el empleo de óvulos de animales permitirá resolver la escasez de sus equivalentes humanos al proveer una fuente casi inagotable de células troncales.
Actualmente, los científicos dependen de los óvulos humanos quedan en los tratamientos de fecundación pero éstos son escasos y además de poca calidad.

Los detractores de esas prácticas alegan que con ellas se difumina la distinción que, en su opinión, existe entre el ser humano y el animal y denuncian que los embriones así creados son destruidos una vez que se extraen de ellos las células troncales.

Un Paso Más Cerca de Lograr la Tecnología de la Invisibilidad




Un modelo informático distinto a cualquier otro, y diseñado por un matemático de la Universidad de Liverpool, ha demostrado que es posible hacer que ciertos objetos, como los aviones y los submarinos, resulten invisibles a corta distancia.

Los científicos ya han creado una "capa de invisibilidad", hecha de un "metamaterial", que puede desviar la radiación electromagnética (como la luz visible o las microondas) alrededor de un espacio esférico, haciendo que un objeto dentro de esta región sea invisible.

Hasta ahora, los científicos sólo podían hacer que los objetos resultasen invisibles desde lejos. El matemático Sébastien Guenneau de la Universidad de Liverpool, y Frédéric Zolla y André Nicolet, de la Universidad de Marsella, han demostrado, aplicando un modelo informático especialmente diseñado, denominado GETDP, que también se puede lograr hacer invisibles a objetos a corta distancia, cuando la luz viaja en ondas en lugar de en haces.

Los científicos predicen que los metamateriales podrían ser usados pronto en la tecnología militar, para por ejemplo aviones de combate y submarinos, pero que pasarán más años antes de que puedan desarrollarse capas de invisibilidad para los seres humanos.

La forma y estructura de los aviones los hacen objetos ideales para ser ocultados mediante un efecto de invisibilidad, ya que tanto su estructura como sus patrones de movimientos son bastante fijos. Los seres humanos y los animales son más difíciles de enmascarar ya que sus movimientos son muy variables y flexibles, de modo que la capa, tal como está diseñada en este momento, no lograría mantener el camuflaje cuando la persona, o el animal, hiciera cualquier movimiento súbito.

"Una capa como por ejemplo la que utiliza el personaje Harry Potter, todavía no es posible, pero es un buen ejemplo de lo que estamos intentando lograr", explica Guenneau. "Recurriendo a este nuevo modelo por ordenador, podemos demostrar que la luz puede doblarse alrededor de un objeto bajo una capa y que no es difractada por él". Esto ocurre porque el metamaterial del que está hecha la capa deforma la métrica del espacio, en lo que se refiere a la radiación, de manera similar a como las estrellas y los planetas de gran masa lo hacen con la métrica del espacio-tiempo en la teoría general de la relatividad de Einstein.

En primer lugar, para que el dispositivo de invisibilidad funcione, la luz tiene que separarse en dos o más ondas produciendo un nuevo patrón de onda. Con este patrón, los científicos consiguen las regiones oscuras e iluminadas que son necesarias para que un objeto resulte invisible.

Hasta ahora, sin embargo, no estaba claro si los fotones (las partículas que constituyen todas las formas de la luz) podían dividirse y formar nuevas ondas cuando la fuente de luz está cerca del objeto. "Si empleamos técnicas ópticas de rayos (donde la luz viaja en haces), los fotones se desajustan a corta distancia y el objeto no resulta invisible. Sin embargo, si estudiamos la luz cuando viaja en ondas, la invisibilidad sí se mantiene", explica Guenneau.

Los científicos predicen que la invisibilidad será posible para objetos de cualquier forma y tamaño dentro de la próxima década.

Información adicional en:

http://www.liv.ac.uk/newsroom/press_releases/2007/04/invisibility.htm

Crean en Hungría un ordenador para entender a los perros



Un grupo de científicos húngaros trabaja en un programa de computación que analiza ladridos de perros, algo que podría ayudar a las personas a reconocer mejor las emociones básicas de sus mascotas, según el etólogo húngaro Csaba Molnar.

| Fuente: REUTERS

El especialista y sus colegas de la Universidad ELTE de Budapest han desarrollado un programa que distingue la reacción emocional de 14 perros de la raza húngara Mudi en seis situaciones: cuando está solo, ve una pelota, pelea, juega, se encuentra con un extraño o sale a pasear.
"Una posible aplicación comercial sería un dispositivo para la comunicación entre perros y humanos", dijo a Reuters el científico.
El ordenador reconoció correctamente la reacción emocional de los perros según sus ladridos o aullidos en el 43 por ciento de los casos. Un grupo de personas la había juzgado correctamente en el 40 por ciento de los casos.
Los científicos indicaron que el programa podía mejorarse.
Molnar destacó que la investigación aporta nuevas pruebas de que los distintos tipos de ladridos de los perros contienen mensajes que los humanos pueden comprender incluso aunque no hayan tenido experiencia con perros.

Entra en crisis la teoría de más prestigio en la física teórica


Lee Smolin hace una crítica constructiva de la Teoría del Todo

Durante siglos la física teórica ha estado complementada con la física experimental. A partir de 1970 irrumpe la teoría de supercuerdas, que pretende solucionar los problemas que afectan a la ciencia (unificación de partículas y fuerzas, paradojas de a mecánica cuántica y gravedad cuántica), pero que no dispone de una técnica adecuada para su comprobación experimental. El optimismo que acogió la nueva teoría se desvanece. Lee Smolin hace un balance de los 30 últimos años en su libro "The Trouble with Physics: The Rise of String Theory, the Fall of a Science, and What Comes Next", que él ha vivido, primero como defensor y luego como promotor de alternativas.



Durante tres siglos, a partir de los "Principia" de Newton en 1687, los avances de las ciencias físicas se han ido consolidando no sólo experimentalmente, sino sobre todo teóricamente, de manera que el conocimiento de la naturaleza por el hombre se ha profundizado como nunca en la historia de la humanidad.

Se pueden clasificar los grandes descubrimientos en periodos de 25 años, desde 1780, entre los que podemos contar las fuerzas eléctricas y magnéticas, las propiedades microscópicas de la materia descritas por la mecánica cuántica y las macroscópicas que estudia la teoría de la relatividad, así como las fuerzas nucleares fuerte y débil que producen las interacciones entre las partículas elementales.

Con esto llegamos a 1970, en que se produce un equilibrio entre experimento y teoría por medio de un modelo que unificaba las fuerzas conocidas (exceptuando la gravitatoria) y que se llamó el modelo standard.

Pero el exigente control de la especulación por el experimento en el modelo standard dio lugar en los últimos años a portentosas propuestas teóricas que especulaban arriesgadamente sobre la génesis de la estructura microfísica de la materia.

Hasta los años setenta la física teórica y experimental habían ido paralelas, apoyándose mutuamente, pero pronto empezaron las perplejidades. La física teórico-experimental no carecía de problemas y el modelo standard distaba de ser un modo perfecto. No se había encontrado, en efecto, una teoría que unificase los hadrones y los leptones. Lo mismo sucedía además con las fuerzas conocidas, y los cálculos perturbativos de algunas interacciones entre ellas se hacían infinitos.

Queremos anticipar a los lectores de este artículo que hemos optado por resumir el pensamiento de Smolín ciñéndonos a los términos técnicos para tener mayor exactitud. Esto facilitará la lectura de quienes conozcan el mundo de la física teórica. Para los otros lectores se presentarán dificultades, pero aun así alcanzarán una comprensión intuitiva más real de las cuestiones tratadas por la teoría de cuerdas y las dificultades científicas que Smolin propone.

La primera teoría de cuerdas: expectación y resultados

En 1970 tuvo lugar la primera revolución de la teoría de cuerdas, que solucionaba todos los problemas mencionados: se unificaban las partículas y las fuerzas, al mismo tiempo que se eliminaban los infinitos. Pero la nueva hipótesis no encontraba los experimentos apropiados para alcanzar el rango de teoría confirmada. En principio, es legítimo en la ciencia proponer teorías, aunque estas sean especulativas; lo que ocurre es que las buenas teorías científicas deben permitir, de una u otra manera su confrontación con la experiencia.

Pero han pasado tres décadas y las pruebas experimentales siguen sin aparecer (al menos con los medios de que dispone hoy día la técnica experimental). Se multiplican los modelos pero faltan nuevos conceptos, como ha sucedido con otras revoluciones científicas. Lo que se consideraba la "la ciencia del todo" empieza a convertirse en una ilusión que no explica nada.

D. Gross, premio Nobel de física por su trabajo en el modelo standard, se convirtió en un formidable luchador de la teoría de cuerdas, pero recientemente ha dicho: "No sabemos de qué estamos hablando". Y B. Greene añade: "Los investigadores piensan que nuestra formulación de la teoría de cuerdas no posee el núcleo de fundamentos que encontramos en otros grandes descubrimientos".

Esta situación de la Física, que ha acabado en un camino sin salida, ha motivado a Lee Smolin a escribir el libro The Trouble with Physics. The Rise of String Theory, the Fall of a Science and What comes Next (Houghton Mifflin Co. Boston 2006). Smolin es la persona indicada para hacer la crítica de los últimos 30 años de la física y en particular de la teoría de cuerdas. Ha sido un partidario decidido de la teoría de cuerdas, pero tras años de reflexión objetiva parece haber llegado a consecuencias inevitables que ha tenido la valentía de exponer.

Smolin estudia física en la Universidad de Harvard donde obtiene el título de Doctor. Ha sido Profesor de Física teorica en las Universidades de Princeton, Yale y Pennsylvania State, y ahora en el Instituto Perimeter de Toronto, del que ha sido uno de sus fundadores. Sus más de un centenar de artículos científicos reflejan su trayectoria, que va desde la teoría de supercuerdas a los "spin networks" de Penrose y la teoría "loop quantum gravity" de Ashtekar. Sus tres libros "The Life of the Cosmos", "Three Roads to Quantum Gravity" y "The Trouble with Physics" reflejan también de forma autobiográfica su trayectoria ideológica, desde un cultivador de la teoría de supercuerdas hasta el desengaño por esta teoría y la búsqueda de alternativas.

Problemas fundamentales de las nuevas teorías

El libro de Smolin no es sólo un libro de historia que expone acontecimientos de los últimos treinta años, sino también un libro programático que trata de analizar la teoría de cuerdas y sus alternativas, con unos principios que todas deben cumplir. Estos principios se postulan al comienzo de libro para que ayuden a hacer la crítica de los intentos que se han hecho en estos 30 últimos años y permitan pensar en el futuro. Smolin los llama problemas, pero en realidad son principios o condiciones necesarias que toda nueva teoría debe cumplir.

Problema 1 (Principio de la gravedad cuántica). Consistiría en unificar la teoría de la relatividad y la mecánica cuántica en una sola teoría. Esto implica que la nueva teoría ha de ser independiente del espacio-tiempo contenedor o que éste tenga un carácter dinámico.

Problema 2 (Problema fundamental de la mecánica cuántica). Resolver las paradoja de la mecánica cuántica de manera que ésta tenga sentido. Por ejemplo la nueva teoría debe ser realista, o sea, que sea independiente del observador y del aparato de medida.

Problema 3 (Problema de unificación de las partículas y fuerzas). Unificar todas las partículas elementales (todas las familias de quarks y leptones), así como todas las fuerzas conocidas (gravitatorias, electromagnéticas, nucleares fuertes y débiles).

Problema 4 (Problema de las constantes universales). Explicar por qué las constantes físicas que aparecen en el modelo standard tienen valores determinados.

Problema 5. (Materia y energía oscura). Explicar qué es la materia oscura y la energía oscura; o, si estas no existiesen, por qué la gravedad se modificaría tanto a gran escala.

A continuación Smolin hace un breve resumen de la historia que ha llevado a la teoría de supercuerdas.

La revolución que se avecina

En 1968, G. Veneziano propone un modelo para describir las interacciones entre las partículas elementales. Considera a las partículas como cintas de goma, que se estiran cuando reciben energía y se encogen cuando la pierden. Pronto se cambió la imagen de bandas de goma por la de cuerdas vibrantes, de modo que a cada partícula correspondía un modo de vibración de esta cuerda.

Este modelo era consistente con la mecánica cuántica y la teoría de la relatividad si el espacio contenedor tenía 26 dimensiones; pero tenía la limitación de que solo admitía bosones y de que permitía taquiones (con velocidad mayor que la de la luz).

En 1979, P. Ramond descubre una nueva simetría (las simetrías sirven para diferenciar las partículas en bosones y fermiones) de tal modo que la nueva simetría, llamada supersimetría, aplicada a las cuerdas unificaba los dos tipos de partículas, y rebajaba el número de dimensiones de 26 a 10 y además no contenía taquiones.

Por otro lado, al unirse una cuerda por sus extremos daba lugar a una fuerza que dependía de la tensión y del movimiento de la cuerda. Si la cuerda era abierta se producía la fuerza gravitatoria, si era cerrada, las demás fuerzas. Por consiguiente las cuerdas supersimétricas o supercuerdas unificaban todas las partículas y las fuerzas conocidas.

La revolución de las supercuerdas En 1984, Schwarz y Green descubren una propiedad en la teoría de supercuerdas que suscita el interés de la comunidad científica. Los cálculos perturbativos para las interacciones entre dos cuerdas eran finitos hasta el segundo orden. Y en 1992 Mandelstam prueba que los desarrollos perturbativos eran finitos, término a término, lo cual produjo la sensación que se había conseguido una teoría definitiva, una auténtica revolución científica.

Pero quedaban muchos problemas por resolver: al pasar del modelo standard, con muchas constantes sin determinar, a la teoría de supercuerdas con una sola constante, pero con mayor número de dimensiones, se encontraban soluciones diferentes que daban lugar a diferentes teorias.

En particular se habían encontrado 5 soluciones diferentes que conducían a 5 teorias de supercuerdas.

En 1995 Witten, en una famosa conferencia en la Universidad de Los Angeles, prueba que se pueden unificar, dos a dos, las 5 teorías de supercuerdas utilizando la T-dualidad (que se produce cuando una cuerda se enrosca alrededor del círculo formado por la dimensión extra compactificada) o por la S-dualidad (cuando una teoría tiene una constante de acoplamiento igual a la inversa del la constante de acoplamiento de la segunda teoría).

En la misma conferencia Witten consiguió probar que si se ampliaba el espacio-tiempo a 11 dimensiones, las 5 teorías de supercuerdas eran idénticas, y además estas teorías de supercuerdas se podían hacer derivar de una teoría fundamental, que él llamó M-teoría ó Magic-theory, pero que no especificó en que consistía.

Empezó la carrera para descubrir la M-teoría. Uno de los oyentes, Polchinski, presentó a los pocos meses una nueva teoría basada en objetos elementales de dos dimensiones (recuérdese que la cuerda es un objeto de una dimensión) que el llamó D-branas (abreviatura de membrana). Se puede probar que las fluctuaciones de las branas lleva directamente a la M-teoría.

En 1997 Maldacena presenta una nueva dualidad entre las teorías de supercuerdas, más atrevida que la T-dualidad y la S-dualidad. En ella se identifica una teoría de supercuerdas de dimensión 4 con una teoría gauge de dimensión 3 (recuérdese que una teoría gauge sirve para determinar un objeto por el conjunto de simetrías y consigue diferenciar los objetos que poseen las mismas simetrías por un mecanismo llamado ruptura de simetrías).


Una teoría del todo

En 1998 se descubre la energía oscura del universo, cuyo efecto producía una aceleración positiva en la expansión del universo. Producía los mismos efectos que la constante cosmológica de signo positivo (Einstein propuso por primera vez la constante cosmológica para evitar la expansión y describir un universo estático).

Los experimentos recientes habían encontrado un valor muy pequeño para la constante cosmológica. Las teorías de supercuerdas tienen que tener en cuenta este valor para conseguir que ser realistas y no ser rechazadas. Según este criterio se pueden considerar cuatro situaciones de teorías de supercuerdas.

1. Cuerdas que se mueven en un espacio fijo de dimensión 10 con términos perturbativos finitos hasta de segundo orden. La constante cosmológica es nula.

2. Teoría de cuerdas que son idénticas a las teorías gauge con una dimensión menor, siguiendo el criterio de Maldacena. La constante cosmológica es negativa.

3. Existe un sinnúmero de teorías de supercuerdas que se mueven en un espacio-tiempo dinámico donde la constante cosmológica puede ser positiva.

4. Existe una teoría de dimensión 26, sin fermiones, llamada la cuerda bosónica, pero esta teoría admite taquiones, que hace a la teoría poco consistente.

Todas estas teorías se podrían deducir de una teoría fundamental llamada M-teoría, cuya formulación más exacta desconocemos.

Cómo responden las teorías de supercuerdas a los 5 Problemas


Después de haber recorrido los principales avances que han conseguido las teorías de supercuerdas, es hora de hacer un balance de dichas teorías con respecto a las 5 grandes Problemas que pone Smolin al comienzo del libro.

Problema 1: La teoría de supercuerdas no unifica la mecánica cuántica y la teoría de la relatividad, porque las ecuaciones de esta última son independientes del espacio-tiempo de referencia (como dicen los matemáticos, las leyes de la física son invariantes bajo “difeomorfismos”).

Problema 2. La teoría de supercuerdas no dice nada sobre una teoría fundamental que resuelva las paradojas de la mecánica cuántica.

Problema 3. La teoría de supercuerdas unifica todas las partículas conocidas (bosones y fermiones), así como todas las fuerzas y las partículas gauge portadoras de las fuerzas (gravitones, fotones, gluones y partículas W) que son producidas por vibraciones de las cuerdas.

Problema 4. La teoría de supercuerdas no puede explicar los valores de los parámetros que aparecen en el modelo standard solamente a partir de los valores constantes arbitrarios que poseen las supercuerdas (tensión y constante de acoplamiento).

Problema 5. La teoría de supercuerdas no explica qué es la materia y la energía oscura. Los axiones se podrían identificar con la materia oscura, pero esta identificación no se puede deducir de la teoría de supercuerdas.

Teorías alternativas a la teoría de supercuerdas

Hemos visto las dificultades teóricas que tienen la teoría de supercuerdas y su falta de comprobación experimental. Smolin ha propuesto algunas de las teorías alternativas, sin renunciar a nada, a la espera de que nuevas experiencias vengan a confirmar alguna de las alternativas o las mismas teorías de supercuerdas.

Una de las alternativas comienza por criticar la teoría de la relatividad de Einstein. Según esta teoría, en sistemas inerciales que se mueven a la velocidad de la luz, dos observadores lo verían con la misma velocidad y si un observador ve un objeto moviéndose con velocidad menor que la de la luz, el otro observador lo verá también con menor velocidad.

En 1999, Amelino-Camelia aplica esta situación a las distancias, y en particular a la longitud de Planck. Si un objeto tiene la longitud de Planck, dos observadores en sistemas de referencia en sistemas de referencia equivalentes verán el objeto con la misma longitud, y si el objeto es mayor que la longitud de Planck, los dos observadores la verán con longitud mayor.

Esto significa que en el orden de magnitud de la longitud de Planck no rigen las leyes de la teoría de la relatividad especial, por lo cual Amelino-Camelia llamó a esta teoría "doble relatividad especial". En realidad lo que se proponía en esta teoría eran las leyes clásicas para valores muy alejados de la constante de Planck y las leyes cuánticas para valores muy próximos a la constante de Planck.

Otras alternativas provienen de modelos que son independientes del espacio-tiempo contenedor, de modelos de espacio y tiempo discretos y de modelos que se basan en el principio de causalidad. Estas tres propiedades han dado origen a la "causal dynamical triangulation de Ambjorn y Loll” y los "causal sets" de Sorkin que son modelos muy consistentes de gravedad cuántica, en los cuales el espacio-tiempo emerge como consecuencia de las relaciones entre los sucesos más elementales.

También Penrose en 1961 presenta su modelo de los "spin networks" que es discreto y relacional, donde el espacio-tiempo emerge como consecuencia de las combinaciones de los spines que cumplen las leyes de la mecánica cuántica. Aunque este modelo se podría identificar con "causal sets" discretos de Sorkin, Penrose lo amplía a la teoría de los twistors que se mueven en un espacio-tiempo complejo para admitir las transformaciones de los vectores de posición (discreto) y momento (continuo).

La teoría de los twistor ha sido continuada por numerosos matemáticos y físicos, porque ofrece un marco riguroso donde describir todos los campos y partículas conocidos incluyendo la relatividad general. Otra teoría alternativa ha sido la "geometría no conmutativa" de A. Connes, según la cual las magnitudes físicas y matemáticas no conmutan (AB no es igual a BA).

Es una teoría que unifica las funciones algebraicas y geométricas de manera que se deduce inmediatamente el modelo standard. La teoría que más se ha enfrentado como alternativa a las supercuerdas es "loop quantum gravity", que fue propuesta por Ashtekar en 1986. En ella probó que la teoría de la relatividad general se podía expresar como una teoría gauge con solo introducir unas nuevas variables.

Cuando tratamos de describir las líneas del campo gauge no necesitamos de un espacio-tiempo contenedor, sino que las líneas de campo definen la geometría del espacio. Esta geometría está definida por un grafo (conexiones entre vértices y aristas), que evolucionan a nuevas estructuras, de las que emerge la estructura subyacente del espacio-tiempo.

Por otra parte, como las conexiones en un grafo pueden ser muy complicadas, dependiendo del tipo de lazos que se construyen entre las aristas que unen dos vértices, esta diversidad de lazos da lugar a las diferentes familias de partículas elementales, como recientemente han demostrado 2006 e Bilson-Thompson, Markopoulou y Smolin.

Según Hofmann y Winkler, las predicciones de la teoría "loop quantum gravity" podrán observarse experimentalmente en las oscilaciones de la radiación de fondo.

La teoría de supercuerdas ha bloqueado otras líneas de investigación


El libro de Smolin acaba con unos capítulos dedicados a los aspectos sociológicos y filosóficos de la teoría de supercuerdas. Los peligros de esta teoría son patentes. Han invadido las Universidades y Centros de investigación de todo el mundo, de modo que los investigadores jóvenes que no quieran trabajar en dicha teoría tienen cerrado prácticamente el camino a dichos centros.

Smolin ha resumido la postura de las comunidades de supercuerdas con estos rasgos:

1. Tremmenda autosuficiencia y conciencia de pertenecer a una élite.

2. Comunidades monolíticas con gran uniformidad de opiniones sobre cuestiones abiertas, generalmente impuestas por los que constituyen la jerarquía de la comunidad.

3. Sentido de identificación con el grupo parecido a la pertenencia de una comunidad religiosa o partido político.

4. Sentido de frontera entre el grupo y otros expertos.

5. Gran desinterés por las ideas y personas que no son del grupo.

6. Una confianza excesiva en interpretar positivamente los resultados e incluso aceptarlos exclusivamente porque son creídos por la mayoría.

7. Una falta de percepción del riesgo que conlleva una nueva teoría.

Ética de una comunidad científica

Smolin defiende que el éxito de una comunidad científica no es solamente por la adherencia a una teoría, sino por la adherencia a una ética. Smolin resume en dos principios esta ética:

1. Si un resultado puede ser decidido por personas de buena fe, después de aplicar argumentos razonables con la evidencia pública disponible, entonces tiene que ser aceptada como tal.

2. Por otra parte, si los argumentos racionales tomados de la evidencia públicamente disponible, no consiguen poner de acuerdo a las personas de buena voluntad, la sociedad tiene que permitir y animar a la gente a sacar conclusiones diversas.

Smolin saca algunas conclusiones de estos principios:

1. Estamos de acuerdo en argumentar racionalmente y de buena fe a partir de la evidencia, cualquiera que sea el grado de evidencia compartida.

2. Cada científico es libre de desarrollar sus propias conclusiones a partir de la evidencia. Pero cada científico tiene la obligación de presentar argumentos sacados de la evidencia a la comunidad científica.

3. La habilidad de los científicos para deducir resultados fiables de la evidencia compartida se basa en el dominio de los medios experimentales y procedimientos desarrollados durante muchos años.

4. Cada miembro de la comunidad científica reconoce que el fin provisional es el conseguir
consenso. Los jueces finales de un trabajo científico son los futuros miembros de la comunidad científica, de tal manera alejados del trabajo en cuestión que estén en condiciones idóneas para emitir un juicio objetivo.

5. La pertenencia a una comunidad científica está abierta a todo ser humano. La entradas en la comunidad esta basada en dos criterios. Preparación suficiente para desarrollar un trabajo con plena independencia y la adhesión continuada a la ética comunitaria.

6. Aunque la ortodoxia esté permitida temporalmente en un campo subordinado, la comunidad reconoce que las opiniones contrarias y los programas de investigación son necesarios para la salud continua de la comunidad científica.

http://www.benbest.com/science/standard.html
http://www.thetroublewithphysics.com/
http://www.superstringtheory.com/
http://en.wikipedia.org/wiki/History_of_string_theory
http://en.wikipedia.org/wiki/M-theory

TECNOTICIAS 01-18-2008


















Los "Padres de Internet" ganan el Japan Prize 2008



Vinton Cerf, actualmente vicepresidente de Google, y Robert Elliot Kahn, responsable de la organización para el desarrollo de la tecnología CNRI, ambos considerados los 'padres de Internet', han sido premiados con el Japan Prize 2008, un prestigioso galardón científico nipón.
http://www.japanprize.jp/English.htm

Fuente: AFP

Estos dos especialistas han sido recompensados con este premio "por las creación de una arquitectura y un protocolo de comunicación" que facilita las investigaciones, según el comité de selección del premio.
Los también ganadores del Príncipe de Asturias junto a Tim Berners-Lee y Larry Roberts hace seis años, han sido reconocidos, por tanto, como los creadores del protocolo TCP/IP, que permite conectar ordenadores entre sí.
Según el comité del premio, los galardonados "crearon el concepto fundamental de red que se desarrolló a continuación a la escala mundial para convertirse en Internet". De esta manera, "gracias a su contribución nació una sociedad en red, un hecho sin precedentes en la historia de la humanidad que amplía el espacio del ser humano y sienta las bases para una universalización duradera".
El Comité del Japan Prize ha distinguido también al genetista Victor A. McKusick, de 86 años, por su trabajo sobre el genoma humano.
El Japan Prize, otorgado cada año por el Emperador de Japón, está dotado cada uno de 50 millones de yenes (cerca de 315.000 euros). La ceremonia de entrega de los premios tendrá lugar el 23 de abril en Tokio.



En 2007 el número de páginas web creció un 48%


De acuerdo con datos de la consultora inglesa Netcraft, durante el último año la cantidad de dominios registrados en la Web se incrementó casi en un 50% respecto de 2006. En diciembre de 2007 la cifra superó los 155 millones de sitios Web, mientras que en diciembre del año anterior alcanzaba los 105 millones. En total, los blogs son los que más crecieron en el último tiempo.

Fuente: ADLATINA.COM

Pese a que los primeros acercamientos a la World Wide Web se dieron hace veinte años, la consolidación de Internet como herramienta y la explosión de sitios Web en forma masiva a nivel global pueden ubicarse a partir de mediados de los '90.
De acuerdo con los datos relevados por la consultora inglesa Netcraft, 50 millones de sitios Web se sumaron durante 2007 a los que ya existían a finales de 2006 (las cifras exactas registradas en diciembre del año pasado y el anterior fueron 155.230.051 contra 105.244.649). Si se tienen en cuenta únicamente los sitios activos, el crecimiento no deja de ser sorprendente: 38% más que los existentes hasta diciembre de 2006.
Sin embargo, lo más llamativo tal vez sea que el mayor crecimiento estuvo dado esta vez por los blogs: los tres mayores proveedores de este tipo de sitios Web -MySpace, Live Spaces y Blogger- registraron la mitad del total de nuevos registros del año: 25 millones. Una tendencia que habla del incremento en la participación y generación de contenidos de los internautas.
Durante 2006, el récord había sido de 30 millones de sitios Web nuevos. Pero resulta interesante observar la progresiva de crecimiento del registro de sitios Web a lo largo de la última década, que de acuerdo con Netcraft fue la siguiente: en abril de 1997 existían 1 millón de sitios, en febrero de 2000 pasaron a ser 10 millones y en septiembre de ese mismo año la cifra se duplicó, con lo cual el año 2000 registró el récord histórico de crecimiento. Posteriormente la cifra fue aumentando 10 millones en cada medición, registradas sucesivamente en julio de 2001, abril de 2003, mayo de 2004, marzo de 2005, agosto de 2005, abril de 2006 y agosto de 2006.
El estudio de Netcraft se basa en el relevamiento de registros de sitios Web en más de 40 proveedores, entre ellos Apache, Microsoft, Sun, lighttpd, Google y NCSA.



Subastan un mechón de pelo de la sexta esposa de Enrique VIII por 2.850 euros

Un mechón de cabellos de 500 años de antigüedad, que aseguran perteneció a Catherine Parr, la sexta y última esposa del rey Enrique VIII, fue vendido en una subasta en Londres por 2.160 libras (2.850 euros) a un hombre que vive en la que fuera su residencia.

Fuente: AFP

El mechón rubio ha sido comprado por Charles Hudson, que reside en Wyke Manor, en Worcestershire (oeste de Inglaterra), una propiedad que según él Catherine Parr recibió de su esposo. "Parece algo increíble abandonar Londres con el cabello de la mujer de Enrique VIII en mi bolsillo", declaró.
Los cabellos, en un marco ovalado, se vendieron por casi 15 veces el precio estimado inicialmente, de 150 libras (unos 200 euros).
"La procedencia del objeto ha sido verificada y pensamos que son los cabellos de Catherine Parr, aunque no se ha realizado ningún test de ADN", explicó una portavoz de la casa de subastas Bonhams.
Catherine Parr se casó con Enrique VIII en 1543, a la edad de 31 años, y permaneció a su lado hasta la muerte del rey, en 1547.



La moda crea un nuevo oficio: el de "comprador personal"

¿Qué hacer cuando se tiene mucho dinero y poco tiempo para hacer compras, o bien, poca imaginación para vestirse con estilo? Recurrir a los servicios de un 'comprador personal', que se encarga de elegir y adquirir las prendas por usted.

Fuente: AFP

Este insólito servicio creado para una minoría de acaudalados clientes es hoy adoptado por algunas grandes tiendas parisinas.
La idea es, por supuesto, estadounidense. La neoyorquina Susan Tabak se ha convertido en siete años en una figura de la moda parisina. Varias veces por año, se traslada a París para comprar en lugar de su exclusiva clientela o para conducir a sus clientes a través de los laberintos del lujo parisino. En 2006 publicó una guía, 'Chic in Paris'.
"Es una pasión que se ha convertido en una profesión", afirma.
Un recorrido similar llevó a Rachel Moukala, treintañera apasionada por el arte y el diseño que, instalada en el barrio de Montmartre, empezó por dar consejos en materia de moda a su familia y a sus amigas norteamericanas.
Ahora, y desde hace cinco años, es una "compradora personal" profesional. Atiende a dos o tres clientes por semana, a los que factura entre 400 y 1.000 euros por sus servicios.
"Mi primera aptitud profesional es ser capaz de escuchar", estima. "Hay que comprender las necesidades de las clientas. No se trata de seguir una moda que no le va necesariamente a todo el mundo, sino de ayudarlas a mejorar poco a poco su estilo".
Rachel Moukala recuerda que debió desplegar tesoros de diplomacia el año pasado cuando una clienta, una 'starlette' de Los Ángeles le pidió que la ayudara a vestirse con "chic francés" para asistir al Festival de Cannes. La clienta "se cubría de joyas llamativas, exageraba con el maquillaje y creía tener así una elegancia francesa", cuenta Rachel riendo.
Las clientas de los "compradores personales" tienen entre 30 y 60 años de edad, son actrices o esposas de diplomáticos y buscan desde un vestido de noche para una velada especial hasta la renovación completa de su guardarropa, pasando simplemente por adquirir prendas de moda sin perder tiempo en comprarlas.
Y evidentemente la demanda existe. Prueba de ello, desde hace varios años la gran tienda parisina Le Printemps propone un servicio gratuito en este sentido: varios consejeros políglotas escuchan las necesidades de la cliente que los interroga, antes de recorrer la tienda en busca de la prenda perfecta para el caso.
"Sabemos lo que va bien a cada silueta. Elegimos las prendas y se las traemos a la clienta para que se las pruebe. El servicio no conlleva una obligación de compra", señala Bertrand Le Gal, uno de los "consejeros de compra" de la firma.
Le Gal, que se dedica a este trabajo desde hace tres años, administra una cartera de medio centenar de clientes que recurren regularmente a este servicio.
Entre las clientes satisfechas figura Amanda Deseta, que dirige una empresa de vídeo en Los Ángeles y no tiene tiempo para dedicarse un día entero a hacer compras. Ella y su marido vinieron a París y tomaron cita antes de Navidad para encontrar regalos para unas diez personas. "Lo encontramos todo en dos horas", afirma.


Francia estudia un impuesto electrónico para la TV pública

Francia podría gravar con un impuesto de entre un uno y un dos por ciento las ventas de ordenadores, televisiones y teléfonos móviles nuevos para ayudar a financiar los canales de la televisión pública, publicó el diario Les Echos.

Fuente: REUTERS

Al preguntarle por la noticia, el secretario de Estado para Asuntos del Consumidor, Luc Chatel, declaró a la cadena LCI: "Estamos en un periodo de reflexión (...) Estudiaremos diferentes ideas para posible financiación".
Les Echos dijo que el plan fiscal se trató en una reunión celebrada el lunes en la oficina del presidente Nicolas Sarkozy y, basándose en unas ventas totales de electrónica de consumo de unos 17.000 millones de euros, podría alcanzar entre 170 y 340 millones de euros.
La semana pasada Sarkozy anunció un plan para acabar con la publicidad en las cadenas estatales. En la actualidad estos canales obtienen casi 1.000 millones de euros en ingresos publicitarios.
El primer ministro, François Fillon, declaró el domingo que el Gobierno está considerando adoptar una batería de medidas para compensar por la ausencia de dinero, incluyendo un impuesto para las televisiones privadas y para los operadores de telecomunicaciones.
Fillon añadió que se ha pedido a los canales públicos, agrupados en France Television, que hagan un recorte de gastos.


Consejos para evitar estafas en cajeros automáticos

Consejos para evitar estafas en cajeros automáticos
La época de rebajas es típicamente consumista y, por derivación, de las más intensas en lo que se refiere a operaciones de efectivo en cajeros automáticos. Se estima que aproximadamente diez millones de personas comprarán durante estas fechas, con un gasto medio de 125 € por persona, la mitad de los cuales serán abonados en efectivo.

| Fuente: REDACCIÓN, AP

Pero también es una época aprovechada por delincuentes y timadores para intensificar las estafas en los cajeros automáticos. En España los fraudes más comunes son el denominado lazo libanés y el duplicado de tarjetas o skimming, sin olvidar otras prácticas como el uso de silicona en las bocas de salida de billetes, o la réplica de cajeros automáticos falsos en zonas de paso obligado.
En el caso del "Lazo libanés", los delincuentes emplean un dispositivo mecánico para que la tarjeta quede retenida en el cajero. Cuando la víctima intenta recuperarla, acude un individuo en su ayuda y le pide el número secreto para extraerla. Ésta queda retenida en el cajero y, en el momento en que el usuario desiste y se marcha, los delincuentes recuperan la tarjeta con el número.
Por su parte, el skimming es un procedimiento novedoso que consiste en colocar un lector-grabador de bandas magnéticas sobre el lector original del cajero automático. Una pequeña cámara de vídeo camuflada bajo un soporte de folletos o similar graba el PIN. El usuario, que es ajeno al fraude, podrá salvarse de una pérdida mayor sólo si revisa habitualmente los movimientos de su cuenta. Con este procedimiento se pueden llegar a duplicar cientos de tarjetas en un sólo día.
Pero además de estas estafas, se siguen produciendo timos tradicionales como el uso de silicona en la boca de salida de los billetes o la colocación de cajeros automáticos falsos en zonas de paso obligado.
Cinco consejos de seguridad para los usuarios de cajeros automáticos
Para garantizar unas rebajas sin sobresaltos, De La Rue Cash Systems recomienda a los usuarios cinco sencillas medidas de seguridad:
1) Evitar realizar transacciones en cajeros aislados, sin cámaras de vigilancia, mal iluminados -si es de noche- y que tengan elementos extraños o papeles con instrucciones. En España existen 60.372 terminales, si uno resulta sospechoso, compensa buscar otro.
2) Desconfiar de las personas que ofrezcan consejos o ayuda ante algún problema con un cajero. Si la tarjeta queda atrapada en la ranura conviene no perderla de vista y llamar inmediatamente al banco o caja para comunicar la incidencia.
3) Memorizar y no revelar a nadie el número secreto de la tarjeta.
4) Tener siempre lista la tarjeta y tapar con una mano el número secreto mientras se teclea el número o la cantidad que se vaya a sacar con la otra. Esta medida protegerá el PIN de posibles cámaras ocultas.
5) Comprobar regularmente los cargos del extracto y en caso de duda comunicárselo al banco o caja.
Por su parte, la banca y los grupos de medios de pagos, que son los que asumen el pago de la mayoría de fraudes, barajan distintas soluciones técnicas de seguridad como es la implantación de un chip en las tarjetas, o el envío de un mensaje de confirmación inmediata al teléfono móvil cada vez que se realiza un movimiento, para poner freno a este tipo de delincuencia. Asimismo, se están modificando las entradas de los lectores de tarjetas para dificultar que se pueda añadir cualquier mecanismo ajeno al mismo, y se están incorporando nuevos dispositivos capaces de detectar las estafas más comunes, además de teclados adaptados a la normativa Visa de seguridad, que incluyen tecnología inteligente de detección de fraude y sistemas anti-intrusión para evitar su manipulación.



El virus "Storm Love" aprovecha los preparativos para el Día de San Valentín

jueves, 17 de enero de 2008

Crean embriones clonados de dos adultos


Científicos aseguran que es un paso potencial hacia el desarrollo de células troncales.

Por Malcolm Ritter (AP)

NUEVA YORK - Un grupo de científicos dijo haber producido embriones clonados de dos hombres, en un paso potencial hacia el desarrollo de células troncales científicamente valiosas.

Es la primera demostración documentada de que células ordinarias de un adulto pueden usarse para crear embriones clonados maduros como para producir células troncales, dijeron los investigadores. Pero como todavía no han producido estas células troncales, los expertos reaccionaron con poco entusiasmo.

Como otros científicos ya habían producido un embrión humano clonado, “considero difícil determinar qué hay sustancialmente de nuevo”, dijo Doug Melton, del Instituto de Células Troncales de Harvard.

Agregó que “el próximo gran avance será crear una línea de células troncales de embriones humanos” a partir de embriones clonados. “Esto todavía está por lograrse”.

El científico surcoreano Hwang Woo-suk dijo hace algunos años haber creado esa línea de células, lo que resultó ser un fraude.

El doctor Samuel Wood, un coautor del nuevo informe y director general de Stemagen Corp. de La Jolla, California, dijo que él y sus colegas están intentando producir líneas de células troncales a partir de los embriones.

El informe fue publicado el jueves en línea por la revista Stem Cells.

Los científicos dicen que las células troncales de embriones clonados podrían suministrar una herramienta valiosa para estudiar enfermedades, revisar remedios y, quizás algún día, crear material de trasplante para tratar dolencias como la diabetes y la enfermedad de Parkinson.

Pero los críticos plantean objeciones. Algunos dicen que el procedimiento equivale a crear una vida humana en el laboratorio para después destruirla y cosechar las células troncales. Otros plantean preocupaciones por los riesgos a la seguridad y la explotación si se pide a un número elevado de mujeres suministrar óvulos para una clonación extensa.

Crean un robot humanoide dirigido por el cerebro de un mono




Científicos japoneses y estadounidenses abrieron una posible vía para que los discapacitados físicos puedan desplazarse, al concebir un robot humanoide cuyas dos piernas son activadas a distancia por el cerebro de un mono en movimiento, situado a miles de kilómetros de la máquina.

Fuente: AFP

Esta proeza, que alía la robótica con la neurociencia, fue anunciada este miércoles por la Agencia de la Ciencia y de las Tecnologías nipona y la Universidad Duke de Estados Unidos.

"Hemos logrado transmitir desde Estados Unidos a Japón los datos registrados en el cerebro de un mono gracias a la detección de sus influjos nerviosos que se ocupan del movimiento de las piernas", explicaron los investigadores.

A través de estas señales, "hemos conseguido controlar las piernas del robot en tiempo real, de forma que caminó de la misma forma que el mono", agregaron.

La técnica se basa en convertir las informaciones emitidas por el animal en instrucciones comprensibles para el robot.

Con estos resultados, el grupo científico estima que se ha hecho "un gran paso" para la fabricación de prótesis neuronales que permitirían a los discapacitados físicos recuperar sus capacidades motrices.

Un prototipo de robot detecta el grado de interés de las personas




Investigadores de la Universidad de Granada (UGR) han creado un prototipo de robot fijo capaz de detectar el grado de interés de las personas. El grupo de investigación, dirigido por Antonio González Muñoz, pretende mejorar ahora los procesos de aprendizaje automáticos de este dispositivo -introduciendo nuevos parámetros- que les permitan tener conocimiento similar al del ser humano, según se informa.

Fuente:
http://andaluciainvestiga.com/default.asp



: Este proyecto, calificado de excelencia y subvencionado por la Consejería de Innovación, Ciencia y Empresa de la Junta de Andalucía con 28.000 euros, pretende aunar dos líneas de investigación: robótica y aprendizaje. "Queremos introducir nuevas técnicas de interacción persona-robot, por ejemplo, para que aprenda a caminar o a ofrecer un determinado servicio en una ventanilla", subraya González Muñoz.

Para cumplir con este objetivo, los investigadores deberán afrontar algunos retos tecnológicos. Por ejemplo: "¿cómo detectamos el interés real de las personas?, ¿cómo podemos satisfacer sus intereses?", se pregunta el científico. González Muñoz cree que el primer prototipo ya ha dado con alguna respuesta. "Experiencias previas han demostrado la validez de los parámetros introducidos en el software. Por ejemplo, distancia, orientación de la cámara, visión estereoscópica", subraya. Sin embargo, el más importante es la cara de la persona, parámetro sobre el que están trabajando para que el sistema robótico muestre un alto grado de eficiencia.

Aprendizaje
Además del beneficio principal del desarrollo de las técnicas apropiadas de adquisición de conocimiento y aprendizaje que tendrá un amplio campo de aplicación, es de interés para este proyecto que dichas técnicas ayuden a resolver los problemas que se plantean en el campo de la robótica.

En especial, el grupo espera su utilidad en los siguientes tres campos de aplicación real: robótica de servicio o robots asistentes, inteligencia ambiental y vigilancia de entornos con personas.
Tras la investigación, pretenden obtener un conjunto de técnicas de adquisición de conocimiento y aprendizaje que tanto puedan trabajar sobre problemas complejos con un elevado número de variables e instancias, como que exprese en términos simples y comprensibles desde el punto de vista humano, el conocimiento obtenido.

Además, esperan que presente un buen comportamiento sobre los problemas de adquisición de conocimiento en el campo de la robótica en general, y en el modelado de la atención de un usuario en especial.

Los animales clonados podrán usarse como alimento




Las vacas, cerdos y cabras clonadas, así como sus crías, son seguros para usar como alimento humano Estados Unidos, dijeron los reguladores federales pese a las protestas de legisladores, grupos de defensa de los consumidores e individuos preocupados.

| Fuente: AP

La Administración de Alimentos y Drogas (FDA) emitió un informe definitivo en el que apoya el uso de alimentos clonados, al cabo de un estudio de siete años. La agencia no recomendó el uso de etiquetas especiales para dichos productos, si bien una moratoria del 2001 sobre las ventas seguirá en pie hasta que el Departamento de Agricultura reexamine el asunto, según un comunicado emitido por la FDA.
La decisión levanta el último obstáculo regulatorio a la comercialización de productos de vacas, cerdos y cabras clonadas, y equipara a la FDA con los reguladores alimentarios de Europa y otras regiones.
''Los datos demuestran que los [animales] adultos clonados saludables son virtualmente indistinguibles'' de los demás, concluyó la FDA en su informe de seguridad de más de 900 páginas.
Pero por motivos económicos, pasarán años antes de que muchos alimentos procedentes de animales clonados lleguen a los almacenes. Su costo es mucho mayor: de $10,000 a $20,000 por animal.
La propuesta provocó 30,500 comentarios del público, y el Congreso aprobó un proyecto de ley en que instaba a la FDA a estudiar la clonación más a fondo antes de decidir. La decisión de la agencia de aprobar la venta de productos clonados de todos modos favorece a compañías que ya han clonado cientos de animales. Varios productores de alimentos, como Tyson Foods Inc., el mayor elaborador de carne del país, y Dean Foods Co., el mayor distribuidor de productos lácteos, dijeron que no usarán alimentos clonados.
''Es probable que tome mucho tiempo para que esos animales estén siquiera disponibles para la venta'', dijo ayer un vocero de Tyson, Gary Mickelson, en un mensaje por correo electrónico. ``Las medidas que a la postre adoptaríamos se basarían en la normativa gubernamental y en los deseos de nuestros clientes y consumidores''.
''La FDA ha concluido que la carne y leche de los clones de vacunos, cerdos y cabras, y las crías de los clones de cualquier especie que se ha acostumbrado consumir, son tan seguras para comer como el alimento proveniente de animales criados en forma corriente'', indicó la FDA.
Con el dictamen de la FDA, ''si uno pregunta qué hay para cenar, significa que puede ser cualquier cosa que se pueda cocinar en un laboratorio'', comentó Carol Tucker Foreman, de la Federación de Consumidores de Estados Unidos, quien se comprometió a presionar a más productores de alimentos a rechazar los clones.
Los reguladores europeos llegaron a la misma conclusión que la FDA en un informe preliminar sobre el consumo de animales clonados que se publicó el 11 de enero. La Autoridad Europea de Seguridad Alimentaria ha dado hasta el 25 de febrero para enviarle comentarios sobre su propuesta de autorizar la venta de carne y leche de animales clonados.
Las dos principales compañías de clonación, Viagen Inc. y Trans Ova Genetics, ya han producido más de 600 animales clonados para los criadores estadounidenses.

Desarrollan nanocables para recargar los móviles con el calor del cuerpo


Incorporados a chaquetas especiales permitirían el uso permanente de estos dispositivos

Científicos norteamericanos han desarrollado un método con nanocables de silicio que permite sacar el máximo rendimiento energético del calor que desprende el cuerpo o cualquier sistema artificial. En el futuro, los móviles y cualquier dispositivo electrónico portátil podrían recargarse con el calor que emite nuestro organismo gracias a chaquetas especiales en las que estos nanocables estarían implantados. El invento se añade a otras propuestas aparecidas en los últimos años y con las que diversos aparatos electrónicos aumentarían su independencia y movilidad.

Muy pronto los problemas para recargar las baterías de los móviles por falta de conexión a la red eléctrica (por ejemplo, si estamos dando un paseo) podrían desaparecer gracias a un invento que permite cargarlo, simplemente, con el calor del cuerpo.

Un equipo de científicos del Berkeley Lab, de la Universidad de California en Berkeley y del Ministerio de Energía estadounidense (DOE), ha desarrollado nanocables (cables del diámetro de un nanómetro, es decir una milmillonésima parte de un metro) de silicio que permitirán aprovechar la pérdida de energía del cuerpo en forma de calor con una alta eficiencia.

Alta eficiencia

Este logro tecnológico podría tener múltiples aplicaciones, entre ellas, la fabricación de chaquetas con estos minicables incorporados, que utilicen el calor del cuerpo para recargar teléfonos móviles u otros dispositivos electrónicos, como los iPod, publica el Berkeley Lab en un comunicado.

Esta tecnología supone la primera demostración del alto rendimiento del potencial termoeléctrico del silicio, un abundante semiconductor (es el segundo material más abundante en la corteza terrestre) cuyo uso está ya muy extendido en la industria electrónica y microelectrónica para la creación de obleas o de chips que se pueden implantar en transistores, pilas solares, y una gran variedad de circuitos electrónicos.

La mejora de la eficiencia de los nanocables como conductores de la energía termoeléctrica a temperatura ambiente se ha conseguido gracias a un método con el que una serie de nanocables de silicio fueron sintetizados en una solución acuosa sobre la superficie de obleas (finas planchas de material semiconductor), que medían varias decenas de centímetros cuadrados. La técnica utiliza el desplazamiento galvánico del silicio a partir de la reducción de los iones de plata sobre dichas obleas.

Aplicaciones a diversas escalas

Gracias a dicha técnica, podría superarse el problema que presentaba el concepto de la conversión del calor corporal en electricidad, un concepto que no es nuevo pero que no se había podido aplicar por el escaso rendimiento obtenido hasta la fecha.

La investigación aún no ha llegado a su fin, pero sus aplicaciones potenciales ya se vislumbran: aprovechamiento del calor del cuerpo en cualquier situación en la que desprendamos energía para suministrarla a pequeños dispositivos a través de las chaquetas antes mencionadas.

A mayor escala, los módulos de conversión servirían para transformar el calor de vehículos en movimiento en energía adicional que alimentase las radios de los coches, el aire acondicionado o los elevalunas eléctricos. La revista Nature explica detalladamente los resultados de esta investigación.

Modificación de las baterías

Ésta no es la primera propuesta científica que ofrece una alternativa para la recarga de las baterías de los teléfonos móviles. En los últimos tiempos, otras investigaciones han ofrecido interesantes variantes a la electricidad de origen tradicional, como es el caso del uso del agua que propusieron científicos canadienses de la Universidad de Alberta.

Utilizando la electrokinesia, que es la producción de cargas eléctricas a través del movimiento de las sustancias, estos investigadores consiguieron dar con una fuente de energía no contaminante que podría aprovecharse tanto para pequeños dispositivos electrónicos como a mayor escala.

Otra interesante investigación dio lugar al desarrollo de una batería biodegradable para móviles que se alimenta con cualquier fuente de azúcar, desde refrescos a sacarosa, y que dura más tiempo que las baterías convencionales de litio. Tal y como publicamos anteriormente , este invento podría estar disponible en el mercado en menos de cinco años, y nos permitiría recargar el teléfono móvil con cualquier fuente de azúcar que tengamos disponible.

http://www.lbl.gov/
http://www.berkeley.edu/
http://www.doe.gov/
http://www.lbl.gov/Science-Articles/Archive/MSD-silicon-nanowires.html
http://en.wikipedia.org/wiki/Wafers
http://www.scibx.com/nature/journal/v451/n7175/full/nature06381.html
http://www.iop.org/EJ/abstract/0960-1317/13/6/320/

La electricidad puede obtenerse también a partir del agua


Descubren una nueva forma de conseguir electricidad por primera vez desde 1839

Científicos canadienses han descubierto casualmente una nueva forma de obtener electricidad a partir de las propiedades electrokinéticas de un líquido tan elemental como el agua, algo que no ocurría desde Faraday en 1839. Las primeras aplicaciones del descubrimiento serán los teléfonos móviles y las calculadoras, pero en el futuro esta energía limpia podrá comercializarse y competir con la eólica y la solar


http://www.expressnews.ualberta.ca/article.cfm?id=5117

Los teléfonos móviles y las calculadoras pueden funcionar en el futuro con energía obtenida del agua, gracias a un descubrimiento realizado por azar en la Universidad de Alberta (Canadá) entre un químico de la combustión y un especialista en interacciones de superficie, del que informa el Journal of Micromechanics and Microengineering.

Tal como se explica en el comunicado difundido por la Universidad de Alberta, fue combinando los conocimientos de ambas especialidades, cuando Daniel Kwok y Larry Kostiuk, junto a sus estudiantes, descubrieron una nueva forma de producir electricidad, algo que no ocurría desde Faraday en 1839.

El punto de partida fue la electrokinesia, que es la producción de cargas eléctricas a través del movimiento de las sustancias. El resultado, una fuente de energía limpia, no contaminante, que tiene aplicaciones desde pequeños dispositivos electrónicos hasta la posibilidad de competir con la energía solar o eólica, según sus descubridores.

La ciencia sabe desde hace tiempo que cuando un líquido se desplaza sobre una superficie sólida, crea una fina capa de electrones que poseen cargas positivas y negativas. Estas cargas, al separarse, crean electricidad.

Agua dentro de tubos

El descubrimiento consistió en hacer correr el agua dentro de un tubo, lo que generó una pequeña carga eléctrica. Una columna de 30 centímetros de agua genera uno o dos microamperios, que representan la millonésima parte de un amperio. Como esta carga era casi insignificante, la siguiente idea fue repetir el experimento en un conjunto de 500.000 pequeños tubos, lo que les permitió obtener 10 voltios de electricidad.

Esta potencia puede aumentarse utilizando millones de canales paralelos sobre los que volcar agua a presión para aumentar la generación de energía, de tal forma que con ella se puedan alimentar dispositivos eléctricos e incluso electrodomésticos de vida ilimitada.

Si la idea se llega a implantar en las estaciones depuradoras de agua, la capacidad de generar electricidad aumentaría considerablemente, lo que supondría incorporar una nueva fuente de electricidad a los sistemas tradicionales.

La energía obtenida a través del agua, si se consigue en grandes proporciones, puede llegar a comercializarse como una fuente eléctrica más, capaz de competir con la energía solar o eólica, por lo que las consecuencias de este descubrimiento todavía son incalculables.

Las nuevas amenazas de malware destinadas a los usuarios de Facebook




Check Point Software Technologies ha advertido a los consumidores sobre una nueva y rápida amenaza de malware dirigida a los usuarios del site popular de networking, Facebook. El descubrimiento de la amenaza se hizo por Fortinet.

Fuente: REDACCIÓN, AP

"Secret Crush" es un nuevo programa de software que se distribuye a través de Facebook utilizando el desarrollador API, que permite a los proveedores de software conectar las aplicaciones a Facebook. La amenaza se propaga mediante el envío de una notificación, por parte de los usuarios de Facebook, en la que aparece una invitación para añadirse a su red.

Si el receptor de esta invitación quiere saber quién le ha enviado el mensaje, es necesario que descargue una aplicación, la cual contiene adware Zango. Las descargas de aplicaciones son comunes en Facebook pues los usuarios suelen hacer descargas rápidas sin un análisis riguroso.
"El malware y las amenazas en el browser evolucionan y explotan las redes sociales, por esta razón es muy importante que los consumidores, ahora más que nunca, tomen las precauciones necesarias para proteger sus privacidad e identidad online", dijo Laura Yecies, vicepresidenta y directora general de la División de Consumo de Check Point.

Tecnoticias 01-17-2008








China anuncia medidas contra los juegos en red "indeseables"


Habrá nuevas reglas más restrictivas contra los juegos 'online' en el gigante asiático. China pretende controlar lo que considera juegos 'indeseables' ante el miedo de la creciente adicción a los mismos, según las autoridades de Pekín.
Fuente: REUTERS

El número de usuarios de este tipo de videojuegos en el país asiático se eleva al 23% y ha alcanzado los 40 millones el año pasado. La fuerte demanda ha disparado la venta de estos juegos hasta alcanzar el 1,4 millones de dólares en 2007.
Sin embargo, este crecimiento imparable de la industria se produce después de que varios informes hayan alertado del alto índice de adicción a Internet y de que fuentes oficiales culpen también a la red del alto índice de la criminalidad juvenil.
Ante esta situación, China ha prohibido a los niños acudir a los cafés de Internet y ha ordenado a sus dueños hacer cumplir las restricciones de tiempo para frenar a determinados jugadores compulsivos.
No obstante, a pesar de estas medidas restrictivas, las autoridades chinas quieren reconsiderar la ley que limitará al máximo la difusión de vídeos por Internet, prevista para entrar en vigor el 31 de enero y que prohibiría emitir imágenes que no estén colgadas en webs estatales del país.
"Hemos notado que tras la publicación de la ley, ésta ha recibido mucha atención del público y los medios, por lo que responderemos de forma adecuada a las dudas que genera", aseguró en rueda de prensa Chen Jiachun, un alto cargo del citado Ministerio.
Chen, subdirectora del Departamento de Administración de Telecomunicaciones en el Ministerio, puntualizó, no obstante, que la ley es también responsabilidad de la Administración Estatal de Cine, Radio y Televisión.
Censura de páginas web
Sobre la censura de páginas web foráneas el viceministro de la Administración General de Prensa y Publicaciones, Yan Xiaohong, aseguró que hay "dos tipos de bloqueo: a aquellas web no registradas legalmente en China, y a las que difunden contenidos prohibidos u ofensivos".
Yan citó "webs con contenidos pornográficos, racistas y violentos" como ejemplos de páginas en Internet que el Gobierno chino considera ofensivas y "claramente prohibidas".
En la rueda de prensa, los dos responsables y un oficial del Ministerio de Seguridad Pública presentaron los resultados en 2007 de la campaña estatal contra la piratería en Internet, destacando que el año pasado se cerraron 339 webs que no respetaban los derechos de autor, 1,6 veces más que en 2005 y 2006.
Las autoridades confiscaron 123 servidores e impusieron multas por un valor total de 870.000 yuanes (unos 120.000 dólares).
China tiene 210 millones de internautas, aproximadamente los mismos que Estados Unidos, por lo que ambas son las comunidades de usuarios de la red más grandes del mundo.



Los dueños de Scrabble piden a Facebook que retire su versión por infracción de copyright


Los fabricantes del juego de palabras Scrabble han pedido a Facebook que retire su popular versión online "Scrabulous", ya que según ellos infringe sus derechos de autor.

Fuente: REUTERS

Hasbro tiene los derechos de Scrabble en Estados Unidos y Canadá, mientras que la segunda compañía mundial de juguetes y juegos, Mattel, los posee para el resto del mundo.
"Se han enviado cartas a Facebook en Estados Unidos en relación con la aplicación Scrabulous", dijo una portavoz de Mattel en REino Unido.
"Mattel valora su propiedad intelectual y protege activamente sus marcas y marcas registradas".
"Ya que Mattel posee los derechos de la marca Scrabble fuera de Estados Unidos y Canadá, estamos actualmente revisando nuestra posición respecto a otros países", dijo.
No había nadie disponible en Facebook de forma inmediata para comentar la información.
Facebook ha superado recientemente a sitios similares como MySpace y Bebo y se ha convertido en la red social más popular en Reino Unido.


La APPA se queja de que la masiva entrada de biodiésel subvencionado procedente de Estados Unidos


La importación de biodiésel subvencionado procedente de Estados Unidos ha pasado en sólo un año de ser prácticamente inexistente a superar en 2007 las 150.000 toneladas, copando el 50% del mercado español. Esta masiva entrada de biodiésel norteamericano, realizada en su mayor parte por las principales empresas petroleras españolas, está provocando el colapso de la industria nacional de producción de biocarburantes justo cuando, en cumplimiento de la planificación energética nacional, la capacidad instalada se ha multiplicado por tres en el último año, hasta superar las 800.000 toneladas en un total de 22 plantas operativas. Muchas de estas factorías se encuentran actualmente en una situación crítica de parada o bajo nivel de producción.

Fuente: EUROPRESS

Con vistas a solucionar esta situación, APPA Biocarburantes ha presentado al Gobierno un dictamen jurídico del bufete Garrigues que avala la reclamación de modificar la actual legislación fiscal para evitar que los biocarburantes importados con subvención en origen, como son ahora los procedentes de Estados Unidos, se beneficien al llegar a España del vigente tipo cero en el Impuesto Especial de Hidrocarburos (IEH). Con esta reforma legal se reestablecería una situación competitiva justa y leal, evitando a los contribuyentes españoles una subvención al biodiésel norteamericano de casi 50 millones de € en 2007.
"En caso de que el Gobierno no adopte de inmediato las medidas regulatorias estructurales necesarias para frenar las importaciones masivas de biodiésel subvencionado -y paralelamente apruebe el proyecto de Orden de desarrollo de las obligaciones de biocarburantes con los mismos objetivos presentados el pasado mes de julio-, toda la política de fomento de los biocarburantes de esta legislatura se hundirá irremisiblemente como un castillo de naipes", asegura Roderic Miralles, Presidente de APPA Biocarburantes.
Este derrumbe sepultará los más de 200 millones de € ya invertidos por la industria española de biodiésel -en muchos casos con ayudas públicas directas-, destruirá los centenares de puestos de trabajo creados en los sectores primarios y secundarios y hará imposible el cumplimiento de los objetivos ambientales, socioeconómicos, geoestratégicos y de desarrollo agroindustrial fijados en el Plan de Energías Renovables 2005-2010, fundamentados en la producción autóctona de biocarburantes. "Si este escenario desgraciadamente se acaba concretando, la política del Gobierno en materia de biocarburantes de estos últimos cuatro años habrá sido finalmente un fiasco", lamenta Miralles.
El impacto del crédito fiscal norteamericano en España
En Estados Unidos el biodiésel se beneficia de un crédito fiscal establecido en 2004 por la American Jobs Creation Act y prorrogado en 2006 por la Energy Bill. Este beneficio fiscal asciende a 1 dólar USA por cada galón (3,8 litros) de biodiésel mezclado con gasóleo, lo que en la práctica significa que, añadiendo una sola gota de gasóleo, se obtiene un subsidio de 0,20 euros por cada litro de biodiésel, independientemente de que este biocarburante se consuma en Estados Unidos o sea exportado a otros países.
Una vez en España, el biodiésel importado desde Estados Unidos se beneficia, sin ninguna cortapisa, del tipo cero en el IEH establecido para promover los biocarburantes, lo que supone actualmente 0,278 euros por litro. Teniendo en cuenta la suma de ambos beneficios fiscales, el biodiésel procedente de Estados Unidos se está poniendo actualmente a la venta en España por debajo de 0,66 €/litro (750 € por tonelada), cuando el coste estándar de producción en las fábricas españolas se sitúa en estos momentos en importes superiores a 0,75 €/l (850 € por tonelada), el mismo coste que tendrían las fábricas estadounidenses si no contasen con el crédito fiscal.
Esta injusta situación no resulta siquiera aliviada por los mecanismos arancelarios vigentes ya que el actual gravamen aplicable en la Unión Europea al biodiésel importado de Estados Unidos y del resto de países sin acuerdos preferenciales con la UE -un 6,5% sobre el valor del producto- resulta totalmente insuficiente para compensar el mencionado beneficio fiscal en origen.
"De no ponerse coto a este dumping fiscal, las importaciones subvencionadas -ahora las norteamericanas pero en breve las de otros países, como Argentina, que también otorgan ayudas a la exportación- pueden hacerse con la práctica totalidad del mercado español de biodiésel, condenando a la industria española a cerrar sus puertas", augura Roderic Miralles.
"Se daría así la paradójica y aberrante situación", prosigue Miralles, "de que el establecimiento de una obligación de biocarburantes en España a partir de este año -establecida mediante la Ley 12/2007 pero pendiente de su desarrollo reglamentario-, sólo serviría para realimentar la competencia desleal de las importaciones, que vendrían a copar el mercado español de biodiésel en detrimento de una industria nacional, que imposibilitada de poder competir en su mercado natural, no tendría otra opción más que la de desaparecer".
La situación ya está afectando gravemente a muchas de las veintidós plantas de biodiésel actualmente operativas en España, que se han visto obligadas a reducir o detener su actividad. Si no se toman medidas urgentes, buena parte de la industria nacional se verá irremediablemente abocada al cierre.
APPA Biocarburantes considera que la mejor manera de acabar desde España con la competencia desleal que suponen estas importaciones, creando un marco estructural de salvaguarda ante este y futuros casos similares, es la de condicionar la actual aplicación a los biocarburantes importados de fuera de la UE del tipo cero en el Impuesto Especial de Hidrocarburos (IEH) a que sus importadores demuestren documentalmente estar libres de subvenciones o créditos fiscales en origen. Con tal fin, se ha presentado ya al Gobierno un dictamen jurídico que avala esta propuesta, cuya implementación requeriría la modificación del actual Reglamento de Impuestos Especiales conforme a una redacción articulada propuesta por APPA Biocarburantes.
El papel de las petroleras españolas
Un elemento que hace más perversa y lamentable la situación actual es que son las grandes empresas petroleras españolas las principales importadoras del biodiésel norteamericano que está llegando a España. Los mismos operadores que hasta la fecha han frenado el desarrollo y la visibilidad comercial del biodiésel en sus gasolineras, aprovechando el control oligopolístico que ejercen en la distribución de carburantes, se están lucrando sigilosamente de esta anómala situación, sin trasladar a los consumidores el ahorro extra que ello les reporta.
Aunque la actuación importadora de estas petroleras es legal y legítima, según sus particulares intereses económicos, la misma va en detrimento del cumplimiento de los fines de desarrollo agroindustrial autóctono de la política española de fomento de la producción de biocarburantes. APPA Biocarburantes considera por ello que estas empresas deberían apostar a fondo por la línea, ciertamente ya iniciada, de aprovisionamiento de biodiésel de producción nacional.
Gracias a este favorable contexto, la industria norteamericana de biodiésel ha podido doblar en un sólo año su producción hasta alcanzar en 2007 la cifra de 1,7 millones de toneladas, procedentes de 165 plantas operativas, según datos de la Asociación Americana de Biodiésel (NBB). Ello supone que el 9% de la producción de biodiésel de Estados Unidos ha acabado en 2007 en el mercado español.
Si se tiene en cuenta que la importación de biodiésel procedente de Estados Unidos en el conjunto de la Unión Europea, según las estimaciones de la Asociación Europea de Biodiésel (EBB), ha superado en 2007 el millón de toneladas resulta, por tanto, que casi el 60% de la producción estadounidense de biodiésel se destinó el año pasado al Viejo Continente, el primer mercado mundial consumidor de gasóleo y sustitutivos del mismo como el biodiésel.
De acuerdo con una estimación provisional de APPA Biocarburantes, la producción de la industria española de biodiésel, con veintidós plantas operativas a 31 de diciembre de 2007, se situó el año pasado sobre las 170.000 toneladas, destinándose al mercado nacional el 90% de las ventas realizadas. En relación al año anterior, la producción y las ventas de las fábricas nacionales en 2007 sólo se han incrementado en algo más del 30% pese a que la capacidad instalada se ha multiplicado por tres, superando ya las 800.000 toneladas.



Microsoft ofrecerá publicidad en la web "Edgar Online"

Microsoft y el sitio de información financiera EDGAR Online dijeron que habían firmado una alianza estratégica para ofrecer anuncios relevantes y contenido en sus respectivos sitios.

http://www.edgar-online.com/

Fuente: REUTERS

Según el pacto, Microsoft será el proveedor exclusivo a terceros de publicidad contextual, de vídeo y la denominada 'display advertising' para EDGAR Online.
Por su parte, EDGAR ofrecerá contenido, como documentos de la Comisión del Mercado de Valores Estadounidense, a MSN Money, la página de finanzas personales del portal MSN de Microsoft.
Se espera que Microsoft comience a proporcionar los anuncios a EDGAR Online en marzo, mientras que la integración de contenidos en MSN Money se prevé para más adelante.



Los precandidatos a la Casa Blanca usan internet a fondo

La campaña presidencial de Estados Unidos se juega en gran parte en internet y los aspirantes a la Casa Blanca rivalizan en ingenio para que sus esfuerzos en línea se transformen en votos el día de las elecciones.
Fuente: AFP

Según un estudio del instituto independiente Pew Research Center, cerca de un 25% de los estadounidenses recurren a internet para seguir la campaña presidencial. Si bien es menos que la cifra de los que la siguen por televisión, es el doble que en 2004 y el triple que en 2000.
Internet asimismo les da a los militantes herramientas para recaudar fondos o para organizar actos en favor del candidato de su elección. Y hay portales de socialización, destinados particularmente a los jóvenes, que permiten a los participantes comparar los gustos musicales de los distintos candidatos.
"Cada vez más discusiones sobre la campaña presidencial ocurren en internet e ignorarlo representa un riesgo", afirma Mike Feldman, que fue consejero del demócrata Al Gore durante su campaña presidencial en el año 2000.
El 42% de los menores de 30 años usan internet para informarse sobre las elecciones. Es asimismo esta categoría de personas la que utiliza con más frecuencia los sitios de socialización como MySpace o Facebook.
Si en esos sitios "su amigo Joe dice que le gusta el candidato republicano John McCain, eso puede darle a usted otra idea sobre John McCain", afirma David Almacy, ex encargado de comunicación vía internet del presidente George W. Bush.
De hecho, la campaña del atípico republicano Ron Paul, opuesto a la guerra en Irak, se basa casi por completo en internet. Paul llamó la atención cuando logró juntar cerca de 20 millones de dólares para su campaña a través de internet.
Del lado demócrata, el joven senador Barack Obama usa internet para diferenciarse de su rival Hillary Clinton, cuya imagen se asocia a la vieja guardia. El 60% de las 500.000 personas que donaron dinero para la campaña de Obama lo hicieron a través de internet.
Según su equipo de campaña, las herramientas propuestas vía internet a los militantes permitieron crear 6.000 grupos de apoyo y 20.000 páginas 'web' para juntar fondos.
"Es sorprendente cómo internet es capaz de darle energía a la gente cuando se les dan las herramientas correctas", opina Joe Rospars, encargado de "nuevos medios de comunicación" en el equipo de Obama.
Sin embargo, algunos expertos hicieron algunas acotaciones al respecto.
Internet "es solo una herramienta, y punto. Hay que tener en cuenta de lo que es capaz y cuáles son sus límites", sugiere Josh Marulies, que creó un sitio para el ex general Wesley Clark durante su campaña en 2004.
Algunas ventajas que tiene es que permite enviar miles de mensajes muy fácilmente, con distintos temas en función de los diferentes públicos, y de hacer "absurdamente fácil" la donación de dinero.
Pero un candidato no puede "suponer que porque estoy dispuesto a hacer tres clicks y enviar algunos dólares estoy dispuesto a ir al centro de votación el día de la elección", alertó.
Además, internet tiene el problema de la circulación de información falsa: entre los correos recibidos esta semana por un periodista había uno que afirmaba que Obama es "un extremista islámico".
Pero internet tiene asimismo las herramientas para contrarrestar esa falsificación. Exite un sitio especializado ('www.snopes.com') para hacer la separación entre los rumores y la información.


Sun Microsystems compra MySQL, la base de datos open source más popular del mundo

Sun Microsystems, anuncia que ha llegado a un acuerdo definitivo para adquirir MySQL AB, uno de los máximos iconos de la tecnología Open Source y desarrollador de una de las bases de datos sobre código abierto de mayor crecimiento del mundo. La adquisición, que se llevará a cabo por aproximadamente 1.000 millones de dólares, acelera de una forma importante la presencia de Sun en el mercado de la tecnología corporativa sumando ahora un nuevo posicionamiento en el mercado de las bases de datos, en el que no tenía presencia, y que está valorado en cerca de 15.000 millones de dólares a escala mundial. El anuncio reafirma la posición de Sun como proveedor líder de plataformas en la economía Web, así como su papel como mayor contribuyente desde el mundo empresarial a la comunidad Open Source.

| Fuente: REDACCIÓN, AP

Con miles de implementaciones a escala mundial y clientes de la talla de Facebook, Google, Nokia, Baidu o China Mobile, MySQL aporta a Sun sinergias que cambiarán radicalmente el actual mercado del software. Una de las ventajas inmediatas para el mercado de esta adquisición será que permitirá la adopción de la base de datos de código abierto MySQL por un gran número de aplicaciones y compañías tradicionales. La integración con Sun ampliará en gran medida las capacidades comerciales de MySQL y mejorará tanto su propuesta de valor al mercado como sus vías de llegada al mismo a través de la amplia comunidad de partners estratégicos de Sun en todo el mundo, incluidas las firmas con las que Sun mantiene relaciones OEM como son Intel, IBM y Dell.
"El acuerdo de hoy reafirma la posición de Sun en la economía Web global. En línea con nuestro plan de crecimiento, la adquisición de MySQL viene a incrementar nuestras inversiones en las tecnologías demandadas por aquellos clientes que están experimentando un gran crecimiento, desde los grandes titanes de Internet a las tradicionales corporaciones mundiales," ha señalado Jonathan Schwartz, CEO y presidente de Sun Microsystems. "Los profesionales de MySQL y su cultura empresarial, junto con su cercanía a la Web, encajan perfectamente con la estrategia de apertura e innovación de Sun. Y lo que es más importante, este anuncio impulsa nuestra inversión en las comunidades, la clave de la innovación en Internet y para las empresas que confían en la tecnología como arma competitiva."
La base de datos de código abierto de MySQL está ampliamente desplegada en los principales sistemas operativos, proveedores de hardware, geografías, industrias y tipos de aplicaciones. Las líneas de productos complementarios ampliarán el alcance de la base de datos MySQL y abrirán nuevos mercados para Sun en las áreas de sistemas, virtualización, middleware y plataformas de almacenamiento.
"La combinación de MySQL y Sun representa una gran oportunidad para los usuarios y para todas aquellas compañías que quieren innovar, crecer y poder elegir", ha afirmado Marten Mickos, CEO de MySQL. "La cultura y el modelo de negocio de Sun se complementa a la perfección con MySQL ya que ambos compartimos ideales: software libre, innovación online y participación con la comunidad y los partners. Estamos encantados de trabajar con Sun y con los millones de miembros del ecosistema Open Source de MySQL para continuar ofreciendo la mejor base de datos que impulse la moderna economía Web."
La base de datos open source MySQL es la "M" en el acrónimo LAMP - la plataforma de software compuesta por la unión de las tecnologías de sistema operativo Linux, el servidor web Apache, el gestor de base de datos MySQL y los lenguajes de programación PHP/Perl, considerada a menudo como la base de Internet. Sun está comprometida en mejorar y optimizar las tecnologías LAMP sobre GNU/Linux y Microsoft Windows junto con OpenSolaris (TM) y MAC OSX. La base de datos de MySQL, OpenSOlaris y GlassFish (TM), junto con la plataforma Java (TM) de Sun y las comunidades NetBeans (TM), crearán una potente plataforma de aplicaciones Web para un amplio rango de clientes que trasladen sus aplicaciones a la Web.
Más de 100 millones de copias del software de base de datos open source de alto rendimiento de MySQL se han descargado y distribuido ya. Además, diariamente se producen otras 50.000 descargas adicionales. Esta amplia penetración junto con la fortaleza de MySQL en los mercados Web 2.0, Software como Servicio (SaaS), empresarial, telecomunicaciones y OEM están completamente en línea con la estrategia de Sun. Con MySQL, Sun tendrá la capacidad de profundizar en sus relaciones con los clientes y crear nuevas oportunidades con aquellas empresas que buscan una mayor flexibilidad y apuestan por sistemas fáciles de utilizar y basados en código abierto.
Una vez se complete la transacción propuesta, MySQL se integrará en las organizaciones de Software, Ventas y Servicios de Sun, y Marten Mickos, hasta ahora CEO de MySQL, pasará a formar parte del equipo directivo de Sun. Mientras tanto, un equipo conjunto formado por representantes de ambas compañías desarrollará los planes de integración basados en las sinergias técnicas, de producto, así como culturales y las mejores prácticas de negocio y desarrollo de ambas compañías. MySQL tiene su sede central en Cupertino, California, y Uppsala, Suecia, y cuenta con 400 empleados en 25 países.
Como parte de la operación, Sun pagará en efectivo aproximadamente 800 millones de dólares a cambio de todo el stock de MySQL y asumirá en torno a 200 millones de dólares en opciones de compra. Se espera que la operación quede totalmente cerrada a finales del tercer trimestre del año fiscal 2008 de Sun o principios del cuarto. La finalización de esta operación está sujeta a su aprobación legal y otras condiciones habituales de cierre. Además se espera que el acuerdo sea acumulado a los ingresos operativos del año fiscal 2010 conforme a los principios GAAP (Principios de Contabilidad Generalmente Aceptados).



La red inalámbrica gratuita free-hotspot.com termina el 2007 con 2400 puntos de acceso


free-hotspot.com, el mayor proveedor mundial de HotSpots Wi-Fi gratuitos, ha anunciado que el tamaño de su red se ha cuadruplicado durante el 2007, pasando de 600 a 2400 HotSpots, localizados en 18 países de toda Europa.

| Fuente: EUROPRESSS

El boom del Wi-Fi gratuito llega a todas partes. Joe Brunoli, Vice Presidente de la compañía, afirma que "free-hotspot.com se expande en un mercado geográfico y también vertical. Nosotros somos uno de los proveedores más grandes de Wi-Fi, de pago o gratuito, en los países del Este, y seguimos expandiéndonos en los mercados del oeste de Europa. Además, nos estamos moviendo, cada vez más, entre los mercados menos habituales para el Wi-Fi, tales como peluquerías, gasolineras, campamentos y almacenes al detalle."
Joe Brunoli piensa que el business model de free-hotspot.com está particularmente adaptado para el mercado español y anuncia que free-hotspot.com va a empezar nuevas instalaciones de puntos de accesos GRATUITO para toda España en 2008. Para realizar este objetivo, la empresa busca activamente colaboradores de instalación en todo el país, para proporcionar las instalaciones y los servicios a los propietarios de los puntos de accesos.
El principal causante del crecimiento de la compañía durante el 2007 ha sido la demanda de la solución Wi-Fi de free-hotspot.com por parte de cadenas de hoteles, restaurantes y locales para eventos. "Las grandes organizaciones quieren trabajar con el líder del mercado, que puede además aportarles un valor añadido", comenta Brunoli. "Nosotros podemos ofrecerles no sólo una solución paneuropea, soportes y mantenimiento, sino también oportunidades promocionales y de creación de la imagen de marca altamente efectivas, usando nuestro sistema de mensajes Wi-Fi EDGE. Esta proposición de valor único nos permitirá trabajar con más marcas nacionales, paneuropeas y mundiales el próximo año."
Brunoli terminó afirmando que la empresa espera tener instalados más de 5000 HotSpots a finales de 2008.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX