Portal De Tecnologia y Ciencias

Portal De Tecnologia y Ciencias

viernes, 3 de abril de 2009

Crean una batería de ión de litio con virus genéticamente modificados


Su fabricación es barata y ecológica, y se espera que esté pronto en el mercado

Científicos del MIT acaban de hacer público el desarrollo de un prototipo de batería de ión de litio cuyo cátodo y ánodo han sido fabricados con virus genéticamente modificados. La ingeniería genética aplicada a virus bateriófagos comunes, es decir, virus que infectan a las bacterias pero que son inofensivos para los humanos ha dado lugar así a una batería que podría alcanzar una capacidad y un rendimiento energéticos similares a los de las actuales baterías recargables de los vehículos eléctricos híbridos. Las ventajas: fabricación barata y ecológica; y también flexibilidad y capacidad de adaptación a cualquier dispositivo. La desventaja: estas baterías pueden ser cargadas y descargadas sólo 100 veces sin que pierdan capacidad de almacenamiento eléctrico, menos veces que las baterías de ión de litio tradicionales. Pero los investigadores esperan resolver pronto este problema, y el próximo prototipo tendrá ya fines comerciales.


Un equipo de científicos del Instituto Tecnológico de Massachussets (MIT) ha conseguido utilizar virus genéticamente diseñados -mediante ingeniería genética -, para fabricar los extremos positivos y negativos de una batería de ión de litio.

Estas baterías son dispositivos de almacenamiento de energía eléctrica, recargables, y se usan desde los años 90 del siglo pasado en teléfonos móviles, agendas electrónicas, ordenadores portátiles o lectores de música.

Según explica el MIT en un comunicado, la nueva batería “vírica” podría alcanzar una capacidad y un rendimiento energéticos similares a los de las actuales baterías recargables de los vehículos eléctricos híbridos (coches cuya energía eléctrica proviene de baterías y, alternativamente, de un motor de combustión interna que mueve un generador).

Angela Belcher, directora del proyecto de desarrollo del dispositivo, afirma, además, que esta batería “podría usarse en toda una gama de dispositivos electrónicos personales”.

Una solución ecológica

El nuevo dispositivo precisa de un proceso de fabricación barato y ecológico, afirman sus creadores: la síntesis se produce a temperatura ambiente o inferior, y no requiere de disolventes orgánicos nocivos. Los materiales del interior de la batería, por otro lado, no son tóxicos.

¿Pero cómo se fabrica? Según explican los científicos en un artículo aparecido al respecto en Science, para el desarrollo de esta batería se aplicó la estrategia de adherir materiales electroquímicamente activos (a los virus), para que éstos formaran redes alrededor de nanotubos de carbono (estructuras tubulares cuyo diámetro es del orden del nanómetro), gracias al reconocimiento biológico molecular.

En otras palabras, en una batería de ión de litio tradicional, los iones de litio fluyen entre el ánodo negativamente cargado –normalmente de grafito- y el cátodo de carga positiva –normalmente de óxido de cobalto de de fosfato de hierro-, y en la nueva batería ánodo y cátodo estarían compuestos por virus genéticamente modificados.

Fabricación costosa

Lograr su fabricación de ambos polos de la batería ha llevado bastante tiempo. Hace tres años, Belcher y sus colaboradores consiguieron diseñar genéticamente unos virus que podían “construir” un ánodo recubriéndose a sí mismos de óxido de cobalto y oro y, después, auto-ensamblándose los unos con los otros para formar un nanowire o nanohilo (un “alambre” con el diámetro de un nanómetro).

Más recientemente, el equipo de investigadores se centró en crear el cátodo que completaría al ánodo anterior. Según los científicos, los cátodos son más difíciles de fabricar que los ánodos porque deben ser mejores conductores y más rápidos, pero la mayoría de los materiales que se pueden utilizar para hacerlos son altamente aislantes o no-conductores.

Para salvar este obstáculo, los investigadores crearon, en primer lugar, virus genéticamente modificados que se recubren a sí mismos con fosfato de hierro, y que después se acoplan a nanotubos de carbono, creando así una red de un material que es muy buen conductor. A través de esta red viajan los electrones, transfiriendo energía en un brevísimo periodo de tiempo.

Los virus utilizados en este caso fueron bacteriófagos comunes, es decir, virus que infectan a las bacterias pero que son inofensivos para los humanos.

Futura comercialización

En las pruebas de laboratorio realizadas con estas novedosas soluciones, se demostró que las baterías “víricas” pueden ser cargadas y descargadas al menos 100 veces sin que pierdan capacidad de almacenamiento eléctrico, pero los científicos esperan conseguir aumentar mucho más esta cantidad de veces de recarga, aún inferior a la de las baterías de ión de litio tradicionales.

El prototipo actual está empaquetado de la misma forma que una batería típica, pero la tecnología permite fabricar baterías de ensamblaje muy ligero, flexible y adaptable, que pueden tomar la forma de cualquier contenedor.

Ahora que los investigadores ya han demostrado que pueden fabricar baterías de virus a nanoescala, intentarán formar mejores baterías usando materiales con mayor voltaje y capacidad, como el fosfato de manganeso o el fosfato de níquel. Cuando la próxima generación esté lista, la tecnología pasará a la producción comercial, afirmó Belcher.

Mozilla presenta "SUMO 1.0"



http://blog.mozilla.com/blog/2009/04/02/mozilla-support-announces-version-10/%20%20%EF%BF%BC

Mozilla acaba de actualizar su proyecto SUMO a la versión 1.0. SUMO es el proyecto que se encuentra detrás de la web de ayuda de Firefox, support.mozilla.com

Es un proyecto comunitario muy importante, que ha permitido que la experiencia de uso con Firefox mejore cada día, ayudando a miles de personas en todo el mundo. Actualmente support.mozilla.com responde aproximadamente a unas 2.000 preguntas de usuarios a la semana a través del foro y del Live Chat.

Todas las respuestas y ayudas mediante el foro y el "live chat" son realizadas por los miembros de la comunidad de Firefox, sin ningún tipo de interés económico, tan sólo con objeto de ayudar al movimiento Firefox.

La nueva versión 1.0 de SUMO permite que los voluntarios de Mozilla puedan participar del proyecto de forma más sencilla. Entre las mejoras se incluyen la traducción a muchos idiomas, lo que permitirá que se unan más voluntarios de otros países.

Para más información y detalles de la nueva versión visita el blog de Mozilla

Nuevos Softwares

iWay Enterprise Information Management


iWay Enterprise Information Management


iWay Software, división de Information Builders e innovadora en soluciones de gestión de la información empresarial (EIM), ha anunciado la disponibilidad en el mercado español de la suite iWay Enterprise Information Management (EIM). Esta nueva oferta está compuesta por dos productos: Data Quality Center (DQC) y Master Data Center (MDC). Diseñada para ofrecer completa visibilidad del negocio de forma rápida y precisa, la suite reduce el coste total de gestión de la información al dar respuesta a las necesidades de información de las empresas en una única plataforma con servicios reutilizables.

La gestión de la información ha evolucionado a lo largo de los años desde estrictos procesos batch de extracción, transformación y carga de los datos (ETL) hacia soluciones completas que se basan en incorporar una amplia gama de parámetros de integración y generación de informes. Para resolver esta necesidad, los productos y enfoques tradicionales utilizan conceptos y tecnologías convencionales como integración de datos, ETL, calidad de los datos, meta datos, integración de aplicaciones, EAI, B2B y SOA. A pesar de los esfuerzos internos y la disponibilidad de productos CDI/MDM listos para usar, estos proyectos de integración suelen resultar complejos y muy costosos tanto desde el punto de vista económico como de tiempo.

Con estos retos en mente, la suite EIM contiene todos los componentes necesarios para resolver las necesidades de hoy en día. Construida sobre la fortaleza de iWay Service Manager, la suite utiliza las opciones de conectividad líderes en la industria de la Suite Universal de Adaptadores para ofrecer:

Datos de contenidos federados integrados, data warehouse, ficheros, colas, documentos, correo electrónico, y ERP/CRM
Soporte para eventos de latencia corta y mediana, transacciones e integración orientada a batch
ETL integrado, captura de eventos y captura de datos de cambio
Firewall de calidad de datos integrado y gestión de datos master
Capacidad para enriquecer y alimentar los eventos de negocio y extractos de datos para los motores de búsqueda empresarial
Dashboards en tiempo real, scoring y análisis


Los dos nuevos productos en la suite, iWay DQC e iWay MDC se ofrecen en una única plataforma para la integración tanto en tiempo real como en batch. iWay DQC ha sido diseñado no sólo para evaluar, monitorizar y gestionar la calidad de los datos en los distintos sistemas de información de la empresa, sino también para prevenir que se introduzcan datos erróneos en estos sistemas. iWay MDC permite a las empresas consolidar millones de registros en virtud de reglas de negocio fácilmente definidas, haciendo que los datos originales validados y unificados estén disponibles de manera inmediata para una amplia gama de aplicaciones empresariales, como ERP, CRM, portales de auto-servicio, herramientas analíticas, data warehouses y otros sistemas internos.


Twingr
http://twingr.com/

Twingr permite a cualquier persona crear una comunidad de amigos que puedan comunicarse usando la sobradamente conocida filosofía de Twitter.

WWWHATSNEW
Una vez creada la comunidad podéis invitar a un grupo cerrado de amigos para que puedan usarla escribiendo lo que están haciendo en cualquier momento, como en cualquier otro microblog.

La ventaja es que el acceso a cada comunidad es privado, pudiendo también enviar mensajes a un miembro específico del grupo.

Una alternativa interesante para los que encuentran Twitter demasiado "abierto" para contar determinadas cosas.

Éxitos y fracasos de Conficker


Si algo ha conseguido Conficker, es generar expectación mediática (incluso que le dediquemos varias una-al-día). Alentado por las casas antivirus, que no pasan por su mejor momento en nivel de detección global, Conficker ha servido para recordar al mundo que existen todavía amenazas globales en forma de malware con nombre y apellido. Conficker, cabeza de turco frente a otros tipos de malware anónimos y mucho más peligrosos, ha gozado de algunos éxitos rotundos, tanto mediáticos como técnicos que vamos a repasar.

HISPASEC.COM

Exitos mediáticos

Poco queda del Conficker original que apareció en noviembre. Se ha convertido, como todo malware 2.0 que se precie, en una sofisticada red de sistemas y servidores, como ocurrió con el Storm Worm. Alguien a quien señalar con el dedo y que recuerde al público (consumidor de software) que las casas antivirus siguen ahí. El miedo incita a protegerse.

Conficker se ha centrado, durante mucho tiempo, más en la expansión que en el ataque. Se ha dedicado a recopilar máquinas infectadas sin un fin concreto (al menos que conozcamos por ahora). Este pequeño misterio ha atraído la atención de las casas antivirus, y por tanto de los medios.

El éxito incluso le ha llegado de formas muy retorcidas. La proliferación de programas legítimos y específicos para desinfectar el sistema ha plagado las primeras búsquedas de Google de software falso. Es fácil encontrar con cualquier buscador, malware que dice ser un limpiador de Conficker.

Establecer una fecha de apocalipsis vende mucho. Como hicieran el virus Viernes 13, Michelangelo... recuerda viejos tiempos, siempre mejores para las casas antivirus. Se dijo que el 1 de abril Conficker se activaría y colapsaría muchas webs. Nada ha ocurrido, como era de esperar. Es imposible que algo que genera tanta expectación cause un gran impacto. La gente tiende a prepararse para mitigar el ataque. Cuando algo viene por sorpresa, cuando no hay fecha establecida, es cuando el impacto se puede considerar verdaderamente serio.

Éxitos técnicos

El mayor éxito de expansión de Conficker ha sido a través de las memorias USB. Pero no solo el hecho de adoptar esa estrategia, sino cómo lo ha hecho. Por primera vez, creó un archivo autorun.ini funcional pero disimulado con basura, que conseguía pasar desapercibido. Logró saltarse los métodos básicos de bloqueo de autoejecución de Windows.

Siguiendo con el autorun, pudo disimular su ejecución mostrándose como la exploración de carpetas. Es un engaño muy conseguido. El uso de contraseñas por defecto también proporcionó numerosas alegrías a los atacantes.

Uno de los éxitos técnicos más curiosos ha sido el uso de miles de dominios. El malware actual suele contener un algoritmo interno para generar dominios aleatorios (que probablemente no existen), desde donde descargarán nuevas funcionalidades. Los atacantes compran los dominios y cuelgan en ellos la actualizaciones para que el malware salga a buscarlas cuando los genere internamente. Cuando un laboratorio consigue descifrar ese algoritmo de generación, suele adelantarse a los atacantes y registrar ellos mismos esos dominios. Así podemos saber, según las visitas que reciba el dominio, el número de infectados. Normalmente el malware genera un número manejable de dominios cada día, y los atacantes registran solo algunos. Aunque se descifró el algoritmo de generación de dominios de Conficker, este pasó a generar 50.000 dominios aleatorios (de 4 a 9 letras) al día. Tanto dominio, por supuesto haría que muchos de los generados coincidiesen con dominios ya registrados y legítimos que todos los sistemas infectados visitarían. Los medios advirtieron que Internet se colapsaría por esta razón el 1 de abril.


Fracasos técnicos


Pocos. Prácticamente su único problema ha sido la detección. Toda versión conocida de Conficker es detectada normalmente por más del 90% de los motores que alojamos en VirusTotal. Las casas se han volcado con él y lo detectan casi unánimemente. Es por eso que Conficker, aunque interesante, pasa automáticamente a ser una amenaza de mucho menos calibre. ¿Qué hubiera pasado si a pesar de toda esa cobertura mediática, los niveles de detección fuesen bajos? No es posible esta combinación. Cuanto más se hable de un malware, más detectado es. La pregunta es qué hubiera ocurrido sin esta cobertura mediática. La respuesta es que los niveles de detección hubieran sido mucho menores, y la infección mucho más discreta y mayor. En otras palabras, lo mismo que está ocurriendo ya con el resto del malware industrial, mucho más abundante, que se crea hoy en día. Los verdaderamente peligrosos que no aparecen en titulares.

Rumor: Google quiere comprar Twitter


El buscador de Internet Google negocia la adquisición de la red social Twitter por un montante que podría rondar los 186 millones de euros, según ha informado el 'blog' especializado 'TechCrunch'.

EUROPA PRESS
Twitter, que se ha convertido en una de las redes sociales de mayor crecimiento en los últimos meses, rechazó recientemente una oferta por parte de Facebook, que ofrecía unos 372 millones de euros, lo que restaría atractivo a la propuesta, ya que la proposición de Google podría concretarse en efectivo o acciones cotizadas, lo que implica un grado de liquidez muy superior a la oferta de Facebook.

De cerrase el acuerdo, se trataría de la segunda ocasión en la que los fundadores de Twitter, Evan Williams y Biz Stone, venden una de sus empresas a Google, puesto que hace cinco años vendieron Blogger al gigante de las búsquedas en Internet.

No obstante, el 'blog' advierte de que, mientras dos de sus fuentes han indicado que las negociaciones se encontraban en una fase avanzada, una tercera fuente ha precisado que las negociaciones están en un momento preliminar y que ambas empresas estudian colaborar en el desarrollo de un motor de búsquedas en tiempo real para Google.

http://twitter.com/

Una encuesta revela que los estadounidenses creen que Internet y otras fuentes reemplazarán a la prensa


Internet vuelve a ganar terreno a la prensa escrita y según una encuesta publicada hoy, el 61 por ciento de los estadounidenses confía en que si siguen desapareciendo diarios encontrará la información que les interesa en la red.

La mayoría de los consultados por Rasmussen coincidió en asegurar que en el caso de que sigan desapareciendo diarios escritos Internet llenará ese vacío.

La prensa estadounidense está viviendo una fuerte crisis que ha acabado con algunos periódicos centenarios y ha obligado a otros tan prestigiosos como The Washington Post y The New York Times a hacer recortes de plantilla y salarios.

Pero todavía hay quien prefiere el papel a la pantalla y el 35 por ciento dijo que ninguna otra fuente de información completará el hueco dejado por la prensa escrita.

El 30 por ciento dijo estar "muy seguro" de que otros medios que no sean periódicos les proveerán las noticias que les interesa y tan solo un 8 por ciento dijo lo contrario.

"Es frustrante que los periodistas sean ahora vistos como poco más que una referencia de Wikipedia, una fuente de información potencialmente interesante que requiere verificación", señaló Rasmussen, fundador y editor de los Informes Rasmussen.

En cuanto a los planes para conservar la industria periodística, el 37 por ciento de los consultados dijo estar a favor de las subvenciones para mantener los periódicos, aunque ganaron (el 43 por ciento) los que opinaron que es mejor que dejen de existir.

Por otra parte, el 65 por ciento se opone a un rescate de la industria periodística, como los propuestos por el Gobierno para el sector financiero y la industria del automóvil.

Las personas con unos ingresos anuales superiores a los 60.000 dólares se mostraron más seguros de que otras fuentes de noticias ocuparán el lugar de los periódicos que los que ganan menos.

Por edades, los adultos de entre 30 y 49 años son los que más confían en las nuevas fuentes frente a los jóvenes y mayores.

Los diarios también han desarrollado sus propias web para atraer a los más jóvenes y el 30 por ciento dice que lee una versión impresa de su periódico local todos o casi todos los días. Un porcentaje que se reduce a la mitad entre los mayores de 40 años.

Aunque el informe señala que tal vez lo más preocupante es que un tercio de los estadounidenses menores de 40 años creen que los programas satíricos como "The Colbert Show" o "The Daily Show with Jon Stewart" serán los que ocupen el lugar de los diarios.

La encuesta sobre nuevas fuentes en Internet se realizó telefónicamente entre el 29 y el 30 de marzo a una muestra de población de 1.000 adultos y tiene un margen de error de tres puntos.

Desarrollan un nuevo método para fabricar medios de grabación magnética de alta densidad



Investigadores de la Universitat Autònoma de Barcelona, del Institute of Ion Beam Physics and Materials Research (Forschungszentrum Dresden - Rossendorf, Alemania) y del Centro de Investigación en Nanociencia y Nanotecnología CIN2(ICN-CSIC), en el Parc de Recerca UAB, entre otros, han desarrollado un nuevo procedimiento para fabricar, de manera controlada, rápida y barata, medios magnéticos totalmente planos, conformados por nanoimanes, estructuras de tamaño inferior a los 100 nm.

SINC
Este método de formación de redes ordenadas de estructuras ferromagnéticas de tamaño nanométrico se basa en la generación local de magnetismo (es decir, de estructuras magnéticas dentro de una matriz no magnética) a partir de procesos de irradiación con iones, que puede ser focalizada o a través de máscaras que permiten la interacción selectiva con el material a litografiar.

Investigadores catalanes han desarrollado ahora un nuevo procedimiento para fabricar, de manera controlada, rápida y barata, medios magnéticos totalmente planos, conformados por nanoimanes, estructuras de tamaño inferior a los 100 nm.

Estas entidades podrían actuar como unidades básicas de información en los discos duros de ordenadores, bits magnéticos. La optimización de esta ruta podría, en un futuro no muy lejano, batir récords de densidad de memoria. La investigación ha sido publicada en la prestigiosa revista Small.

En los discos duros de los ordenadores, la información se encuentra almacenada en forma de cambios en la orientación de pequeños gránulos magnéticos de tamaño inferior a los 100 nanómetros de ancho distribuidos uniformemente por la superficie de un substrato no magnético. A medida que las dimensiones de estos gránulos se reducen y aumenta su estabilidad, se pueden conseguir mayores capacidades de disco. Cada unidad de información, cada bit, requiere actualmente orientar entre 100 y 600 gránulos en la misma dirección, para garantizar su estabilidad y evitar que se pierda información. Esto limita la capacidad de los discos duros, ya que implica que, cuando el tamaño del bit se reduce significativamente (para aumentar la densidad de información), los gránulos que se forman son tan pequeños que dejan de ser magnéticos y, entonces, la memoria deja de funcionar.

Un equipo de investigadores del Departamento de Física de la Universitat Autònoma de Barcelona, del Forschungszentrum Dresden-Rossendorf (Alemania) y del del CIN2 (ICN-CSIC), entre otros, ha desarrollado un proceso alternativo a las técnicas convencionales de fabricación de materiales para el almacenamiento de información magnética, que permite reducir a menos de 100 nanómetros el diámetro de una estructura magnética. El método permite grabar, de manera directa y en la superficie de un material no magnético, pequeñas áreas ferromagnéticas, nanoimanes, sin a penas alterar la topografía del material litografiado. Esta técnica utiliza la irradiación con iones, que puede ser o bien focalizada o bien a través de máscaras que permiten la interacción selectiva con el material, para generar redes de entidades magnéticas -zonas donde los iones interaccionan con el material- embebidas en una matriz no magnética -zonas del material que no han interaccionado con los iones -. Cabe destacar que el hecho de que los bits magnéticos no presenten relieve físico respecto al resto del material y de que éste sea no magnético constituyen dos requerimientos básicos que han de satisfacer los nuevos tipos de materiales para el almacenamiento magnético. La casi nula modificación superficial de las zonas irradiadas permite que los cabezales de lectura vuelen muy cerca de la superfície, sin problemas de tribología, y el comportamiento no magnético del esqueleto del material da una buena estabilidad a los bits magnéticos. Futuros estudios en esta línea de investigación podrían dar lugar a densidades de almacenamiento magnético de información superiores a los actuales y a la posibilidad de litografiar magnéticamente otros materiales.

La investigación ha sido publicada en la revista de investigación sobre nanotecnología Small, y han participado los investigadores Enric Menéndez, Maria Dolors Baró y Santiago Suriñach, del Departamento de Física de la UAB; Maciej Oskar Liedke y Jürgen Fassbender, del Forschungszentrum Dresden - Rossendorf (Alemanya), Thomas Gemming, del IFW Dresden (Alemanya), Anja Weber y Laura J. Heyderman, del Paul Scherrer Institut a Villigen (Suïssa), K. V. Rao, del Royal Institute of Technology (Suècia), Seetharama C. Deevi, del centro de investigación de Philip Morris en Richmond (EUA), Jordi Sort, investigador ICREA (Institució Catalana de Recerca i Estudis Avançats) en el Departameno de Física de la UAB, y Josep Nogués, Josep Nogués, investigador ICREA y líder del grupo Magnetic Nanostructures del CIN2 (ICN-CSIC), centro mixto formado por el Institut Català de Nanotecnologia, al que pertenece el citado investigador, y el CSIC.

Venganza en tiempos de crisis: denunciar a tu ex-empresa por piratería


La crisis económica desató en España una nueva forma de venganza por parte de empleados despedidos, que denuncian a las empresas por la utilización de programas informáticos sin licencia.

AFP
Según la asociación Business Software Alliance (BSA), las denuncias a empresas por piratería informática en España aumentaron un 27% entre enero y febrero, respecto a los mismos meses del 2008.

Este elevado aumento probablemente se deba a que "con el aumento de los despidos, los desempleados denuncien a sus ex empresas en busca de la recompensa que ello le puede suponer", sostuvo Julián Swan, director de 'marketing' de BSA para Europa, Oriente Medio y África, citado en un comunicado.

También "podría deberse a factores como la situación de riesgo en la que se encuentran las empresas durante este momento de recesión económica", señaló.

BSA, asociación con sede en Estados Unidos que lucha contra la piratería informática, denunció que numerosas empresas instalan programas piratas en ordenadores de sus empleados, para economizar.

La utilización de programas piratas es considerada un delito en España, por el cual se puede ir a prisión hasta cinco años y recibir multas que pueden superar los 200.000 euros.

España, sumergida en la crisis económica, entró en recesión a finales del 2008 y el paro subió como la espuma en los últimos meses, hasta llegar al 15,5% de la población activa en febrero, el porcentaje más elevado de la zona euro, según la oficina de estadísticas europeas Eurostat.

Francia aprueba la suspensión de los abonos a Internet a los que "pillen" descargando de redes p2p


Los diputados franceses aprobaron la enmienda del proyecto de ley que prevé la suspensión de los abonos a Internet para los internautas que 'pirateen' archivos después de haber sido advertidos en dos ocasiones. Concretamente, votaron a mano alzada la permanencia del artículo 2 del proyecto de ley, un artículo clave, presentado por Christine Albanel, la ministra de Cultura.

El proyecto de ley de "protección de derechos en internet" incluye esta medida, tras haber recibido los votos a favor de los diputados de la derecha, la abstención de los de centro y la oposición de los de izquierda, y en contra de la opinón del Parlamento Europeo, que recientemente se mostró contrario a esta medida.

La ley prevé la creación de la Alta Autoridad de Protección de Derechos sobre Internet, que se denominará Hadopi, y que será la encargada de dar los avisos a los internautas que pirateen archivos y la que dictamine la interrupción de las conexiones para los reincidentes.

El dispositivo prevé un primer aviso a través del envío de un correo al defraudador y un segundo aviso acompañado de una carta certificada en caso de reincidir en los seis meses siguientes.

En el caso de reincidir el mismo año, el internauta podrá ver su contrato anulado. además de verse limitado a no poder contratar otro servicio entre diez meses y un año.

Los diputados señalaron, además, que los internautas a los que se les interrumpa la conexión no deberán pagar la misma, en contra de la opinión de las empresas del sector, que creen que se pueden ver perjudicadas por la medida.

La suspensión de la conexión a Internet como castigo fue la idea adoptada por los diputados, que la víspera descartaron la de imponer multas por el intercambio no autorizado de obras audiovisuales protegidas con 'copyright'.

Los diputados de la izquierda se declaraban favorables a imponer a los internautas que 'piratearan' una "contribución creativa" destinada a financiar la creación en la Red, aunque la enmienda no prosperó. Hasta la fecha, una persona acusada de 'piratería' se podía enfrentar a una multa de hasta 300.000 euros y cinco años de prisión.

El texto de esta polémica fue aprobado casi por unanimidad en el Senado el 30 de octubre. Una vez la hayan votado los diputados, una comisión mixta paritaria de Asamblea y Senado será convocada para concluir el texto que se someterá a votación definitiva en las dos asambleas la semana que viene.

Según recuerda la agencia AFP, la suspensión a Internet como sanción se es una medida que se ha aprobado en EEUU, Irlanda e Italia, aunque otros países europeos como Alemania y Reino Unido han renunciado a ella.

jueves, 2 de abril de 2009

Apple se conecta a Skype


La conexión se realizará a través de Wi-Fi, lo que plantea ciertas dudas

IPhone y iPod ahora ofrecen la posibilidad de mantener conversaciones telefónicas, vía Skype. Con anterioridad, Nokia ya ofrecía esta posibilidad y en breve también lo hará Blackberry. Gracias a ello, las posibilidades de comunicación para los usuarios de móviles Apple aumenta y las llamadas entre usuarios de Skype son gratis. No obstante, también existen ciertos problemas. Mantener conversaciones en la red consume batería, lo que disminuiría su durabilidad. Además, en Europa, no tenemos un fácil acceso a redes Wi-Fi.



La comunicación es uno de los factores fundamentales para cualquier persona dentro de una sociedad. A su vez, este proceso comunicativo ha resultado ser uno de los negocios más relevantes de los últimos tiempos. Por ello, las empresas TIC han ido creciendo constantemente y siguen siendo una gran oportunidad a nivel empresarial.

No obstante, el sector de las TIC es también uno de los más dinámicos, produciéndose constantemente absorciones, subidas y bajadas en bolsa, etc. Ello es debido a la enorme competencia que tiene lugar en un mercado tan lucrativo. Por esta razón, las diversas corporaciones tienen que responder, constantemente, a los dos factores fundamentales: las necesidades de comunicación social y a la encarnizada competencia.

Estas razones, han hecho que en el afamado iPhone, así como en su hermano menor iPod, de Apple sea ahora posible establecer comunicación telefónica, a través de Internet, gracias a Skype.

Skype

Skype, es un producto perteneciente –actualmente– a la empresa de subastas por Internet Ebay, que ha visto la luz en el año 2003 y que ofrece un servicio telefónico a través de Internet. Este servicio, se ha ido incorporando paulatinamente a distintos dispositivos de telefonía móvil, tales como el iPhone y iPod de Apple. Pues bien, este hecho es importante, dado el gran impacto que han supuesto estos teléfonos en el mercado de telefonía móvil.

Esta opción no es única de los dispositivos Apple, tanto Nokia como aquellos que tengan instalado Windows Mobile o Android pueden hacer uso de ella. Además, también existen otras aplicaciones tales como Truphone, Fring o Nimbuzz.

Tal y como se informa en el blog corporativo de Skype, el lanzamiento de la aplicación de Skype para los móviles Apple (iPhone y iPod Touch) se hizo oficial en la feria de telefonía CTIA Wireless de Las Vegas el último día de marzo. En mayo, los usuarios de Blackberry también tendrán esta misma opción. Esto hace que en poco tiempo, más de la mitad de los usuarios españoles puedan tener acceso a esta posibilidad.

Conexión Wi-Fi

Skype, sólo será funcional si estamos conectados a una red Wi-Fi. Esta posibilidad ofrece ciertas ventajas indiscutibles. Las fundamentales, como escribe Renay San Miguel, es que hace que Skype pueda funcionar sin importar si en una zona determinada hay cobertura o no y que sea más rápida que la conexión 3G. Además, y esta es una gran ventaja, si uno tiene una cuenta Skype sería posible hacer una llamada a otro usuario de Skype sin cargo.

No obstante, este mismo hecho puede parecerles un problema a otros usuarios. La razón de ellos es la de carecer de esta red en sus domicilios. De hecho, en Europa el acceso a Wi-Fi no es gratis. Además, parece que existe un segundo problema ocasionado por el uso habitual de Skype.

Cuando una persona se conecta a través de Skype, suele tenerlo activado durante largos periodos de tiempo a la espera de llamadas entrantes. Esto haría que el consumo de batería de nuestro móvil se disparase. Teniendo esto en cuenta, y tal como informa Kate Greene en Technology Review el software de Skype para iPhone puede que permita recibir llamadas incluso cuando la aplicación no está activada. Además, dice, el uso prolongado de redes Wi-Fi incrementa sustancialmente el gasto de batería.

Sprint anuncia la implantación de redes Wimax en 15 capitales estadounidenses


El protocolo Wimax continúa dando pasos hacia delante en su ambición por convertirse en la tecnología inalámbrica por la que los usuarios puedan conectarse a Internet desde cualquier lugar. Siguiendo los pasos de su gran valedora Intel, Sprint instalará redes de la llamada tecnología 4G en 15 de las principales capitales estadounidenses.

EUROPA PRESS
Atlanta, Charlotte, Chicago, Dallas, Ft. Worth, Honolulu, Las Vegas, Philadelphia, Portland y Seattle recibirán la cobertura del 4G de Sprint este mismo año, mientras que Boston, Houston, New York, San Francisco and Washington, D.C. podrán concetarse mediante a esta tecnología en 2010 gracias a Sprint.

Además, según Engadget, la compañía lanzará entre este año y el próximo una gran gama de dispositivos que permitirán la conexión a la amplísima red Wimax, que ofrece una gran cobertura de Internet. Entre ellos habrá portátiles, módems y teléfonos móviles compatibles, que verán la luz entre finales de 2009 y 2010.

El protocolo de transferencia de datos de forma inalámbrica Wimax está llamado a ser el nuevo estándar de conexión inalámbrica a Internet para dispositivos móviles. Similar al Wifi pero con un alcance de aproximadamente 50 kilómetros, también se espera que se imponga a la conectividad 3G de teléfonos móviles.

Nuevos Software


AP On Demand

Esker, el principal proveedor de soluciones para la gestión de procesos documentales, ha anunciado el lanzamiento de su nueva solución SaaS (Software as a Service) para la gestión de las facturas de proveedores. Presentada como una alternativa al enfoque tradicional de software, esta solución elimina la necesidad de las empresas de financiar, instalar y mantener el software y hardware. Con la solución de Automatización de Cuentas a Pagar de Esker bajo Demanda (AP On Demand), sólo se necesita un escáner y una conexión de Internet para automatizar los procesos de facturas de proveedores de forma completa.

Un estudio de mercado llevado a cabo por Esker pone de manifiesto que cerca del 80% de las facturas de proveedores se reciben en formato papel, lo que indica que una gran cantidad de compañías todavía lidia con los procesos manuales de las facturas de proveedores. Mientras que la mayoría de las empresas reconoce que estos procesos ineficientes elevan los costes, limitan la productividad (por la entrada manual, las firmas de aprobación, el archivado y otras tareas) y aumentan el riesgo de errores que pueden tener como consecuencia el retraso de pagos, muchas de ellas perciben sin embargo, los costes y complejidades de las soluciones de software tradicionales como barreras para la automatización y por esto consideran la adopción de dichas soluciones a modo de servicio.

Desarrollada para que los beneficios de la automatización sean más accesibles y para aligerar la carga de los departamentos de finanzas, contabilidad y compras que gestionan facturas, este nuevo servicio ofrece un enfoque innovador para automatizar los procesos de facturas de proveedores, desde su captura hasta su pago. El servicio está basado en un modelo de pago por documento y ofrece una completa aplicación empresarial para el usuario sin los inconvenientes del software tradicional, ofreciendo una implementación simple y rápida, un bajo coste de adquisición y un retorno de la inversión inmediato.

AP On Demand (Automatización de Cuentas a Pagar) de Esker incluye las siguientes características:

Captura de datos: las facturas son escaneadas y enviadas al servicio Esker on Demand donde se extraen todos los datos. Después, las facturas son validadas a través de una página web segura de Internet.
Verificación de datos y aprobación de pagos: los responsables de Cuentas a Pagar u otros usuarios pueden verificar los datos capturados y agregar los códigos de información necesarios. La factura es entonces enviada al comprador para su aprobación de acuerdo a las reglas de enrutamiento predefinidas relacionadas al proveedor, a la cantidad y al centro de costes involucrado.
Archivado: la imagen de la factura automáticamente es archivada e indexada para referencias futuras.
Integración: Los datos e información de pago de la factura están disponibles en el sistema ERP como un archivo XML, texto, o csv.
Auditoría y reporting: la solución asegura el seguimiento de cada factura junto con todas las acciones referentes a los procesos de validación y aprobación.

"Esta solución es el resultado de nuestra experiencia en automatización de procesos con Esker DeliveryWare y con Esker On Demand, soluciones utilizadas hoy en día por más de 3.000 compañías en todo el mundo. Con esta nueva oferta de SaaS estamos ayudando a las compañías a eliminar el papel de sus procesos de negocio, a reducir el tiempo y costes de gestión de facturas de proveedores y a mejorar los ciclos de pago", comenta Jesús Midón, director general de Esker Ibérica.

Automatización de procesos documentales bajo demanda y alineación con la estrategia de Esker.

Esta nueva solución de Automatización de Cuentas a Pagar amplía la oferta de SaaS bajo Demanda de Esker permitiendo a las compañías automatizar la gestión de procesos documentales utilizando Esker DeliveryWare en modo Servicio.



DVD PhotoSave

Verbatim lanza un DVD que permite a los usuarios archivar fácilmente sus fotos en muy pocos pasos. El nuevo PhotoSave DVD lleva un software integrado que se inicia automáticamente cuando el DVD se inserta en el grabador de DVD y guía al usuario, paso a paso, a través del proceso de seleccionar las imágenes hasta grabarlas en el disco.

Buscar fotos específicas en un ordenador doméstico o grabarlas en un DVD no es un juego de niños para todo el mundo. Es por este motivo, que Verbatim ha desarrollado un DVD-R con un software pre-instalado que guía al usuario durante todo el proceso. El software se inicia automáticamente y la búsqueda de fotos en el PC también es automática, esto significa que el usuario, para guardar sus recuerdos en el DVD, sólo tiene que hacer clic en menú "Grabar". Además, el idioma del software se selecciona automáticamente, lo que facilita su comprensión desde el primer momento.

En modo manual, el PhotoSave DVD también es compatible con la funcionalidad "buscar y grabar", que permite archivar imágenes directamente desde una cámara digital conectada al PC. El disco tiene una capacidad de 4,5GB y puede almacenar hasta 2.000 fotografías en 80 formatos diferentes. El PhotoSave DVD también permite diferentes sesiones de grabación ya que la memoria disponible se muestra constantemente en la pantalla de su ordenador. Esto permite añadir fácilmente fotos en distintos momentos. Los volúmenes de imágenes superiores a 4,5GB son distribuidos automáticamente en distintos PhotoSave DVDs: sólo hay que sacar el disco del grabador cuando un mensaje en la pantalla indica que está lleno y volver a introducir otro PhotoSave DVD en su lugar. Así sucesivamente, hasta haber completado el total de fotos que se quieren grabar.

"Con el nuevo PhotoSave DVD, archivar a largo plazo fotos será más fácil que nunca, incluso para los usuarios que no han grabado jamás un CD o DVD. Este disco combina la facilidad de uso con la fiabilidad y compatibilidad de los productos Verbatim", comenta Torsten Leye, Marketing Manager Optical Verbatim EUMEA.

Firefox 3 supera al Explorer 7 en Europa


Microsoft perdió la semana pasada el liderazgo del mercado europeo de navegadores por primera vez en años, después de que Firefox 3, de la Fundación Mozilla, arrebatara el liderazgo a Internet Explorer 7, según dijo esta semana la firma de análisis web StatCounter.

REUTERS
Firefox 3 tuvo un 35,05 por ciento del mercado la semana pasada, seguida por Internet Explorer 7, con un 34,54 por ciento.

"El cambio se explica parcialmente por un pequeño traspaso de usuarios de Internet Explorer 7 a Internet Explorer 8, pero también por la creciente cuota de mercado de Firefox 3", dijo en un comunicado Aodhan Cullen, consejera delegada de StatCounter.

"Los datos muestran que Firefox está reduciendo la diferencia y está ahora solo 10 puntos por debajo de todas las versiones de Internet Explorer en Europa", dijo Cullen.

En febrero, Internet Explorer 7 tenía una cuota de mercado global del 41 por ciento, seguida por Firefox 3 con un 24 por ciento, según StatCounter.

El virus "Conficker" se mantiene oculto


Un virus informático instalado en millones de ordenadores no causará aún descalabros en los sistemas tecnológicos del mundo tal y como algunos temían, pero investigadores advirtieron de que el "gusano Conficker" podría golpear en un futuro.

REUTERS
También conocido como Downadup o Kido, Conficker convierte a los ordenadores infectados en esclavos que responden a los comandos enviados desde un servidor remoto que controla en la práctica un ejercito de maquinas esclavas.

Investigadores temían que la red creada por Conficker pudiese ponerse en marcha el miércoles por primera vez desde que el gusano surgiera el año pasado, porque su código sugería que trataría de comunicarse con su servidor principal el 1 de abril.

Formaron un grupo de trabajo del sector para enfrentarse al gusano, obteniendo una gran atención que según los expertos probablemente disuadió a los delincuentes que lideraban el ejército de ordenadores infectados, conocido como 'botnet'.

"Las máquinas infectadas por Conficker trataron de llamar a casa para obtener nuevas instrucciones pero esas llamadas no fueron contestadas", dijo Joris Evers, portavoz del fabricante de antivirus McAfee.

Investigadores advirtieron que los responsables de la 'botnet' están probablemente esperando hasta que estén menos vigilados para movilizar la red de ordenadores infectados.

"Nunca pensé que ocurriría el 1 de abril", dijo Roger Thompson, director de investigación en AVG, una compañía de antivirus. "Puede ser mañana. Puede ser la próxima semana. Puede ser el próximo mes".

AVG y otras compañías con laboratorios de seguridad incluyendo a Microsoft, Symantec, McAfee y Trend Micro seguirán de cerca las actividades de la red durante un largo tiempo después del miércoles.

El virus explota vulnerabilidades del sistema operativo Windows de Microsoft. Puede evitar cortafuegos corporativos pasando de una máquina infectada a un lápiz de memoria USB, y de ahí a otro PC.

En febrero, Microsoft anunció que ofrecía una recompensa de 250.000 dólares (145.910 euros) por información que llevase al arresto y condena del responsable de la creación de Conficker, diciendo que el gusano constituía un ataque delictivo.

IBM y otros piden una "nube informática"


La empresa estadounidense IBM encabeza a una docena de empresas de tecnología que han pedido patrones abiertos para promover una "nube" informática, un tipo de tecnología que la industria espera que impulse el crecimiento durante la próxima década.

REUTERS
Sin embargo, Microsoft desestimó los esfuerzos y acusó a International Business Machines de querer ejercer el control, mientras que los pioneros de la nube informática Amazon.com, Google Inc y Salesforce.com estuvieron ausentes de la lista de empresas que apoyan la medida.

La "nube informática" -una de las frases más usadas en Silicon Valley- se refiere a una variedad de formas por las que las empresas de tecnología ofrecen servicios por internet desde centros de datos externos.

El texto encabezado por IBM, llamado Manifiesto de Nube Abierta, busca que los productos que se ofrezcan sean compatibles para aumentar el atractivo del negocio.

Las empresas generalmente son reticentes a adoptar nuevas tecnologías bajo patente porque se sienten atadas a un proveedor y no tienen la opción de cambiar a otro si las cosas no funcionan o si no surgen mejores opciones.

"No es que todo vaya a ser perfectamente compatible, pero va a ser similar por lo que las empresas se van a poder mover desde un proveedor a otro. Eso le da a las empresas la comodidad que necesitan para comprar", dijo Stephen O'Grady, analista de RedMonk.

El sector de la tecnología está bajo una fuerte presión para alentar a las empresas a adoptar las tecnologías de nube informática, que podría ayudarles a ahorrar dinero dando parte de sus operaciones de tecnología de la información a grandes centros de datos en los que pueden alcanzar enormes economías de escala.

Además de los asuntos de compatibilidad, las empresas están preocupadas por la seguridad del almacenamiento de información en los centros informáticos remotos y de la tranferencia de datos a través de Internet.

Gartner Inc estima que el mercado de software para empresas, de servicios de informática y de almacenamiento en nubes informáticas, que incluye a empresas como Salesforce.com Inc, Amazon.com Inc, Microsoft e IBM, hará cerca de 10.000 millones de dólares (unos 7.6 millones de euros) este año.

El total apenas es una fracción de los 223.000 millones de dólares que Gartner prevé para el mercado de software para empresas.

La Ley sueca contra la "piratería cibernética" entra en vigor


La nueva ley contra la llamada 'piratería cibernética', que persigue el intercambio no autorizado de archivos en Internet, entró en vigor en Suecia, después de haber sido aprobada el pasado febrero en el Parlamento sueco

La ley permite al poseedor de los derechos de propiedad intelectual de una obra recurrir a un tribunal para solicitar que se obligue al servidor de Internet a desvelar la identidad oculta tras una dirección IP que ha compartido archivos de forma ilícita.

El artista o la discográfica afectados, por ejemplo, pueden reclamar una indemnización que cubra el "daño real" provocado o presentar una demanda civil, según la ley, que establece que el intercambio de archivos debe de ser de "cierta dimensión". La copia de archivos descargados para uso personal está permitida.

La normativa, que no tiene efecto retroactivo, es una adaptación de la Directiva de Aplicación de los Derechos de Propiedad Intelectual (IPRED, por sus siglas en inglés) de la UE de 2004.

La denominada Agencia Antipirata, organización sueca que agrupa a la industria audiovisual, ya ha anunciado que echará mano de la ley para perseguir a los "piratas" cibernéticos.

The Pirate Bay, grupo a favor del libre intercambio de archivos en la Red, ha lanzado ipredator, una red privada virtual, a la que es necesario suscribirse, en la que no se registra ni almacena la información sobre cada usuario.

Cuatro personas vinculadas a este portal de Internet, uno de los más populares del mundo de este tipo se arriesgan a penas de un año de cárcel, acusados de violación de los derechos de autor, al ofrecer a través de enlaces la posibilidad de descargar películas, series, programas y música de forma gratuita.

La sentencia de este polémico caso se hará pública el próximo día 17 de abril.

Y el Partido Pirata, con demandas similares y que concurrirá a las próximas elecciones europeas en Suecia, instó a los suecos a abrir sus redes inalámbricas para hacer ineficaz la nueva ley.

"Los ciudadanos podemos hacer mucho: si 10.000 o 20.000 abren sus redes inalámbricas, Internet será libre, anónima y abierta para siempre", señaló en un comunicado Rick Falkvinge, líder del partido.

Según cálculos de World Internet Institute 1,4 millones de personas compartieron archivos en la red en Suecia en 2008, lo que equivale a casi una quinta parte de la población.

Una encuesta del Instituto Sifo difundida revela que sólo el 3% de los suecos cree que la ley frenará el intercambio ilegal, mientras que uno de cada dos no piensa respetarla

Nace "Vemus", la primera Escuela Europea Virtual de Música



Un proyecto europeo ha desarrollado una plataforma que permite aprender a tocar instrumentos musicales de una forma tecnológicamente avanzada e interactiva, a través del uso de una nueva generación de inteligentes e interactivos programas informáticos. El proyecto se llama Vemus y permite, mediante una partitura colocada en la plataforma, reconocer las características de la ejecución que está desarrollando el alumno, indicando en la pantalla si las notas, su duración o el tiempo son correctos, entre otros parámetros. También permite el aprendizaje en grupo y a distancia. Por Pablo Javier Piacente.

TENDENCIAS CIENTÍFICAS

Una nueva generación de sistemas inteligentes hará realidad la posibilidad de aprender a ejecutar instrumentos musicales populares a distancia. El avance más significativo se centra en la interactividad de la propuesta, que permite analizar la ejecución del alumno y responder con juicios concretos en cuanto a aciertos y errores en el proceso de aprendizaje.

De esta manera, el papel de la informática y de las herramientas online en la educación continúa creciendo, incluso en aquellos campos que hasta el momento eran impensados, como puede ser la música. Es que aunque en la red proliferan posibilidades para aprender música online, no existen alternativas que solamente a través de un software permitan avanzar en la ejecución de un instrumento, y con respuestas en tiempo real. Esto puede ser de gran importancia para la educación musical en niños, por ejemplo.

La escuela virtual de música que plantea el Proyecto Vemus, en consecuencia, podría marcar un antes y un después en la enseñanza artística. El programa es financiado por la Unión Europea, y desarrollado desde octubre de 2005 por un consorcio con socios de seis países europeos: Grecia, Francia, Suecia, Lituania, Estonia y Rumania.

Las organizaciones que forman parte del proyecto son Tehne (Rumania), Miksike LearningFolders (Estonia), Nakas (Grecia), UAB "Balteck" (Lituania), Ellinogermaniki Agogi (Grecia), Royal Institute of Technology (Suecia), Grame (Francia) y el Instituto de Lengua y Tratamiento del Habla (Grecia).

Objetivos, etapas y alternativas de aprendizaje

El objetivo principal del Proyecto Vemus es diseñar un proceso abierto, interactivo y multilingüe con funcionamiento en red que permita la enseñanza popular de instrumentos musicales, aplicando innovadoras estrategias de e-learning, que posibiliten al alumno obtener respuestas inmediatas con respecto a su nivel de ejecución.

En una primera etapa de trabajo, el proyecto se ha centrado en los instrumentos de viento, como por ejemplo flautas, trompetas, clarinetes y saxofones. Esto se debió principalmente a que los mencionados instrumentos son monofónicos, cuando por ejemplo un piano presenta características polifónicas, lo que dificultaría la creación del software necesario, por lo menos en una etapa inicial. Al mismo tiempo, una encuesta realizada en los países que participan del proyecto permitió definir que los instrumentos de viento son los más populares entre los estudiantes principiantes de música.

Mediante una partitura colocada en el ingreso a la plataforma, el sistema reconoce las características de la ejecución que está desarrollando el alumno, y efectúa una devolución de la misma indicando en la pantalla si las notas, su duración o el tiempo son correctos, entre otros parámetros, explica Esto la plataforma ICT Results.

La plataforma Vemus se organiza en tres escenarios o situaciones de aprendizaje. En el primer caso, se trata de una metodología de práctica libre en el domicilio del alumno, por la cual el estudiante va mejorando su ejecución con las indicaciones que le proporciona el sistema. En estos casos, lógicamente, se requiere de una base mínima de conocimientos o de la posibilidad de acceso a un centro de estudios presencial.



La segunda alternativa se sustenta en el aprendizaje a distancia, especialmente pensada para alumnos que no puedan acceder por diferentes cuestiones a un docente o profesor de apoyo. En este caso, un tutor configura la plataforma para que el alumno pueda llevar adelante distintas lecciones online, que posteriormente serán evaluadas en base a los informes que genera el propio software.

Por último, existe una opción para desarrollar concretamente en aulas. En este caso, utilizando una red de ordenadores, se produce una actividad grupal en la cual el docente y los alumnos interactúan interpretando una pieza en conjunto, que puede ser seguida por cada participante desde su computadora, en la cual recibirá las devoluciones de su ejecución por parte de la plataforma Vemus.

Las pruebas concretadas hasta el momento en los países que participan del proyecto han permitido concluir que los alumnos que utilizan Vemus progresan más rápidamente con sus instrumentos que los estudiantes que siguen métodos tradicionales de enseñanza, aunque vale aclarar que se trata aún de resultados iniciales. A continuación, el gran desafío será intentar llevar este sistema a los instrumentos polifónicos.

Ya se encuentran disponibles las versiones de prueba, y el proyecto parece encaminarse a la libre disponibilidad del software, sin que la aplicación sea comercializada. La amplia disponibilidad de idiomas ha permitido que Vemus sea solicitado por un gran número de escuelas de música de toda Europa, que están interesadas en incorporar este adelanto a sus prácticas educativas.

¿Cuál es el dominio más caro del mundo?

Este resumen no está disponible. Haz clic en este enlace para ver la entrada.

miércoles, 1 de abril de 2009

Un dispositivo permite a un robot leer órdenes mentales


Un robot que lee el pensamiento de los humanos sin necesidad de ningún implante cerebral. Como muchas otras veces, la ciencia aspira superar a la ficción. Así lo demuestra el último avance tecnológico presentado por las empresas japonesas Honda y Shimadzu: el Interfaz Cerebro-Máquina (Brain-Machine Interface o BMI), con la que por primera vez el usuario puede dar órdenes a un robot sólo con el pensamiento... y un casco.

De momento, el robot sólo es capaz de leer cuatro órdenes emitidas por la mente humana, relativas a cuatro movimientos diferentes: mover la mano izquierda, la derecha, los dos pies o la boca. Pero los promotores esperan que en el futuro puedan ampliarse las aplicaciones.

En una rueda de prensa en Tokio, los ingenieros responsables de esta revolucionaria tecnología que las órdenes cerebrales eran interpretadas en el 90,6% de los aseguraron casos con precisión por Asimo, el robot humanoide más avanzado del mundo.

Imagen del casco BMI. | AFP



Es la primera vez en la historia que esta tecnología BMI alcanza una tasa de éxito tan alta, según los ingenieros del fabricante japonés, que recordaron que hasta ahora lo máximo que se había registrado era un 66% de acierto. La ciencia lleva décadas persiguiendo el sueño de poder conectar el cerebro humano a las máquinas, principalmente para aliviar a los pacientes con parálisis.

Pero a diferencia de otras tecnologías de uso médico, con ese dispositivo no es necesario implantar ningún tipo de sensor en la cabeza del sujeto que da las órdenes, dijeron.

Aplicaciones neurocientíficas

"Esto puede revolucionar el mundo de la neurociencia", dijo Yasuhisa Arai, director de Investigación y Desarrollo (I+D) de Honda y responsable del desarrollo del BMI junto al fabricante de tecnología Shimadzu.

La tecnología tiene dos puntos clave: un dispositivo de extracción de la información del cerebro y, lo que según los ingenieros es la parte más complicada, la identificación de las diferentes órdenes cerebrales.

Para este segundo paso, Honda ha utilizado por primera vez una combinación de la tecnología del EEG (Electroencefalograma), que mide las variaciones de los impulsos eléctricos del cerebro, y la NIRS (Espectroscopia Cercana de Infrarrojo), con la que calibra los cambios en el flujo sanguíneo.

La tecnología presentada hoy supera en avances a la desarrollada por Honda en mayo de 2006, cuando el fabricante alcanzó su primer hito con el BMI.

Ahora ya no es necesario que el sujeto se mueva ni que reciba un entrenamiento especial. El dispositivo es además portátil y el robot con el que se está experimentando es Asimo, la niña bonita de los humanoides de Honda.

El fabricante japonés no desveló cuánto dinero le ha costado el desarrollo de esta tecnología, con la que se espera que en el futuro se pueda encender el aire acondicionado o abrir la puerta del maletero cuando una persona se acerque a su coche con la compra.

"Estamos en un nivel muy básico. Me temo que aún tendremos que esperar mucho tiempo para que un robot limpie la casa con tan sólo pensarlo", concluyó Tatsuya Okabe, ingeniero del HRI.

Identificados los circuitos neuronales que distinguen la realidad de la ficción


La relevancia que los demás tienen para nosotros, uno de los factores clave de la distinción

Un estudio reciente realizado por investigadores del Instituto Max Planck de Alemania ha revelado que dos áreas concretas del cerebro, la corteza prefrontal media y la corteza cingulada posterior, se activan con más potencia ante alguien relevante para nosotros que ante un personaje famoso, y más ante este último que ante un personaje de ficción, como Cenicienta. Es decir, que existe una relación entre lo que el cerebro percibe como más o menos real y la importancia que tiene para nosotros lo que observamos. Este hallazgo, además de respuesta, produce nuevas preguntas, cómo qué definimos entonces por lo “real”.


Los científicos Anna Abraham e Yves von Cramon, del Instituto Max Planck de Alemania han conseguido identificar en el cerebro humano los circuitos neuronales que nos hacen distinguir la realidad de la ficción.

Según se explica en la revista Physorg, las investigaciones realizadas por Abraham y Cramon apuntan a que somos capaces de distinguir entre personas reales, como George Bush, y personajes de ficción, como Cenicienta, en parte gracias al grado de relevancia que damos a uno u otro.

Distinguir fantasía de realidad

La mayoría de la gente puede diferenciar de forma inmediata la realidad de la fantasía. Por ejemplo, sabemos que los personajes de las películas son ficticios, mientras comprendemos que los personajes históricos existieron alguna vez, aunque jamás los hayamos visto.

Por muy obvia que nos parezca la distinción, hasta ahora se sabía muy poco de los mecanismos cerebrales responsables de esta capacidad humana que, tal y como explican los científicos en un artículo aparecido en la revista PLOSone, tenemos desde muy pronto. De hecho, a los cinco años de edad, los niños ya poseen una intrincada comprensión de la diferencia entre ficción y realidad.

Recientemente, explican los investigadores, el primer estudio con neuroimágenes sobre este tema reveló que la mera exposición a contextos en los que había implicadas entidades reales, comparada con la exposición a contextos con personajes ficticios, propiciaba la activación de determinadas regiones del cerebro, concretamente, la corteza prefrontal media y la corteza cingulada posterior.

Ya se sabía, además, que estas dos áreas del cerebro están implicadas en la recuperación de recuerdos autobiográficos y en el pensamiento auto-referencial, por lo que Abraham y Cramon lanzaron la hipótesis de que las entidades reales podrían ser codificadas conceptualmente como más personalmente revelantes para el observador, que los personajes de ficción.

Grados de relevancia personal


Para probar su hipótesis de que la relevancia personal es un factor clave en la diferenciación entre realidad y fantasía, los científicos reunieron a 19 voluntarios (10 mujeres y 9 hombres de 25 años de edad media) a los que se les pidió en primer lugar que hicieran una lista de nombres de sus familiares y amigos más cercanos, y también que leyeran una lista de personas famosas o de personajes de ficción, para confirmar que los conocían a todos.

Posteriormente, durante los experimentos, los participantes vieron los nombres de sus familiares y amigos (relevancia personal alta para ellos), de las personas famosas que conocían (relevancia personal media) o de personajes de ficción (relevancia personal baja). Los voluntarios fueron contestando, al mismo tiempo, a algunas preguntas, como si era posible para alguien hablar con las personas o los personajes presentados (las interacciones entre la gente real y los personajes de ficción fueron considerados imposibles).

Mientras tanto, su actividad cerebral fue registrada con la tecnología de exploración magnética funcional (fMRI), que consiste en un escáner que mide la respuesta hemodinámica (de los flujos de sangre del cerebro), relacionada con la actividad neuronal.

Con esta tecnología, se pudo comparar la respuesta del cerebro en el procesamiento de la información acerca de los personajes reales y los de ficción. Sus resultados, según declaraciones de Abraham en Physorg, “nos han permitido acercarnos un poco más a la comprensión de cómo nos percatamos de la “autenticidad” de nuestras percepciones”.

Tal y como habían predicho los científicos, estos resultados demostraron que cuando los participantes respondían cuestiones sobre sus amigos o sus familiares, se producía una activación más potente en las áreas del cerebro antes mencionadas - la corteza prefrontal media y la corteza cingulada posterior-, en comparación con la activación que se producía cuando se les preguntaba por personajes ficticios o famosos.

Reacciones cerebrales ante personajes conocidos. PLoS.
Distinción flexible


Según apunta Abraham, aunque ha quedado claro gracias a esta investigación que la relevancia personal de los individuos que observamos determina el grado de activación de nuestros cerebros en determinadas áreas, y que esto tiene una relación con nuestra capacidad de distinguir la ficción de la realidad, de estos resultados también surgen nuevas preguntas.

Por ejemplo, cómo puede ser que me parezca menos real George Bush que mi madre? Se supone que ambos tienen una existencia objetiva, ¿se debe esta diferenciación sólo a que nunca he interactuado con él? ¿Será porque conozco menos de él que de mi madre? ¿Cómo puedo saber entonces que George Bush es más real que Cenicienta?

Es decir, que a pesar de que gracias a este descubrimiento entendemos que uno de los factores de nuestra percepción de la realidad viene modulado por la relevancia que personalmente tienen para cada individuo las personas que lo rodean, también nos enfrentamos a la cuestión sobre qué definimos como realidad.

Por otro lado, los investigadores señalan que la relevancia personal no siempre está relacionada con lo que es real, dado que hay personas que experimentan este tipo de relevancia en ciertos ámbitos ficticios, como los jugadores compulsivos de videojuegos.

Así, para un jugador crónico, un personaje de ficción de uno de sus videojuegos puede activar con más fuerza su corteza prefrontal media y su corteza cingulada posterior que una persona real con la que tenga una baja implicación emocional.

Según Abraham, por eso aún queda mucho trabajo por hacer para determinar toda la complejidad de estas conexiones y para establecer, por ejemplo, hasta qué punto la distinción entre realidad y ficción es flexible.

Personaliza tu Firefox con "Personas"


Mozilla acaba de lanzar de forma oficial el proyecto "Personas" que tiene como finalidad personalizar el navegador Firefox con diferentes "skins" o diseños.

La galería de opciones de diseño engloba categorías dedicadas a deportes, moda, música, etc.

Una forma muy sencilla de personalizar los colores y temática del navegador según los gustos de cada uno.

Destacan algunos diseños propios, como el del grupo No Doubt o el ecologista de Greenpeace entre otros muchos.

Por supuesto, como proyecto open source, todos los usuarios podrán confeccionar su propio diseño en muy pocos pasos y hacerlo disponible al resto de usuarios de la comunidad.

Más información y vídeo en el blog de Mozilla, en la página del proyecto y en Mozilla Labs

http://blog.mozilla.com/blog/2009/03/31/personas/
http://labs.mozilla.com/2007/12/personas-for-firefox/

EtherPad


¿Quién iba a decirnos, años atrás, que gracias a Internet, podíamos desarrollar los contenidos de un mismo documento de texto de manera colaborativa y a distancia? Pues eso es básicamente lo que nos permite EtherPad, una nueva herramienta que, sin necesidad de registro, podemos redactar un mismo documento entre varios usuarios a distancia, pudiendo visualizar las modificaciones en tiempo real.

GENBETA.COM
Para ello basta con que pulsemos el botón "New Pad", lo que nos llevará a nuestro nuevo espacio de trabajo. Este espacio de trabajo dispondrá de su propia URL, con lo que ya corresponde a nosotros compartir dicha URL por cualquier medio propio o mediante el envío de las invitaciones por correo electrónico.

Conforme se vayan incorporando el resto de usuarios, nosotros podremos ir viéndolos a través del primer módulo que tenemos en la columna de la derecha, desde donde cualquiera de nosotros podemos cambiar nuestro propio nombre y asignándonos un color identificativo. Pero la columna de la derecha también dispone de un sencillo chat, de un historial de revisiones, que podemos guardar y restablecer en cualquier momento, de la activación/desactivación de una serie de opciones, y del envío del feedback para los desarrolladores de EtherPad.

Pero es la columna de la izquierda nuestro área de trabajo, donde en tiempo real y de manera colaborativa, podemos ir introduciendo, modificando o borrando líneas de textos, ya sea para redactar un documento o incluso el desarrollo de cualquier código javascript, siendo el resaltado de la sintaxis una de las opciones que podemos activar desde la columna de la derecha.

Y como siempre, iremos guardando cada revisión, pudiendo acceder a ellas en cualquier momento que queramos ir hacia atrás. Me da a mí que podemos utilizarlo para más funciones, como para hacer la lista de la compra entre todos, o cualquier cosa que a nosotros se nos ocurra.

Una nueva investigación se aproxima a la complejidad de la conciencia


INTELIGENCIA ARTIFICIAL

Una nueva investigación desarrollada en la FIUPM ha aplicado redes neuronales para modelar funciones cognitivas asociadas a la conciencia y a la autoconciencia. Se trata de una aproximación al problema de la conciencia desde la formulación de modelos artificiales y desde la simulación computacional, que ha aplicado la teoría de informones y holones a las estructuras que conforman la conciencia. Los modelos desarrollados en esta investigación pueden ser aplicables en el campo de la Inteligencia Artificial, mediante la eventual implantación de algunas de estas características en sistemas artificiales.

SINC
Una investigación desarrollada en la Facultad de Informática de la Universidad Politécnica de Madrid (FIUPM) ha aplicado las redes neuronales modulares para el modelado de funciones cognitivas vinculadas a la conciencia, al mismo tiempo que ha aplicado redes neuronales con retardo temporal para el modelado temporal de la autoconciencia. La investigación, desarrollada por Milton Martínez Luaces, fue dirigida por el profesor de la FIUPM, Alfonso Rodríguez-Patón.

En el modelado de funciones cognitivas asociadas a la conciencia, esta investigación aporta un doble avance. Por un lado, en el plano teórico, al aplicar la teoría de informones y holones a las estructuras que conforman la conciencia. Un informón es una entidad de información, la cual puede surgir como datos, noticias o conocimiento. Por su parte, el término holón se refiere a entidades autónomas que, al mismo tiempo, actúan como parte de un todo.

Por otro lado, al simular algunos de los procesos asociados a la conciencia, ha incidido en el diseño y desarrollo de modelos informáticos. Para esta labor se han desarrollado simuladores multi-entidad utilizando redes neuronales modulares, en los cuales se han simulado diversos escenarios de interacción de sus propias posibilidades y las de los sistemas con los cuales interactúan.

Autoconciencia y dimensión temporal

La autoconciencia en el caso de los seres humanos, no significa simplemente una imagen abstracta de lo que uno mismo es, sino también una imagen de su trayectoria a lo largo del tiempo. Esta dimensión temporal de la autoconciencia ha sido modelada también en esta investigación, mediante redes neuronales con retardo temporal, que han permitido probar, en diferentes escenarios de interacción, la imagen que cada entidad tiene de sus cualidades en el pasado o sus expectativas para el futuro, incide en el modo en que interactúa con otras entidades. A modo de ejemplo se ha incluido una de las gráficas obtenidas, que revela como es posible que la autoconciencia de estas entidades se desarrolle mediante su interacción con otras entidades artificiales, en este caso en un escenario competitivo.

Por otra parte, al igual que los individuos tienden a asociarse en grupos con intereses comunes, y como resultado de lo cual desarrollan un sentido de pertenencia a dichos grupos, incluso a varios niveles, algo similar puede ocurrir con entidades artificiales que interactúan con un fin determinado.

Posibles aplicaciones

En lo que tiene que ver con el campo de aplicación, puede decirse que los modelos propuestos y sus implementaciones en redes neuronales modulares tienen básicamente dos posibles campos de aplicación:

En primer lugar, la investigación de modelos plausibles para la explicación de modelos biológicos. Es decir, se trata de una aproximación al problema de la conciencia, desde la formulación de modelos artificiales y desde la simulación computacional.

En segundo lugar, estos modelos pueden ser, desde un punto de vista práctico, también aplicables en el campo de la Inteligencia Artificial, mediante la eventual implantación de algunas de estas características en sistemas artificiales de propósito diverso (robots, soft-bots, sistemas multi-agente; etc.) En este sentido, diversos investigadores están trabajando en el área de aplicación de modelos informáticos a robots en escenarios competitivos o colaborativos.

Es evidente que los modelos que, como aproximaciones a la conciencia, se han implementado hasta el momento en sistemas de Inteligencia Artificial, son el resultado de grandes simplificaciones, debido a la dificultad que significa el modelado de una realidad tan compleja.

Esto, sin duda, también es cierto en el caso de los modelos que se han presentado en esta investigación. Sin embargo, es interesante notar que muchos de los conceptos que surgen de los modelos propuestos, así como los principios del modelado de alto nivel, son coincidentes con los resultados experimentales llevados a cabo en animales, y de observación y experimentación no invasiva que se han realizado con seres humanos.

Estos tímidos avances en principio, pero de tendencia creciente, no resuelven por sí solos las complejas cuestiones pendientes, pero en la medida que muchos investigadores están abordando el tema de la conciencia desde distintos ángulos, esto puede resultar en un acercamiento de "varias puntas" como lo son por un lado la Psicología Cognitiva, por otro la Neurobiología y por otro la Inteligencia Artificial, de modo que quizás en un futuro, cuando se alcance la "masa crítica" de conocimiento necesaria, pueda finalmente - como tantas veces en la investigación científica - cerrarse la brecha de aquello que aún se encuentra - respecto al tema de la conciencia y sus modelos - en el terreno de lo desconocido.

Antecedentes

Numerosos estudios se han realizado en los últimos años en el campo de la Inteligencia Artificial. Sin embargo, poco se ha avanzado en lo que tiene que ver el problema de la conciencia, y en particular en dotar de conciencia a entidades artificiales, tales como agentes o robots.

De las diferentes investigaciones procedentes de la Psicología Cognitiva y la Neurobiología, se han extraído las capacidades cognitivas que deben estar presentes para que la conciencia tenga lugar. En base a esto, se han desarrollado modelos artificiales para estudiar si es posible que entidades artificiales puedan poseer algunas de estas características, y, fundamentalmente, si pueden ser capaces de desarrollarlas a través de un proceso de aprendizaje. Esta investigación representa un aporte más en esta dirección.

El control táctil de "Windows 7"


Es conocida la intención de Microsoft de que el control táctil sea una las grandes novedades de la nueva versión de su popular sistema operativo. La compañía ha detallado recientemente en el blog oficial de Windows 7 algunas de las posibilidades que aportará.

EUROPA PRESS
Con la apuesta de la de Redmond, parece que este tipo de interfaz está dispuesta a conquistar los equipos de sobremesa de una vez por todas tras hacer lo propio con los teléfonos móviles, donde es una de las opciones más demandadas.

Windows 7 ha sido diseñado específicamente para un control táctil lo más cómodo posible, como aplicaciones centradas en él, una tecnología que apura la interacción con pequeños botones -especialmente pensado para programas que incluyen decenas de ellos, como los programas de audio-, iconos algo más grandes para un contacto más cómodo o un teclado virtual especialmente pensado para su interacción con los dedos.

Únicamente con sus dedos, el usuario podrá desplazar el 'scroll' de las ventanas, girar y aumentar fotografías, arrastrar iconos, hacer "doble clic" para desplegar el menú de tareas o "presionar y mantener".

La compañía también ha creado un logotipo específico para las funciones táctiles del sistema operativo.

El logo 'Windows Touch' vendrá incorporado en los equipos cuyas pantallas estén preparadas para aprovechar las posibilidades que ofrecerá la última versión de Windows

El diseño web accesible mejora la visibilidad en internet y reduce costes



Hacer accesibles las páginas web a personas con discapacidad aumenta el número de visitas, mejora la posición en los buscadores, facilita la navegación y reduce el coste de mantenimiento, según un estudio realizado por investigadoras de la Universidad Carlos III de Madrid (UC3M) y publicado recientemente en IEEE Multimedia Special Issue on Accessibility.

SINC
Cada vez aumenta más el número de páginas web que incluyen recursos multimedia, pero son pocos los casos en los que se cumplen los criterios de accesibilidad que marcan los estándares para los contenidos en la Web, como las normas WCAG 1.0 y WCAG 2.0 en lo relativo a los contenidos multimedia", explican Lourdes Moreno, Paloma Martínez y Belén Ruiz, autoras de un artículo que ha aparecido en la revista IEEE Multimedia Special Issue on Accessibility , e investigadoras en la UC3M.

Su trabajo se ha centrado en describir las pautas que hay que considerar para la inclusión de recursos multimedia accesibles en la web. Estas investigadoras de la accesibilidad web trabajan en la definición de un soporte metodológico desde el punto de vista de la Ingeniería, proporcionando recomendaciones sobre cómo diseñar y desarrollar una aplicación web accesible.

"A grandes líneas habría que conseguir una cadena de requisitos de accesibilidad como incluir contenidos alternativos al recurso multimedia (subtitulado, audiodescripción…), universalizar los formatos lo más posible y que todos estos contenidos se incluyan en la Web siguiendo los estándares", explica Lourdes Moreno, que también forma parte junto a las otras autoras del estudio del Centro Español de Subtitulado y Audiodescripción (CESyA).

Más navegables y baratos

Los sitios web accesibles son más fácilmente navegables, según las investigadoras, porque se puede acceder a ellos a través de una diversidad de dispositivos y no sólo desde el tradicional navegador de sobremesa o portátil. La accesibilidad web, además, sigue principios de diseño separando estructura, presentación y contenido, lo que hace que estos sitios sean más consistentes y que sea fácil administrar su contenido, lo que reduce los costes de mantenimiento, porque se convierten en aplicaciones escalables con facilidad para los rediseños y las ampliaciones de contenidos, por ejemplo.

Otra ventaja que presentan las webs accesibles es que suelen ocupar una buena posición en los buscadores de Internet porque incorporan semántica en el código fuente de la página web que puede ser interpretada por las máquinas.

"Está semántica que se incluye al seguir las pautas de accesibilidad coincide con la que los algoritmos de los buscadores como Google utilizan para situar en los mejores puestos - aclara Paloma Martínez - lo que se traduce en un mayor número de visitas, además de cumplir la normativa en los casos marcados por la ley y no discriminar a ningún colectivo sensible de ser excluido en la sociedad de la información", concluye.

A todo lo anterior habría que añadir, comentan las investigadoras, que el usuario debe estar involucrado en todo el proceso de diseño de la aplicación. "No hay que quedarse sólo con las pautas de las WCAG, porque es importante llegar hasta el final de la cadena de la accesibilidad y servir los contenidos de manera universal atendiendo a las necesidades de todos los usuarios", añade la profesora Moreno.

Las principales complicaciones que se encuentran en este ámbito, comentan las científicas, es el avance tan rápido de las tecnologías, que a menudo se crean sin tener en mente la accesibilidad y al usuario. Otra causa es el no seguimiento de estándares, que provoca barreras de accesibilidad que no sólo afectan a la personas con discapacidad. En el ámbito multimedia, por ejemplo, aparecen continuamente nuevos formatos y recursos compatibles sólo con algunas tecnologías, lo que provoca barreras de accesibilidad a todos los usuarios, al margen de la discapacidad, como ocurre cuando intentamos acceder a un video y resulta imposible porque el reproductor de nuestro PC no está preparado para ese formato.

¿Qué soluciones se podrían adoptar entonces para mejorar la accesibilidad? Lo primero que habría que hacer, insisten estas expertas en el tema, sería querer hacerlo y tener siempre en mente a la accesibilidad y al usuario. Además, añaden, habría que proporcionar más formación, incluyendo la materia y el diseño universal en los currículos formativos, porque hay mucho desconocimiento en accesibilidad por parte de todos los que formamos la Sociedad de la Información.

"Prey", software para localizar portátiles robados



Un periodista chileno ha desarrollado Prey, un programa que permite localizar un ordenador que ha sido robado al enviar a través de Internet información sobre el lugar donde está ubicado. Tomás Pollak empezó a elucubrar la manera de poder recuperar su ordenador portátil cuando hace tres años se lo robaron. "Simplemente me negué a dar por perdida la máquina y me empeciné en pillar a los responsables", según cuenta en su página web.

Según cuenta Pollak, Prey es una sencilla aplicación que recolecta un lote de información del ordenador y la envía a una casilla de correo que se haya definido previamente para poder contar con más datos en caso de que un maleante se quede con él.

Cuando el ladrón se conecte a Internet, el programa enviará por correo un informe en el que indicará el lugar de conexión, la red, los programas en ejecución y los archivos modificados, así como un "pantallazo" del escritorio.

Además, si el equipo cuenta con una cámara web, enviará una foto del impostor y si la víctima utiliza Linux puede generar un cuadro de diálogo para conversar con el malhechor, preguntarle qué hace o por qué se llevó el ordenador.

Pollak ofreció la aplicación bajo la licencia "SRTCRMCUC", con la que el creador propone que "Si Recuperas Tu Computador Robado Me Compras Una Cerveza", y en su página web ya hay algún usuario que está dispuesto a invitarle hasta a diez.

martes, 31 de marzo de 2009

Google se arriesga en la crisis


Lejos de contraerse debido a la difícil situación económica, Google apuesta por expandirse. Su última apuesta -nueva y arriesgada- es un fondo de inversión de capital riesgo. Como dicen en Mountain View: ¿Crisis? ¿Qué crisis? O eso parece.

Quizá han pensado que el próximo Twitter o el siguiente Facebook no se les puede escapar. Y por eso han decidido destinar parte de su dinero a financiar proyectos emergentes (startups) de todo tipo: Internet, 'hardware', 'software', energías limpias, biotecnología..."No necesitas ser una adquisición potencial de Google para que queramos trabajar contigo", explican. Además de dinero, ofrecen un equipo de experiencia contrastada y todo tipo de recursos, pero sin la exigencia de trabajar en común. Para decidir las inversiones cuentan con dos socios principales, Bill Maris y Rich Miner.

Igual que no ponen límite a sus inversiones -"decenas de millones de dólares"-, dejan claro que tendrán en cuenta que el proyecto tenga buenas expectativas económicas -Pixazza, donde acaban de aportar caso seis millones de dólares, es un buen ejemplo-. También dicen que su objetivo no es crear un semillero para futuras adquisiciones.

Pero con un fondo de 100 millones de dólares para el primer año -según cuenta 'The Wall Street Journal'- en un momento en el que prácticamente todas las firmas de inversión tienen casi congelados sus movimientos, quién sabe lo que provocarán en el sector.

Hohli charts



Cuando escribimos textos científicos, de alguna encuesta o cualquier resultado estadístico siempre está bien y queda muy elegante si lo acompañamos por alguna gráfica de algún tipo. Pero claro, puede ser un trabajo complicado si no disponemos de las herramientas adecuadas
http://charts.hohli.com/

WWWHATSNEW
Hohli es una herramienta web que, de manera online nos permitirá crear una gráfica con los valores que nosotros le indiquemos.

Tenemos varias opciones de gráficas, como de barras, circulares, basadas en diferentes puntos en un eje de abcisas, etc.

Además, podemos seleccionar tanto las dimensiones de la gráfica, como los colores y, en definitiva, el aspecto final que queremos que tenga.

Una vez seleccionados todos las opciones del aspecto de nuestra gráfica podremos empezar a meterle datos para que vaya cogiendo forma. Estos datos serán simplemente una serie de números, los cuales ya son cuenta nuestra.

Cuando hayamos terminado, ya podremos exportar nuestra gráfica, ya que el sistema nos proporcionará tanto un enlace directo a la imagen como el código html necesario para poder embeber nuestra gráfica en nuestra web o blog.

Está aún en fase beta, pero funciona muy bien y realiza a la perfección lo qu

"Nabload.DLU", protagonista de un nuevo ataque de phishing


PandaLabs, el laboratorio de detección y análisis de malware de Panda Security, ha avisado sobre la reciente distribución de Nabload.DLU, un troyano que se hace pasar por un divertido vídeo para engañar al usuario mientras descarga en el equipo otro código malicioso encargado de robar contraseñas bancarias.

Este troyano llega al equipo haciéndose pasar por un video de felicitación. Cuando el usuario abre el supuesto video, el troyano, efectivamente, cargará un divertido vídeo desde Internet, pero al mismo tiempo estará descargando en el equipo otro código malicioso, concretamente el también troyano Banker.LRX. Éste está diseñado para robar las claves de acceso a los servicios de banca online de distintas entidades bancarias.

Puede ver un vídeo que muestra lo que vería el usuario mientras está siendo infectado aquí: www.youtube.com/watch?v=OaQhFhVX6yI

Nabload.DLU, además, realiza una modificación en el Registro de Windows para activarse cada vez que el usuario reinicie el equipo, de tal manera que se asegura de estar siempre activo en el mismo.

Los troyanos son el principal método por el que los ciberdelincuentes consiguen hacerse con los datos privados de los usuarios, en este caso, sus claves bancarias. Según un estudio llevado a cabo por PandaLabs, más de 240.000 personas en España y 11 millones en todo el mundo fueron víctima de un robo de identidad en 2008. Puede ver más información aquí: www.pandasecurity.com/spain/homeusers/media/press-releases/viewnews?noticia=9600

"Este tipo de troyanos se suele distribuir a través de correo electrónico o también mediante páginas web en las que se ofrece descargarse el falso vídeo. Por eso, recordamos a los usuarios que no deben ejecutar archivos que les lleguen por email de remitentes desconocidos y que deben extremar las precauciones cuando se descarguen algo de Internet, procurando siempre analizarlo con un antivirus antes de ejecutarlo", afirma Luis Corrons, director técnico de PandaLabs.

El Cielo

El Cielo

Explosion de Una Supernova

Nerd Test

Bienvenidos aquellos que no se conformen en ver en tres dimensiones

Saludos mis amigos(as) ; Colegas y estudiantes

Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.

Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria

Videos para aprender

una nueva conciencia

una nueva conciencia

No estamos solos

Powered By Blogger

el maestro

el maestro
LINUX