En este Blog Creado Por Ana Del C. Torres, MIS y Profesora UIA es una manera facil rapida y sencilla que se ira actualizando con articulos y enlaces de Tecnologia . Ciencia , Redes . Con temas relacionados con Investigaciones y aportaciones en las Ciencias de Inteligencia Artificial.En Investigaciones Paranormales podras ver articulos y los links de los sites de: Dante Franch,ovni.net entre otros. Todo aquel que desee desarrollar ideas para mejorar este Blog esta bienvenido
Turbinas de Viento
Amazing
Portal De Tecnologia y Ciencias
miércoles, 19 de marzo de 2008
Las Ciencias de la Tierra se enfrentan a diez cuestiones fundamentales
La Academia de Ingeniería de EE.UU. define los grandes retos tecnológicos del futuro
Conocer a fondo la historia y los procesos de nuestro planeta mejorará nuestra capacidad para predecir catástrofes naturales y nos ayudará a gestionar los recursos de la Tierra. Asimismo, también nos permitirá anticipar los cambios climáticos y los procesos geológicos. Según un informe auspiciado por la Academia de Ingeniería de Estados Unidos, las Ciencias de la Tierra deben centrarse en 10 cuestiones fundamentales en las que, a pesar de su importancia, aún no se sabe todo lo que se debería saber. Cómo se formó la Tierra, cómo empezó la vida o cómo se han influido la biología y la geología mutuamente, son algunas de estas cuestiones. De su conocimiento profundo dependerá que podamos o no predecir el futuro
Fuente: Tendencias Cientificas
El National Research Council (NCR) de Estados Unidos, que trabaja bajos los auspicios de la National Academy of Engineering (NAE), ha identificado en un nuevo informe las diez cuestiones primordiales a las que se enfrentan las Ciencias de la Tierra actualmente.
El objetivo de este análisis era reflejar los principales temas científicos a los que han de enfrentarse las geociencias al inicio de este siglo, cuestiones referentes al estado de los conocimientos en el presente, el pasado (cómo se ha llegado hasta este punto) y el futuro (hacia dónde deberían dirigirse las investigaciones).
El informe completo ha sido recogido en el libro “Origin and evolution of Earth: Research Questions for a Changing Planet”, disponible on-line de forma gratuita.
Según publica el NCR en un comunicado, los avances de los últimos 20 años han permitido conocer mejor nuestro planeta desde perspectivas “micro” y perspectivas “macro”, esto es, se ha podido desde discernir los átomos individuales en los minerales hasta observar la deriva de los continentes, por ejemplo. Pero, para seguir adelante, aún quedan cosas esenciales por analizar, como el origen de la vida en la Tierra o la conexión entre vida y clima.
Formación y Era Oscura del planeta
Un comité de expertos seleccionados para tal fin dio en priorizar 10 cuestiones entre todas las analizadas, sin darle mayor importancia a unas que a otras dentro de este grupo final. Estas 10 cuestiones fueron:
1. ¿Cómo se formaron la Tierra y otros planetas? Aunque los científicos están en su mayoría de acuerdo en que el sol y los planetas del Sistema Solar proceden de la misma nube de gas o nebulosa protosolar, aún no saben lo suficiente sobre la manera en que la Tierra llegó a tener su composición química como para comprender su evolución o el porqué de que el resto de los planetas sean diferentes unos de otros. Y, aunque actualmente existen modelos de la formación de los planetas, nuevas mediciones de los objetos del Sistema Solar y de su exterior podrían verter más luz sobre esta cuestión.
2. ¿Qué sucedió durante la “Era Oscura” terrestre (los primeros 500 millones de años del planeta)?
Los científicos creen que otro planeta colisionó con la Tierra en los últimos estadios de su formación, generando restos que llegaron a la luna y provocando que la Tierra se derritiera hasta su núcleo. Este periodo resulta crítico para comprender la evolución del planeta, sobre todo en lo que se refiere al desarrollo de su atmósfera y de los océanos, pero los científicos tienen poca información de entonces porque se han preservado escasos restos rocosos de entonces.
3. ¿Cómo empezó la vida? El origen de la vida es una de las cuestiones más intrigantes y difíciles para la ciencia. La única evidencia que queda de dónde, cuando y de qué forma apareció la primera forma de vida procede de investigaciones geológicas de rocas y de minerales. Para ayudar a responder a esta cuestión, los científicos también están mirando hacia Marte, cuyos restos sedimentarios más antiguos son anteriores a las rocas más antiguas de la Tierra, así como hacia otros sistemas de estrella con planetas.
Extremos climáticos
4. ¿Cómo funciona el interior de la Tierra, y cómo afecta ese funcionamiento a la superficie terrestre? Los científicos saben que el manto y el núcleo terrestres están en un constante movimiento que produce calor. La convección del núcleo terrestre produce los campos magnéticos del planeta, que influyen en las condiciones de la superficie de éste. La convección del manto provoca el volcanismo, y la creación del fondo marino y de las montañas. Sin embargo, los científicos no pueden describir aún con precisión estos movimientos ni calcular cómo fueron en el pasado, lo que les impide predecir el futuro del entorno superficial de la Tierra.
5. ¿Por qué la tierra tiene tectónica de placas y continentes? Aunque la teoría de la tectónica de placas está bien establecida, los científicos se preguntan por qué la Tierra sufre estos cambios y hasta qué punto están relacionados con otros aspectos del planeta, como la abundancia de agua y la existencia de océanos, continentes y vida. Además, los científicos no saben aún cuando se formaron los continentes por primera vez, cómo se mantuvieron durante miles de millones de años o cómo evolucionarán en el futuro.
6. ¿Cómo están controlados los procesos terrestres por las propiedades físicas? Los científicos reconocen que los comportamientos a macro-escala, como la tectónica de placas, surgen de las características de la micro-escala de los materiales terrestres, incluidas las correspondientes a las estructuras atómicas. Por tanto, conocer estas escalas resulta esencial para definir la historia del planeta, y para hacer predicciones razonables de los cambios que sufrirán los procesos planetarios en el futuro.
7. ¿Qué origina el cambio en el clima y cuánto puede éste cambiar? El estudio de los extremos climáticos sufridos por la Tierra a lo largo de su historia (cuando el clima llegó a ser extremadamente frío o caliente o cuando cambió rápidamente), mejoraría los modelos climáticos que permitirán a los científicos predecir la magnitud y las consecuencias del cambio climático.
Relación entre biología y geología
8. ¿Cómo ha conformado la vida a la Tierra y cómo la Tierra le ha dado forma a la vida? Las formas exactas en las que la geología y la biología se han influido una a la otra resultan aún hoy difíciles de definir. Los científicos están interesados en el papel de la vida en la oxigenación de la atmósfera. Asimismo, tratan de comprender cómo los sucesos geológicos causaron extinciones masivas y condicionaron el curso de la evolución.
9. ¿Pueden predecirse los terremotos, las erupciones volcánicas, y sus consecuencias? Se han hecho progresos en la estimación de la probabilidad de futuros terremotos, pero los científicos podrían no llegar a ser capaces de predecir el momento y el lugar exactos en los que un terremoto va a producirse. Aún así, continúan descifrando cómo comienzan y se detienen las rupturas de las fallas o cuántas réplicas cabe esperar de cada terremoto. En cuanto a las erupciones volcánicas, los geólogos trabajan para el desarrollo de las predicciones, pero se enfrentan al desafío de desarrollar una imagen clara del movimiento del magma, desde sus fuentes en el manto superior hasta la superficie por la que sale durante dichas erupciones.
10. ¿Comó afecta el flujo y el transporte de fluidos al entorno humano? La buena gestión de los recursos naturales y del medioambiente requiere del conocimiento del comportamiento de los fluidos, tanto superficiales como subterráneos, y los científicos pretenden producir modelos matemáticos que predigan el funcionamiento de estos sistemas naturales. Aún resulta difícil determinar cómo los fluidos subterráneos están distribuidos en formaciones de suelo o roca heterogéneas, a qué velocidad circulan; en qué medida disuelven y suspenden los materiales que transportan o cómo les afectan los cambios químicos y térmicos de las formaciones que los albergan.
El informe concluye que descifrar la historia y los procesos de nuestro planeta podría mejorar la capacidad humana de predecir catástrofes como los terremotos y las erupciones volcánicas, ayudaría a gestionar los recursos de la Tierra y anticiparía los cambios climáticos y los procesos geológicos.
Las Ciencias de la Tierra o geociencias son el conjunto de las disciplinas que estudian la estructura interna, la morfología superficial y la evolución de nuestro planeta. Entre ellas se encuentran la geofísica, la geoquímica, la sismología, la climatología o la petrografía, entre otras. Estas ciencias no pueden ser consideradas como ciencias "terminadas", ya que están en constante evolución, y suelen ser interdisciplinarias, dado que estudian un mundo complejo y dinámico, cuyas características no pueden considerarse aisladas de su propio medio.
Por otro lado, las Ciencias de la Tierra sirven para planear una explotación racional de los recursos naturales, comprender las causas que originan los fenómenos naturales que afectan al ser humano, así como conocer como el ser humano influye en la naturaleza con sus acciones.
Tecnologia y Salud
Crean un microchip con 10 veces más energía de la normal
Joyce Kwong dirigió el proyecto junto a sus colaboradores del MIT Anantha Chandrakasan, Yogesh Ramadass y Naveen Verma. Los colaboradores de la Texas Instruments fueron Markus Koesler, Korbinian Huber y Hans Moormann.
Fuente: AGENCIAS
La clave de la mejora en la eficiencia energética era encontrar formas de hacer que los circuitos en el chip funcionaran con un nivel de voltaje mucho más bajo que lo usual. Mientras la mayoría de los chips actuales opera a alrededor de un voltio, el nuevo diseño opera con sólo 0,3 voltios.
Sin embargo, reducir el voltaje de operación no es tan simple como podría parecer, ya que los microchips existentes se han perfeccionado durante muchos años para operar al voltaje estándar más alto. Las memorias y los circuitos lógicos tienen que ser rediseñados para poder operar con suministros de energía que sean de bajos voltajes.
Uno de los problemas más grandes que el equipo tenía que superar era la variabilidad que se da en la fabricación típica de los chips. Al utilizar niveles de voltaje más bajos, las variaciones e imperfecciones en los chips de silicio se hacen más problemáticas. Diseñar los chips para minimizar su vulnerabilidad a tales variaciones era una parte importante de la estrategia.
Hasta ahora, el nuevo chip es sólo una prueba del concepto. Las aplicaciones comerciales podrían estar disponibles en cinco años, y quizá antes, en muchas áreas. Por ejemplo, los aparatos médicos portátiles o implantables, los teléfonos móviles, y los dispositivos de conexión a redes de ordenadores, podrían estar basados en tales chips y aumentar así considerablemente sus tiempos de funcionamiento sin recarga. También puede haber una amplia variedad de aplicaciones para el ámbito militar, en la producción de redes autónomas de sensores diminutos que podrían dispersarse en un campo de batalla.
En algunas aplicaciones, como en los dispositivos médicos para ser implantados en pacientes, la meta es hacer los requerimientos de energía tan bajos que tales dispositivos puedan energizarse por medio de la "energía ambiental" (empleando el propio calor del cuerpo o su movimiento para proporcionar toda la energía necesaria).
Proyecto Para Averiguar Cómo Distintas Enzimas Descomponen la Celulosa
Se ha puesto en marcha una prometedora investigación sobre la manera en que diferentes enzimas descomponen la celulosa. Los conocimientos que se obtengan con esta investigación podrían contribuir de manera decisiva a importantes avances en diversos campos tecnológicos.
Las enzimas son proteínas producidas por organismos vivos, que tienen la función de acelerar reacciones químicas dentro de sus cuerpos. Ellas, por ejemplo, actúan en el sistema digestivo humano para fragmentar las moléculas de almidón o de proteínas en pequeños trozos que puedan ser absorbidos por los intestinos.
Las enzimas también se utilizan para producir pan, se añaden a detergentes para limpiar con mayor eficacia ciertas manchas, y se emplean en el acondicionamiento del cuero para diferentes usos.
Como las enzimas pueden descomponer a la celulosa produciendo azúcares simples que luego pueden ser fermentados dando lugar a alcohol, desempeñan un papel muy importante en la producción de etanol a partir de la celulosa.
Peter Reilly, de la Universidad Estatal de Iowa, está particularmente interesado en las enzimas que actúan sobre la celulosa. El Departamento de Agricultura de Estados Unidos le ha concedido una subvención de 306.000 dólares para que él y sus colaboradores lleven a cabo una investigación detallada sobre cómo operan estas interesantes proteínas.
Tales enzimas son conocidas como celulasas. Y están presentes de manera habitual en hongos y bacterias.
El trabajo que llevan a cabo las celulasas no es fácil en absoluto. La celulosa es muy dura. Está en las paredes celulares de los vegetales. Les aporta a estos su estructura rígida. Gracias a ella, los árboles se mantienen erguidos.
Pero las diferentes enzimas tienen distintas maneras de atacar a la celulosa.
Los colaboradores de Reilly emplean muchos recursos informáticos para poder comprender cómo se agrupan las enzimas. Emplean para ello las supercomputadoras CyBlue y Lightning.
Al incorporar al conocimiento básico de las enzimas los nuevos datos que el equipo de Reilly va obteniendo, se están abriendo puertas a nuevas y mejores aplicaciones de las enzimas. Enzimas de mayor eficacia, por ejemplo, podrían ser la clave para hacer que la producción de etanol a partir de la celulosa fuera más eficiente y barata.
No obstante, aún les queda mucho por aprender a los ingenieros químicos acerca de estas proteínas especializadas. Como bien señala Reilly, "Después de todo, la naturaleza ha ensayado infinidad de maneras diferentes para descomponer la celulosa".
Información adicional en:
http://www.public.iastate.edu/~nscentral/news/2008/jan/enzymes.shtml
Desvelando los Complejos Mecanismos Subyacentes en la Destreza de las Manos Humanas
Realizar con los dedos de las manos los movimientos rápidos que en la vida cotidiana se necesitan para ejercer distintos tipos de presión sobre superficies diversas de manera que podamos, por ejemplo, asir objetos pequeños, utilizar herramientas, o realizar manualidades, resulta vital. Pero esta capacidad de movimientos y presión de los dedos que tan trivial puede parecernos, es en realidad el resultado de un complejo proceso neuromotor y neuromecánico, orquestado con una sincronización de muy alta precisión por el cerebro, el sistema nervioso y los músculos de las manos.
El ingeniero biomédico Francisco Valero-Cuevas (de la Universidad del Sur de California) está trabajando para desvelar las características neurológicas, biológicas y mecánicas de la mano humana que permiten la manipulación precisa y hacen posible que una persona pueda asir un huevo y cascarlo del modo adecuado sobre una sartén, abrocharse un botón de la camisa, o accionar las teclas del teléfono móvil para responder a una llamada.
Una mano con cinco dedos parece un dispositivo muy simple. Pero en realidad los científicos ni siquiera comprenden bien qué es, biomecánicamente hablando, una mano, cómo está controlada neurológicamente, cómo las enfermedades pueden afectarla, y cómo el tratamiento adecuado puede restaurar su funcionamiento normal. Es difícil saber cómo cada uno de sus 30 y tantos músculos contribuyen a sus funciones cotidianas, desde las que usamos al manejar un teléfono móvil, hasta las que necesitamos para ponernos la ropa.
En su estudio, Valero-Cuevas, y Madhusudhan Venkadesan del Departamento de Matemáticas de la Universidad de Cornell, pidieron a varios voluntarios que con su dedo índice dieran unos golpecitos sobre una superficie y la presionasen mientras los investigadores registraban en cada caso la fuerza ejercida por la yema del dedo y la actividad eléctrica en todos los músculos de la mano.
Estos investigadores, en un experimento único en su clase, registraron en 3D la fuerza del dedo más el patrón de la coordinación muscular completa de manera simultánea, empleando los electromiogramas intramusculares de los siete músculos del dedo índice. A los voluntarios se les pidió que realizaran ciertas operaciones muy específicas con el dedo. Los investigadores encontraron que los patrones de coordinación muscular cambiaban claramente según la maniobra realizada fuese una u otra. La modelación matemática y el análisis de Venkadesan revelaron que el control neuronal subyacente también se conmutaba entre estrategias mutuamente incompatibles a una velocidad lo bastante elevada como para garantizar la buena marcha de la secuencia de acciones.
Los datos obtenidos en estos experimentos sugieren que una circuitería neuronal especializada pudo haber evolucionado para la mano gracias al control neuronal vinculado a las acciones para las cuales el factor tiempo es crítico, como las requeridas para ejecutar la abrupta transición desde el movimiento hasta la fuerza estática (mover los dedos hacia un objeto, y en el instante de hacer contacto con él pasar a sujetarlo).
Si la transición entre las órdenes motoras no está bien sincronizada y ejecutada, el acto de coger con agilidad y eficacia un vaso de agua resulta imposible.
Los resultados del estudio también sugieren una explicación funcional para un importante rasgo evolutivo del cerebro humano: sus centros motor y sensorial desproporcionadamente grandes asociados con la función de las manos.
Información adicional en
http://viterbi.usc.edu/news/news/2008/what-gives-us.htm
El autismo y los trastornos del lenguaje comparten una base genética parcialmente común
Los nuevos estudios moleculares parecen corroborar la comorbilidad (la presencia independiente de dos o más patologías en un mismo sujeto) observada entre el autismo y los trastornos del lenguaje, y en último término, contribuyen a aclarar la naturaleza y la estructura del programa genético responsable del desarrollo y funcionamiento del 'órgano del lenguaje', según informa la Plataforma Sinc.
Fuente: REDACCIÓN, AP
Habitualmente, el autismo y los trastornos del lenguaje recibían un tratamiento clínico diferencial, al considerarse que presentaban perfiles lingüísticos que variaban considerablemente. Resultados moleculares recientes parecen indicar lo contrario (en particular, para algunos subtipos de autismo), tal y como sostiene un trabajo realizado por Antonio Benítez-Burraco, investigador de la Universidad de Oviedo.
La revisión, publicada en el último volumen de la Revista de Neurología, discute los factores genéticos implicados en los trastornos del lenguaje asociados al autismo, cuya alteración parece ser una de sus causas más importantes.
"A partir del análisis molecular de los diversos trastornos cognitivos en los que el lenguaje se ve afectado, como la dislexia, el trastorno específico del lenguaje (TEL) o el autismo, se han identificado diversos genes cuya mutación parece constituir un componente causal de este tipo de afecciones que alteran el proceso normal de adquisición del lenguaje" explica Benítez-Burraco.
El investigador tuvo en cuenta una serie de artículos científicos cuya metodología, conocida como el análisis de ligamiento de asociación, trata de relacionar el fenotipo anómalo característico de estos trastornos con determinadas secciones cromosómicas.
Programas genéticos comunes
La facultad del lenguaje, según el investigador, puede considerarse un 'órgano' cuyo desarrollo viene determinado, en buena medida, por un programa de naturaleza genética, de modo que los genes que lo integran, cuando se ven afectados, pueden considerarse factores causales significativos o de riesgo para este tipo de trastornos.
Esta aproximación molecular plantea, en particular, la posibilidad de que existan determinantes genéticos comunes a los trastornos del lenguaje y al autismo. Según el investigador, las semejanzas entre ambos síndromes resultan igualmente significativas a otros niveles, "como ocurre, por ejemplo, con el grado de asimetría de las regiones cerebrales implicadas en el procesamiento del lenguaje".
El trabajo también se vincula con cuestiones evolutivas. "Nuestra capacidad lingüística es única en muchos sentidos, pero los genes cuya mutación dan lugar a trastornos del lenguaje, tienen una historia evolutiva más dilatada" continua Benítez-Burraco, "podremos conocer mejor el origen del lenguaje si analizamos los genes que en nuestra especie están relacionados con el desarrollo y el funcionamiento del "órgano" del lenguaje".
El autismo es un trastorno del desarrollo del cerebro que conlleva la aparición de diversas anomalías durante el crecimiento del individuo, un patrón estereotipado y restringido de actividades e intereses, y una incapacidad para la interacción social y la comunicación recíproca. Salvo excepciones, este desorden congénito se manifiesta en los niños a partir de los 18 meses a 3 años de edad, y estadísticamente afecta a 4 de cada 1000 niños.
Alrededor del 20% de los niños autistas comienzan a sufrir el trastorno tras un periodo de desarrollo lingüístico normal de entre 12 y 24 meses de duración, el cual va seguido de una regresión cognitiva que afecta en primer lugar al lenguaje, provocando una pérdida paulatina de las habilidades lingüísticas adquiridas hasta ese momento.
CURIOSIDADES
Lanzan un "vodka para mujeres"
"Entre nosotras, chicas". Éste es el eslogan de una nueva marca de vodka que llena estos días las páginas de las revistas femeninas y las estaciones de metro en Rusia. La firma Deyros lanzó en diciembre el vodka Damskaya, que según su creador, Igor Volodin, es "más inofensivo que el chocolate". Pero el nuevo producto preocupa al sector médico, que teme una nueva ola de alcoholismo entre las rusas.
Fuente: REUTERS
Sus creadores dicen que es ideal para acompañar una ensalada tras una sesión en el gimnasio. Los fabricantes han pensado en un diseño elegante para la botella, con una etiqueta plateada y de tonos violetas. Según Yuri Sorokin, psicólogo de un centro de rehabilitación para alcohólicos y drogadictos, el 60% de los pacientes con problemas con la bebida son mujeres, y no se libran ni las esposas de millonarios rusos.
Cifras preocupantes
Datos del Instituto Moscovita Serbsky de Psiquiatría Social y Forense indican que en Rusia hay cerca de 2.5 millones de alcohólicos, pero, según este centro, la cifra real supera siete veces la oficial. "Creo que el alcoholismo es un problema enorme en Rusia, tan grande y tan escondido como la parte sumergida de un iceberg", asegura Sorokin.
El fabricante de Damskaya insiste: "Las rusas necesitaban disponer de su propia bebida. En Moscú hay taxis rosas sólo para mujeres, cigarrillos luminosos, pero no había vodka. Hay más gente con diabetes que alcohólicos en este país y nadie ha prohibido todavía los anuncios sobre chocolate", añade Volodin.
Lanzado en diciembre pasado, el vodka femenino se produce en una destilería situada en San Petesburgo. En Rusia, el crecimiento anual del mercado del vodka ronda el 15%, según Volodin, en parte gracias a las ventas de sus botellas, cuyo precio ronda los 15 euros, de ahí que sus principales consumidoras sean sobre todo mujeres casadas, bien educadas y adineradas
"Calzoncillos que adelgazan"
Una empresa japonesa presentó unos calzoncillos que permiten a los hombres perder peso alrededor de la cintura sin esfuerzos.
Fuente: AFP
La firma Wacoal ya ha vendido en los últimos tres años en Japón 7,2 millones de ejemplares de la versión femenina de esos anatómicos.
El producto quiere aplacar la principal preocupación del 95% de los hombres de 30 a 40 años que viven en zonas urbanas, por la acumulación de grasa en el estómago, según un sondeo en el que se apoya Wacoal.
El mismo estudio revela que sólamente el 47% de los trabajadores urbanos realizan algún tipo de esfuerzo para conservar o mejorar su línea.
Wacoal sostiene que encontró la receta milagro, con unos calzoncillos que permiten quemar grasas únicamente andando. Ajustada a las nalgas y al trasero, la prenda fuerza al individuo a mantenerse recto mientras camina, ejercitando así la región abdominal y favoreciendo el vientre plano, según la empresa.
"Es un concepto totalmente nuevo. Permite mantenerse en forma con sólo llevar esta ropa interior que transforma la marcha en ejercicio", afirma Yoshikata Tsukamoto, presidente de Wacoal.
Pese a una alimentación considerablemente sana, Japón no está al margen del aumento de la obesidad en el mundo. Unos 20 millones de los 127 millones de japoneses son obesos a distintos niveles alrededor del abdomen, según cifras oficiales.
Un nuevo sistema facilita el rastreo colaborativo de información en la web
Se llama SearchTogether y promete terminar con las búsquedas en solitario en Internet
Una investigadora del grupo Adaptative Systems and Interaction de Microsorft acaba de presentar una herramienta informática que ofrece a los miembros de un grupo la posibilidad de realizar búsquedas conjuntas y en colaboración en Internet. La herramienta rastrea el trabajo hecho por el grupo, haciendo más fácil al iniciador de la búsqueda asignar tareas. Asimismo, evita redundancias en las búsquedas y facilita la comunicación entre los miembros del grupo que están haciendo ese rastreo en la web. Según sus creadores, SearchTogether, el nombre que ha recibido la herramienta, abre una nueva vía en las búsquedas en Internet, ya que suele ser algo que nos vemos obligados a hacer en solitario.
Fuente: Tendencias Cientificas
Una herramienta desarrollada por la investigadora Meredith Morris, del grupo Adaptative Systems and Interaction de Microsorft, promete terminar las búsquedas en Internet en solitario. En concreto, permite que las búsquedas en la red se puedan hacer junto a otros (miembros de un grupo de trabajo, de un equipo de investigación etc.)
El "software social" está proliferando online, pero muchas de las herramientas online más comunes, como los buscadores, todavía se utilizan de un modo aislado por parte de los usuarios. Es decir, están diseñadas para una persona, que trabaja a solas, auque en muchas ocasiones no sea el mejor modo de trabajar.
La herramienta se llama SearchTogether y permite a miembros de un mismo grupo que trabajan en ordenadores diferentes (sin importar dónde se encuentren éstos o si están conectados al mismo tiempo) hacer búsquedas conjuntas por Internet. Está pensada para usarse con Internet Explorer 7 y es necesario tener una Windows Live ID.
Una vez que los usuarios tienen la herramienta instalada, si uno de ellos quiere iniciar una búsqueda por la web, puede invitar al resto de los miembros del grupo a compartir esa búsqueda. La herramienta rastrea el trabajo hecho por el grupo, haciendo más fácil al iniciador de la búsqueda asignar tareas, y al resto saber qué es exactamente lo que han hecho.
Una encuesta
Antes de diseñar la herramienta, Morris llevó a cabo una encuesta para encontrar los problemas a los que se enfrentaba un grupo online que estaba intentando hacer una búsqueda. A partir de los datos obtenidos por la encuesta, identificó en qué puntos la información mostraba esfuerzos redundantes o comunicaciones poco eficientes.
La encuesta puso de manifiesto datos cuanto menos curiosos. Por ejemplo, el 87% de los encuestados reconocieron que el modo de trabajar en grupo a la hora de hacer una búsqueda en Internet era "mirar por encima del hombro de quien hace la búsqueda y hacer sugerencias";. El 30% usaba mensajes instantáneos para coordinar en tiempo real las búsquedas. Por otro lado, la forma preferida de compartir los resultados es el típico mail con un link (86%).
La encuesta también recogió datos respecto la frecuencia con que se hacen búsquedas conjuntas. Así, lo más normal es que sean mensuales (48%), seguidas por anuales (24%) y semanales (25%). Sólo un 0,9% de los encuestados lo hacían a diario.
Respecto a qué tipo de información se busca en grupo, el 25% personas que respondieron a la encuesta afirmaron que sobre viajes, otro 25% sobre compras y el 20% literatura sobre algún tema específico.
Reducir problemas
SearchTogether está diseñada para reducir estos problemas, almacenando las búsquedas que los miembros del grupo han introducido ya. Además, rastrea los comentarios que se han vertido respecto a las páginas que han encontrado. El iniciador de la búsqueda puede usar la herramienta para repartir el trabajo entre los miembros del grupo.
Lo usuarios pueden investigar los resultados sin duplicar los esfuerzos de otros. Si la búsqueda se convierte el relevante para algún otro miembro del grupo (por ejemplo, para un miembro de una familia que quiere hacer el mismo viaje que ya hizo otro previamente), nuevos usuarios pueden ser invitados a entrar en el proyecto de búsqueda, en el que ven las búsquedas y los comentarios que ya hay almacenados.
Si los usuarios están buscando simultáneamente, pueden utilizar una de las funcionalidades de SearchTogether para ver en tiempo real las páginas que otros están buscando, pudiéndose comunicar con ellos mediante un mensaje instantáneo.
El equipo dirigido por Morris está ahora muy interesado en añadir otras funcionalidades que proporcione a los usuarios formas de clasificar más sofisticadas. Por ejemplo, si un médico y un profano buscan información sobre una determinada enfermedad, la herramienta podría enviar automáticamente todo el material técnico al médico.
Gestionar los detalles
Muchos grupos de trabajo luchan para difundir los cometidos de búsqueda de un modo eficiente, para mantener a todos sus miembros informados correctamente respecto a lo que los demás están haciendo y para llevar los resultados de la búsqueda a todos.
Muchas de las interacciones de un grupo en el "mundo real"; se basan en gestos. Una buena herramienta de colaboración, según opina Madhu Reddy, que es profesor de servicios de la información de la Penn State University en un artículo publicado por Technology Review, sería capaz de compensar la pérdida de esos gestos, por ejemplo cuando un miembro del grupo quiere señalar un solo elemento de una página web.
Para él, hay varios aspectos que hay tener en cuenta respecto a la herramienta que se acaba de presentar. Así, no sabemos a ciencia cierta de qué manera la gente colabora; es ahora cuando se está desarrollando la investigación empírica en este campo. Por eso, considera que herramientas como esta tendrán que ser diseñadas para soportar diferentes tipos de búsqueda.
Podemos imaginar usuarios anónimos trabajando juntos en continentes diferentes, lo cual es muy diferente a un grupo de la misma organización que trabaja para resolver problemas, comenta Reddy.
El interés de Morris en la búsqueda colaborativa se extiende a otros campos. Así, también trabaja en el diseño de otra herramienta que ayuda a múltiples usuarios de un mismo ordenador a buscar como si fueran un equipo. Por otro lado, una nueva versión de SearchTogether será presentada esta primavera.
SEGURIDAD E INTERNET
La guía Yellowpages.com aparecerá en las páginas de Microsoft
AT&T dijo que su guía telefónica Yellowpages.com se distribuirá en listados en las páginas locales de búsqueda de Microsoft, sustituyendo el servicio Superpages.com, de Idearc.
| Fuente: REUTERS
Se espera que el acuerdo entre en vigor a primeros de abril, dijo AT&T. Los términos financieros no se revelaron.
El lunes, AT&T dijo que espera que sus ingresos procedentes de Yellowpages.com y de la publicidad de contenidos - incluyendo anuncios en sus teléfonos móviles, así cimo en los servicios de vídeo e Internet de alta velocidad U-Verse - sobrepasen los 1.500 millones de dólares (unos 960 millones de euros) en 2010, frente a los alrededor de 600 millones de dólares en 2007.
Intel y Microsoft investigarán la computación paralela
Intel y Microsoft han acordado invertir 20 millones de dólares (unos 13 millones de euros) durante los próximos cinco años para crear dos centros de investigación sobre la computación paralela en sendas universidades estadounidenses.
| Fuente: REUTERS
Las dos empresas trabajarán con las Universidades de Illinois en Urbana-Champaign y la de California en Berkeley. Ambos centros universitarios contribuirán con un total de 15 millones de dólares a los centros de investigación.
La computación paralela permite a los ordenadores funcionar más rápido y repartir las tareas entre varios microprocesadores, en lugar de utilizar un sólo procesador para realizar una tarea cada vez. Sin embargo, no todas las empresas de software saben cómo diseñar software acorde a esta tecnología.
"El paralelismo es el camino hacia niveles de rendimiento sin precedentes, necesarios (...) para mantener en marcha este crecimiento", afirmó Andrew Chien, director de investigación de Intel, en una conferencia para presentar la iniciativa.
Desde hace décadas, impera en la industria de la tecnología la opinión expresada en 1965 por el cofundador de Intel Gordon Moore de que la capacidad de los procesadores se dobla cada año, en lo que ha pasado a conocerse como la ley de Moore.
Pero mientras Intel y el resto de la industria de los procesadores continuaban aumentando la velocidad a la que operaban sus chips, se enfrentaban al problema de que los procesadores producían demasiado calor y consumían demasiada energía.
Por tanto, Intel y su rival Advanced Micro Devices pasaron a principios de esta década a la fabricación de procesadores con multi núcleo, o varios centros, en una especie de antecesor de la computación paralela.
Convertir esa idea en realidad podría suponer grandes avances en el campo de la robótica o el software, por ejemplo con programas que tradujeran documentos en tiempo real a varios idiomas, o con un asistente sanitario digital personalizado.
"Estamos en medio de toda una revolución en el sector de la computación", afirmó Tony Hey, vicepresidente ejecutivo de investigación externa en Microsoft Research, "y afectará profundamente a la forma en la que desarrollamos software" para súper ordenadores, servidores que forman el centro neurálgico de las redes corporativas, ordenadores portátiles y de escritorio y también, por último los dispositivos móviles.
Los Centros de Investigación Computación Paralela Universal en las dos universidades incluirán a más de 100 estudiantes e investigadores
Steve Jobs prepara un Apple TV grabador
Apple no para en su empeño por renovar la forma de entender la reproducción de contenidos multimedia. Tras hacerse con el mercado de los reproductores mp3 y crecer a pasos agigantados en la telefonía móvil, el reproductor de programas y películas Apple TV parece ser la próxima frontera.
Fuente: EUROPA PRESS
A principios de año, la compañía de la manzana presentó su servicio de descarga de contenidos on-line, compatibles e intercambiables entre todos los ingenios Apple, con el que se espera revitalizar las aletargadas ventas del aparato. Ahora, por si esto fuera poco, está en camino una nueva versión del aparato con posibilidad de grabar.
Según una patente de Apple, la compañía está rediseñando su popular reproductor de contenidos descargados de Internet para que se convierta en un grabador en la línea de los populares Device Video Recorder (DVR), que tan a la orden del día están en los hogares estadounidenses.
En las imágenes que ilustran la patente de Apple se observa un menú de navegación integrado en la misma reproducción de contenidos, en la línea del Sistema Operativo Leopard de los ordenadores de la compañía. También incluiría un disco duro de gran capacidad y sistemas de búsqueda y clásificación.
Sin embargo, lo que más llama la atención del prototipo es un mando "inteligente" con una fisonomía similar a los últimos iPods, con pantalla y con los mismos botones de control. Este mando serviría para consultar planes de programación con mucho tiempo de antelación, programar o acceder a las grabaciones y crear listas de reproducción, entre otras cosas.
Los spammers se aprovechan de "Google Calendar" para estafar a los internautas
Una nueva variante del timo "Nigeriano" utiliza Google Calendar para hacer creer a la víctima que ha recibido una importante suma de dinero.
Fuente: REDACCIÓN, AP
BitDefender ha detectado la utilización por parte de spammers del denominado timo "Nigeriano". Para ello, se han servido de una página de los libros de usuarios corporativos para enviarles invitaciones de reuniones mediante Google Calendar como "gancho". Aparentemente, los correos están personalizados con diferentes links para cada destinatario, lo que hace más difícil su detección mediante los filtros de URLs.
Esta es una nueva ingeniería social que hasta ahora no había sido utilizada. Precisamente por ser algo novedoso, resulta muy extraño su alto nivel de propagación. Habitualmente las nuevas técnicas de spam suelen pasar por fases de evaluación para medir la respuesta del usuario, pero en este caso, sin embargo, no ha sido así.
El timo "Nigeriano" consiste en comunicar a la posible víctima que ha heredado una alta suma de dinero por parte de una fuente inesperada y anónima, para a continuación extraer el pago para "acordar la entrega" de dicha cantidad. El soporte de Google ha sido avisado para que pueda bloquear el uso de sus cuentas para dichos fines.
Ciencia y Tecnologia 03-19-2008
REDES SOCIALES E INTERNET
Acusan a Google Maps de ir demasiado lejos
PUEDEN VERSE HASTA MATRíCULAS DE LOS COCHES
Argumentan que el detalle en las imágenes de este servicio es tan exacto que invade la privacidad de las personas; aseguran que incluso se puede apreciar el número de matrícula en automóviles estacionados.
Fuente: EL UNIVERSAL
Sonia López es fanática de Google. Pero no tanto así de sus mapas. Llamémoslo un caso de demasiada información.
La residente de San Antonio recientemente se sintió sumamente sorprendida al descubrir que la función Street View (vista a pie de calle) de Google Maps tenía una detallada imagen de su casa, en la que incluso se podía apreciar el número de matrícula de sus automóviles estacionados.
No importa que otros en línea puedan verlo. A ella lo que le intriga es por qué Google no la notificó. ¿Y qué pasaría si sus hijos hubieran sido fotografiados? "Es como un factor Big Brother", dijo López. "¿Cuál es la necesidad de que nuestras casas puedan verse en internet?" López no es la única preocupada con el nivel de detalles que muestra Google.
Bajo el argumento de riesgos de seguridad, el Pentágono la semana pasada le prohibió a Google hacer mapas de instalaciones militares estadounidenses luego de que aparecieran imágenes a pie de calle del Fuerte Sam Houston.
Google Maps tiene a más de 25 ciudades estadounidenses registradas en su función de Street View (vehículos con una cámara montada en sus techos producen la perspectiva de 360 grados).
La cartografía ciertamente representa un ambicioso esfuerzo por facilitar la navegación en las calles y carreteras. ¿Pero es también una invasión a la privacidad? "Las imágenes que muestran son en gran medida lo que cualquiera vería al caminar por la calle", declaró el portavoz de Google, Larry Yu. Yu destacó que Street View sólo muestra avenidas públicas principales.
Google Maps indicó que tales imágenes "están disponibles en una amplia variedad de formatos para ciudades de todo el mundo". Además, Google Maps ofrece una opción para eliminar imágenes.
Al seleccionar una vista a pie de calle, verá la opción de Ayuda. Sólo hay que pulsar sobre ella y luego seleccionar "reportar imagen inapropiada", y de ese modo podrá reportar imágenes que incluyan contenido inapropiado, que violen la privacidad, que impliquen preocupaciones de seguridad personal u "otros".
"Lo que hicimos fue facilitarle a la gente exponer sus dudas sobre las imágenes y, si la gente no se siente cómoda, las eliminamos", comentó Yu, y agregó que no son muy comunes ese tipo de solicitudes.
Además, destacó que generalmente toma un par de semanas eliminar una imagen dado que todos los reportes son verificados primero. Una imagen problemática obvia (digamos, desnudez) es eliminada inmediatamente.
Un ejemplo de esto se dio el año pasado cuando Google retiró una toma a pie de calle en San Francisco en la que se veía a una mujer dentro de una camioneta con los pantalones lo suficientemente abajo como para revelar su ropa interior.
Sin embargo, la red no es un pizarrón en el que se pueden borrar fácilmente las cosas. Aunque Google Maps ya no ofrece la famosa imagen, una búsqueda en Google lo llevará directamente a un sitio que la tenga.
Sitios como Google Street View Sightings tienen esa imagen además de varias imágenes a pie de calle poco usuales.
Lo que trae a la mente el llamado efecto Streisand, cuando un intento por eliminar información en línea resulta contraproducente y genera una mayor atención.
En 2003, la cantante y actriz Barbra Streisand demandó al fotógrafo aficionado Kenneth Adelman por publicar en la red una foto aérea de su propiedad en Malibu.
Streisand argumentó invasión a su privacidad pero la demanda fue descartada. Bastó con eso para que la propiedad de Streisand fuera todo menos privada.
¿Sonia López y el resto de nosotros deberíamos preocuparnos de atraer la misma atención? Es muy poco probable.
"No me parece que se genere un efecto Streisand con todo esto porque no hay necesidad de demandar para eliminar una imagen de Google Maps", declaró Mickey Mellen, creador del sitio web The Streisand Effect y de los sitios Google Earth Hacks y Digital Earth Blog.
La red social Facebook añade más controles de privacidad
Facebook anunció que introducirá nuevos controles de privacidad, con los que los usuarios de la red social tendrán la posibilidad de establecer distinciones sociales entre amigos, familia y compañeros de trabajo.
Fuente: REUTERS
Directivos de Facebook dijeron el martes a Reuters en la sede central de la empresa en Palo Alto, California, que los cambios permitirán a sus más de 67 millones de usuarios activos en todo el mundo controlar lo que ven sus amigos, y los amigos de sus amigos.
La empresa se fundó en 2004 como una red social para estudiantes de la Universidad de Harvard, y se extendió con rapidez a otras universidades y después a centros de trabajo. Su popularidad deriva de cómo la página permite a sus usuarios compartir online detalles de su vida en la medida en que prefieran con amigos seleccionados.
Matt Cohler, vicepresidente de gestión de producto de Facebook, explicó a los periodistas que la empresa quería evolucionar más allá de los simples controles de privacidad que tenía en un principio, diseñados para grupos relativamente homogéneos de usuarios universitarios.
"Tenemos muchos más usuarios, muchos más tipos de usuarios, muchas más relaciones, tenemos muchas más clases de relaciones", dijo Cohler.
Pero sólo el 25 por ciento de los usuarios se han molestado por controlar su privacidad utilizando las opciones de configuración, añadió la empresa en un comunicado.
Los nuevos controles de privacidad, que aprovechan las "listas de amigos" para crear categorías entre los amigos de los usuarios, se introducirán el miércoles, indicó la empresa.
Aunque parte del atractivo de Facebook son los crecientes controles de privacidad que ofrece a sus usuarios en comparación con otras grandes redes sociales, la página ha sido también objeto de dos grandes rebeliones de sus usuarios en respuesta a nuevas aplicaciones, que a juicio de muchos exponía a la vista información que antes era privada.
A finales del año pasado, Facebook permitió a sus usuarios cancelar una polémica aplicación llamada Beacon que vigilaba las páginas que visitaban, y el consejero delegado de la empresa, Mark Zuckerberg, se disculpó por no haber respondido antes a las quejas de privacidad.
Cohler indicó que la empresa se enfrenta a lo que llamó un "clásico dilema de Silicon Valley", entre añadir más aplicaciones sencillas de utilizar y proteger a sus miembros de revelaciones personales inesperadas.
Una de esas nuevas aplicaciones es Facebook Chat, un servicio de chat que permite a los usuarios conectados charlar desde la página en tiempo real y sin descargarse ningún software, y que se introducirá en las próximas semanas, según la empresa.
Bento supera el cuarto de millón de descargas
Mas de 250.000 usuarios han descargado Bento, la nueva base de datos personal para Mac OS X Leopard, ha anunciado FileMaker.
Fuente: REDACCIÓN, AP
La mayoría de descargas de Bento proviene de ventas y descargas demo en América del Norte, y la empresa ha empezado ya a distribuir Bento en todo el mundo. Además de la versión en Inglés, Bento está también disponible en Francés, Italiano, Alemán, Español y Japonés.
"La popularidad de Bento se ha visto impulsada por la necesidad de disponer de una herramienta de organización fácil de usar como Bento, y por la rápida adaptación de Mac OS X Leopard" afirma el presidente de FileMaker Dominique Goupil.
Bento además se ha ganado elogios de la comunidad editorial. Recientemente Business Week decía" es una potente herramienta que todo el mundo puede usar " Bento ha sido nombrado como la Elección de Editores por la revista Laptop. Macworld Magazine (UK) y Mac Observer.
Bento es la base de datos personal más estilosa que permite a los usuarios de Mac organizar su trabajo y su vida con facilidad. Diseñada específicamente para Mac OS X Leopard, Bento es una excepcional manera de organizar sus contactos, calendarios, proyectos, eventos y más, más fácil y rápido que nunca.
martes, 18 de marzo de 2008
Seguridad e INTERNET
Vishing, estafas vía voz
El término "vishing" significa "phishing de voz", o sea una clase de estafas realizadas a partir de llamadas telefónicas. Un interesante artículo en el blog de seguridad del Washington Post, reporta algunos casos recientes, que por supuesto, aún podrían estar ocurriendo.
Fuente: VS ANTIVIRUS
El phishing en telefonía móvil no es nuevo, aunque tal vez no se ha hablado demasiado de ello, tal vez porque la cantidad de casos reportados han sido pocos, y generalmente circunscriptos a determinadas áreas geográficas. Sin embargo, la gente debería al menos estar más enterada de que estas cosas ocurren.
Desde hace mucho se conocen scams (engaños) que se valen de la voz sobre IP para cometer estafas (o sea "vishing"). Otra modalidad similar que utiliza mensajes SMS para captar la atención de la víctima, es denominada "smishing".
En los casos concretos a los que se refiere Brian Krebs del Washington Post, las estafas son una combinación de ambos métodos.
El usuario recibe un mensaje de texto no solicitado, donde se le dan instrucciones para que llame a un determinado número telefónico. Cuando se hace la llamada, un sistema de voz automatizado, le solicita un número de tarjeta de crédito y su PIN.
Según el reporte, los estafadores no solo se valen de la inocencia de sus víctimas, sino también de diferentes agujeros de seguridad en tecnologías de Internet que aparentemente nada tienen que ver entre si. Esto demuestra un gran talento para sacar provecho de todo lo que sirva a la hora de cometer sus robos, arriesgando lo menos posible su propio pellejo.
El escenario descrito por Krebs, es una versión mucho más sofisticada de otras que se han visto en el pasado. Los delincuentes se tomaron bastantes molestias para crear escenarios los más creíbles posibles, desde donde llevar a cabo sus ataques.
Por ejemplo, su sistema envía mensajes de texto solo a los números de teléfonos móviles pertenecientes a las mismas zonas donde la institución financiera local atacada reside.
Básicamente, los mensajes avisan de "actividades sospechosas" que obligaron a cerrar la cuenta bancaria de la víctima. Llamando a un número determinado, dicha cuenta será reactivada.
Aquellos que llaman, son atendidos por una casilla de voz automática (el clásico mensaje "Bienvenido a EMPRESA X. Pulse 1 para TAL COSA, pulse 2 PARA TAL OTRA, etc.) Allí se le solicita número de tarjeta de crédito, fecha de expiración y PIN para verificar esa información.
Los sistemas de correo de voz que participan en este tipo de fraudes, son por lo general servicios gratuitos, de bajo costo o redes de telefonía basadas en Internet, lo que hace difícil de ser rastreados y eliminados.
El reporte, menciona como afectadas a dos instituciones de crédito (Motorola Employees Credit Union y Boulder Valley Credit Union), y un banco (Bank of the Cascades).
Los delincuentes se valieron de una vulnerabilidad antigua para comprometer un sitio web, instalar scripts conteniendo millones de proveedores y números telefónicos, y las credenciales necesarias para enviar correo electrónico a cientos de servidores de correo, previamente comprometidos mediante el robo de cuentas utilizadas para recibir los reporte de "abuso".
Los timadores fueron capaces de utilizar estas cuentas, porque los administradores de los servidores habían fallado al no crear contraseñas fuertes para las mismas.
Por ejemplo, una de las cuentas utilizadas en los ataques, era "abuse @ gov. br", la cuenta destinada a denunciar spam en el portal del gobierno brasileño.
Otra cuenta utilizada en el atentado, pertenecía a una empresa canadiense de cerveza. La contraseña utilizada por los administradores era "abuse", aunque parezca chiste.
Lo único que nos queda agregar como comentario a esta noticia, es que la mayoría de estos casos, podrían ser evitados si aplicamos a toda llamada telefónica o mensaje de texto que nos pida revelar información personal, o llamar a teléfonos desconocidos, la misma filosofía que debemos tomar con los correos electrónicos no solicitados. O sea, ignorarlos.
Si el banco o institución financiera desea contactarse con usted por alguna razón urgente, seguramente utilizará métodos más seguros, y nunca le va a solicitar esa clase de datos de forma directa.
Y obviamente, si administra un sitio web o servidor de correo, debería asegurarse de tener al día los últimos parches de seguridad, y de no utilizar contraseñas débiles o idénticas para todos sus servicios.
Las TIC promueven la masificación de la innovación
Las empresas externalizan a través de Internet la búsqueda de soluciones
Una fórmula de búsqueda y venta de ideas innovadoras llamada crowdsourcing se extiende entre las empresas aprovechando el flujo masivo de mentes pensantes y creativas que se acercan a Internet. Mediante este sistema, una empresa propone problemas y ofrece una recompensa a quienes los resuelvan o propongan un proyecto de éxito. Con este sistema salen ganando las empresas, porque tienen más posibilidades de encontrar soluciones. Salen ganando los “cerebros”, porque pueden vender sus ideas. Y salen ganando los sites que ponen en contacto a “buscadores” y “solucionadores" porque se llevan un porcentaje de lo que ganen los que ofrezcan las mejores soluciones a las compañías. Así se masifica la innovación y se democratizan los premios a la creatividad.
Fuente: Tendencias Cientificas
Las TIC están dado lugar en los últimos años a una novedosa fórmula de externalización de la innovación, explotando el poder creciente de las comunidades de Internet: el llamado crowdsourcing, sistema por el que una empresa propone problemas y ofrece una recompensa a quienes los resuelvan o al mejor proyecto. Por su parte, el site de Internet utilizado como medio se beneficia de un porcentaje de la recompensa propuesta por la compañía.
La etimología del término crowdsourcing explica mpor sí sola el concepto: crowd significa “multitud”, y sourcing se refiere a la obtención de “materia prima”. Es decir, “obtener la materia prima de la multitud”. En definitiva, el crowdsourcing sirve para sustituir los contratos de trabajo tradicionales por la participación masiva de los internautas en la búsqueda de soluciones y propuestas.
Este sistema se está extendiendo, y empresas como Boeing o Dupont lo han aplicado ya. La importancia del crowdsourcing radica en la posibilidad de que una gran cantidad de participantes entusiastas puedan realizar el trabajo de un pequeño grupo de profesionales experimentados.
Venta de ideas en la Red
Algunos ejemplos de estos sites en los que los cerebros creativos pueden vender sus ideas son la estadounidense InnoCentive, la canadiense Cambrian House y, el más reciente: Kluster.
InnoCentive es una compañía fundada en 2001 que cuenta actualmente con un total de 125.000 participantes, una red de “las mentes más brillantes del mundo”, según la compañía. Comenzó ofreciendo recompensas a los internautas capaces de aportar soluciones a problemas relacionados con la ciencia pero, desde 2007, abrió el campo de la demanda de ideas a la ingeniería, las tecnologías de la información y los negocios.
La compañía ofrece, en su página web, honorarios de alrededor de 650.000 euros por soluciones creativas en los sectores antes mencionados. Además, pone en contacto a los “Solvers” (ingenieros, científicos, inventores, etc.) con los “Seekers” o buscadores, que son las organizaciones que andan a la caza de soluciones alternativas. Todo ello en la más estricta confidencialidad.
Bajo el mismo techo
En Canadá tiene su base Cambrian House, una compañía de crowdsourcing especializada en proyectos de Internet y programas informáticos. Con una comunidad de 64.000 pensadores, su lema es “¿cómo desencadenar las ideas, el talento y el espíritu empresarial de miles de personas? Póngalas todas juntas bajo el mismo techo”.
El techo, en este caso, es su página web. Bajo él, los participantes de la comunidad Cambrian han desarrollado un videojuego online llamado Gwabs. Además, a mediados de abril de este año, Cambrian House lanzará VenCorps, un site en el que inversores y empresarios podrán evaluar sus ideas de creación de empresas, utilizando el conocimiento, las redes y las experiencias del colectivo.
Por último, está la californiana Kluster, que ha sido presentada recientemente en el transcurso de la conferencia TED (Technology Entertainment Design), celebrada en California a mediados de febrero. Ciertas empresas pujan ya por ideas nuevas a través de Kluster, ofertando recompensas de más de 30.000 euros.
La teoría bajo esta nueva iniciativa de crowdsourcing, según el New York Times: si los ejecutivos se quieren apoyar en la mente de las masas para fortalecer sus negocios, probablemente las masas deban empezar a recibir retribuciones por la ayuda que prestan.
Moneda virtual
En Business Week se explica que Kluster es una red social de innovadores, es decir, que en esto es igual a los anteriores sites. Pero Kluster tiene una diferencia: las mejores sugerencias, es decir, las más votadas, recibirán valoraciones virtuales llamadas “watts”, canjeables por dinero si dichas sugerencias son finalmente escogidas.
En Kluster también es posible crear proyectos a partir de ideas propias para las que no se tengan recursos y valorar las ideas de otros usuarios. Para ello se pueden utilizar los watts: si las ideas por las que se ha apostado son elegidas, estas monedas electrónicas se devolverán con un margen de ganancias.
En definitiva, parece que este modelo se hace cada vez más popular (existen otros ejemplos, como Ideastorm de Dell, Crowdspirit o Ideablob). Y parece justo que se pague a las “masas”, como dice el New York Times, dado que la mayoría de las grandes compañías utilizan ya las comunidades de Internet para evaluar sus productos a través de blogs y foros, que les sirven para reunir información precisa y masiva acerca de ellos. Sin Internet evidentemente las empresas jamás habrían podido conseguir dicha información… pero tampoco sin la gente.
http://es.wikipedia.org/wiki/Crowdsourcing
http://www.innocentive.com/
http://www.cambrianhouse.com/
http://www.kluster.com/
http://www.bulletins-electroniques.com/actualites/53438.htm
Curiosidades
La botella de champán más cara del mundo cuesta 4.166 euros
La empresa Pernod-Ricard lanzará el próximo jueves el champán más caro del mundo, un Perrier-Jouet vendido por cajas de doce botellas a 50.000 euros (77.000 dólares), signo del éxito creciente que cosechan estas burbujas de lujo en el mercado internacional.
Fuente: AFP
La botella, de 75 cl, sale pues a 4.166 euros (unos 6.420 dólares) y supera el récord precedente de una serie limitada de 10 Jeroboamas de Dom Perignon (grupo LVMH), que se vendieron a 4.000 euros el litro (unos 6.160 dólares) durante el Festival de Cine de Cannes de 2005.
"Vamos a vender estas cajas a 100 personas en el mundo para que puedan confeccionar ellas mismas su propio champán, el último lujo", explicó a la AFP Olivier Cavil, director de comunicación de Perrier-Jouet. Esta serie especial, destinada a una "comunidad de super-ricos", se distribuirá únicamente en siete países: Estados Unidos, Gran Bretaña, Japón, China, Rusia, Suiza y Francia, a razón de una quincena de cajas por país.
"Todos los compradores vendrán a Epernay (este de Francia) para reunirse directamente con nuestro jefe de bodega, Hervé Deschamps", explica Cavil. De esta forma podrán añadir por sí mismos el 'licor' (azúcar y vinos de diferentes años) de su gusto y personalizar así las botellas de blanco de la cosecha Belle Epoque, de 2000. Además de estampar su firma en la etiqueta, el cliente podrá almacenar su pedido en las cavas de Perrier-Jouet, donde las botellas serán conservadas durante ocho meses.
Algunas celebridades podrán beneficiarse de forma gratuita o a precio reducido de esta cosecha bautizada 'By and For', entre ellas la actriz española Victoria Abril o la cantante Marianne Faithfull.
Pernod-Ricard, segundo grupo mundial en vinos y licores, regresó en 2005 al sector del champán al pasar a controlar las marcas Mumm y Perrier-Jouet tras adquirir la británica Allied Domecq. Ocupa la cuarta plaza en este mercado mundial floreciente, con 338,7 millones de botellas vendidas en 2007, es decir, un alza del 7,3% respecto a 2006.
10 minutos de ejercicio al día para ser feliz
Ejercitar tan sólo entre 10 y 30 minutos por día puede hacer que las adultas obesas o con sobrepeso se sientan mucho mejor, informaron investigadores estadounidenses.
| Fuente: REUTERS
Los expertos dijeron que incluso las mujeres que sólo realizaban actividad física 10 minutos diarios registraron importantes mejoras en la calidad de vida: tenían más energía, menos ansiedad y eran más felices.
El estudio se encuentra entre los primeros que examinan cómo el ejercicio puede mejorar la calidad de vida de las mujeres posmenopáusicas que si bien están muy fuera de forma, son saludables, señaló el doctor Timothy Church, del Centro de Investigación Biomédica de Pennington, en Louisiana.
"Este es por lejos el ensayo sobre actividad física más amplio que observó la calidad de vida", dijo Church en una entrevista telefónica.
Los resultados de la investigación, que fueron presentados en una Conferencia sobre Nutrición, Actividad Física y Metabolismo de la Asociación Estadounidense del Corazón, actualizan un estudio del 2007 publicado por Church y otros colegas en Journal of the American Medical Association.
El estudio anterior halló que las mujeres que ejercitan entre 10 y 30 minutos al día presentan mejoras en su estado físico. El nuevo trabajo agregó otras mediciones, como la salud mental y el funcionamiento social.
Los investigadores estudiaron a 430 mujeres sedentarias que ya habían pasado la menopausia y tenían un promedio de 57 años.
Los expertos asignaron a las pacientes a tres grupos de ejercicio: uno en el que ejercitaban 70 minutos por semana, uno en el que hacían 135 minutos de actividad semanal y otro en el que el entrenamiento era de 190 minutos semanales.
Un cuarto grupo no realizó un plan de actividad organizado y sirvió como control.
Al comienzo del estudio, las mujeres fueron consultadas sobre sus hábitos de salud, su condición física, incluido cualquier dolor o limitación, y la salud mental, donde se les consultó si estaban nerviosas, deprimidas, tranquilas o felices.
Después de seis meses, los investigadores hallaron que las participantes en el grupo de mayor actividad física registraron las principales mejoras en la mayoría de los ítems relacionados con la calidad de vida.
Pero incluso las mujeres en el grupo de ejercicio más leve observaron mejoras en la salud general, la vitalidad, el bienestar emocional y el funcionamiento social.
"Se trata solamente de 10 minutos de caminata diaria a un ritmo rápido", dijo Church sobre la cohorte que realizó la menor cantidad de actividad física.
El experto dijo que las mujeres del estudio solamente bajaron en promedio entre 1,5 y 2,5 kilos.
"Estos cambios en la calidad de vida no estuvieron dados por el (descenso de) peso. Los cambios fueron efectuados por las modificaciones en la actividad", concluyó el autor.
Equipos de Tecnologia
TARJETAS GRáFICAS
NVIDIA Quadro FX 3700
La NVIDIA Quadro FX 3700 de PNY Technologies ofrece una elevada velocidad de transmisión de datos para la visualización interactiva, así como 112 procesadores paralelos, 512MB de memoria de vídeo en la placa y una interfaz de memoria de 256 bits, con lo que puede manejar sin dificultad modelos de grandes dimensiones y los complejos sombreadores (shaders) de tiempo real que suelen utilizarse en la industria del diseño CAD y DCC.
Fuente: REDACCIÓN, AP
Para mejorar radicalmente la experiencia de uso, la nueva tarjeta incorpora el motor ACE (Application Configuration Engine) de NVIDIA®, que configura automáticamente el hardware y el software de gráficos para garantizar un rendimiento óptimo de las aplicaciones.
"La avanzada arquitectura unificada de NVIDIA, introducida el año pasado, permite crear sofisticados shaders para simular una gama prácticamente ilimitada de características físicas tales como los efectos de iluminación (dispersión cromática, reflexión, refracción, modelos BRDF, etc.) y las propiedades de las superficies y los materiales (proyección de sombras, porosidad, efectos de moldura...)", declaró Laurent Chapoulaud, Professional Solutions Marketing Manager para Europa, Oriente Medio y África de PNY Technologies. "Los shaders de tiempo real permiten combinar y modificar estos efectos de forma interactiva, lo que resulta imposible con simples mapas de texturas 2D estáticos".
La tarjeta gráfica Quadro FX 3700 también es compatible con la segunda generación del bus PCI Express, lo que, básicamente, duplica la velocidad de transferencia de datos entre la GPU y los chipsets PCIe Gen 2 hasta alcanzar 16Gbps. Además, dado que es conforme con la especificación Energy Star 4.0, consume menos de 80W de potencia para favorecer un consumo más eficiente de la energía.
Las tarjetas gráficas profesionales NVIDIA Quadro FX 3700 de PNY están disponibles para integradores de sistemas, revendedores de valor añadido, y mayoristas en Europa y Oriente Medio a un precio recomendado de 859 euros (sin IVA).
CIENCIAS HOY
Las emisiones de CO2 en 2006 descendieron un tercio menos de lo estimado
Las emisiones de gases de efecto invernadero (GEI) descendieron 2,6 puntos en España en el año 2006 respecto al año base 1990. Esta cifra significa 1,4 puntos de descenso menos de lo estimado incialmente.
| Fuente: EUROPA PRESS
Hasta ahora la cifra que se manejaba era de un 4%, por lo que la cifra definitiva para el año 2006 queda establecida en un 49,35% más que en 1990.
El Departamento de Cristina Narbona comunicó el pasado jueves por la tarde de forma preliminar a la Comisión Europea el Inventario de Gases de Efecto Invernadero de España con los datos oficiales de las emisiones en 2006.
La aprobación formal del Inventario la realizará la Comisión Delegada del Gobierno para Asuntos Económicos en su próxima reunión.
"Las cifras reflejan una reducción de un 1,7 por ciento respecto al año anterior. Se trata de la primera reducción significativa de las emisiones GEI desde la aprobación del Protocolo de Kioto", añade Medio Ambiente en su comunicado.
En este sentido, reconoce que "los datos oficiales muestran una reducción algo menor que las cifras estimadas en abril del año pasado en el Informe elaborado por el World Watch Institute de España y Comisiones Obreras".
Hasta ahora, con una estimación de decrecimiento de emisiones del 4% se creía que, en conjunto, habían aumentado las emisiones de GEI un 48,05% desde 1990, cuando el Protocolo de Kioto sólo permite a España un aumento del 15% respecto a los niveles de 1990, en el periodo 2008-2012.
En estos momentos, las últimas cifras oficiales indican, por tanto, que el nivel de emisiones hace dos años era un 49,35% superior al de 1990, es decir, una diferencia de 34 puntos. El Ejecutivo preveía que las emisiones de 2008 superarían un 37% los niveles de 1990 (todavía no se conocen los niveles de emisiones de 2007), por lo que su estrategia consiste en cubrir la diferencia respecto con Kioto mediante la aplicación de los llamados Mecanismos de Flexibilidad (que cubrirían un 20%) y con el efecto positivo de los sumideros de CO2, básicamente bosques (el 2% restante).
El coste de estas acciones rondará entre 2.000 y 3.000 millones de euros.
A partir de 2012, la UE prepara una estrategia que obligará a los sectores industriales a reducir al menos un 20% las emisiones respecto a 1990. En el sector difuso (vivienda, agricultura, transporte), no incluido en las obligaciones de Kioto, a España le correspondería una reducción de emisiones del 10% en 2020 respecto a los niveles de 2005.
Una cifra que el Gobierno considera que debería rebajarse, mientras que los ecologistas la critican por leve, dado que permitiría al país aumentar sus emisiones más del 30% en 2020, respecto a los niveles de 1990.
Otros gases
El Inventario no solamente presenta los datos de los gases de efecto invernadero sino que también contiene otros gases contaminantes que afectan a la calidad del aire como son los óxidos de nitrógeno (NOx), el dióxido de azufre (SO2), los compuestos orgánicos volátiles (COV), y el amoníaco (NH3).
Los resultados muestran que respecto a 2005 en SOx, NOx y COVs la situación ha mejorado en el conjunto de España, mostrando una bajada del 7%, 3% y del 2,5%, respectivamente. Por su parte, el NH3, aumenta un 4%, como consecuencia de los procesos del sector primario, esencialmente la agricultura.
El año pasado se aprobó la Estrategia Española de Calidad del Aire y la nueva Ley de Calidad del Aire y Protección de la Atmósfera, que, entre otras medidas, fija que si se superan los niveles de contaminación, las comunidades autónomas y ayuntamientos deberán elaborar planes de reducción que serán determinantes en los instrumentos de planeamiento urbanístico y de ordenación del territorio.
"Aunque 2006 fue un año de gran crecimiento económico en España y de aumento neto de la población, la eficacia de las políticas que el Gobierno ha estado poniendo en marcha empieza a mostrar efectos estables y consolidados de mejora de la situación ambiental", concluye.
Nuevo proceso para fabricar nanofibras de formas complejas y longitudes macroscópicas
(NC&T) Basado en la evaporación rápida de disolventes de "tintas" simples, el proceso se ha utilizado para fabricar nanofibras sin que deban estar fijadas sobre un substrato, conjuntos de nanofibras apiladas y carretes especiales de nanocables. Las aplicaciones potenciales incluyen la interconexión electrónica, los andamios biocompatibles para cultivo celular y las redes nanofluídicas. "El proceso es como dibujar con una pluma estilográfica: la tinta sale y rápidamente se seca o "solidifica", explica Min-Feng Yu, profesor de ciencia e ingeniería mecánicas. "Pero, a diferencia de lo que puede hacerse con una pluma estilográfica, nosotros podemos dibujar los objetos en tres dimensiones".
Para utilizar el nuevo proceso, Yu, Abhijit Suryavanshi y Jie Hu empiezan con un depósito de tinta conectado a una micropipeta de vidrio que tiene una abertura de tan sólo 100 nanómetros. La micropipeta se acerca al sustrato hasta que se forma un menisco líquido entre ambos. Cuando se aparta la micropipeta, entonces la tinta es arrastrada fácilmente desde el depósito. Dentro del diminuto menisco, la solución forma un núcleo y se precipita cuando el disolvente se evapora con rapidez.
Hasta ahora, los científicos han fabricado nanofibras sueltas de aproximadamente 25 nanómetros de diámetro y 20 micras de largo, y nanofibras rectas de aproximadamente 100 nanómetros de diámetro y 16 milímetros de largo (con el límite impuesto sólo por la capacidad de desplazamiento del dispositivo que mueve la micropipeta).
Para fabricar nanocables más largos, los investigadores desarrollaron un proceso de precisión que gira mientras segrega la tinta, y enrolla la nanofibra sobre una bobina que tiene unos milímetros de diámetro. Empleando esta técnica, Yu y sus colaboradores obtuvieron un carrete de microfibra, siendo ésta de aproximadamente 850 nanómetros de diámetro y 40 centímetros de largo.
Para demostrar la versatilidad del proceso, los investigadores segregaron nanofibras a partir de azúcar, de hidróxido de potasio (importante producto químico industrial) y de puntos cuánticos densamente agrupados. Las nanofibras son fabricadas por ahora utilizando tintas basadas en agua, pero el proceso se puede extender de modo fácil a tintas hechas con disolventes orgánicos volátiles.
Detección Mutua Entre Genes Sin Mediación de Biomoléculas
Algunos genes tienen la capacidad de reconocer similitudes entre ellos a distancia, sin la intervención de proteínas u otras moléculas biológicas en este proceso, según una nueva investigación. El descubrimiento podría explicar cómo genes similares se encuentran unos a otros y se agrupan con el propósito de ejecutar procesos cruciales involucrados en la evolución de las especies.
Esta capacidad de buscarse unos a otros puede ser la clave de cómo los genes se identifican y se alinean entre sí para comenzar el proceso de la recombinación homóloga.
La recombinación es un proceso importante que ejerce un papel fundamental en la evolución y en la selección natural, y es de importancia crucial para la capacidad del cuerpo de reparar el ADN dañado. Hasta ahora, los científicos no sabían con exactitud cómo los pares de genes adecuados podían encontrarse unos a otros para que este proceso comenzara.
Los autores de este nuevo estudio realizaron una serie de experimentos con el propósito de comprobar la teoría desarrollada en el 2001 por dos miembros de este equipo, de que grandes fragmentos idénticos de ADN trenzado podían identificarse entre sí como resultado de los patrones complementarios de cargas eléctricas que poseían. Querían verificar si esto podía ocurrir sin contacto físico entre las dos moléculas, y sin necesitar de la presencia de proteínas.
Estudios previos han sugerido que las proteínas están involucradas en el proceso de reconocimiento cuando este proceso transcurre entre hebras cortas de ADN de sólo 10 pares de bases químicas. Esta nueva investigación demuestra que las cadenas de ADN mucho más grandes, con cientos de pares de bases químicas, parecen ser capaces de reconocerse entre sí como un todo, sin la mediación de las proteínas. Según la teoría, este mecanismo de reconocimiento es tanto más fuerte cuanto más largos sean los genes.
El profesor Alexei Kornyshev, del Imperial College de Londres, uno de los autores del estudio, subraya la importancia de los hallazgos del equipo: "Ver a estas moléculas de ADN idénticas buscarse y encontrarse la una a la otra entre la multitud, sin ayuda externa de ninguna clase, es sin duda fascinante".
Información adicional en:
http://www3.imperial.ac.uk/newsandeventspggrp/imperialcollege/newssummary/news_24-1-2008-14-30-52?newsid=25614
Descubren que las malas notas se deben a la mala memoria y no a una inteligencia baja
Un nuevo estudio realizado en el Reino Unido ha hallado que la mala memoria de trabajo, y no la poca inteligencia, es la razón por la que algunos niños tienen un rendimiento bajo en la escuela. Los investigadores implicados en este estudio han desarrollado lo que ellos llaman la primera herramienta mundial que sirve para evaluar la capacidad de memoria en el aula con vistas a ayudar a los profesores a adaptar sus enfoques didácticos.
Fuente: CORDIS
La memoria de trabajo es la capacidad para retener información de forma temporal en nuestras cabezas. Este tipo de memoria la utilizamos todos los días cuando tenemos que recordar un código pin o cuando estamos siguiendo los pasos de una receta pero ya no estamos mirando la página en el libro de cocina. En los colegios, los niños también utilizan este tipo de memoria cuando toman nota de las instrucciones que les dictan los profesores.
«La memoria de trabajo es una especie de bloc de notas mental y, dependiendo de lo buena que sea en cada persona, bien le facilitará el camino hacia el aprendizaje o bien le pondrá serias trabas para el aprendizaje», afirmó la Dra. Tracy Alloway de la Facultad de Educación de la Universidad de Durham, coordinadora de la investigación.
En una encuesta realizada a 3.000 escolares, los investigadores descubrieron que el 10% de los niños tenía una mala memoria de trabajo, lo que afecta gravemente a su capacidad de aprendizaje. En muchos casos los investigadores observaron que los profesores creían erróneamente que estos niños tenían problemas de atención o niveles bajos de inteligencia.
«A partir de varios estudios a gran escala que hemos realizado, creemos que el único modo de que los niños con mala memoria de trabajo puedan lograr un éxito académico es enseñándoles cómo pueden aprender a pesar de su poca capacidad para almacenar información mentalmente», comentó la Dra. Alloway.
«Actualmente, no se identifica ni evalúa la memoria de trabajo de los niños dentro del ambiente del aula. La identificación temprana de estos niños será un paso importante para abordar el bajo rendimiento escolar. Esto significará que los profesores podrán adaptar sus métodos para ayudar a los niños a aprender antes de que se queden muy rezagados respecto de sus compañeros», apuntó la Dra Alloway.
Gracias a esta herramienta desarrollada en el estudio, ahora será posible identificar a estos niños a la temprana edad de cuatro años, comentó la Dra. Alloway. La herramienta se compone de una lista de comprobación denominada «Working Memory Rating Scale» (WMRS o Escala de valoración de la memoria de trabajo), que ayuda a los profesores a reconocer a los niños que probablemente tienen este problema sin tener que someterlos a ninguna prueba. Si un niño marca muchas de las casillas de la lista, el profesor puede en ese momento realizar lo que se conoce como «Automated Working Memory Assessment» (AWMA o Evaluación automatizada de la memoria de trabajo) a través de un programa informático.
Además de evaluar el rendimiento de los niños, la herramienta también sugiere a los profesores cómo tratar a los niños con mala memoria de modo que no queden rezagados en clase. Entre las sugerencias figuran la repetición de instrucciones, el uso de estructuras de oraciones sencillas y la división de tareas en ejercicios más pequeños y manejables.
La herramienta se ha puesto en práctica en 35 escuelas en el Reino Unido y se ha traducido a otros diez idiomas. Según los usuarios, la herramienta ya está cambiando las cosas. «Ahora estamos empezando a ver a los niños desde una perspectiva diferente al conocer más acerca de las dificultades a las que se enfrentan los escolares con mala memoria», afirmó Chris Evans, director de una de las escuelas en la que se ha formado a los profesores para utilizar esta herramienta. «Nos hemos dado cuenta de que no son niños que sueñan despiertos, que no prestan mucha atención o que rinden por debajo de su capacidad, sino que se trata de niños que simplemente necesitan ser tratados con un enfoque diferente. Creemos que estos nuevos modos de aprendizaje pueden ayudar tanto al profesor como a los niños a realizar su trabajo de manera satisfactoria.»
www.dur.ac.uk/
Tecnologia y Ciencias 03-18-2008
REDES SOCIALES
Formas de encontrar a una persona en la red
En la web existen diversas maneras de hallar a personas, más allá de las redes sociales y el llamado googleo. Técnicas para encontrar direcciones personales y laborales, teléfonos, mails y otros antecedentes.
| Fuente: INFOBAE
Buscar datos de personas en internet dejó de ser una actividad realizada únicamente por ex novios o amigos de la infancia. Hoy día hasta las empresas se dedican a buscar antecedentes de sus empleados o futuros trabajadores.
Y en medio de esa fiebre, Google no es la única manera de realizarlo.
Gina Trapani, programadora norteamericana y editora del sitio Lifehacker, sitio dedicado al software aplicado a la productividad personal, relató cuáles son las herramientas más populares en la web para dar con toda la información online de cualquier persona.
Teléfonos y direcciones
El buscador de personas ZabaSearch brinda números y direcciones listadas y no listadas públicamente. Esto es posible debido a que los fundadores aseguran que toda la información es pública.
Buceando en lo profundo
Pipl es un motor de búsqueda con más resultados que Google debido a que navega en las profundidades de la web. Brinda una gran cantidad de resultados de las personas que usan su nombre real online, como páginas personales, colaboraciones en la prensa, perfiles en MySpace y listas de Amazon. Incluso, permite refinar la búsqueda por ciudades, estados o países.
Redes sociales
Suele suceder que una misma persona posee una cuenta en Friendster, Linkedin, MySpace, Twitter o Xanga. Por ello, en vez de realizar una búsqueda sitio por sitio, se puede ingresar en Wink.
El motor de búsqueda de trabajos ZoomInfo reúne la información de personas y compañías en un solo lugar para ayudar a los candidatos a encontrar el trabajo indicado. La herramienta de búsqueda de personas también devuelve información sobre las empresas, y sobre todo de las grandes, indica un artículo de InfobaeProfesional.
Facebook merece una mención aparte, ya que dejó de ser exclusiva para estudiantes y es una buena manera de encontrar viejos amigos o conocidos.
"Who is This Person"
Se trata de una extensión de Firefox, el popular navegador web. Si se buscan amigos online con mayor frecuencia, se puede rastrear en una tonelada de motores por el nombre de la persona usando "Who Is This Person? Firefox extensión".
Para ello, sólo hay que marcar el nombre en cualquier página web y buscarlo en Wink, LinkedIn, Wikipedia, Facebook, Google News, Technorati, Yahoo Person Search, Spock, WikiYou, ZoomInfo, IMDB, MySpace y otros motores de búsqueda desde el menú de Who Is This Person?
Tipear nombres en este motor de búsqueda es una actividad cotidiana en el mundo, aunque cuesta encontrar información detallada. Una de las maneras de refinar la búsqueda es encerrar entre comillas el nombre a buscar y además incluir palabras relevantes a la búsqueda, como la profesión, el lugar donde trabaja o su nickname.
Si la persona que está buscando sólo puede aparecer en un sitio en particular (como por ejemplo una escuela), hay que buscar solamente en ese sitio usando el operador: "site:ucla.edu "Juan Pérez".
ValueClick tendrá que pagar 1,8 millones de euros por enviar spam
ValueClick, una firma de publicidad en internet, pagará una multa récord de 2,9 millones de dólares (1,8 millones de euros) por haber violado las leyes estadounidenses sobre "correos basura", informó la Comisión Federal de Comercio (FTC).
Fuente: AGENCIAS
Se trata de la multa más alta impuesta a una empresa por una violación del acta federal de EEUU que sanciona las prácticas abusivas en la publicidad en línea.
Según la FTC, ValueClick violó la ley al enviar mensajes de correo electrónico a consumidores ofreciendo "regalos gratis" con el fin de atraerlos a sitios de internet de la compañía.
Una vez allí, los usuarios descubrían que, para acceder a esos regalos tenían que adquirir primero productos o servicios costosos, como suscripciones a televisión por satélite o créditos para la compra de vehículos.
Además, la FTC afirma que ValueClick no protegió adecuadamente los datos financieros de sus clientes, aunque aseguraba codificar esta información.
ValueClick no ha reconocido haber violado ninguna ley, pero el pasado mes decidió llegar a un acuerdo con la FTC para cerrar el caso. La cuantía de la multa no se conoció hasta ahora.
REDES SOCIALES & CONFLICTOS
Facebook se enreda en el conflicto de Oriente Próximo
Las airadas quejas de colonos judíos contra Facebook por incluirles como habitantes de "Palestina" llevó a la popular red social en Internet a permitir a los usuarios a que volvieran a meterse en Israel.
Fuente: REUTERS
Los usuarios de Facebook en Maale Adumim, Ariel y otros grandes asentamientos de Cisjordania - territorio ocupado por Israel en la Guerra de los Seis Días de 1967 - protestaron cuando la página les incluyó automáticamente como habitantes de "Palestina". Un grupo de colonos judíos acusó a la compañía con sede en California de tener motivos políticos.
Ari Zimmerman dijo en Facebook sentirse "sorprendido y decepcionado".
"Soy un ciudadano de Israel, como todos los habitantes de Ariel. No vivimos en 'Palestina', ni nadie más".
Brandee Barker, director de comunicaciones de la red social, dijo que los habitantes de los principales asentamientos pueden escoger ahora si aparecer en Israel o Palestina.
Israel quiere quedarse con Maale Adumim y otras colonias en cualquier acuerdo futuro con los palestinos
"También ofrecemos Hebrón tanto en Israel como en Palestina", declaró Barker en un correo electrónico a Reuters, refiriéndose a la ciudad en la que viven unos 150.000 palestinos y unos 400 colonos judíos.
Barker dijo que unos 18 asentamientos de Cisjordania están ya en Facebook y que muchos más se añadirán en el futuro, dando a los usuarios la opción de aparecer en Israel o Palestina.
GRUPOS RIVALES
Los usuarios palestinos ya han establecido su propio grupo en Facebook, con unos 4.700 miembros, que han amenazado con cancelar sus cuentas si eliminan a Palestina de la web.
"Creamos nuestro grupo para permitir que nuestras voces se oyeran no solo ante la dirección de Facebook, sino ante todos los usuarios, y para decir a todos que Palestina es y siempre será un país", dijo a Reuters el fundador del grupo, Saif Qadumi, de 20 años.
Sara Al, una de sus integrantes, pidió que se creara un grupo llamado "No es Israel, es Palestina", para ganar al grupo "No es Palestina, es Israel", que tiene 13.000 miembros.
Israel ocupó en 1967 Gaza, Cisjordania y el este de Jerusalén. De Gaza se retiró en septiembre de 2005. Los palestinos quieren crear su estado en los tres territorios, con el este de Jerusalén como capital.
Facebook incluye Jerusalén en Palestina.
Suscribirse a:
Entradas (Atom)
El Cielo
Explosion de Una Supernova
Bienvenidos aquellos que no se conformen en ver en tres dimensiones
Saludos mis amigos(as) ; Colegas y estudiantes
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria
Aqui estara una herramienta para todos donde podremos compartir nuestras ideas opiniones e informacion de una manera honesta y clara para que todos aquellos que acesen este blog puedan utilizarlo para crecimiento y conocimiento.
Las fuentes de informacion de este blog provienen de diferentes areas dentro de la red excepto algunos que son estudios de mi autoria