Y entre rumores que se desmienten, sobre todo los relacionados con el Siri y su llegada a los terminales móviles más viejos de Apple, llegan otros que se confirman. Como en toda compañía tecnológica que se digne. Esta vez las buenas noticias son para las Apple Store, cuya app de la tienda de aplicaciones de Apple ha sufido un interesante upgrade
En él, vamos a poder llevarnos el programa que elijamos desde internet a nuestra cesta de la compra para luego elegir en cual de las tiendas físicas de Apple de todo el mundo pasamos a recogerlo, algo que si bien ya tenían otras compañías de internet de gran distribución alrededor del mundo, echábamos de menos en Apple.
La rapidez va a ser la mayor ventaja de esta actualización que nos permite en tan solo unos sencillos pasos asegurarnos que en el plazo de una hora vamos a tener lo que estábamos buscando en la tienda física de nuestra elección. Pero como la innovación Apple no se podía quedar en lo ya inventado, ahora junto con esta ventaja han lanzado el Easy Pay. ¿Y para qué sirve?
Pues yo diría para ahorrarnos colas en las Apple Store y hacerles más sencillo el trabajo a sus empleados, ya que si nos vamos a una tienda física con nuestra app de la Apple STore instalada no tendremos que esperar para comprar algunos accesorios que ya incorporan este sistema Easy Pay. Nos bastará con escanear el código para que paguemos directamente desde internet y nos lo llevemos a casa en un periquete.
Hoy te quiero presentar una aplicación para tu iPhone e iPad, aunque también está disponible para Android, que a buen seguro le podrás sacar un buen partido. Su nombre es Restalo.es y es una aplicación de descuentos en restaurantes, tanto es así que te podrás ahorrar hasta el 70% en la carta o en el menú para comer o cenar, pinta bien, ¿verdad?
La aplicación en sí tiene muchas características interesantes, no nos vamos a engañar, y es que ya hacía falta una aplicación como esta estando como estamos en plena era del cuponing, además, como te podrás imaginar, es una aplicación gratuita, con lo que, ¿qué más puedes pedir?
En su base de datos podrás encontrar más de 3.000 restaurantes por toda España, además de en las principales capitales europeas, con muchísimas más opiniones por parte de los usuarios (en estos momentos pasan de las 100.000), para que puedas tener una recomendación antes de sentarte a la mesa, algo que es muy recomendable, ya que, al ir por primera vez a un restaurante, nunca sabemos a ciencia cierta si es lo que estamos buscando.
Si esto te parece poco, también cuenta con un servicio que te dirá restaurantes que estén cerca de ti, algo muy útil como decisión de última hora.
Pero, si eres de los de planificar, también puedes con Restalo.es, ya que, con esta aplicación para tu iPhone e iPad, también puedes buscar por ciudad, zona, precios, servicio, ofertas e incluso tipo de cocina en su buscador.
La cosa no queda aquí, ya que con esta aplicación también podrás reservar mesa directamente desde la aplicación, con un sistema de confirmación inmediata y en segundos, y, para finalizar en cuanto a características, también obtendrás puntos por cada reserva o cada amigo que recomiendes, y ojo, que esos puntos se traducen en cenas gratis.
Dicho esto, está claro que estamos ante la aplicación social de restauración del momento, y no te lo digo de forma gratuita, sino porque, en la actualidad, el portal Restalo.es es líder en España en reservas de restaurantes, con lo cual, es normal que su aplicación también lo sea.
Siento amargarles el día, pero por desgracia no soy de las que toman las decisiones dentro de la directiva de Apple. Y si desde cupertino nos hacen creer que es posible soñar con un Siri, o asistente de voz que ha revolucionado al iPhone 4s en español, también nos aseguran que podemos despertar de junto a Morpheo porque Siri, al menos por el momento no va a llegar a los dispositivos más antiguos de la compañía.
Así que los que se han hecho con un iPhone 4s, que poco más incluía además de Siri, al menos por ahora han hecho una buena compra. Y los que no, pues vamos a tener que conformarnos con un asistente de voz que no vamos a ver rodando por el momento en nuestros ya viejos iPhone.
Y es que si los rumores comenzaron a crecer, Apple viendo la que se podía avecinar se ha apresurado en apagarlos, aunque por ahora, una posibilidad todavía existe, ya que teniendo en cuenta que los desarrolladores han ya probado a Siri con bastante éxito en otros terminales móviles de Apple, puede que lo podamos difrutar sin que Apple lo haga oficial. Aunque todavía es demasiado pronto para arriesgarnos con conclusiones precipitadas.
“Nuestra demanda dice: “Google, esto es una puta copia del iPhone, nos habéis estafado por completo”. Es un robo descarado en primer grado. Invertiré hasta el mi último aliento si es necesario, y gastaré cada centavo de los 40.000 millones de dólares que tiene Apple en el banco para rectificar esta situación. Voy a destruir Android porque es un producto robado. Estoy dispuesto a empezar una guerra termonuclear por este asunto. Están muertos de miedo, porque saben que son culpables. A excepción de su motor de búsqueda, los productos de Google (Android, Google Docs) son una mierda.” – Steve Jobs
Seguro que os suenan estas duras acusaciones de Steve Jobs transmitidas por Walter Isaacson en su biografía del cofundador de Apple durante el capítulo dedicado a su creciente rivalidad con Google. “Lo vi más furioso que nunca”, aclara el escritor, quien se reunió con el por aquel entonces CEO de la compañía la misma semana que presentaron la primera de demanda de la guerra que estaba por llegar por infringir veinte de sus patentes.
Nosotros las leimos, vosotros las leísteis y en Google seguro que también lo hicieron… pero hasta la fecha, nadie se había pronunciado al respecto. Hasta ayer, cuando le preguntaron al respecto al presidente de Google, Eric Schmidt, durante su visita a Corea del Sur.
“He decidido no comentar lo que se ha escrito en un libro tras su muerte. Steve era un fantástico ser humano y alguien a quien a quien echo realmente de menos. Como comentario general, pienso que la mayoría de la gente estará de acuerdo en que Google es un gran innovador y además quiero puntualizar que los esfuerzos por crear Android comenzaron antes que los del iPhone.”
Uno de los principales problemas que se reportó por parte de los usuarios de iOS 5 es la bajada en el rendimiento de su batería. Tanto nuevos usuarios de iPhone 4S como aquellos que tenían otro dispositivo iOS y han actualizado a la nueva versión han visto como su batería duraba menos. Ante este problema en el que Apple ya ha caído anteriormente, se pidió la colaboración de algunos de estos usuarios para encontrar la mejor solución al problema.
Y parece que la búsqueda ha sido fructífera y la solución llegará en breve de la mano de una nueva versión de iOS, la 5.0.1. De momento, Apple ya ha enviado a los desarrolladores y a usuarios que tenían el problema de la batería esta nueva versión lo que significa que en breve se lanzará públicamente. Dicha versión también trae mejoras para Siri en Australia, gestos multitarea en el iPad 1 y corrección de otros errores.
Además, Se ha descubierto unmemorándum en Apple Stores en los que se explica a los trabajadores como actuar ante los problemas de la batería. Este expone que no se puede reemplazar el dispositivo porque el error no se debe a un problema con el hardware y que la solución llegará con una solución de software (iOS 5.0.1) en pocas semanas.
Es curioso las vueltas que da la vida y en el mundo de la informática y el software todavía más. Adobe estuve luchando durante bastante tiempo para que Apple permitiese utilizar Flash en los dispositivos con iOS sin demasiada suerte. Steve Jobs se empeñó en que Flash era una tecnología que no debía estar presente en sus productos debido a lo mal optimizada que estaba, el alto consumo de recursos y los fallos que solía generar, al menos esta era la versión oficial que Jobs solía dar cuando le preguntaban. Además, también insistía en la necesidad de apoyar HTML5 como el futuro de la web y un claro sustituto de Adobe Flash.
Después de una lucha que duró bastante tiempo ahora resuenan rumores, rumores bastante serios sobre el posible abandono de Adobe en el desarrollo de Flash para dispositivos móviles. Así es, los rumores esta vez indican que Adobe podría estar pensando en abandonar por completo el desarrollo de Flash Player para dispositivos móviles con navegador y centrarse en potenciar Adobe Air y también HTML5, curiosamente la misma tecnología que Jobs apoyaba y como sustituta de Adoble Flash Player.
De momento no podemos confirmar o desmentir nada, ya que son rumores, pero en esta ocasión la fuente del rumor es una fuente que ha acertado en más de una ocasión y podría volver a dar en el clavo en esta ocasión. Si es cierto, seguro que pronto hay anuncio oficial por parte de Adobe. El tiempo nos irá desvelando todos los secretos.
Mi otra computadora es un clúster Beowulf de 4.000 nodos — ThinkGeek
Un clúster es una consolidación de software y hardware configurados para resolver tareas computacionales de forma paralela y en red. El más importante de todos los clústers fue uno humilde y legendario, el Cluster Beowulf creado en la NASA en 1994 con hardware de tercera clase, casi de desecho, sin embargo adecuado para crear una útil supercomputadora. Me atrevo a decir que con esto cambio la historia de la computación científica.
Los antecedentes
La llegada de los mainframes significó una revolución para la ciencia, especialmente en áreas con modelos matemáticos complejos o que requieren cálculo numérico intensivo: particularmente Física y Química. El problema es que los mainframes llegan a alcanzar precios exorbitantes, sólo factibles para las principales universidades y centros de investigación del planeta.
Por ejemplo, la primera unidad de la famosa supercomputadora Cray-1 fue vendida en 8.8 millones de dólares a mediados de los años 70. Claro que así como la Ley de Moore se cumplió en los procesadores, también en las supercomputadoras y para la década de los 80 y 90 el panorama fue muy favorable en todos sentidos, pero los precios siguieron elevados, tanto de los equipos como de mantenimiento que generalmente se pacta en contratos anuales de miles de dólares.
Por otra parte, la arquitectura de las supercomputadoras era casi exclusivamente de propósito específico, muy interesante es cierto, pero que por ser el resultado de diseños exclusivos elevaba sin remedio su precio. La llegada de los clústers cambió el estado de las cosas, porque democratizó el acceso al supercómputo, lo hizo más barato, tanto en su construcción como en su mantenimiento, y con creces más flexible que mainframes y supercomputadoras de diseño.
La leyenda
Beowulf es una de las obras cumbre de la literatura anglosajona protagonizada por un héroe homónimo con la fuerza de unos treinta hombres en la palma de su mano. Este don inspiró a Thomas Sterling (en la foto) y Donald Becker para iniciar el Proyecto Beowulf durante su estancia en la NASA allá por 1994 con el objetivo de construir una máquina que sumara la fuerza computacional de muchas.
Cuentan que el éxito fue inmediato: agruparon 16 procesadores Intel DX4 de unos 100 MHz, los interconectaron con tecnología Ethernet a 10 Mbps, en equipo viejos con Linux instalado, para ejecutar tareas científicas en paralelo a un precio incomparablemente bajo para su tiempo. El Linux de aquel entonces no tenía tanto soporte para placas Ethernet como hoy en día, por eso Donald Becker se dio a la tarea de escribir drivers propios que por supuesto compartió a la comunidad.
Primero fueron los colegas de la NASA, luego los de otros centros investigación en EE. UU., Europa, Asia y hasta Latinoamérica, la idea de una nueva técnica para abaratar el preciado poder del supercómputo se hizo viral y en pocos años el cómputo científico llego a los más “pobres”: a los que no podían pagar cientos de miles de dólares en la compra y mantenimiento de equipos que, en el mejor de los casos, duraban vigentes unos tres años.
Así nació una leyenda que sigue su curso, y hasta gabinetes IKEA beowulf existen ahora que el supercómputo dejó de ser un recurso exclusivo.
Los comentarios finales
Los clústers no serían posible sin tecnologías abiertas, sin Linux, el software libre y su comunidad, sin la mejora constante de los técnicas para abaratar y escalar ese tipo de supercomputadoras. Muchas guías y aplicaciones para clústers Beowulf existen en la red. Mi recomendación para los más curiosos es que investiguen y saquen del abandono esos viejos equipos para construir su propia supercomputadora personal, su pequeña granja de servidores, tendrán una experiencia llena de aprendizaje. Se los dice un fanático.
Últimamente parece que apenas nos descuidamos ya esta ahí Mozilla con una nueva versión de Firefox disponible. Hace apenas unas semanas os comentábamos la llegada de la versión 7 del navegador y ya tenemos entre nosotros Firefox 8 con algunas novedades bastante interesantes. Precisamente al respecto y relacionado con la altísima frecuencia con la que Firefox se está actualizando, llevamos 3 en lo que va de año, el otro día hablábamos sobre el problema de fragmentación que podría surgir de esta situación.
Aunque Firefox no sea mi navegador principal, una de las características incluidas en esta versión que más interesantes me parecen y que quizá más voy a echar en falta es la de búsqueda nativa de Twitter a través de la caja de búsqueda en la parte superior del navegador. Twitter se está convirtiendo cada vez más en una fuente de información inimaginable y dado que la función de buscar desde la web nunca me ha parecido ni lo suficientemente rápida ni lo suficientemente bien implementada, se agradece tener un detalle así en el navegador, aunque de momento esté limitada a palabras, nombres de usuario y hashtags. Por otro lado, sería interesante que la búsqueda funcionase también del mismo modo que lo hace la awesome bar de Chrome en Google, es decir, que sin necesidad de andar cambiando entre caja de búsqueda, y mucho menos seleccionando el buscador que deseamos, simplemente tecleando en la barra de direcciones y seleccionando con las flechas del teclado.
Por otro lado, en versiones de previas de Firefox, cuando cerrábamos el navegador con una serie de pestañas abiertas cuando lo volvíamos abrir estas aparecían ahí. Sin embargo, para ahorrar recursos y no sobrecargar la memoria en según qué casos de manera innecesaria ahora la opción por defecto es que el propio programa nos pregunta si queremos abrir las que teníamos o no, de ese modo, si teníamos abierto algo realmente importante nos merecerá la pena la espera y el esfuerzo extra, si no empezaremos de cero y como si nada.
El resto de cambios, como no podía ser de otra manera (después de todo hace poco más de un mes que se lanzó la séptima versión) son mucho menores, aparte de algún detalle importante como el modo en el que maneja los complementos que tengamos instalados. Yo todavía no sé si me gusta o no está tendencia última de los chicos de Mozilla de sacar versiones como churros, especialmente si los cambios entre ellas no son para tirar cohetes en muchos casos, parece que antes de que acabe el año todavía queda otra más lo que nos colocaría en nada más y nada menos que Firefox 9 para principios de 2012. Quizá lo más inteligente sea dejar de fijarse en el número de las versiones y fijarse mejor en el rendimiento y la usabilidad del navegador que por lo que estoy pudiendo ver (este post está escrito desde Firefox 8) es bastante buena.
Alemania tiene una larga historia de hacking político gracias al legendario Chaos Computer Club (CCC), un grupo de hackers que desde hace 30 años se ha dedicado a explorar las implicaciones de la tecnología para las libertades civiles y la privacidad.
Sabine Blanc y Ophelia Noor han publicado en la revista Owni, una fascinante entrevista con Andy Müller, vocero y miembro del consejo del CCC, enfocada en la influencia política de los hackers en Alemania y su rol en el desarrollo de una conciencia social en torno a temas como la protección de datos, las tecnologías abiertas y la transparencia gubernamental.
CCC se ha anotado hacks de gran impacto político como la captura de la huella digital del Ministro del Interior Alemán en 2008 para demostrar la vulnerabilidad de los pasaportes biométricos. Recientemente, revelaron un vergonzoso trojano federal que tenía como objetivo espíar a los ciudadanos, lo cual lograron realizando una ingeniería en reversa del infame R2D2. Además, son los responsables del evento tecno-político más importante en nuestros días: el Chaos Communication Congress.
De acuerdo a Müller, el CCC ha estudiado el servicio secreto de inteligencia mejor documentado en Alemania — la STASI — y el conocer sus técnicas de entrenamiento y de desestabilización de comunidades les ha sido de gran ayuda para comprender el mundo actual y sus líos.
Temas como la privacidad son bien sensibles, especialmente dada la historia del este de Alemania. Sabemos cómo es que el abuso estructural puede convertirse en algo peligroso, porque aquí hemos hecho todo. Como poner estrellas amarillas en la gente antes de mandar a ejecutarlos.
Tenemos conciencia, pero eso también viene del sistema de educación alemán. En la escuela aprendes la historia del nazismo. Los alemanes somos anti-autoritarios y anti-didácticos.
Como alemanes, tenemos estos dos aspectos conflictivos en nuestro código genético. Aspiramos a una gran eficiencia y una excelente organización en todo lo que hacemos. Pero también tenemos un gran entendimiento del mal que las estructuras jerárquicas pueden traer a la comunicación, o el tratar a las personas como objetos.
OWNI pregunta a Müller sí es cierta la percepción de que los hackers son cada más influyentes en el ámbito político alemán:
Creo que es cierto. Si observas el entorno político en Alemania, el CCC es una entidad aceptada y reconocida porque ha trabajo en educar al público acerca de la tecnología desde los 80´s. Siempre hemos lidiado con historias extrañas que nos traen y tenemos la capacidad de explicar por ejemplo, la desaparición de datos.
Los medios alemanes siempre nos han visto como gente que sabe de tecnología, sus beneficios y sus peligros, y no nos ven como gente que trabaja para compañías con intereses comerciales.
En los 90´s fuimos invitados a audiencias del gobierno acerca de regulación de telecomunicaciones y privacidad. Tratamos de organizar la participación del público en estos temas. Tenemos una historia de lobbying de más o menos 20 años.
No queremos intregrarnos necesariamente de una manera formal en la creación de políticas, pero tenemos un rol de asesoría externa. Ellos (el gobierno) ya no pueden darse el lujo de ignorarnos. Los políticos necesitan de nuestra experiencia y además estamos muy familiarizados con las leyes, de modo que podemos señalar errores. La ventaja que tenemos es que en CCC podemos ir tras las cuestiones políticas, mientras otros además pueden hablar más sobre las cuestiones técnicas. Tenemos ambos lados.
Acerca de la importancia de la transparencia gubernamental, Müller habla de su primera experiencia en una conferencia de seguridad en los Estados Unidos y comparte la explicación que los propios funcionarios alemanes le dieron acerca de la cultura del secretismo gubernamental. Personalmente, jamás había leído una explicación tan clara y simple acerca de la relación entre el control y opacidad:
Fui invitado a una conferencia en Washington llamada Open Source Intelligence, y conocí a gente de la Embajada Alemana que trabajaron para en las oficinas del servicio secreto alemán. Pregunté de qué se trataba toda esta cultura del secretismo y me dijeron directamente: "Estamos tratando de desacelerar los procesos para poder controlarlos mejor".
Los hackers del Chaos Computer Club precisamente van en contra de lo anterior, por lo cual crean el contexto político y las herramientas para lograrlo:
Queremos dar a todos el poder de saber qué es lo que sucede para ayudarlos a tomar decisiones informadas.
La construcción de un entorno político verdaderamente plural depende de la diversidad en las prácticas sociales. El hacking como estructura de producción de conocimiento y por tanto de información, es sin duda una práctica que veremos cada vez más integrada al ámbito político y sus efectos tendrán cada vez más impacto.
En Alemania, Chaos Computer Club lleva la batuta en cuanto al hacking político, podemos aprender.
Vamos a tratar de explicarlo de una manera sencilla. HP pagó 1.200 millones de dólares en su momento a Palm para hacerse con el sistema operativo móvil webOS, no supo rentabilizarlo, y ahora, según fuentes de Reuters, la compañía estaría nuevamente sopesando venderlo para recuperar la inversión, o al menos parte, bajo el asesoramiento de Bank of America Merrill Lynch.
El nuevo rumor se suma a los varios similares aparecidos en el pasado y llega tras la destitución de Léo Apotheker como CEO de la compañía, entre otras cosas artífice del cierre de la división de webOS que pretendía cerrar también la de PC con el objetivo de enfocar la multinacional en el desarrollo de software corporativo.
Aunque oficialmente nunca se dijo, lo anterior unido a diversos factores más, fue el detonante para que la junta directiva tomara la decisión de sustituirlo por Meg Whitman, quien desde que tomó los mandos está revisando la estrategia de futuro de HP y hace bien poco declaró que nada de cerrar la división de PC y que HP no dejará el negocio de las tablets (actualmente cuentan con una en el mercado, la TouchPad, cuya producción está parada y justamente corre webOS).
Todos esperábamos pues, en base a esas declaraciones y el perfil de la nueva CEO (ha pasado por varias empresas centradas en el negocio de los usuarios finales), que Whitman reviviera webOS pero si nos ceñimos al nuevo rumor, parece que no será así al retomarse la idea de deshacerse del sistema operativo móvil.
¿Quién puede estar interesado en comprar un entorno que Palm y HP dejaron languidecer? En los últimos tiempos la rumorología ha apuntado varios candidatos, desde HTC a Samsung -que desmintieron los rumores- pasando por Amazon, IBM o Intel, a los que según el reporte de Reuters se abría unido incluso Oracle. Tiene lógica ya que webOS es muy jugoso, y lo es no solamente por su calidad -lógicamente le haría falta una buena mano de desarrollo para estar en disposición de competir con iOS y Android- sino también por la cartera de patentes que se llevaría el comprador.
Qué pasará finalmente aún no lo sabemos. Lo que está claro es que a los fabricantes que dependen de Android, les preocupa el futuro tras la compra de Motorola Mobility por parte de Google (que no lo reconozcan oficialmente es otra cosa), un movimiento beneficioso en el corto plazo porque con él los del buscador fortalecieron su cartera de patentes sobre tecnologías móviles, gracias a lo que podrán proteger mejor Android y todo su ecosistema de compañías asociadas frente a los ataques constantes de Microsoft y Apple, pero si nos vamos al futuro más lejano se ciernen varias sombras sobre lo fabricantes que se nutren del sistema operativo de Google (por ejemplo, que Motorola obtenga privilegios de Google).
Sea como fuere, esperemos que HP se decida rápido ya que es una verdadera pena que un sistema como webOS esté en tierra de nadie. Que lo maten, liberen o vendan, pero alargar esta situación es bastante ilógico se mire por donde se mire.
Cuando hablamos de los cables submarinos comentamos que cada uno de estos cables contenía múltiples pares de fibras ópticas, es decir, múltiples canales de comunicación que en su conjunto, y gracias a la multiplexión de longitudes de onda (emisión de más de una señal de luz pero en longitudes de onda distintas), se podían alcanzar tasas de 1.25 Tbit/s. Los cables submarinos en particular, y los tendidos de fibra en general, son infraestructuras que se amortizan a largo plazo y, por tanto, se intentan exprimir al máximo (puesto que es complejo su despliegue y su renovación); precisamente, pensando en aumentar la capacidad de transmisión de los cables submarinos, Huawei e Hibernia Atlantic llevaban tiempo trabajando en equipos de transmisión que permitiesen transferir datos a 100 Gbps en una única longitud de onda (hasta ahora se trabajaba a 1, 10, 40 y 50 Gbps) y que han sido probados con éxito en un tendido submarino de 5.570 kilómetros de longitud.
El cable submarino unía el tramo que separaba la ciudad de Halifax en Canadá con Southport en Inglaterra, un vano de 5.570 kilómetros de fibra óptica con el que el fabricante chino de equipos de telecomunicación, Huawei, ha podido probar con éxito su transmisor a 100 Gbps que podría abrir las puertas a una intensificación del tráfico de datos a través de los cables submarinos y, sobre todo, frenar la necesidad de despliegue por saturación de estas redes.
Y aunque estas pruebas son un hito para las comunicaciones ópticas, Huawei no es la primera compañía en realizar una prueba de estas características, puesto que el mes pasado Infinera y Pacific Crossing realizaron unas pruebas similares (transmitiendo a 100 Gbps) en un trazado de 9.500 kilómetros de longitud, si bien el equipo de Huawei se ha desarrollado con fines comerciales y, posiblemente, su time-to-market sea mucho más pequeño.
Pero quizás, lo más importante, al menos desde mi punto de vista, es que estos transmisores desarrollados por Huawei podrían utilizarse usando multiplexión por longitud de onda, es decir, se podría transmitir más de una señal óptica a 100 Gbps por cada fibra (con unas señales ópticas separadas 50 GHz unas de otras), elevando la capacidad de cada fibra a los 5 Tb/s.
¿Y cómo ha sido posible este salto? Históricamente, uno de los problemas que tenían los equipos de comunicaciones ópticas es el de la obtención de una fuente de luz (normalmente un láser) que ofrezca una luz sin dispersión cromática, es decir, cuyo espectro esté muy concentrado alrededor la frecuencia principal del haz de luz. La dispersión cromática, es decir, la emisión de componentes de frecuencias espúreas tiene un efecto negativo puesto que se traducen en pérdidas de señal que hacen que la señal se debilite (además de las pérdidas del propio canal de transmisión). Las fuentes de luz coherentes son, precisamente, la solución a este problema y permiten aumentar la distancia de transmisión (disminuyendo la necesidad de amplificadores o regeneradores de señal) y, además, al no existir dispersión cromática, se pueden enviar muchos más haces de luz (más cercanos entre sí en cuanto a longitudes de onda).
El éxito de esta prueba permitirá, además de ampliar la capacidad del enlace submarino entre Halifax y Southport, ampliar las capacidades de todo el tendido de la línea (que arranca en Montreal y termina en Amsterdam pasando por Londres) para el primer trimestre de 2012 aunque Hibernia Atlantic no descarta aplicar estos equipos en otros cables bajo su gestión.
Si tenemos en cuenta los despliegues que se están realizando en el Mediterráneo y en el Atlántico (bordeando la costa de África, por ejemplo), esta nueva generación de equipos de transmisión podría alargar mucho la vida útil es de estos despliegues aumentando el retorno de inversión de los mismos, además de satisfacer la demanda de capacidad que requieren todos los dispositivos conectados a Internet que utilizamos.
Entre los tratamientos empleados por los médicos para luchar contra el cáncer encontramos la radioterapia y la quimioterapia, dos tratamientos de choque que tienen bastantes efectos secundarios para los pacientes (algunos de ellos bastante negativos). Desde hace años, investigadores de todo el mundo trabajan en la búsqueda de tratamientos alternativos que, además de ser mucho más eficaces, sean también selectivos y no provoquen efectos secundarios; algo que el Instituto Nacional del Cáncer de Estados Unidos podría haber encontrado basando su tratamiento en un gel y en el uso de rayos infrarrojos.
El equipo ha desarrollado una técnica en la que combinan anticuerpos específicos con un gel sensible al calor, el IR700. El gel, por sí solo, no es tóxico y no afecta a las células, sin embargo, si se le aplican rayos infrarrojos, se calienta y, básicamente, quema la membranas de las células a las que se adhiere provocando la muerte de éstas. Lógicamente, para que el tratamiento sea selectivo, habría que adherir este gel a las células cancerígenas, algo que consiguen gracias al uso de anticuerpos que se unen a las proteínas producidas por las células cancerígenas.
Las células normales tienen cientos de copias de estos anticuerpos, sin embargo, las células cancerosas tienen millones. Esa es la gran diferencia
Los investigadores, por ahora, están probando esta técnica con ratones y han obtenido muy buenos resultados puesto que han visto cómo se ha reducido el crecimiento de un tumor y, a su vez, se ha alargado la esperanza de vida del ratón.
La noticia es bastante esperanzadora, sin embargo, aún pasará algún tiempo hasta que pueda probarse con pacientes reales puesto que deben resolverse algunas cuestiones. Para empezar, en tumores de gran tamaño, cuando comenzaron a matarse células cancerígenas gracias a este tratamiento, los ratones comenzaron a presentar problemas cardiovasculares. Por otro lado, ajustar el gel para que pueda actuar de manera selectiva también es algo complejo puesto que el marcador de la célula cancerígena (las proteínas) no son iguales en todos los casos, por ejemplo, la HER-2 (la usada en el estudio) tan sólo aparece en el 40% de los casos de cáncer de mama en humanos.
De todas formas, la efectividad y, sobre todo, la selectividad del tratamiento es impresionante y una de sus grandes ventajas. Además, dado que el gel es fotosensible, los investigadores pueden realizar un seguimiento en tiempo real del tratamiento, gracias a la fluorescencia del gel; algo que se pudo observar en las pruebas con ratones cuando vieron que al día siguiente de aplicar el tratamiento, el tamaño del tumor se redujo considerablemente.
De hecho, gracias a este marcaje realizado en las zonas afectadas por el cáncer, podría ser un tratamiento complementario a la cirugía puesto que podría limpiar zonas a las que los médicos no hayan podido llegar.
Seguro que has visto en alguna ocasión el famoso robot ASIMO que lleva un tiempo desarrollando Honda, este se ha caracterizado por realizar diferentes tipos de acciones que solemos hacer los personas, como andar o bajar unas escalaras, una evolución constante durante los últimos años que no sólo han sido en funcionalidades, sino también en aspecto y diseño, haciéndolo más ligero.
Ahora Honda ha presentado una nueva versión de este robot, cuyas principales novedades es que es capaz de correr —hasta una velocidad de 9 kilómetros hora— y de saltar a la pata coja.
Como podemos ver en el vídeo las acciones las realiza bastante bien y de una forma bastante curiosa. Pero esa no han sido las únicas mejoras, además también han realizado mejoras en el sistema de inteligencia del robot, lo que le permite tomar decisiones propias bajo determinadas circunstancias, haciendo que haya que darle menos órdenes y por lo tanto, sea más autónomo. Esto es una mejora muy importante ya que ahora mismo ya sería capaz de variar su dirección o detenerse en el caso en el que detecte que, por ejemplo, una persona se cruza en su camino. Y lo que es mejor, para tomar la decisión no tiene que llegar a producirse el cruce, sino que gracias a sus sensores de larga y corta distancia es capaz de predecir los movimientos de las personas, lo cual da mucha más seguridad en el caso de que esa situación se llegue a producir.
Además los ingenieros de Honda han puesto a dieta a este robot y en esta nueva versión es seis kilos más ligero, se han mejorado sus manos las cuales son más agiles con funciones de control independiente en los dedos, lo cual le permite realizar tareas más delicadas con estos. Todos estas capacidades se unen a las que ya era capaz de realizar, como bailar, cantar y por supuesto, andar.
Supongo que la gran mayoría de los que nos leéis conocéis Wired. La revista norteamericana se lanzó en 1993 y es probablemente el referente de muchos de los que escribimos sobre tecnología. Un referente principalmente en la manera de contar las noticias tecnológicas y como afectan en la cultura de las sociedades hoy en día. Casi dos décadas entre nosotros con un material único y fascinante que desde ayer han decidido compartir un poco más con el público. Con motivo de los 10 años que se cumplirán el próximo año del nacimiento de Creative Commons, Wired ofrecerá parte del trabajo fotográfico de sus profesionales a través de una cuenta creada en Flickr.
En este fascinante estreno, el medio ha decidido comenzar con una asombrosa recopilación de 50 imágenes de nuestra historia reciente. Todas ellas tienen a la tecnología como principio para contar anécdotas, historias o momentos únicos que muchos recordarán. Así lo contaban:
Creative Commons cumple 10 años el próximo año. Su idea de liberar el contenido con “algunos derechos reservados” ha revolucionado el uso compartido en la red desarrollando una floreciente cultura del remix. Al igual que muchos otros sitios de la web, nos hemos beneficiado de la licencia CC-fotos en Wired.com durante años. ¡gracias por ser partícipes! Parece lógico por tanto que empecemos a compartir nosotros mismos…
Las recopilaciones se irán lanzando por paquetes contínuamente y estarán disponibles en alta resolución bajo Creative Commons (CC BY-NC) desde su página en Flickr. Esto quiere decir que las podréis reproducir atribuyendo la foto y enlazando a la historia original.
Les dejo con algunas de las obras que ya se encuentran disponibles. Momentos recientes de la historia moderna con los que Wired agradece a CC el cambio significativo que introdujo en la sociedad tras su llegada. Compartir:
Occupy the Facts es un esfuerzo en el que se han embarcado 20 estudiantes de doctorado de la Universidad de Harvard. La noche del domingo anunciaron la creación y explicaron las bases con las que se espera un doble esfuerzo: combatir las acusaciones sobre la desinformación de los manifestantes del movimiento Occupy y llevar a cabo una serie de investigaciones políticas con ayuda de los profesores para hacerlas públicas, todo ello valiéndose de la información privilegiada que tienen en el centro y de las diferentes plataformas que brinda la red.
La idea, tal y como cuentan, surgió a partir de la desinformación de la que se hace gala en muchos medios acerca de los manifestantes. El movimiento #occupy se dice que esta formado por un gran número de manifestantes que no tienen claro el origen de las protestas más allá de la situación personal de cada uno. Se critica la falta de información sobre las cuestiones políticas.
Bajo esta premisa se han estado reuniendo durante el mes de octubre 20 estudiantes de doctorado de Harvard. Lo que busca esta organización anunciada este domingo es conformarse como un medio, uno más que pueda ayudar a los ciudadanos y que ofrezca claves y exclusivas a través de la información privilegiada a la que tienen acceso.
Occupy the Facts explica que durante las próximas tres semanas desarrollará el primer paquete informativo. En este tiempo llevarán a cabo investigaciones de gran calado sobre la política actual y las harán accesibles al movimiento de manera pública. Así lo explicaba Peter D. Davis, uno de los creadores del proyecto:
Queremos crear investigaciones sobre las políticas que se hagan públicas en torno a las demandas de los manifestantes, queremos crear informes con datos reales. Vemos el movimiento Occupy como una oportunidad para conseguir el tipo de cambio que mucha gente de nuestra generación quiere y ha estado soñando
¿Y cómo lo harán? Aunque el medio parece que será multi-formato, a medias entre la construcción de una base de datos en la red y la publicación en papel, Internet será el protagonista. Junto a los informes se crearán canales en YouTube con vídeos explicativos sobre los análisis para la comprensión. Además se anuncian infografías que ayuden como soporte.
El grupo se reunió con miembros y manifestantes de Occupy el mes pasado para determinar cómo podrían ayudar al movimiento. La conclusión final fue que podían aprovechar los recursos de investigación que dispone la Universidad de Harvard con información concluyente y más accesible. Según Davis:
Occupy no es un movimiento cerrado, es abierto, no es algo que debamos seguir como espectadores. Nosotros debemos participar. Tenemos la ventaja comparativa de ser estudiantes de Harvard, tenemos acceso a una gran cantidad de recursos para la investigación, acceso a los profesores que están mejor informados en los temas y nos ayudarán y tenemos acceso a un sistema de biblioteca sin igual
Estaremos atentos a un esfuerzo que promete ofrecer información fuera del círculo de los medios. Un esfuerzo que cómo ellos mismos indican, intentará revelar información “clara e independiente de las políticas públicas”. Información no sesgada desde una de las universidades más prestigiosas del planeta.
El Cortes Inglés se ha añadido en las últimas horas a la lista de marcas que han decidido dejar de anunciarse en el vomitivo programa La Noria de la cadena Telecinco como consecuencia de la presión ciudadana a la que están siendo sometidos los anunciantes del espacio desde hace días. Así lo comunicaban vía una de sus cuentas en Twitter:
Hola a todos. Os anunciamos que El Corte Inglés ha decidido retirar su publicidad del programa “La Noria”.
Con esta ya son 13 las marcas que se unen al boicot publicitario contra el reality impulsado por los ciudadanos y arrancado por el periodista Pablo Herreros. Todo inició después de emitirse el sábado 29 de octubre entrevista en La Noria a la madre del “El Cuco”, uno de los condenados en el caso de asesinato de Marta del Castillo, a cambio de 10.000 euros. Tras eso, Herrero decidió identificar en un post a las firmas que se anunciaron durante el programa proponiendo que "colaboremos para presionar a las marcas que dan su apoyo a estos contenidos" y lanzó petición en Actuable para articular esa presión y pedirle a los anunciantes de La Noria "que dejen de apoyar contenidos televisivos tan nauseabundos". Concretamente estas son las marcas que hasta el momento han trasmitido públicamente su decisión de no anunciarse más:
Campofrío
Puleva
Bayer
Nestlé
Panrico
Milner
Banco Sabadell
La Razón
Reale Seguros
L'Oreal
Loterías y Apuestas del Estado
Bimbo
Vodafone
Por otro lado hay que tener en cuenta que estas 13 marcas son solamente aquellas que han hecho pública su decisión pero según los hechos serían muchas más las que habrían decidido dejar de anunciarse. Por ejemplo, la mayoría de marcas presentes en el programa donde se entrevistó a la madre de "El Cuco" no estuvieron en el del fin de semana siguiente y en ese mismo programa, que duró cuatro horas y media, solamente se pasaron 20 anuncios y en 10 de los 16 minutos de publicidad emitieron autopromociones.
Lo mejor de todo es que la iniciativa sigue creciendo en firmas y apoyo gracias a la divulgación de la misma en la red y sus efectos no se están reflejando solamente en la escapada de anunciantes de La Noria sino que también ha provocado un intenso debate entre asociaciones del sector así como entre ciudadanos y profesionales de medios de comunicación y empresas publicitarias. Por poner otro par de ejemplos, en el momento que escribo estas líneas la petición de Actuable, uno de los pilares principales del boicot, ya cuenta con más de 25.000 firmas y la Agrupación de Telespectadores y Radioyentes también se ha unido a la movilización contactando con los grandes anunciantes del país para pedirles cuentas por publicitarse en programas, cómo Sálvame que también es de Telecindo, que infringen la Ley General de la Comunicación Audiovisual al emitir contenidos de dudosa moralidad en horario infantil (de cinco a ocho de la tarde).
En resumen el boicot ha marcado un punto de inflexión. Los ciudadanos se han dado cuenta de que tienen mucho más poder del que pensaban y utilizando Internet como herramienta, pueden ejercer presión tal sobre las marcas que estas se ven obligadas a recular. En palabras de uno de los principales anunciantes de España:
Hay preocupación en Telecinco, por supuesto. Nuestro rol no es abanderar movilizaciones sociales, pero está claro lo que haremos si anunciarnos en una cadena nos enfrenta a nuestros clientes.
Para rematar la jugada resulta que aunque Telecinco es la cadena con más share de las cadenas privadas españolas, a las grandes marcar les interesa cada vez menos anunciarse en ella ya que (declaraciones de la misma fuente de antes):
A la hora de comprar, se buscan targets, afinidad. Y Telecinco se ha polarizado a una serie de contenidos, lo que hace que pierda interés. No lo están poniendo fácil.
¿Terminarán los ciudadanos con la dictadura española de la mierdavisión a base de boicots? Nadie puede responder aún a esa cuestión, pero lo que sí se puede asegurar al 100% es que:
La fórmula de presionar a las marcas, funciona.
Internet permite articular ese tipo de boicot.
Muchísimos ciudadanos están artos de contenidos basura.
Si nacen más boicots, aunque los mismos no logren tumbar ningún programa, las cadenas de televisión medirán mucho más lo que hacen.
You are subscribed to email updates from ALT1040 To stop receiving these emails, you may unsubscribe now.