Por fin. Parece que todas nuestras plegarias han sido escuchadas por el gran Dios de Cuepertino. Desde la casa de la manzana por fin se ha hecho caso a nuestras escuchas y ahora Apple anuncia de forma oficial la presentación de su iPad 3 el 7 de marzo, tal y como decían los rumores. La invitación oficial es la que les presentamos a continuación y muchos ya están buscándole las pistas que los de la empresa suelen siempre esconder para poder saber de que irá todo esto.
Desde luego el “algo que ver” nos suena a Retina Display, y “algo que tocar” nos da la impresión de que será algo relacionado o bien con iOS 5.1 y sus mejoras, o bien con aplicaciones específicas, porque las tabletas anteriores ya eran todas táctiles y apostaban por el mutitáctil como opción. En todo caso, mientras esperamos al 7 de marzo, es decir, una semanita, vamos a resumir todo lo que debería llegar, si se cumpliesen los rumores con la nueva tableta de Apple, el iPad 3:
pantalla de alta definición de 2.048 x 1.536 píxeles
nuevo procesador quad-core A6
batería más grande
conectividad 4G LTE integrada
cámara de 8 megapíxeles
diseño exterior muy similar al actual iPad 2
¿Ustedes le pedirían algo más al iPad 3 o se conforman con todo lo que les hemos detallado?
You are subscribed to email updates from Appleismo To stop receiving these emails, you may unsubscribe now.
Tal vez estés de acuerdo conmigo, Angry Birds fue un fenómeno que intentando exprimir la “gallina de los huevos de oro” corre el riesgo de convertirse en un juguete roto por la industria. Tal vez lo sea ya, múltiples escenarios, peluches, camisetas, altavoces… Se ha ideado de todo para conseguir sacar réditos y sus creadores son los culpables de haber conseguido uno de los mayores pelotazos que ha habido hasta ahora en la App Store. Si estás cansado de ellos tal vez lo que has visto en el vídeo consiga reverdecer viejos laureles.
Por ahora se trata únicamente de un concepto desarrollado por Simon Ford que montando un micro-controlador con acelerómetro y control de fuerza en un tirachinas promete dar una vuelta de tuerca a este exitoso juego. La verdad es que el vídeo que acompaña estas líneas, aparte de ser muy divertido, demuestra la genialidad de su creador (y que funciona muy bien) veremos si todo esto se queda en un mero concepto o acaban dándole salida comercial.
Primero fue el Wiimote, luego el Kinect… y ahora este “tirachinas electrónico” ¿Alguien hace apuestas de un nuevo “revival” de la saga?
Para los que no conozcáis el tangram, se trata de un antiquísimo juego chino que mediante diferentes piezas de madera geométricas debes de realizar diferentes figuras combinándolas para conseguir estimular la mente y tratar de desarrollar la inteligencia y la psicomotricidad. Actualmente se utiliza sobre todo en psicología, con gente de edad avanzada y con niños relativamente jóvenes. Desde Bilbomática, Zuentzat y la universidad de Deusto, han ideado y desarrollado esta aplicación para el iPad, completamente gratuíta, que no debería faltar en tu tablet si hay un “pequeño tirano” por tu casa o una persona de edad avanzada.
En mi caso es lo primero, y la verdad es que siempre buscas opciones más allá de los clásicos “mata-mata” puesto que con esta tecnología que nos rodea (aunque uno pertenezca a la generación nintendo) te planteas la disyuntiva de si será demasiado violento para él, tal o cual juego. El mecanismo, por si no lo conoces, se trata de cinco triángulos de diferentes tamaños, un cuadrado y un paralelogramo. Con estas figuras, rotándolas y desplazándolas deberemos realizar diferentes figuras.
En la actualidad se calcula que existen en torno al millar de figuras posibles de realizar con dichas piezas, y la aplicación para el iPad no parece ser menos, ya que cuenta con el auspicio de un gabinete psicogerontológico (Zuentzat), que ha formado parte importante de este proyecto. Desde aquí agradecer a la empresa Bilbomática por hacerme conocer esta aplicación, ya que sin comerlo ni beberlo me van a ser de gran ayuda para intentar educar al medio metro que corretea por mi casa.
Hace ya unas semanas os mostramos en Applesfera la última aplicación lanzada por Apple: Mensajes. Una aplicación que llegará próximamente a OS X de la mano de Mountain Lion como aplicación oficial de mensajería, pero que ya podemos descargar y probar en forma de beta en Lion.
En este vídeo os mostramos de forma rápida el funcionamiento de la aplicación y algunos trucos para personalizar la misma, pero también os mostramos dos pequeños detalles que seguro que muchos de vosotros no conocéis: la posibilidad de enviar cualquier tipo de archivo usando la aplicación y además como configurar el chat de Facebook en la misma.
Adquirir un equipo de Apple puede pasar de ser una experiencia agradable a un desastre si nos equivocamos en el momento de la compra. El usuario que compra un Mac, iPhone, iPad o cualquier otro producto de la manzana sufre si al mes o incluso días aparece un equipo renovado. El cual suele tener el mismo precio y, aún siendo mínimas, mejores características.
Por ello me gustaría compartir cuatro pasos que podéis realizar si vais a comprar un producto de Apple. Son cuatro simples consideraciones que espero sean útiles y eviten que se nos quede cara de tonto si después de hacer un fuerte desembolso económico a los pocos días aparece una renovación.
Tal y como todos los rumores apuntaban, el evento sobre la siguiente generación de iPad será el próximo 7 de marzo. Después de una espera que a muchos se les ha hecho interminable, pero que entraba dentro del ciclo normal (aunque solo llevemos dos versiones) de renovación, los de Cupertino han anunciado por fin la fecha de la presentación.
Mientras Eric Schmidt paseaba por el escenario, en una conferencia de Google, la noticia se ha destapado para poner patas arriba a toda la blogosfera. En las invitaciones reza: “Tenemos algo que realmente tienes que ver. Y tocar“. Evidentemente, y como podemos confirmar por la imagen, se trata del iPad. Como dato diremos que si la imagen se ajusta a la realidad podemos apreciar una muy buena mejora en la calidad de la pantalla, como se venía rumoreando.
El evento tendrá lugar en San Francisco. Como es habitual, será a las 19:00, hora española.
Si no estas pagando por algo, no eres el cliente, eres el producto que se vende.
Andrew Lewis.
Bajo esta cita de Lewis al comienzo de la página, Mozilla ha dado un paso la frente en las últimas horas, único si pensamos en la presión que ejercerá sobre la rastreo en web con el plugin que acaba de construir, Collusion. Si Google, Facebook o ayer Twitter nos indican que nuestros datos son utilizados por terceros para estudiar nuestros comportamientos, Mozilla nos aporta su propio add-on para Firefox. Collusion nos muestra cómo y qué empresas nos siguen a medida que navegamos por la web.
Lo que vemos sobre las imágenes es el software en acción, una demostración visual que nos va mostrando de qué forma se teje ese seguimiento a partir de una primera visita a alguna web por parte del usuario. Un sistema que nos proporciona los datos y las conexiones tras ese primer enlace y el seguimiento de terceros y redes de publicidad que “surgen”.
Collusion ha sido presentado hace unas horas durante las charlas TED por el CEO de la compañía Gary Kovacs, quién describió el plugin de la siguiente manera:
En este campo nos encontramos con un área de protección al consumidor casi nulo. Un precio demasiado alto el que se pide por conectarnos, por lo que es hora de que los espectadores sepan quién nos está rastreando.
El creador del software fue el programador Atul Varma, quién explica a través de su blog las razones para su construcción:
Yo no sabía mucho acerca del seguimiento web en sí mismo, por lo que intenté crear un complemento para Firefox que me ayudara a visualizar mejor qué es lo que ocurre realmente. Los resultados una vez construido son realmente inquietantes.
Y es que el resultado es un sistema que nos permite visualizar cómo nuestros datos se van extendiendo por el tejido del mapa web, cómo van pasando de una empresa a otra a medida que navegamos. A través de unos círculos que aparecen por cada rastreo, el usuario puede observar cómo acudir a un nuevo sitio conlleva “traspasar” nuestra información a una nueva compañía (terceros) sin que lo supiéramos.
Cada vez que Collusion detecta que los datos se envían a otro espacio, el plugin crea un nuevo punto rojo (si son anunciantes), gris (si es un sitio web) o azul. Luego muestra los vínculos entre los sitios que visitamos y el seguimiento con el que se está trabajando.
Durante la demostración realizada por Mozilla se acudió a sitios como IMDB, New York Times o The Huffington Post. El mismo Kovacs citó a su propia hija explicando que en la mañana la joven había acudido a cuatro páginas durante su desayuno encontrando un rastreo de hasta 25 lugares diferentes. Tras un día entero de navegación, la joven acabó siendo rastreada por 150 sitios.
Hay que aclarar que Collusion no soluciona el rastreo, para eso ya existen otros plugins. El add-on sólo nos ofrece la información de aquellos que nos rastrean. Una herramienta tremendamente eficaz con la que alertar a todos los usuarios del seguimiento diario al que somos sometidos sin nuestro consentimiento. Un espía para aquellos que nos espían.
Pong es un videojuego de leyenda que fue lanzado en el año 1972 por Atari, la mítica empresa de videojuegos fundada por Nolan Bushnell y Ted Dabney en 1971. Gracias a este videojuego y al gran éxito que tuvo en el mercado (con más de 100.000 máquinas arcade desplegadas en Estados Unidos en 1974) se creó la industria del ocio electrónico que hoy en día conocemos. Este año 2012 se celebra el 40º aniversario del lanzamiento de Pong y para celebrar la efeméride, Atari ha decidido lanzar un desafío a los desarrolladores: reimaginar Pong y trasladar la experiencia de este juego a los dispositivos iOS, un reto que tendrá como premio 100.000 dólares y la publicación de la aplicación en la App Store de Apple publicada bajo el sello de Atari.
Atari ha decidido apostar por el talento de los desarrolladores y, en vez de perseguir a los desarrolladores de juegos similares a Pong, quiere incentivar la creatividad y está dispuesta a escuchar aquellas ideas que trasladen la esencia de Pong al iPad, al iPhone y al iPod Touch, retomando la misma forma de trabajar que la compañía practicaba en sus orígenes. Según comentaba el CEO de Atari, Jim Wilson:
Pong Indie Developer Challenge es una gran oportunidad para celebrar el 40º aniversario de una franquicia alrededor de un juego mítico. Estamos entusiasmados con la idea de trabajar con una comunidad de desarrolladores independientes que permitan llevar a Pong a un gran número de experiencias de juego y conceptos que enganchen con nuestra base de fans de Atari y con nuevos consumidores de esta franquicia pionera
Además del premio económico, que no está nada mal, los desarrolladores firmarán un contrato con Atari que les brindará soporte de la compañía en la comercialización de la aplicación y, quién sabe, quizás un puesto de trabajo en las filas de los desarrolladores de esta empresa de videojuegos. El concurso se ha dividido en dos fases, una primera que finaliza el 31 de marzo en la que los aspirantes deberán remitir sus planes e ideas para esta reinvención del Pong y, en el caso de resultar elegidas, pasarán a una semifinal en la que deberán desarrollar una demo que pueda jugarse.
Las ideas serán valoradas por un panel de expertos de gran peso en el sector: Nolan Bushnell, el fundador de la compañía, Dave Castelnuovo, creador de Pocket God y Mike Schramm, editor de The Unofficial Apple Weblog; un panel de expertos que tendrá que valorar las ideas que se reciban a través del formulario publicado en la web habilitada con motivo de este concurso que, además, contiene la información y las bases del mismo.
El plazo para la primera fase acaba de abrirse y termina el 31 de marzo así que si eres desarrollador de iOS y eres un apasionado del Pong, quizás, este reto puede ser una gran oportunidad.
Por cierto, los avances del pueden seguirse a través de Twitter mediante el hashtag#PongDevChallenge
Hoy por hoy, montados a lomos de Android, la coreana Samsung es una de las compañías más poderosas en el sector de los smartphones. Y lo es porque están haciendo muchas cosas correctamente, pero hay un sector donde no terminan de despegar aunque arrancaron bien: en el de las tabletas, lo que supone un problema serio del que todos teníamos constancia y hoy un directivo de la compañía ha admitido públicamente.
Concretamente ha sido Hankil Yoon, jefe de estrategias de producto de Samsung, quien en una mesa redonda con diversos medios celebrada en el Mobile World Congress 2012 ha comentando que "honestamente, no los estamos haciendo muy bien en el mercado de las tabletas".
No sólo eso. Ante el lanzamiento de su Galaxy Note 10.1, le preguntaron qué opina de la amenaza que supone el tener varios productos similares entre sí en el mercado, a lo que respondió que "Lo mejor para sobrevivir en el mercado es matar tus productos". "Queremos mantenernos competitivos en el mercado".
¿Sorprendidos? La verdad es que yo si, por dos razones. La primera, porque es muy raro que un ejecutivo de una compañía de la talla de Samsung admita errores del tamaño de este y de forma tan contundente, menos aún en el marco de un evento tan importante como el Mobile World Congress. La segunda, porque en varias ocasiones Samasung ha defendido su estrategia de contar con un amplio catálogo de tabletas en el mercado, y por lo que parece ahora se están planteando apostar por lo contrario (parece y aunque sea cierto lógicamente hacer un cambio así lleva tiempo).
Así que no me queda más que quitarme el sombrero ante Samsung. Bravo por tener el arrojo de admitir errores, ya que es lo primero para solucionarlos, y bravo por tener la mente abierta en cuanto a estrategias (no como otros que se obcecan con las de los noventa, ¿eh Nokia?). Si siguen por este camino, muy probablemente en 2012 volverán a ser los líderes de Android.
La empresa de investigación digital comScore ha publicado datos alarmantes para el futuro de la red social de Google. Según los estudios realizados los usuarios de Google+ permanecen en el sitio un sorprendente tiempo promedio de 3,3 minutos por mes o el equivalente a 198 segundos.
El cálculo del tiempo de permanencia es hasta ahora lo que comúnmente se utiliza para medir la fuerza de las redes sociales. El sitio refleja una caida de casi dos minutos desde la medición realizada en noviembre levantando la alarma para Google+ mientras lucha por evitar ser el nuevo fracaso estrepitoso de la empresa detrás del buscador más utilizado del mundo.
Es importante entender cual es la metodología de recolección de datos para este estudio. Para conseguir esta información comScore analiza un numeroso columen de usuarios que de forma voluntaria y sin recibir beneficio deciden navegar a través de los filtros de la compañía en su ordenador. De esta forma toda la información a la que el usuario accede es enviada a la empresa para ser cuantificada, incluyendo desde tiempo de permanencia en cada sitio hasta movimientos del cursor. El trabajo se realiza con muestras por lo que luego se proyecta al total de los usuarios. Como seguramente ya habrán notado dentro de la metolodogía del estudio no se considera la navegación a través de dispositivos móviles como tablets o smartphones.
De acuerdo a lo publicado por el Wall Street Journal uno de los vicepresidentes de producto dentro de Google habría mencionado que la red social mantiene su crecimiento en todas las métricas que importan y que sería muy difícil para empresas externas medir como lo hacen ellos. Por otra parte completan diciendo que una vocera de la empresa ha declarado que la información publicada por comScore es dramáticamente inferior a la que ellos mismos recolectaron.
El estudio completa con información de otros sitios, Facebook tiene un tiempo promedio de aproximadamente 7 horas por mes siendo el máximo exponente de este tipo de medición dentro de las redes sociales. El resto del podio lo completan Pinterest y Tumblr. Twitter por su parte llega a 21 minutos, pero seguramente será quién mayor diferencia tenga si se midiera más allá de su web.
La respuesta a este anuncio nos la dan los qubits. Un qubit es el sistema cuántico con dos estados propios, un sistema que sólo puede ser descrito mediante la mecánica cuántica. Para llevar a cabo la computación cuántica se tiene que ser capaz de almacenar de forma segura a este sistema.
Y aquí viene el problema, ya que los qubits son sistemas huidizos debido a lo que se conoce como decoherencia cuántica, el fenómeno por el cual las partículas cuánticas forman cuerpos más grandes que se comportan de manera clásica.
Para ello, desde IBM han creado un qubit de alta coherencia en 3D capaz de mantener el estado durante un máximo de 100 microsegundos (0,1 milisegundos). Es decir, lo suficientemente estable como para que los ingenieros puedan cambiar su enfoque a la ampliación del número de qubits necesarios para crear una computadora cuántica lógica.
El experimento primero creó un chip 3-qubit utilizando técnicas convencionales de fabricación de semiconductores que luego fueron utilizados para realizar operaciones lógicas con una tasa de éxito del 95%.
Hablamos de unos resultados de éxito inauditos en computadoras cuánticas, con la creación de qubits de estabilidad alta y con los que la compañía espera abrir un nuevo camino hacia la construcción de chips de multi-qubits.
Según IBM, nos encontramos en un momento en el que de aquí a 10 años los ordenadores cuánticos formaran parte ordinaria de la vida. :
Esto es importantísimo si tenemos en cuenta que 250 qubits serían capaces de almacenar más bits de información que átomos en el Universo. Estamos hablando de un rendimiento de una supercomputadora en un solo chip.
En este repaso que hacemos cada semana a la historia de la tecnología hemos repasado la historia de grandes computadoras como el histórico ENIAC o el IBM 701, uno de los grandes éxitos comerciales de IBM en el campo de los mainframes, sin embargo, era habitual (y aún lo sigue siendo) utilizar terminales ligeros para permitir la conexión con estos grandes sistemas. Entre la amplia variedad de terminales que se han desplegado en las empresas, hoy vamos a dedicar unos minutos a recordar a un clásico de los años 70: el Datapoint 2200.
Computer Terminal Corporation (CTC), que posteriormente pasaría a llamarse Datapoint Corporation, era una empresa que desarrollaba computadoras en San Antonio (Texas) y fue fundada en 1967, en plena ebullición del desarrollo de computadoras. En 1969, la compañía desarrolló uno de los primeros terminales de la historia, el Datapoint 3300 que se tuvo una gran acogida en el mercado y se vendieron bastantes unidades en el mercado, alcanzando la compañía una gran notoriedad.
Gracias a la notoriedad de CTC, un par de recién graduados por la Case Western Reserve University de Ohio, Harry Pyle y Victor Poor que llevaban tiempo intentando vender un diseño de circuito integrado programable encontraron una empresa en la que poner en marcha su idea. Esta pareja de emprendedores de finales de los años 70, habían ofrecido su idea a varios fabricantes de circuitos integrados pero prácticamente todos rechazaron el proyecto porque no veían que la idea pudiese convertirse en un producto comercial al ser demasiado especializada. CTC fabricaba computadoras y terminales de bajo coste que eran perfectamente compatibles con los mainframes de los grandes fabricantes y la idea de circuitos integrados programables y multipropósito encajaba bien con la idea de la fabricación de dispositivos compatibles y versátiles.
CTC pensó que podrían programar, bajo un mismo computador, los protocolos de un amplio número de fabricantes así que firmó contratos para su producción con Intel y Texas Instruments pero ambas compañías apostaron por basarse en PMOS para fabricar el chip lo cual resultó un estrepitoso fracaso y no se cumplieron los plazos. CTC rescindió el contrato y decidió construir este “procesador” programable mediante circuitos integrados TTL, es decir, mediante lógica discreta (gracias a un diseño de Gary Asbell) y, sobre estos cimientos, se construyó el Datapoint 2200.
El Datapoint 2200 se presentó a comienzos de 1970 y se puso a la venta en el mes de mayo del mismo año con un gran éxito de ventas que prolongó su fabricación hasta el año 1979 y haciendo que CTC cambiase el nombre de la compañía a Datapoint Corporation. Si bien esta computadora estaba basada en circuitos TTL y carecía de un procesador, su versatilidad y las posibilidades de programación que ofrecían hacían que fuese equivalente a un computador con procesador y sentó las bases del desarrollo de éstos y fue el germen de la arquitectura x86.
El terminal Datapoint 2200 integraba un pequeño monitor CRT de fósforo verde de 3,5 pulgadas de tamaño que trabajaba en modo texto con 12 líneas y 80 columnas, un teclado con bloque numérico, memoria interna entre 2KB y 16 KB, puerto RS-232, conector LAN y puerto paralelo para impresora. El almacenamiento externo provenía de un par de puertos para cintas de cassette que le proporcionaban 130 KB de almacenamiento en lectura y escritura. Además, se vendían como periféricos unidades de disco, impresoras, unidades para cartuchos, lectores de tarjetas, etc.
Este dispositivo utilizaba como sistema operativo el Datapoint O/S que podía estar almacenado en una cinta de cassette o en un cartucho que permitía la programación mediante los lenguajes Databus y Datashare, lenguajes interpretados orientados a negocio (como el COBOL).
Pero si hay un detalle que hizo que el Datapoint 2200 fuese un producto de gran impacto y que, según algunos historiadores, llegue a considerarse como precursor del computador personal es que era un terminal programable que permitía la carga de emuladores de otros sistemas mediante la carga de cintas de cassette, haciendo que este terminal funcionase como un computador totalmente desvinculado de los grandes mainframes.
Hoy en día el Datapoint 2200 es una pieza de colección bastante preciada que encierra en su interior una compleja red de circuitos integrados TTL que forman una bella maravilla de la ingeniería electrónica. Para todo el que tenga curiosidad sobre cómo se programaba este dispositivo puede echar un vistazo al manual de programación y el manual de referencia de esta computadora.
Después de mucha rumorología durante estas semanas pasadas sobre un posible evento de la compañía de la manza centrado en su tablet, Apple ha comenzado a enviar invitaciones a los medios para un evento que se celebrará el próximo 7 de marzo en el cual por el aspecto de la imagen que acompaña a la invitación -la que abre este post- claramente presentarán el esperado iPad 3. Concretamente, como es habitual, la cita tendrá lugar en el Yerba Buena Center, enclavado en la ciudad de San Francisco, y dará comienzo a las 10 am PST.
Así que el 7 de marzo Tim Cook, CEO de Apple desde el fallecimiento de Steve Jobs, saldrá al escenario para muy probablemente dar a conocer la tercera generación del iPad, que según todos los rumores será muy parecido en cuanto a diseño exterior al iPad 2 pero con mejoras importantes respecto a características; por ejemplo una nueva pantalla de mejor calidad o cámara de 8 megapíxeles acompañada por una lente mejorada (si quieres más detalles de cómo podría ser el iPad 3 recomiendo leer el post “¿Qué podemos esperar del iPad 3?” que publicámos hace unos días).
Como es habitual, nuestros compañeros de AppleWeblog realizarán un seguimiento en vivo del evento y tanto aquí en ALT1040 como en Gizmología, nuestra publicación sobre gadgets y electrónica de consumo, estaremos informando al minuto de todas las novedades que se desvelen en el evento.
Para que no te pierdas nada, seguidamente los horarios a los que tendrá lugar la keynote en diferentes zonas horarias:
En alguna que otra ocasión hemos hablado de Microsoft Research, la división de Microsoft que realiza proyectos de investigación, entre otras áreas, sobre el desarrollo de nuevos interfaces que faciliten la interacción entre el hombre y las computadoras y permita que una interacción mucho más natural y cómoda para el usuario. Entre sus proyectos hemos podido ver hologramas, nuevos interfaces táctiles o, incluso, sistemas de telepresencia, proyectos visualmente muy atractivos que gracias a la realidad aumentada, Kinect y otros sistemas de visión artificial, rompen la barrera que separa al hombre de la máquina facilitando el manejo del sistema. Recientemente, Microsoft Research ha mostrado dos proyectos que caminan por esta senda: Holoflector y el Escritorio 3D interactivo.
El proyecto Holoflector es una idea de Andy Wilson y Stevie Bathiche, las personas que desarrollaron la idea de Microsoft Surface. El Holoflector es un sistema que conjuga 4 elementos (un espejo, una pantalla LCD, Kinect y un smartphone con Windows Phone) para ofrecer un entorno de realidad aumentada en el que el sistema capta la imagen del usuario y sus movimientos y le permite interactuar con el sistema.
Gracias al espejo, el usuario puede controlar en todo momento su posición (gracias al reflejo) y, mediante el uso de Kinect, el Holoflector capta la posición y los movimientos del usuario para que las imágenes que se proyectan en la pantalla LCD respondan a los movimientos del usuario. Además, el sistema se puede controlar con un smartphone con Windows Phone que hace las veces de control remoto y con el que se pueden controlar los distintos modos de funcionamiento del sistema. En el vídeo demostración, Andy Wilson nos enseña un juego en el que controlar una “pelota virtual” evitando que ésta se caiga al suelo (donde además el smartphone actúa como sensor de orientación) o cómo la imagen del sistema se adapta a la forma del cuerpo de Andy cuando éste recibe una “lluvia virtual” de bolas.
El Escritorio 3D interactivo es un proyecto del grupo de ciencias aplicadas que trabaja en el campo de las pantallas interactivas. La idea ha sido desarrollada por Jinha Lee y Cati Boulanger y consiste en el desarrollo de un equipo de escritorio bastante singular que utiliza una pantalla OLED Samsung a modo de “ventana transparente. Detrás del marco de esta ventana se sitúa una cámara que detecta la posición de las manos sobre el espacio (como no, usando Kinect) y el teclado (que se sitúa detrás de la pantalla y no delante, como habitualmente se suele colocar) permitiendo al usuario interactuar, mediante gestos, con las distintas imágenes tridimensionales proyectadas sobre la pantalla permitiendo que las mueva o arrastre “al tocarlas”. Además, mediante otra cámara, se controla la posición de la cabeza del usuario para ajustar la imagen siempre a la posición de ésta y evitar que el efecto 3D se degrade con cualquier movimiento.
El proyecto es bastante interesante y, sobre todo, vistoso pero aún se encuentra en una fase muy temprana de desarrollo como para que pueda convertirse en un producto comercial pero, viendo los resultados, quizás podría ser el germen de una nueva generación de dispositivos de escritorio.
El neurocientífico del MIT, Sebastian Seung, ha publicado el libro My connectome, myself en el que describe la importancia de la conectividad neuronal y es continuación de la charla TED subtitulada al español Yo soy mi conectoma.
El cerebro es una de las estructuras más complejas del universo. Una estructura de grandes números (aunque estos números parecen más un dogma que una realidad comprobada). La cantidad de neuronas es de:
Cien mil millones = 100.000.000.000 = 10^11
y la de sinapsis es de:
Cien billones = 100.000.000.000.000 = 10^14
El cerebro contiene más neuronas que estrellas hay en la Vía Láctea. Con los medios actuales puede llevar años rastrear las ramas y sinapsis de una sola neurona. En comparación, los científicos que secuenciaron el ADN solo tuvieron que mapear tres mil millones de bases. Según Seung:
Hay un millón de veces más conexiones en el cerebro que letras tiene el genoma
Claramente, los genes son muy importantes, pero dado que no cambian después de la concepción, no pueden tener en cuenta los efectos de la experiencia.
Niveles de organización cerebral
Podemos dividir el cerebro en distintos niveles de organización:
molecular / genético
celular
columna neocortical
áreas cerebrales
sistemas
cerebro
conducta
La investigación en biología molecular y genética relacionada con el cerebro es muy vigorosa. Múltiples revistas están dedicadas a este área. Tiene el respaldo de las compañías farmacéuticas que elaboran productos basados en estas investigaciones.
Los estudios sobre la neurona comenzaron con Santiago Ramón y Cajal y su brillante obra. La neurona es fácil de definir y acotar y hoy tenemos un conocimiento muy avanzado sobre ella.
Si penetramos la corteza cerebral de fuera hacia dentro con un electrodo, registraremos una columna de unos 2mm de alto y 0,5mm de diámetro que contiene unas 10.000 neuronas que responden a un mismo estímulo sensorial (por ejemplo un leve pinchazo en la piel). Es una columna neocortical. Tiene 6 capas y su estructura es la misma en todos los mamíferos. La mayor complejidad del cerebro humano consiste en que hay más columnas que en otros mamíferos, no en que estas sean diferentes.
Las columnas se relacionan con columnas adyacentes que procesan información semejante (por ejemplo información táctil). En conjunto estas agrupaciones forma áreas que Brodman definió hace 1 siglo. Las áreas a su vez se relacionan entre sí estableciendo sistemas como el sistema visual, auditivo… Estas relaciones pueden denominarse también redes neuronales.
El conjunto de áreas y sistemas forman el cerebro, entidad bien delimitada. Por último, pero no menos importante está la conducta, a menudo olvidada, pero la gran protagonista de nuestra vida y de la relación con nuestros semejantes.
Conectoma
El nivel sobre el que existe mayor desconocimiento es el de las redes o la conectividad. La inmensa red neuronal no es casual. Cada una de las sinapsis importa y nos hace ser como somos. Por ello Seung afirma: “soy mi conectoma”.
Los Institutos Nacionales de la Salud NIH americanos han otorgado subvenciones por un total de 40 millones de dólares durante cinco años para crear un mapa de las conexiones de cerebro humano en alta resolución. Se trata de “un ambicioso esfuerzo para mapear las vías neurales que subyacen al funcionamiento del cerebro humano”.
Una de las subvenciones se destina a escanear con resonancia magnética avanzada, fMRI en reposo y en actividad, DTI y magnetoencelografía a más de 1000 personas incluyendo estudios de gemelos, correlación con pruebas de comportamiento y perfiles genéticos. Los datos serán de libre acceso y permitirán un detallado análisis.
La otra subvención se dedicará a la creación de un escáner de resonancia magnética de última generación de 3T que mejorará la calidad y la resolución espacial de los datos de conectividad del cerebro.
La corteza cerebral contiene la llamada materia gris. Está compuesta por los cuerpos celulares de las neuronas. También contiene las sinapsis que se realizan en dichos cuerpos y en las dendritas. La salida de información se realiza a través de los axones. Estos salen de la corteza y se agrupan en fibras de millones de axones que conectan unas partes del cerebro con otras. Estas fibras axónicas constituyen la materia blanca.
Anatómicamente es posible seguir las fibras de axones y observar sus conexiones a simple vista. Pero a una resolución muy baja. Además las fibras se superponen unas a otras en tres dimensiones formando un enmarañado ovillo. La autoradiografía histológica permite teñir y seguir una fibra concreta. Siempre en análisis post mortem. En ambos casos el análisis es laborioso y limitado.
La resonancia magnética ha cambiado el panorama. Una técnica adicional llamada DTI (Diffusion tensor imaging) permite descubrir la materia blanca, las fibras axónicas. El agua difunde por igual en todas direcciones a menos que encuentre una barrera. Las paredes del axón recubiertas de vainas de mielina impiden la difusión del agua de modo que esta difunde en el sentido del axón. La resonancia magnética capta esta difusión del agua y revela el sentido de las fibras axónicas.
El conectoma no es un mapa completo y detallado de sinapsis. Estas están aún a un nivel más bajo. Es más bien un mapa a gran escala. Olaf Sporns bautizó con éxito en 2005 conectoma al mapa de conexiones cerebrales.
El cerebro no es estático y cuenta con 4 mecanismos de cambio en el conectoma, las 4 R’s.
Reweighting significa cambio en la fuerza de las sinapsis
Reconnection es la creación y eliminación de sinapsis
Rewiring es la creación y eliminación de ramas en una neurona
Regeneration es la creación y eliminación de neuronas
Con el uso de la resonancia magnética y otras técnicas, los científicos han descubierto una serie de núcleos cerebrales por los que pasan la mayoría de las señales nerviosas. Serían responsables de la red neuronal por defecto (cuando dejamos vagar la mente) o la mismísima conciencia. Estos núcleos centrales están organizados en algo parecido a un diagrama de las rutas aéreas mundiales.
El conectoma tiene también sus críticas. Christof Koch, uno de los teóricos más influyentes en la neurociencia computacional y estudioso de la conciencia, soporta la idea de que la esencia de la mente descansa sobre las conexiones neuronales, pero advierte contra la simplificación:
… Seung, por ejemplo, llama al autismo y a la esquizofrenia “conectopatías”, enfermedades en las que que cableado del cerebro es anómalo. Pero hay muchas más cosas erróneas en el cerebro además de la conectividad. Fallos en la transmisión sináptica y en los procesos en las neuronas y en las células de glía que las soportan están implicados en la enfermedad mental. Las neuronas son dispositivos complejos con elaboradas estructuras de entrada que exhiben un procesamiento sofisticado, no linear y dependiente del tiempo.
Hay otro caso muy llamativo. Es el del gusano C. elegans. Es el sistema nervioso más simple que existe. Tiene 302 neuronas. Conocemos su conectividad, todas sus sinapsis, desde 1986. Sin embargo, no existe aún un modelo que explique el comportamiento de c. elegans. El conocimiento del conectoma es condición necesaria pero no suficiente para explicar la conducta.
Será a partir de la próxima semana durante las conferencias sobre seguridad CanSecWest. Los premios, un total de hasta 1 millón de dólares para aquellos hackers que consigan hackear su navegador Chrome en varios equipos con Windows 7 instalado.
Los premios estarán repartidos según la gravedad conseguida, una serie de “recompensas” que irán desde los 60.000 dólares hasta los 20.000 dólares en un montante total que según anuncia la compañía llegaría hasta la mágica cifra del millón. Además, todos los premiados recibirán un chromebook.
En su sexto año, el concurso Pwn2Own se vuelve a producir durante las conferencias CanSecWest. Lo que se busca es claro, a la vez que los hackers tratan de encontrar de forma remota vulnerabilidad en los navegadores y software, las compañías perfeccionan sus próximos parches y actualizaciones.
En el caso de Google y su navegador Chrome el premio aumenta por una razón. El año pasado tanto Internet Explorer como Safari fueron vulnerados. No así en el caso de Chrome, del que no se consiguió ningún exploit.
Tanto Chris Evans como Justin Schuh, ambos miembros del equipo de seguridad de Chrome, explicaban la razón de que la compañía llegue a ese millón por encontrar fallos de seguridad en su navegador:
Si bien estamos orgullosos de la trayectoria principal de Chrome en las competiciones anteriores, el hecho es que no recibiera ninguna hazaña significa que es más difícil de aprender y mejorar. Para maximizar las posibilidades de recepción de las hazañas de este año, hemos subido la apuesta. Llegaremos hasta el 1 millón de dólares de recompensa.
Finalmente y a través del blog de la compañía, Google aviva una nueva polémica en torno a Pwn2Own. La compañía retirará el patrocinio del concurso tras este año si no realizan cambios en sus términos. La razón es que las reglas permiten a los hackers no revelar todos los detalles de las vulnerabilidad encontradas en los navegadores si no lo desean. Según Google:
La comunidad whitehat necesita encontrar solución a los problemas, estudiarlos. Nuestro objetivo es hacer una web lo más segura posible.
A partir del 7 de marzo comenzará la Pwn2Own. Hasta 1 millón de dólares de recompensa en juego por romper la seguridad de Chrome.
Hasta 2.165 IPs convertidas una vez más en usuarios individuales que tendrán que luchar en los juzgados por su inocencia, o bien, un pago anticipado para que los titulares de derechos dejen de lado la disputa legal. La razón, la supuesta descarga de la película Conan the Barbarian en BitTorrent, una de las películas “top” en P2P del último año que trae un nuevo caso en masa por el uso de las P2P en Hollywood. Como en otras ocasiones, se busca pago anticipado sin pasar por juicio alguno.
Similar a los casos ocurridos en el 2011 con películas como The Expendables o Hurt Locker, la demanda masiva se ha presentado en la Corte Federal de Distrito de Marylan a través de los estudios Nu Image.
El objetivo, como hemos contado en otras ocasiones, no es tanto acudir a los juzgados. El negocio reside en llegar a un acuerdo con los supuestos infractores para que paguen una “indemnización” en efectivo a cambio de hacer desaparecer la demanda. Acuerdo muy cercano a la extorsión que en el caso de Conan se perfecciona una vez visto los resultados de los casos anteriores.
Nu Image fueron los encargados de llevar a cabo la demanda en masa de P2P más grande la historia. Fue con la película The Expendables apuntando a 23.322 presuntos infractores a través de su IP. Una demanda que finalmente se diluyó debido a que los jueces indicaron que la mayoría de acusados no vivían en el distrito donde se les acusaba.
Quizá por esta razón Nu Image ha modificado sus formas de rastreo contra estas 2.165 IPs que supuestamente han descargado Conan the Barbarian. Una demanda masiva que indica que estos usuarios habrían descargado la película entre los meses de diciembre del 2011 y febrero del 2012.
A diferencia de los casos anteriores, los titulares se han cubierto para que no ocurra lo mismo que en The Expendables. En esta ocasión todos los acusados residen en Maryland. No sólo eso, el estudio de cine se ha asegurado de incluir sólo las direcciones IP asignadas a los proveedores de Internet que cooperaban con ellos (en este caso Comcast y Sprint).
Tras perfeccionar este tipo de demandas, estas 2.165 IPs y sus respectivos abonados deberán elegir entre el pago en metálico de una cuantía como arreglo o el paso por un costoso juicio. Un negocio de lo más lucrativo.
El pasado jueves varias cuentas de Twitter asociadas al colectivo Anonymous denunciaban que las fuerzas y cuerpos de seguridad españolas estaban deteniendo a miembros del grupo por toda la geografía. Ahora la Policía Nacional lo ha confirmado a través de su cuenta en Twitter; concretamente han detenido a 4 personas en España, 2 de las cuales han sido enviadas a prisión, y hay 21 imputados en Lationoamérica.
Según un comunicado de la Policía, las detenciones se han producido en el marco de la operación internacional bautizada como Exposure, la cual ha sido coordinada por la INTERPOL. Los detenidos son los presuntos autores de diversos ataques DDoS y defaces a sitios web de partidos políticos, instituciones, empresas y también responsables de la filtración de datos personales de escoltas de la presidencia del Gobierno de España e integrantes del GEO de la Policía Nacional en la Red.
De los detenidos en España, uno responde a las siglas de F.J.B.D, se le detuvo en Málaga y presuntamente se ocupaba de gestionar la infraestructura informática utilizada por Anonymous en España e Iberoamérica; otro, J.M.L.G, fue arrestado en Madrid y es el presunto autor material de los ataques y publicación de datos personales. A ambos se suman J.I.P.S, detenido también en Madrid, y un joven de 16 años. A todos se les atribuyen los delitos de asociación ilícita, daños informáticos y descubrimiento y revelación de secretos.
En el caso de Latinoamérica, 10 han sido las personas imputadas en Argentina, 6 en Chile y 5 en Colombia.
Por otro lado, tanto en España como en los citados países de Latinoamérica, se han realizado diversos registros (4 y 12 respectivamente) en los que se han intervenidos ordenadores, discos duros y otros soportes y material informático.
Así que segundo golpe a Anonymous en España tras la operación que tuvo lugar el pasado junio y dio como resultado la detención de 3 presuntos integrantes del colectivo. Y primero, al menos que yo sepa, en Latinoamérica.
You are subscribed to email updates from ALT1040 To stop receiving these emails, you may unsubscribe now.