ALT1040 |
- Arte cósmico: Orión en todo su esplendor
- Face to Facebook, el reto de superar la agorafobia
- El inventor de BitTorrent quiere acabar con la televisión
- Recuerdos de Battlestar Galactica en un time lapse monumental de la Vía Láctea
- Historia de la Tecnología: ENIAC
- MIT, Google y la Universidad de Tel Aviv desarrollan una codificación inmune a errores de transmisión
- IFPI acusa a oposición contra ACTA de “silenciar el proceso democrático”
- Descubren estructura molecular desconocida en nuestro organismo que ayudará a la reparación de tejidos
- Carta abierta de Peter Sunde a la industria: “es la evolución, estúpido”
- Se confirma que la nueva vacuna contra el VIH es un éxito en los primeros pacientes
Arte cósmico: Orión en todo su esplendor Posted: 14 Feb 2012 07:14 PM PST Si digo constelación de Orión, probablemente a la mayoría os venga a la cabeza la típica imagen compuesta por sus tres estrellas más brillantes. Pero Orión es mucho más que eso, como deja meridianamente claro la instantánea que acompaña a estas líneas. Concretamente se trata de una composición digital confeccionada a partir de diversas fotografías de la constelación tomadas durante varias noches que cubre un área aproximada de 75 años luz. En ella, a la izquierda del todo, aparecen las tres famosas estrellas que decía al principio, las conocidas como cinturón de Orión. Justo debajo de la más baja de estas, Alnitak, se ve la nebulosa de la Llama entre filamentos marrones de polvo, y a su derecha por debajo del centro la nebulosa Cabeza de Caballo, una de las más conocidas. Por otro lado si dirigimos la vista hacia la parte superior derecha, aparece M42 o la nebulosa de Orión, y situada a su izquierda vemos la cuna de estrellas azules brillantes bautizada con el nombre de El Corredor. Sin ninguna duda, puro arte cósmico, gracias al que un gran número de personas que antes huía de estos temas ahora se interesa por ellos. Y para los que únicamente les interese el deleite visual, comentar que la imagen está disponible a 1900x900 píxeles. ![]() |
Face to Facebook, el reto de superar la agorafobia Posted: 14 Feb 2012 03:45 PM PST La agorafobia es un trastorno ansioso que consiste en el miedo a salir de casa, a los lugares abiertos, a dejar un espacio considerado seguro, a no recibir ayuda en caso de necesitarla; es un conjunto de temores que rigen el día a día de quien los padece. Podría resumir diciendo que la agorafobia es el miedo al miedo. Los agorafóbicos evitan las situaciones que no pueden controlar y los lugares que les provocan ansiedad. Arlynn Presser de 51 años y residente en Winnetka, Illinois (EE.UU.) sufre agorafobia. Esta escritora de novelas románticas llevaba casi cinco años sin salir de casa. El pasado 31 de diciembre de 2010 se marcó una meta para el nuevo año: superar su miedo al miedo, dejar atrás la agorafobia. Y para ello se sirvió de Facebook, red social donde contaba con 335 amigos. Su plan era, en apariencia sencillo, visitar y conocer a todos esos contactos. Empezó con postear un mensaje en su blog explicando lo que quería hacer. Llamó a su aventura Face to Facebook. Presser explica las razones que la llevaron a enfrentarse, de manera tan directa, con su enfermedad:
A finales de 2011 la escritora se había encontrado con 292 amigos, cerca del 90% de los que se había propuesto conocer; había visitado países como Dubai, Malasia, Irlanda, Inglaterra, Corea o Alemania y había cogido más de cuarenta vuelos internacionales, y eso que la sola idea de volar la aterrorizaba. El cineasta Benjamin Gonzales ha realizado un documental titulado también Face to Facebook centrado en la odisea personal de Presser, el tráiler ya está disponible y se prevé su estreno para finales de este año. Según Presser:
Tras una experiencia tan intensa, la mujer dice haber aprendido a manejar su miedo y se ha marcado nuevas metas. El 2012 pretende utilizarlo para ayudar a otras personas con agorafobia mientras seguirá escribiendo novelas románticas y visitando a sus amigos de Facebook:
![]() |
El inventor de BitTorrent quiere acabar con la televisión Posted: 14 Feb 2012 02:02 PM PST No es para alarmarse, no planea un atentado ni nada por el estilo. Bram Cohen dijo el lunes en una distendida conferencia que tranquilamente podría usarse el protocolo P2P para hacer streaming de contenido hacia millones de usuarios sin requerir infraestructura centralizada. Por lo que declaró están trabajando en adaptar el protocolo para que soporte esta opción cambiando el paradigma en el que se basa el consumo de información. Declaró entre risas:
Cohen es el inventor del protocolo BitTorrent y del programa con el mismo nombre, por lo que vemos está lejos de deprimirse por el difícil momento que enfrentan los sistemas para compartir archivos, de hecho sube la apuesta con sus declaraciones. Parece no preocuparse demasiado por el reciente cierre de Megaupload o la desaparición de otras empresas que ofrecían similar servicio. Tampoco parece preocuparse demasiado por el caso más relacionado con su plataforma, el cierre de la famosa página para encontrar archivos torrent BTJunkie y la clausura con el agravante de la condena penal de The Pirate Bay.
La esquema detrás de su propuesta sigue la misma lógica que se utiliza para los archivos. En lugar de consumidores que descargan el contenido de un mismo sitio pasamos a usuarios que participando de un stream observan y comparten al mismo tiempo minimizando los recursos necesarios. De forma opuesta a los streamings tradicionales, cuanta más gente esté viendo el contenido mejor será la conexión y la calidad de reproducción. Posteriormente en la conferencia se explayó aclarando que este sistema beneficiará principalmente a los consumidores multiplicando las opciones disponibles gracias al bajo costo de publicación que representará para los generadores del material. El disertante dijo que la mayor cantidad de contenido que se consume en televisión es en vivo y no está en internet en ese momento, aclaró que los protocolos actuales son malos para alcanzar la transferencia necesaria. Si nos guiamos por su entusiasmo y su discurso, el cambio en el código representaría un cambio radical en la forma en que se consumen los medios y seguramente será el objeto de nuevas persecusiones. Mañana podremos probar en vivo si es cierto con su entrevista, las invitaciones salen de la web de BitTorrent. ![]() |
Recuerdos de Battlestar Galactica en un time lapse monumental de la Vía Láctea Posted: 14 Feb 2012 12:29 PM PST Enmarcado en el proyecto Dakotalapse, lo que vemos es la última obra maestra del fotógrafo Randy Halverson. Un time lapse monumental donde nos acercamos a la inmensidad de la Vía Lactea o la magnitud de la aurora boreal acompañados de otros grande, en este caso, del compositor Baer McCreary. El creador de los scores de Battlestar Galactica o The Walking Dead sumerge al espectador en las evocadoras secuencias de Halverson con una banda sonora original para la pieza. Cuenta el propio Halverson que la construcción del vídeo son el resultado de 20-30 segundos de exposición editados posteriormente durante largas horas hasta la consecución del time lapse. Las imágenes donde nos muestra la aurora boreal fueron fotos tiradas en Dakota del sur durante el mes de septiembre del 2011 hasta el mes de octubre. La mayor parte del vídeo fue filmado en Whiter River, en el centro del estado, tomando luego como enclaves el Arches National Park en Utah o el famoso Cañón del Colorado. Una pieza magistral que cuenta con una versión extendida de 23 minutos (la podéis descargar desde aquí) en cuya construcción se incluyen dos scores inéditos de Simon Wilkinson. Les dejo con las características técnicas del trabajo:
Foto: Dakotalapse ![]() |
Historia de la Tecnología: ENIAC Posted: 14 Feb 2012 10:44 AM PST Esta fin de semana, la NASA apagó el último mainframe que tenía activo, un hecho que supone un cambio de paradigma en la agencia espacial estadounidense y el abandono de los sistemas transaccionales. El IBM 701, una de las primeras computadoras comerciales, estaba orientada a la realización de cálculos en el ámbito de la defensa y la aeronaútica (aviones, misiles, etc), aplicaciones militares que, unos años antes, habían impulsado el desarrollo de uno de los primeros computadores de la historia: el ENIAC, que fue presentado en sociedad el 15 de febrero de 1946. En 1941, librándose la Segunda Guerra Mundial en Europa y con Estados Unidos manteniéndose neutral (el ataque a Pearl Harbor se produjo el 7 de diciembre de 1941), el doctor en ciencias físicas John William Mauchly realizó un curso de electrónica militar en la Moore School of Engineering de la Universidad de Pennsylvania donde conoció a John Presper Eckert, un joven ingeniero recién graduado con el que comenzó a trabajar en el desarrollo de tubos de vacío fiables para que pudiesen utilizarse como base de máquinas de cálculo. La Moore School, por aquel entonces, era un centro de cálculo para crear tablas de tiro para las nuevas armas y proyectiles que desarrollaba el Ejército de Estados Unidos, un caldo de cultivo en el el que Mauchly desarrolló un estudio denominado “Utilización de Tubos al Vacío de Alta Velocidad par realizar Cálculos”. En septiembre de 1942, y tomando como base su estudio, Mauchly postuló que era posible la construcción de un computador electrónico de propósito general y, a través del enlace con el Ejército, cursó la petición para recibir fondos. La idea gustó en el Cuerpo de Artillería del Ejército y vieron las posibilidades que podría tener un sistema capaz de realizar cálculos sobre disparos de proyectiles y accedió a financiar el proyecto. El 5 de junio de 1943 se suscribió el acuerdo entre la Universidad de Pennsylvania y el Ejército de Estaos Unidos que fijaba un plazo inicial de 6 meses para “la investigación y el desarrollo de un integrador numérico electrónico y un computador que entregase como resultados informes” para lo cual asignó una dotación presupuestaria de 61.700 dólares a los que se sumarían, hasta 1946, nueve adendas al acuerdo y una dotación presupuestaria extra de 486.804,22 dólares de la época para obtener un modelo experimental totalmente funcional que pudiese instalarse en los Laboratorios de Investigación Balística del campo de pruebas Aberdeen. Así fue como arrancó el desarrollo del ENIAC (Electronic Numerical Integrator And Computer) con Mauchly como responsable del diseño conceptual del computador, Eckert como responsable de ingeniería para la construcción del hardware de la máquina y el Capitán Goldstine que, además de actuar como supervisor residente del Departamento de Artillería, contribuyó en la programación matemática de la computadora. Tras varios meses de trabajo, en 1944 se decidió congelar el diseño del ENIAC para poder iniciar su construcción, una decisión que supuso la introducción de algunas limitaciones en el diseño El desarrollo del ENIAC se realizó, componente a componente, en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pennsylvania, comenzando con el primer acumulador en 1944 y desarrollando el resto de módulos hasta el ensamblado final que tuvo lugar en otoño de 1945. El ENIAC estaba dividido en 30 unidades autónomas de las que 20 eran acumuladores. Cada uno de estos acumuladores era capaz de sumar 10 dígitos a gran velocidad y almacenar los resultados que, además, podían visualizarse a través de unas lámparas que se encendían. Para acelerar las operaciones, los acumuladores contaban con un multiplicador y un divisor y la lectura de datos se realizaba mediante tarjetas perforadas. La computadora ocupaba una superficie de 167 metros cuadrados y estaba formada por 17.468 válvulas de vacío que permitían realizar 5.000 sumas y 300 multiplicaciones por segundo. Además, utilizaba 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias y 10.000 condensadores gracias a 5 millones de soldaduras que dotaban de conexión a todos estos componentes. ¿El resultado? Un computador de 27 toneladas de peso que era capaz de aumentar la temperatura de una habitación hasta alcanzar los 50 grados y consumir 160 KW de electricidad (una cantidad que, según la leyenda que rodea al ENIAC, llegaba a provocar cortes de luz en la ciudad de Filadelfia). La programación del ENIAC se realizaba mediante el interconexionado de cables, igual que las antiguas centrales de conmutación de telefonía, y requería la operación manual de unas 6.000 conexiones; por tanto, cualquier cambio en la programación requería días o, incluso semanas. A este hándicap había que sumar la poca tolerancia a fallos puesto que, hasta que se perfeccionó el desarrollo de los tubos de vacío en 1948, varias válvulas se fundían cada día (provocando paradas de 30 minutos para su sustitución) y, para evitar errores, cada cálculo se realizaba 2 veces para comprobar que éstos fuesen correctos. Dado que la programación era manual, las primeras personas que aprendieron a programar el ENIAC fueron un grupo de mujeres como Jean Jennings Bartik, que murió el año pasado, o Betty Snyder Holberton, Kathleen McNulty Mauchly Antonelli, Marlyn Wescoff Meltzer, Ruth Lichterman Teitelbaum y Frances Bilas Spence que, en 1997, entraron a formar parte del Women in Technology International Hall of Fame:
El 15 de febrero de 1946, se finalizó la construcción del ENIAC y se realizó la entrega al Cuerpo de Artillería del Ejército de Estados Unidos tras 4 años de trabajo. Durante 1946, el ENIAC permaneció en la Escuela Moore prestando servicio al Ejército en la resolución de problemas numéricos en el campo de la energía atómica y en trayectorias balísticas. En diciembre de 1946 se comenzó a desmontar el ENIAC para su traslado al campo de pruebas de Aberdeen y las primeras piezas llegaron a la base en enero de 1947 en un proceso que se prolongaría hasta agosto de 1947 en el que el ENIAC volvió a entrar en servicio. Para el equipo de mantenimiento de Aberdeen, el ENIAC era un entramado de circuitos y conexiones excesivamente complejo que impulsó el desarrollo de tubos de vacío más resistentes y de mayor vida útil. Desde 1947 a 1952 el ENIAC fue pieza clave para las investigaciones realizadas por Ejército y la Fuerza Aérea donde intervino en cálculos de proyectiles, predicción del tiempo, estudio de números aleatorios, diseño de túneles de viento, estudio de rayos cósmicos, ignición térmica, energía atómica, etc; campos en los que no tuvo rival hasta la llegada de los primeros computadores comerciales en 1951. El ENIAC comenzó a quedarse obsoleto y también aumentó el índice de averías (y el tiempo de indisponibilidad del sistema) por lo que se empezó a barajar su retirada que fue efectiva el 2 de octubre de 1955 a las 23:45. Gracias al Doctor John von Neumann, gran parte del ENIAC se conservó y hay partes expuestas en la Academia Militar de West Point o en el Instituto Smithsonian de Washington D.C. Una historia fascinante para una computadora de leyenda. Imágenes: Wikipedia, Computer History y Franklin Institute ![]() |
Posted: 14 Feb 2012 09:08 AM PST Cualquier mensaje o dato que transmitimos a través de un canal de comunicación pasa por un proceso de codificación en el que el mensaje se transforma con un código concreto. Los códigos a usar son múltiples y, dependiendo de la aplicación, se suele utilizar uno u otro atendiendo al tipo de datos a transmitir o el canal de comunicación a utilizar. Normalmente, cuando se envía una trama de datos codificada, ésta suele contener un fragmento destinado al control de errores, por ejemplo, para detectar que los datos recibidos han sufrido alguna alteración que hace imposible su recuperación (un nivel de señal excesivamente bajo que no hace discriminar entre un 1 y un 0 binario). Existen codificaciones que, gracias a estos mecanismos de control, permiten a los dispositivos receptores incluso reconstruir la señal (dentro de un umbral determinado) pero, cuando no es posible la reconstrucción, es necesario volver a transmitir los datos, bajando el throughput de la comunicación. Pensando en aprovechar al máximo la velocidad de transmisión que ofrece una transmisión inalámbrica, un equipo formado por el MIT, Google y la Universidad de Tel Aviv (Israel) ha desarrollado un mecanismo de codificación robusta que sería capaz de ofrecer la máxima velocidad de transmisión admisible por un canal de comunicación, incluso, en presencia de ruido puesto que adaptaría la transmisión al ruido existente en el canal. Uno de los problemas de los códigos robustos es que, desgraciadamente, suelen “recargar” el conjunto de datos a utilizar porque requieren de la transmisión de muchos más símbolos de redundancia y, al final, para la transmisión de un mensaje de un tamaño determinado de bits, los bits a transmitir realmente resultan ser muchos más que los del mensaje (aumentando el tiempo necesario para la transmisión del mensaje). Por tanto, en términos generales, la situación ideal es la de encontrar la máxima eficiencia y penalizar lo menos posible la cantidad de bits a transmitir, adaptando la redundancia necesaria al nivel de ruido presente en el canal. Muchos dispositivos inalámbricos, como los smartphones, suelen enviar mensajes de prueba que se utilizan para estimar el nivel de ruido del canal y, por tanto, ajustar la potencia de emisión y la codificación a utilizar pero, dado que el usuario puede moverse, las estimaciones pueden dejar de tener validez en un plazo muy corto de tiempo. Ante esta problemática, el profesor Gregory Wornell del Departamento de Ingeniería Electrónica y Ciencias de la Computación del MIT, Uri Erez de la Universidad de Tel Aviv y Mitchell Trott de Google idearon un nuevo esquema de codificación que han patentado y que, según describen, permite optimizar las comunicaciones y obtener la mayor tasa de transmisión posible. La idea es transmitir paquetes de símbolos con una codificación que proteja los datos (y permita su reconstrucción) ajustando la protección a las condiciones del canal de comunicación y sin tener que volver a retransmitir los datos ya enviados. De esa forma, el transmisor enviará un paquete de datos “suponiendo” que no hay ruido, si no se recibe respuesta, enviará otro paquete de datos “estimando” un umbral de ruido determinado y así sucesivamente hasta que el receptor cuente con información suficiente que le permita decodificar la señal y responder con un comando que permita finalizar la comunicación. Según los responsables de este método, se puede demostrar matemáticamente que la comunicación alcanza un punto en el que se envía la palabra más corta posible que se adapta a las condiciones de ruido del canal momento en el que la comunicación puede fluir a velocidad máxima. La clave está en que el mensaje a transmitir se divide en varias partes y, cada una de ellas, se codifican con un código corrector de errores (los códigos de Gallager por ejemplo), se multiplican cada uno de los fragmentos codificados y se suman los resultados, generando el primer mensaje a enviar. Los siguientes mensajes se obtienen multiplicando estas palabras resultantes por otros números y así se van generando los mensajes a enviar. Lógicamente, el receptor debe conocer los números que se usaron para multiplicar los mensajes codificados además del número de fragmentos del mensaje que, cuando es elevado, eleva la complejidad del receptor y el número de cálculos a realizar a la hora de decodificar el mensaje. La idea, desde luego, es bastante curiosa pero, quizás, sea complicada de llevar a la práctica porque en un canal muy cambiante, se podría emplear demasiado tiempo en el ajuste de las estimaciones. Imagen: Scenic Reflections ![]() |
IFPI acusa a oposición contra ACTA de “silenciar el proceso democrático” Posted: 14 Feb 2012 07:36 AM PST
IP Watch publica en su blog una carta enviada a los parlamentarios europeos titulada "YES to ACTA", misma que es firmada por varias organizaciones pro-endurecimiento de las leyes de propiedad intelectual como IFPI, GEMA, INTA, BREIN, IRMA — y que son responsables del lobby de draconianas leyes y acciones anti-internet como IPRED2, HADOPI y Ley Sinde por mencionar algunas.
Nuevamente vemos a la industria tergiversando la situación a su favor. Afortunadamente su nula legitimidad y pésima reputación hacen que este ridículo mensaje, sirva además como prueba del tipo de industrias a quienes beneficiaria ACTA. Por otra parte, que una industria con nula habilidades para innovar y competir justamente en un mercado que ha cambiado completamente (les guste o no), cuestione la capacidad de la Unión Europea para actuar en conjunto es ominoso. La Unión Europea esta actuando como fuerza política en contra de ACTA —porque sus ciudadanos así lo quieren, pero tal parece que para los monopolios intelectuales la Unión Europea solamente debería de actuar como fuerza económica o bien, el proceso no es democrático. Como siempre, absolutamente patético. ¿Qué más se puede esperar de esta gente? La industria y Comisión Europea que negociaron el tratado están desesperados, esta carta y los tweets de los voceros de los comisionados Neelie Kroes y Karel De Gucht asegurando que ACTA no fue negociado en secreto con enlaces a reportes que dicen lo que ya todos sabemos. La poca transparencia que hubo en ACTA fue forzada por la opinión pública, los ciudadanos y las organizaciones que presionaron, no porque los negociadores fueran simpatizantes de los procesos democráticos. Los leaks no equivalen a transparencia, solo revelan la opacidad y ACTA salió a la luz por medio de filtraciones. Mientras tanto el día de hoy en la sede del Parlamento Europeo en Estrasburgo, el bloque parlamentario Verde/EFA protestó en contra del tratado bajo la nieve. Su mensaje es el mismo que el de miles de ciudadanos en Europa y el mundo: NO al ACTA. Al parecer la industria no puede ni con el internet ni con la democracia. Evidentemente alguien está de sobra en esta ecuación. Imagen vía Greens/EFA ![]() |
Posted: 14 Feb 2012 05:28 AM PST
La investigación ha sido llevada a cabo por la University’s School of Molecular Bioscience en Sydney y se ha publicado hace escasas horas en la PNAS. Cuentan los científicos, con el profesor Tony Weiss a la cabeza de la investigación, que el hallazgo se podrá aplicar para el tratamiento de las enfermedades cardiovasculares y el enfisema. Según el propio Weiss:
Para ello, los investigadores diseccionaron una parte fundamental de la molécula de la elástina, la proteína que mantiene los tejidos como la piel, los pulmones o los vasos sanguíneos elásticos durante los procesos normales como pueden ser el movimiento del cuerpo, la respiración o la circulación sanguínea. Luego, usando una combinación de alta potencia en rayos x junto a herramientas de síntesis de elástina, el equipo de investigadores halló que la proteína humana contenía un puente molecular, o lo que ellos mismos han tildado como “amortiguador”. Según Weiss:
Cuentan los científicos que la investigación se realizó con el objetivo de obtener respuestas a la reducción de la obesidad, diabetes o enfermedades cardiovasculares. Una hallazgo que en el futuro podrá tener soluciones muy diferentes en la reparación de tejidos humanos como las quemaduras a través del puente molecular. ![]() |
Carta abierta de Peter Sunde a la industria: “es la evolución, estúpido” Posted: 14 Feb 2012 03:26 AM PST
Lo que cuenta Sunde podría haber ocurrido en cada uno de los países donde hoy surgen regulaciones que enturbian, entorpecen y destruyen el avance y la innovación en el mapa digital. Como mostrara meses atrás WikiLeaks a través de sus embajadas en el mundo, el poder de la industria del entretenimiento en Estados Unidos muestra una corrupción inaudita, “negociando” por y para el interés de su industria a través de la extorsión velada del comercio entre países y tirando por tierra muchos de los derechos fundamentales. Sunde firmó la siguiente carta abierta en la prestigiosa Wired. Como hiciera tras la negativa de la Corte Suprema sueca hace unas semanas a escuchar la defensa de los creadores de The Pirate Bay, vuelve a atacar a la industria, aunque esta vez con una serie de revelaciones sobre las irregularidades de los juicios estos años. Un recorrido por los primeros años de The Pirate Bay en su lucha contra los todopoderosos estudios. Como él mismo dice, aunque se haya obligado al ministro de Justicia de Suecia ha reconsiderar su postura sobre el sitio, aunque se haya comprado a la propia policía que se encontraba en la investigación sobre TPB e incluso aunque los jueces en el caso formaran parte de la propia industria, no todo está perdido. La cultura empieza por cada uno de nosotros. Nosotros somos los únicos en ofrecer una alternativa sin que ellos se beneficien. Los únicos que podemos cambiar el signo que ellos intentan imponer. Les dejo con parte de la transcripción de esta maravillosa carta abierta de uno de los fundadores de The Pirate Bay:
Sunde termina la editorial recordando las palabras que dijera una vez se supo la negativa de la Corte Suprema de la Justicia sueca a los fundadores de The Pirate Bay. Un llamamiento a la acción que decía así:
![]() |
Se confirma que la nueva vacuna contra el VIH es un éxito en los primeros pacientes Posted: 14 Feb 2012 02:12 AM PST
Y es que hasta ahora esa cura parece lejana. La medicina moderna sí ha encontrado en cambio el uso de varios fármacos antirretrovirales gracias a los cuales los pacientes pueden continuar su vida de manera normal, aunque sometidos a los procesos de estos medicamentos. Esta nueva vacuna es un paso más aunque es necesario un tratamiento continuado, si se interrumpe el tratamiento existe un alto riesgo de recaída. Al igual que otros fármacos, el problema en el organismo con el SIDA consiste en la respuesta insuficiente de nuestro cuerpo en las células dentríticas, aquellas responsables de transferir la información del virus a las células de defensa CD8 causando la destrucción de las células infectadas. Esta es la razón principal de la nueva vacuna desarrollada en Amberes. Los investigadores han estado tratando de resolver el problema encontrado la respuesta en la carga de las células dentríticas de los voluntarios portadores con el ARN mensajero de proteínas del VIH. El éxito final radica en que los encargados de las células dentríticas ahora son capaces de activar las células CD8 (células de defensa). En total han sido 6 voluntarios portadores probando los medicamentos. Los investigadores filtraron un gran número de células dentríticas de cada paciente proporcionándoles la información genética necesaria del virus. Tras el proceso, las células se congelaron. Cada paciente recibió entonces cuatro dosis al día durante un semana inyectándoles sus propias células dentríticas cultivadas. El efecto, más que prometedor, ofreció como resultado que las células CD8 comenzaran a reconocer al virus, fueron más eficientes en cada nueva dosis sin ningún tipo de efecto secundario. Hay que aclarar que este gran avance debe continuar perfeccionándose, sobre todo porque el virus ha mostrado en otras ocasiones su capacidad para cambiar sus propias proteínas y así esquivar las células CD8. En todo caso, estamos ante una de los grandes avances del año, una vacuna probada en pacientes remite su reproducción activando el sistema inmune y sin ningún efecto secundario visible. ![]() |
You are subscribed to email updates from ALT1040 To stop receiving these emails, you may unsubscribe now. | Email delivery powered by Google |
Google Inc., 20 West Kinzie, Chicago IL USA 60610 |
Publicar un comentario