Nanotecnología

En 1959 el físico Richard Feynman, nos decía que "había un montón de espacio al fondo" y auguraba una gran cantidad de nuevos descubrimientos si se pudiera fabricar materiales de dimensiones atómicas o moleculares.

En los años 80, con la aparición de la Microscopía Túnel de Barrido (STM) o de Fuerza Atómica (AFM), se hizo posible primero observar los materiales a escala atómica y, después, manipular átomos individuales.

Con respecto a qué es la Nanotecnología, empecemos por aclarar el significado del prefijo “nano”: éste hace referencia a la milmillonésima parte de un metro. Es decir, pensemos que un átomo es la quinta parte de esa medida, es decir, cinco átomos puestos en línea suman un nanómetro. Llamemos nanotecnología a todo lo comprendido desde 5 a 50 ó 100 átomos.

Las razones fundamentales debemos verlas en que cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas.

Su impacto en la vida moderna aún parece una historia de ciencia ficción. Fármacos que trabajan a nivel atómico, microchips capaces de realizar complejos análisis genéticos, generación de fuentes de energía inagotables, construcción de edificios con nanobots, combates de plagas y contaminación a escala molecular, son sólo algunos de los campos de investigación que se desarrollan con el uso de la nanotecnología, conocimiento que permite manipular la materia a escala nanométrica, es decir, átomo por átomo.

Considerado por la comunidad científica internacional como uno de los más "innovadores y ambiciosos" proyectos de la ciencia moderna, la nanotecnología tiene su antecedente más remoto en un discurso pronunciado en diciembre de 1959 por el físico Richard Feynman, ganador del Premio Nobel, quien estableció las bases de un nuevo campo científico.

Vinculado a la investigación científica desarrollada por las principales instituciones públicas de educación superior, la nanotecnología fomenta un modelo de colaboración interdisciplinario en campos como la llamada nanomedicina -aplicación de técnicas que permitan el diseño de fármacos a nivel molecular-, la nanobiología y el desarrollo de microconductores.

Apenas una década

Hoy existen cerca de 3 mil productos generados con nanotecnología, la mayoría para usos industriales, aunque las investigaciones más avanzadas se registran en el campo de la medicina y la biología.

Hoy día, este campo científico está orientado a la ciencia molecular que hace posible diseñar microchips electrónicos capaces de identificar en sólo ocho minutos, al colocar una gota de sangre, las enfermedades que padeció la familia del paciente y a cuáles puede ser propenso, así como el diseño de modernos fármacos capaces de atacar el cáncer a nivel atómico sin causar daño a las células sanas.

Realidad o ciencia ficción

Sin embargo, a pesar de que se avanza continuamente en el diseño de nuevos medicamentos y técnicas con capacidad de manipular la materia átomo por átomo, no existen fechas precisas para que todos estos adelantos sean una realidad en la vida cotidiana de millones de personas, pues la ciencia, al igual que el arte, también tiene a la imaginación y la creatividad como motores.

Algunas de las investigaciones más recientes en la búsqueda de tratamientos alternativos contra el cáncer fueron difundidas por un grupo de investigadores estadounidenses. En ellas se usaron nanopartículas de oro para el tratamiento del mal, lo que representa un gran logro para el combate contra esta enfermedad, a pesar de que puedan transcurrir varios años antes de su aplicación en seres humanos.

Actualmente, muchos productos generados por la nanotecnología han sido aplicados a la vida cotidiana de millones de personas, como el uso de materiales más livianos y resistentes, catalizadores con nanopartículas de platino en los vehículos para hacer más eficiente el consumo de combustible, hasta tecnología de punta en el desarrollo de proyectos espaciales.

La nanotecnología y el conocimiento de los procesos biológicos, químicos y físicos a nivel molecular, se convertirán en una de las revoluciones científicas más importantes para la humanidad, la cual debe ser difundida e incorporada en la sociedad con una amplia participación y apoyo por parte del Estado y la iniciativa privada.

La "excelente" calidad de las investigaciones desarrolladas por especialistas requiere de mayor impulso financiero que garantice el futuro de importantes proyectos y de un cambio en la cultura científica que permita que la mayoría de la población conozca el potencial de un nuevo campo científico que puede cambiar el futuro de la humanidad.

El principal reto será incorporar la nanotecnología como un nuevo campo multidisciplinario vinculado estrechamente a la sociedad, tanto por sus aplicaciones como por su potencialidad para resolver los problemas más urgentes, como el acceso a recursos energéticos, agua o alimentos.

A ello se suma la falta de interés de importantes sectores de la iniciativa privada que pueden participar en el desarrollo de una tecnología moderna y eficiente que repercutirá tanto en la calidad de vida de las personas como en el consumo de diversos artículos.

Sin un programa de divulgación que informe a la sociedad y al sector industrial de los avances que puede generar la nanotecnología, se agudizará el rezago científico en el que se ubican muchos de los países en desarrollo, a pesar de tener un cuerpo científico altamente capacitado, pero sin recursos ni difusión.

La Nanociencia es un área emergente de la ciencia que se ocupa del estudio de los materiales de muy pequeñas dimensiones.

El significado de la "nano" es una dimensión: 10 elevado a -9.

  • Esto es: 1 nanometro = 0,000000001 metros.
  • Es decir, un nanometro es la mil millonésima parte de un metro, o millonésima parte de un milímetro.
  • También: 1 milímetro = 1.000.000 nanometros.

Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de nanometros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de "ver" y "tocar" a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de "ver" átomos. Unos pocos años más tarde el Atomic Force Microscopefue inventado incrementando las capacidades y tipos de materiales que podían ser investigados...

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Nanotecnología IV

Los lentes de contacto tenían un item pendiente a la hora de la proteger los ojos. La protección de los rayos ultravioleta.


Investigadores del Instituto de Bioingeniería y Nanotecnología (IBN) de Singapur han desarrollado unas lentes que se oscurecen al ser expuestas a la luz ultravioleta, protegiendo a los ojos contra los dañinos rayos, y que vuelven a su estado normal en ausencia de esta luz.

Este efecto se ha conseguido por primera vez en lentes de contacto gracias a un nuevo tipo de polímero enlazado con una intrincada red de túneles a nanoescala, que se rellenan con tinte.

Las pruebas realizadas han demostrado que esta tecnología permite que el proceso provocado por la luz se produzca a mayor velocidad en las lentes de contacto que en las gafas de sol disponibles actualmente en el mercado.

Nanotecnología III

Un nuevo dispositivo está desarrollando el equipo de Heather A. Clark de los laboratorios Draper de Massachusetts. Se trata de una tinta compuesta por nanopartículas capaces de cambiar de color en función de la concentración de glucosa de su entorno.


Esta tinta se introduciría en la piel de forma similar a un tatuaje y podría usarse en enfermos de diabetes, lo que les permitiría controlar su nivel de glucosa simplemente mirando el color de su tatuaje. Actualmente la medida del nivel de glucosa requiere del análisis de una gota de sangre extraída, por ejemplo, de un pinchazo en el dedo, con la consiguiente molestia que ello produce.

El tatuaje con nanosensores eliminaría la necesidad de realizar el pinchazo en cada medida, aunque sería necesario renovarlo cada cierto tiempo.


De momento los resultados parecen prometedores. Se ha conseguido una tinta que cambia de un color violeta en ausencia de glucosa a amarillo cuando la concentración es alta. Para un nivel adecuado de glucosa el tono se torna anaranjado. Sin embargo, aún faltan ciertas cuestiones por responder, como, por ejemplo, si el nivel de glucosa en la piel es realmente indicativo de su nivel en sangre, o si bien presenta un retardo; o que las nanopartículas no provoquen ningún tipo de respuesta inmune en seres humanos, que alteraría significativamente el nivel de glucosa en sus alrededores, falseando la medida

Nanotecnología II

Investigadores de la Universidad de Purdue, en EE. UU., han hallado una forma de reparar –o al menos limitar– el daño que causa una lesión en la espina dorsal.


Esas lesiones consisten en una compresión –y a veces en una ruptura– de los nervios que corren del cerebro a lo largo de toda la columna y que transmiten los impulsos eléctricos que permiten, entre otras cosas, que nos movamos. Usualmente, esos daños dejan parapléjica a una persona .


La estrategia del equipo liderado por Ji-Xin Cheng, probada con éxito en ratas de laboratorio, consiste en utilizar unas diminutas esferas –unas cien veces más pequeñas que un glóbulo rojo– hechas a base de dos polímeros para “sellar” el axón (los extremos del nervio) dañado.

Al sellar el axón en los primeros minutos tras el accidente, no solo se revierte este, sino que se le pone un alto a una serie de reacciones en cadena que realiza el cuerpo cuando ocurre el rompimiento de un nervio, como es la inflamación, que acaban dañándolo por completo y dejándolo inservible.

El uso de polímeros para sellar los axones no es una estrategia nueva, pero el mecanismo de entrega de estos y su éxito sí lo es, tal como señala el reporte publicado ayer en Nature Nanotechnology .


La novedad está en que esas nanoesferas (o micelas sintéticas) están hechas de dos polímeros: uno hidrofóbico (que no se mezcla con el agua) y otro hidrofílico (que sí se mezcla con el agua).

Al poner, en el núcleo de la esfera, el material hidrofílico y recubrirlo con el hidrofóbico, la duración de los polímeros dentro del torrente sanguíneo del animal se prolonga, lo cual permite que llegue al sitio de la lesión antes de que diferentes agentes del cuerpo los destruyan y desechen.

Eso es más efectivo que el polímero inyectado directamente al animal, compuesto que solo permanece activo en el sistema unos 10 minutos.


Los resultados de la investigación de Cheng lo comprueban. Mientras que el polímero inyectado directamente logró reparar el 18% de la lesión en los axones de las ratas, el tratamiento con las nanoesferas reparó un 60% del daño y otorgó, a esos animales, el control sobre sus cuatro patas.


Aunque este es tan solo un estudio piloto en animales, estas diminutas esferas abren esperanzas de poder, en un futuro, limitar los daños ocasionados por una lesión en la espina dorsal.

Los Microorganismos

Virus


Los virus son un grupo aparte, debido a que muchos investigadores consideran que no son seres vivos. Son los microorganismos más pequeños y simples, formados de material genético envuelto en una cápsula de proteína. Nadie sabe por cuánto tiempo han existido en la Tierra o cómo evolucionaron. Se reproducen inyectando sus genes a una célula huésped, para producir cientos de nuevos virus.


Son patógenos para diferentes especies vivientes, desde bacaterias (bacteriófagos), hasta plantas y animales, incluidos los seres humanos. Muchos de ellos pueden mantenerse sin alteraciones en diversos ambientes, como aire, agua y suelo. Para observarlos se requiere un microscopio electrónico.



Las bacterias


Son más grandes que los virus. Fueron los primeros organismos que

habitaron nuestro planeta, hace casi 3.5 millones de años. Cada bacteria es una sola célula procarionte, es decir, la célula más sencilla que carece de núcleo y estructuras especializadas como las mitocondrias. Producen su

alimento, ya sea por procesos químicos o alimentándose de sus huéspedes o materia muerta.


La mayoría son de vida libre, aunque algunas pueden invadir tejidos y enfermar, o vivir en simbiosis, es decir, de manera asociada con otro organismo de distinta especie, recibiendo mutuo beneficio.




Los protozoarios


Son un grupo de organismos unicelulares parecidos a las bacterias, pero 1000 veces más grandes. Los protistas surgieron después de las bacterias, hace casi 1 800 millones de años. Están compuestos por una célula eucarionte, más grande y compleja que la célula de las bacterias y con un núcleo bien definido. Entre ellos podemos encontrar a las algas, amibas y a los paramecios.


Los hongos


Microscópicos tienen en general más de una célula. Se alimentan de la materia orgánica del medio y no tienen manera de desplazarse. Por ello no pueden clasificarse entre las plantas que producen sus propios alimentos, ni entre los animales que pueden moverse. Algunos hongos microscópicos son la levadura, el moho negro del pan y el causante del pie de atleta.

El Alzheimer y el Aluminio

Según un estudio el mal de Alzheimer podria tener relación can la cantidad de Aluminio en el cerebro................................................

El asunto es importante

porque, si bien la neuropsicología -disciplina que estudia la relación entre las lesiones cerebrales y el funcionamiento mental- ha aportado ciertos criterios que permiten llegar a un diagnóstico del mal de Alzheimer, la certeza sólo puede ser obtenida una vez que el paciente ha fallecido, a través de un examen anatomopatológico. Por lo tanto, confirmar la hipótesis que exista algún tipo de relación entre el mal de Alzheimer y una elevada presencia de aluminio en el cerebro no pasa, por el momento, de ser una hipótesis entre tantas que esperan pacientemente ser confirmadas o descartadas.

Los contados estudios que han abordado este interrogante son poco conclus que postula que los cerebros de los pacientes que padecen el mal de Alzheimer se caracterizan por una presencia elevada de aluminio aportaría algunos elementos para pensar en la posibilidad de diagnosticar de modo concluyente la enfermedad durante la vida del paciente.

Iones, electrones y rayos X

El grupo de físicos de la CNEA que dirige el doctor Andrés Kreiner analiza muestras de cerebros de pacientes con Alzheimer y de pacientes sanos, para medir y comparar las cantidades de aluminio que contienen. Las muestras son proporcionadas por el grupo de investigadores médicos del hospital Santojanni, que dirige la doctora María Elena Levin, y procesadas en la cátedra de Toxicología y Química Legal de la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires (UBA).

En el Centro Atómico Constituyentes, el estudio de la muestra se realiza con una técnica llamada PIXE (Particle Induced X-ray Emission). Según el doctor Daniel Hojman, integrante del Grupo de Espectrometría Nuclear Discreta, "ésta es una técnica muy precisa que permite detectar partes por millón (ppm) de ciertos elementos que se hallan presentes en una matriz, y que actualmente tiene aplicaciones tanto en medicina como en arqueología, biología, arte y ciencias de materiales".

El modo de operar de esta técnica que echa mano del acelerador de partículas Tandar es el siguiente: se bombardea la muestra por analizar con ciertas partículas atómicas llamadas iones pesados , lo que produce un reordenamiento de los electrones que da lugar a una emisión de rayos X. Como todo elemento, el aluminio al ser ionizado produce una emisión de rayos X que le es característica y que permite determinar en qué cantidad se halla presente en la muestra.

Hasta el momento, tan sólo se ha analizado un pequeño número de muestras que corresponden a distintas áreas cerebrales de personas con Alzheimer y de otras que no padecían esta enfermedad. Los resultados -obviamente tempranos y provisionales- confirman la hipótesis: el 80% de las muestras de pacientes con Alzheimer contenía un promedio de 6,9 ppm de aluminio, mientras que sólo en un 19% de las muestras de pacientes sanos se encontró aluminio, y en una cantidad normal de 1,9 ppm.

Comisión Nacional de Energía Atómica

La Comisión Nacional de Energía Atómica (CNEA) es un organismo por el cual han pasado importantes figuras de la ciencia Argentina
............................................................................

Uno de sus objetivos principales es promover la formación de recursos humanos de alta especialización y el desarrollo de ciencia y tecnologías en materia nuclear. Para llevar adelante tales fines, y contando con el marco académico de Universidades Nacionales, CNEA ha creado Institutos para la formación de recursos humanos en sus áreas específicas.

Así surgieron los Institutos Balseiro, Sabato y Dan Beninson, y la Fundación Escuela de Medicina Nuclear. Todas estas Instituciones son prestigiosos centros educativos que, ofreciendo carreras de grado y posgrado, se comprometen con la formación de especialistas en los distintos dominios de la Física, las Aplicaciones Nucleares y la Ciencia y la Tecnología de Materiales.

Ingresar a uno de los centros académicos de CNEA exige esfuerzo, es cierto. Pero nuestras entidades educativas no son espacios reservados y selectos. Se trata de Instituciones que están abiertas para darles una oportunidad a todos aquellos que demuestren tenacidad, voluntad, responsabilidad y compromiso, cualidades que valoramos y estimulamos en nuestros estudiantes.

A lo largo de sus casi 60 años de vida, la Comisión Nacional de Energía Atómica hizo especial hincapié en la generación de recursos humanos calificados y creativos en campos del conocimiento científico-tecnológico. En este sentido, priorizó el entrenamiento de técnicos, científicos e ingenieros en actividades específicas, guiadas por profesionales con experiencia y a través de programas en los institutos académicos de la Institución.

En el marco de estos planes, CNEA ofrece becas a sus estudiantes, condición que les permite a los alumnos -y a la vez les exige- tener dedicación exclusiva para con su formación.
Además, en los Institutos de la Comisión Nacional de Energía Atómica los profesores son investigadores y tecnólogos de la propia CNEA activos en las tareas de investigación y desarrollo tecnológico realizadas en cada centro, lo que implica un alto nivel académico del cuerpo docente. Asimismo hay una relación muy directa y personalizada entre profesor y alumno, ya que prácticamente hay un docente por cada estudiante, mientras que el promedio universitario en otras instituciones es de un docente cada diez alumnos.

Finalmente, cabe destacar que nuestros Institutos académicos ponen a disposición de los estudiantes laboratorios, equipamientos y facilidades experimentales (inclusive reactores de investigación), en los cuales los alumnos llevan a cabo sus prácticas de investigación y/o desarrollo en los centros de investigación de CNEA: Centro Atómico Bariloche (CAB), Centro Atómico Constituyentes (CAC) y Centro Atómico Ezeiza (CAE).

Esta es nuestra propuesta académica, basada en nuestra trayectoria y solidez institucional. Por eso los invitamos y los convocamos, para poder contar con su capacidad, para que podamos encausar sus inquietudes y forjarlos como profesionales en conocimientos de la energía nuclear para fines pacíficos. Porque en CNEA, entendemos que el desarrollo de recursos humanos es una oportunidad para todos.

Instituto Malbrán

Fundado en 1916 produce vacunas y sueros y atiende a enfermos con base genética.
............................................................

El Instituto de Microbiología Dr. Carlos G. Malbrán fue fundado el 14 de Julio de 1916, a pesar de haber comenzado a funcionar como tal en el año 1893, con Rodolfo Kraus como primer Director de la Institución, siendo su sede, en aquel entonces, en la Oficina Sanitaria Argentina, con el Dr. Malbrán a cargo de la Sección Bacteriológica.

El Instituto médico, ubicado en Vélez Sarsfield 563 desde el año 1904, fue a lo largo de su historia, uno de los organismos más destacados entre los de su tipo en América Latina. Trabaja en cooperación con unidades del Ministerio de Salud de la Nación y de los Estados Provinciales o bien con otros Organismos nacionales e internacionales. La Administración Nacional de Laboratorios e Institutos de Salud (ANLIS), nuclea a 11 Institutos y Centros médicos distribuidos en todo el país.

El ANLIS, adquirió el nombre del Dr. Malbrán, mediante decreto presidencial del año 1941, en honor al médico oriundo de Catamarca, gran impulsor de políticas de Salud Pública a lo largo de su vida.

El instituto Malbrán atiende en la actualidad aproximadamente 7000 pacientes por año con enfermedades tales como Tuberculosis, Mal de Chagas, Meningitis, Polio, Hantavirus y Dengue.
En su trayectoria sanitaria, este centro de referencia, se especializó en la producción de vacunas y sueros, y en el estudio y atención de mujeres embarazadas en situaciones de alto riesgo. Sus estudios abarcan enfermedades con base genética y sus consecuencias en el medio ambiente y social.

La misión primaria del Instituto Carlos Malbrán se relaciona con políticas científicas y tecnológicas en el área de salud, promoviendo, evaluando y aprobando proyectos de investigación y producción de los Institutos y Centros de su dependencia. Una de sus funciones principales fue y es supervisar la elaboración y el control de calidad de productos biológicos, y la realización de investigaciones y desarrollos para mejorarlos o para generar nuevos beneficios hacia la población.
El Instituto Malbrán ostenta el orgullo de haber contado con César Milstein, Doctor en Ciencias Químicas, entre sus destacados profesionales. Milstein dejó su impronta en la historia de la medicina mundial, a partir de su estudio sobre el proceso de producción de anticuerpos en sangre, que le valió el Premio Nobel de medicina en el año 1984.
Caminaron los pasillos del instituto, dejando sus huellas, destacados profesionales, como Bernardo Houssay, Salvador Mazza, Eugenia Sacerdote de Lustig, Juan Jara, Julio Maiztegui, y por supuesto, el propio Carlos Malbrán.

La salud compleja está en manos del Instituto Malbrán desde hace 91 años. Prueba de ello fueron los acontecimientos del año 2002, cuando algunos ciudadanos recibieron cartas, que supuestamente contenían en su interior el virus del Ántrax. La institución tuvo a su cargo el estudio de la existencia del virus en las misivas recepcionadas, a fin de evitar su expansión en el caso de que fueran reales.

Las colaboraciones del Instituto para con la medicina a nivel nacional y mundial, fueron un gran aporte a la hora de combatir diversas enfermedades bacteriológicas. Aún cuando el estudio de enfermedades infecciosas no es tarea sencilla, los profesionales del Malbrán coinciden en que esta compleja tarea de la ciencia de la medicina es “apasionante”.

Desde hace 90 años, el Instituto Malbrán es el encargado de la distribución de insumos médicos necesarios para combatir enfermedades regionales, estableciendo los mecanismos causales y estudiando sus posibles soluciones. Tras el estudio de los distintos casos, los profesionales del instituto promueven una virtual medida, para luego orientar a los servicios de salud de la nación.
Una de las actividades a las que se encuentran avocados los especialistas del ANLIS es la prevención de virus potenciales y el estudio de nuevas enfermedades, marcando el camino junto con los centros e institutos de su dependencia al resto de los sedes médicas del país, sobre Prevención, Diagnóstico y Tratamiento de las enfermedades transmisibles de origen nutricional, genético y microbiano, garantizando la calidad de la salud en el país.

En agosto de 2001 se inauguró en el Instituto un laboratorio, único en su categoría, para el tratamiento exclusivo de la vacuna BCG, destinada a tratar el cáncer superficial de vejiga.
Ese mismo año, el instituto Malbrán estuvo a punto de cesar sus actividades debido a una gran crisis económica. Los 330 profesionales, junto con los más de 1000 empleados que conforman la ANLIS lucharon para que el histórico Centro de Investigaciones Bacteriológicas no cerrara, y lo consiguieron.

El fruto de este esfuerzo, se vió plasmado hace un año, cuando los pasillos del Malbrán se colmaron de entusiasmo frente a la inauguración del mayor laboratorio de Alta Bioseguridad de América Latina. En él, se desempeñan profesionales altamente calificados en Bacteriología, Virología, Micología y Parasitología, con la misión de identificar cualquier amenaza biológica emergente y proveer las primeras armas para combatirla.

Operación en tres dimensiones

Especialistas de la Fundación Benetti realizaron una operación de un tumor intracardíaco utilizando esta tecnología de vanguardia

..............................................................................

La utilización de la visión en tres dimensiones aplicada a la cirugía cardíacapermite acceder en cavidades con una visión equivalente a la del ojo humano para la asistencia de diferentes patologías, ventaja que presenta frente a tecnologías como la de dos dimensiones, más comúnmente utilizada en cirugías videolaparospcópicas y toracoscópicas.

La tecnología de visualización 3D es la misma que está incorporada en los Robots que se usan en cirugía. Hoy hay más de 500 robots en todo el mundo.
Sin embargo hay pocos centros en el mundo que rutinariamente lo utilicen en Cirugía Cardíaca debido a sus elevado costos de funcionamiento y a que la curva de aprendizaje del cirujano es muy larga y difícil de reproducir con efectividad a gran escala.

Por otra parte no se ha podido demostrar por ahora que los robots brinden mejores resultados que las técnicas más simples y de más rápida recuperación, mucho menos costosas y probadas en cirugía coronaria. Sí tienen una gran utilidad en Cirugía urológica y ginecológica.

La visualización 3D no requiere un entrenamiento específico y es una aparatología fácil de usar.

“En determinadas circunstancias es de gran ayuda y seguridad para el paciente que podamos usar esta tecnología, por ejemplo una paciente que operamos la semana pasada tenía un gran tumor del corazón izquierdo, para explorar las cavidades y poder sacarlo con precisión hubo que emplear la misma”, explicó el doctor Federico Benetti.

“Otro ejemplo de su uso es cuando uno tiene que reemplazar una válvula cardíaca (aórtica) que está calcificada. Al extraerla, un pedacito de calcio de la misma, puede penetrar en el ventrículo izquierdo y quedar atrapado entre los músculos papilares del mismo, con esta tecnología se puede ver y localizarla dentro de las cavidades cardíaca , disminuyendo los riesgos de una posible embolia”, completó Benetti.

La Fundación Benetti

El doctor Federico Benetti es considerado el padre de la cirugía Menos Invasiva del corazón. Desarrolló la cirugía coronaria sin la utilización de la circulación extracorpórea (a corazón latiendo) y realizó por primera vez en el mundo una cirugía coronaria utilizando videotoracoscopía para realizar un Bypass en 1994.

En 1997, también en Argentina por primera vez, realizó una cirugía de Bypass coronario en forma ambulatoria. En 1996 utilizó por primera vez en el mundo la visualización tridimensional para realizar un reemplazo de la válvula Mitral entre una innumerable cantidad de contribuciones e inventos en el campo de la cirugía cardíaca que totalizan alrededor del 20% de la Cirugía mundial.

Esta semana, realizó también por primera vez en, el mundo la extracción de un gran tumor intracardíaco, con la ayuda de esta técnica.

Virus HIV

Un equipo de científicos de la Universidad de Buenos Aires realizó un importante avance sobre el contagio del VIH.

.....................................................................................

Los espermatozoides podrían tener un importante rol en la transmisión del Virus de Inmunodeficiencia Humana (VIH), de acuerdo a un estudio de la Universidad de Buenos Aires que se publicó ayer en la revista digital Journal of Experimental Medicine. Al parecer, los espermatozoides, y no sólo el fluido en el que se encuentran, pueden transmitir el virus a varias células del sistema inmune que suponen los principales “caminos” para expandir el virus por todo el organismo Receptores.

La investigación, que consiste en una experimentación in vitro, fue llevado a cabo desde el Centro Nacional de Referencia para el Sida (CNRS), institución que depende de la Facultad de Medicina de la UBA. Los investigadores trabajan con espermatozoides, de los que hasta ahora no se tenía una idea muy clara sobre el papel que cumplen a la hora de transmitir la infección. Lo que sí se sabía anteriormente es que, en un hombre infectado, el VIH se transfiere a través del semen, que lleva tanto virus flotando “sueltos”, como glóbulos blancos infectados. Precisamente, el equipo del CNRS profundizó un poco en la forma en que el semen transporta al virus.
En diálogo con Hoy, Ana Ceballos, una de las autoras del trabajo, contó que “se logró determinar un receptor del espermatozoide, llamado heparán sulfato, por el cual el VIH se pega a él”. Según explicó, otros trabajos científicos publicados anteriormente sugerían que el principal receptor era otra molécula, llamada mannose, pero la nueva investigación muestra que ésta última tiene, en realidad, un papel mucho menor. “La otra novedad de nuestro trabajo es que el espermatozoide ofrece el virus a unas células del sistema inmune llamadas dendríticas que, a su vez, se lo lleva a otras células, los linfocitos T, y así se va expandiendo la infección”, señaló la especialista, y enfatizó: “Por eso decimos que el espermatozoide podría tener un papel relevante en la transmisión temprana”.
Ahora bien, con respecto a la circunstancia en que el espermatozoide se une o toma contacto con las células dendríticas, los investigadores suponen que eso podría suceder a través de las pequeñas abrasiones que, en general, se producen en la cubierta vaginal o anal durante la relación sexual, así como por alguna herida existente. Otra forma de ponerse en contacto podría ser por una especie de “puntas” parecidas a dedos que tienen las células dendríticas, y que se extienden hasta las superficies mucosas.
Acidez
Por otra parte, los autores del trabajo también notaron que, sometidos a un pH (medida de la acidez de una solución) similar al que presenta la vagina después del coito, los espermatozoides captan aun con mayor eficiencia al virus, lo cual promueve una tasa más alta de infección. Según explica Ceballos, un entorno vaginal saludable se encuentra normalmente en un pH de entre 4,0 y 6,0, mientras que los valores normales del semen varían entre 7,2 y 8. Pero cuando el semen entra en contacto con la mucosa vaginal, el pH de la vagina aumenta y llega hasta 6,5. Así, al nivelarse los pH de ambos genitales, el VIH pasa más fácil de uno a otro.
Este estudio “pone de manifiesto que la acidez de la vagina, en estado normal, proporciona un mecanismo de protección frente a la transmisión sexual del virus. El reto es conseguir un producto que sea capaz de mantener este ambiente incluso después del acto sexual”, concluyen los autores.
Como los valores de pH similares a los genitales femeninos y masculinos fueron “logrados” en el laboratorio, a partir de ahora los estudios están encaminados a comprobar si estos mismos procesos se dan por sí solos naturalmente. “Ya empezamos a analizar lo que sucede en algunos modelos de ratones, como para verificar si la interacción entre el espermatozoide y las células dendríticas que vimos in vitro, también se da in vivo”, señala Ceballos, y agrega que “un escenario podría ser el momento posterior a una relación sexual”.
Cabe destacar que el grupo de trabajo es interdisciplinario, y contó con especialistas de la Academia Nacional de Medicina, el Ibyme (Instituto de Biología y Medicina Experimental), el Instituto Halitus, y una colaboración desde el Instituto Curie, en Francia, por parte de Sebastián Amigorena, un biólogo argentino que se desempeña allá.

Organismos extremófilos

Organismos que sobreviven a altísimas exposiciones a la radiación.
..........................................................................

La deinococcus radiodurans es una pequeña bacteria extremófila que se considera el ser vivo mas resistente a la radiación. Se dice que es capaz de resistir a una hecatombe nuckear porque puede sobrevivir a dosis 100 veces mas altas que la escherichia coli, por ejemplo, que es a su vez varias veces superior a la tolerada por los seres humanos.

La D. radiodurans fue encontrada en alimentos irradiados, en granito procedente de la Antartida y en instrumental medico esterilizado, asi como en las cubas de reactores nucleares.

Su composicion genetica ha sido secuenciada por cientificos del instituto del Genoma y los estudios han demostrado que su ADN está organizado de forma tal que podría facilitar la reparación del mismo.

Argentina y el Espacio

La CONAE es el único Organismo del Estado Nacional diseñar y ejecutar proyectos en materia espacial en todo el ámbito de la República.
...............................................................................

Su misión, como agencia especializada es proponer y ejecutar el Plan Nacional Espacial, considerado Política de Estado, con el objeto de utilizar y aprovechar la ciencia y la tecnología espacial con fines pacíficos.

En 1994 se redactó el Plan Espacial "Argentina en el Espacio 1995-2006" en el que se enumeraron una variedad de acciones concurrentes a esos objetivos generales, estableciéndose que debe ser actualizado periódicamente, contando en cada oportunidad al menos con una década de horizonte para las actividades espaciales nacionales. En cada revisión del Plan se tienen en cuenta los avances de la tecnología espacial que tuvieron lugar durante el período anterior y la marcha de las demandas sociales en la materia.

Proyecto Actual

Entre muchos proyectos de investigación de distinta indole la conae tiene previsato la construcción y puesta en orbita para el 2010 del satélite argentino SAC-D Aquarius, este constituye un observatorio dedicado al estudio del océano y de la atmósfera terrestre, y también realizará observaciones sobre nuestro territorio con el fin de generar alertas tempranas de incendios e inundaciones.

Así, mediante los ocho instrumentos que lleva a bordo, este satélite obtendrá datos sobre la superficie del mar y la superficie de la Tierra, que se utilizarán por ejemplo para medir la salinidad del mar, su temperatura superficial, vientos y presencia de hielo (datos útiles para mejorar el conocimiento de la circulación oceánica y su influencia en el clima del planeta).

En sus observaciones sobre la superficie terrestre, el SAC-D Aquarius tomará datos de humedad de suelo y detectará focos de alta temperatura, entre otros parámetros, para su utilización en alerta temprana de incendios e inundaciones. Otra aplicación del observatorio será para el conocimiento de la distribución de deshechos espaciales y micrometeoritos existentes alrededor de la Tierra.

Este nuevo satélite da continuidad al Plan Espacial Nacional y a los acuerdos bilaterales que acompañan el desarrollo de la tecnología espacial argentina. El SAC-D Aquarius con sus 1.405 kilogramos de peso triplica al satélite anterior, el satélite SAC-C, puesto en órbita en el año 2000, que ya cumplió ocho años de exitoso funcionamiento y continúa operativo.

Trasplante de Córneas

La córnea es la única parte del ojo que puede trasplantarse. Estas son las características de este tipo de operación.
..........................................................................

Especialista del Hospital Oftalmológico Pedro Lagleizeafirma que el exito de un trasplante de córnea depende de la enfermedad del receptor, del estado de la cornea dadora, del cirujano, y de los cuidados posteriores a la intervención. No obstante las posibilidades de rechazo son mínimas.

De todas maneras hay que contemplar las distintas etapas por las que pasa el paciente y tenerlas en cuenta para que la operación sea exitosa.

Una vez que el oftalmólogo evalúa la posibilidad de que una persona se someta a un trasplante de córnea , se le realizarán una serie de estudios para certificar que su ojo y su estado clínico general, estén en condiciones para la cirugía. Los respectivos datos son registrados en la lista de los bancos de ojos. Luego de una espera de tiempo se obtiene una córnea acorde a las características del paciente.

La cirugía se realiza en un quirofano utilizando un microscopio e instrumental de microcirugía. Según la edad y las características del paciente, se utiliza anestesia local o general.
La duración de la intervención varía entre una y dos horas. Si existiera catarata u otra patología ocular puede eventualmente realizarse su cirugía simultáneamente.

La cornea implantada se fija a su posición con puntos de sutura muy delgados que se comienzan a retirar a partir de los 6 meses. Al finalizar la operación se le pondrá al paciente un oclusor protector y posteriormente se lo citará al dia siguiente para controlar el estado del trasplante.
Luego deben transcurrir de seis a doce meses para poder determinar la visión definitiva. Ocurre la forma de la córnea va cambiando a medida que cicatriza por lo que no se dará corrección optica hasta el año. Durante este tiempo se irán retirando algunos puntos previa topografía corneal con lo cual la visión irá mejorando. El paciente durante ese periodo debe evitar traumatismos sobre el ojo, esfuerzos, que se le introduzcan sustancias extrañas durante algunos meses y por ultimo, es necesario que duerma boca arriba o sobre el otro ojo.

Teoría de la Evolución

La Teoría de la Evolución sigue resolviendo todos los interrogantes de nuestra vida, algo que ni siquiera darwin pensó.
.........................................................................



La evolución biológica es el proceso continuo de transformación de las especies a través de cambios producidos en sucesivas generaciones, y que se ve reflejado en el cambio de las frecuencias alélicas de una población; hecho que esta representado en la actual teoría científica de laSíntesis evolutiva moderna.

Generalmente se denomina evolución a cualquier proceso de cambio en el tiempo. En el contexto de las ciencias de la vida, la evolución es un cambio en el perfil genético de una población de individuos, que puede llevar a la aparición de nuevas especies, a la adaptación a distintos ambientes o a la aparición de novedades evolutivas.

A menudo existe cierta confusión entre hecho evolutivo y teoría de la evolución. Se denomina hecho evolutivo al hecho científico de que los seres vivos están emparentados entre sí y han ido transformándose a lo largo del tiempo. La teoría de la evolución es el modelo científico que describe la transformación y diversificación evolutivas y explica sus causas.

En los inicios del estudio de la Evolución biológica, Charles Darwin y Alfred Russel Wallace propusieron la selección natural como principal mecanismo de la evolución. Actualmente, la teoría de la evolución combina las propuestas de Darwin y Wallace con las leyes de Mendel y otros avances genéticos posteriores; por eso es llamada síntesis moderna o teoría sintética.

En el seno de esta teoría, la evolución se define como un cambio en la frecuencia de los alelos en una población a lo largo de las generaciones. Este cambio puede ser causado por una cantidad de mecanismos diferentes: selección natural, deriva genética, mutación, migración (flujo genético). La teoría sintética recibe una aceptación general en la comunidad científica, aunque también ciertas críticas. Ha sido enriquecida desde su formulación, en torno a 1940, por avances en otras disciplinas relacionadas, como la biología molecular, la genética del desarrollo o la paleontología.

La antigua teoría del lamarckismo, la suposición de que el fenotipo de un organismo puede dirigir de alguna forma el cambio del genotipo en sus descendientes, es una posición teórica actualmente indefendible, en la medida en que es positivamente incompatible con lo que sabemos sobre la herencia, y también porque todos los intentos por hallar pruebas de observación o experimentales, han fracasado.

Referente al creacionismo, la posición de que en un grado u otro, los seres vivos tienen un autor personal consciente (léase Dios), es una posición religiosa o filosófica que no puede probarse científicamente, y por tanto no es considerada por la comunidad científica como una teoría científica. No obstante, en el marco de la cultura popular protestante y anglosajona, algunos se esfuerzan por presentarlo como tal a través del Diseño inteligente; pero el consenso científico es considerar tales intentos solo como una forma de propaganda religiosa.

Introducción al ADN

Prácticamente todo lo que somos esta encapsulado en un lenguaje codificado llamado información genética
........................................................................

El ADN (ácido desoxirribonucleico) es la información genética básica que se transmite de una generación
a otra y que codifica los datos necesarios para la síntesis de proteínas indispensables para el funcionamiento de la célula o partícula viral.

El ADN está conformado por combinaciones de cuatro bases nitrogenadas denominadas "nucleótidos": adenina (A), timina (T), guanina (G) y citosina (C), unidas en dos ejes de azúcar-fosfato. Como polos opuestos de un imán, la adenina siempre estará apareada a la timina y la guanina a la citosina, y viceversa (en combinaciones A-T, T-A, C-G y G-C).

Gráficamente, una molécula de ADN es representada como una doble hélice, es decir, como una escalera caracol, cuyos peldaños se mantienen unidos por dos cadenas o hebras en sus extremos. En este modelo, los escalones son las uniones A-T, T-A, C-G y G-C, mientras que las hebras son ejes de azúcar-fosfato que funcionan como un esqueleto.

Avance Científico en Argentina

Desarrollan un método de biología molecular para detectar virus de VIH y Hepatitis C en muestras de sangre
...........................................................................

Una científica del Centro de Química Aplicada de la Facultad de Ciencias Químicas desarrolló una técnica capaz de reconocer la presencia de estos patógenos virales en el plasma humano. El diagnóstico es inequívoco, porque el procedimiento detecta el material genético de los virus. El éxito del método radica en una secuencia de ADN que la investigadora diseñó a medida para encontrar regiones conservadas del genoma de esos virus por técnicas de biología molecular, y que permite amplificar el material genético de esos agentes infecciosos hasta hacerlos visibles a través de un equipo especial. Se trata de una metodología que reduce el período de ventana a sólo 11 días y que desde noviembre de 2008 se aplica a todas las extracciones que realiza el Banco de Sangre de la Universidad Nacional de Córdoba.

Los análisis serológicos tradicionales, que se practican para determinar si una persona está infectada con el virus de la inmunodeficiencia humana (VIH) o Hepatitis C, son indirectos. No detectan esos agentes patógenos por sí mismos, sino los anticuerpos que genera el sistema inmunológico del organismo infectado como defensa. El tiempo que demoran éstos en aparecer varía entre tres y doce semanas, pero está comúnmente aceptado que estos anticuerpos pueden ser reconocidos con certeza entre 45 y 50 días posteriores al contagio.

Durante ese "período de ventana", los estudios convencionales brindarán resultados negativos, aunque la sangre de la persona portadora podrá contagiar mediante transfusiones sanguíneas o relaciones sexuales en las que no se utilicen métodos profilácticos.

¿Cómo saber, entonces, si un donante no se encuentra en ese período de ventana al momento de someterse a una extracción de sangre? La respuesta viene de la mano de la biología molecular, una disciplina que estudia la estructura, función y composición de las moléculas biológicamente importantes. En este caso, la molécula analizada es el ácido ribonucleico (ARN), constituyente del material genético de los virus HIV y Hepatitis C.

Mediante la aplicación de técnicas de biología molecular, una científica de la Universidad Nacional de Córdoba (UNC) desarrolló un método cualitativo directo que permite identificar la presencia de ARN específico correspondiente a los virus del VIH y la Hepatitis C en el plasma humano. Su principal ventaja radica en su especificidad, ya que reconoce secuencias de ARN propias de los virus de HIV y Hepatitis C, y en su mayor sensibilidad, lo que permite reducir el período de ventana a sólo 11 días. La técnica en cuestión se denomina "transcriptasa reversa acoplada a la reacción en cadena de la polimerasa en tiempo real" (RT/RT-PCR, por sus siglas en inglés) y es el proceso en el que durante casi dos años trabajó para optimizar y poner a punto Mariana Núñez, coordinadora del Área Química Molecular del Centro de Química Aplicada (Cequimap) de la Facultad de Ciencias Químicas.

En términos simples, el proceso consiste en multiplicar exponencialmente el material genético de los virus -si es que están presentes en la muestra analizada- hasta hacerlos "visibles" mediante un equipamiento específico. El método posee una estricta serie de pasos, pero la clave de su éxito radica en la secuencia de ADN que posibilita y sirve de molde para su amplificación y detección. Precisamente, es esta secuencia de ADN la que diseñó a medida la investigadora del Cequimap, utilizando información de los genomas de cepas de VIH y Hepatitis C aisladas en Argentina.

La metodología fue desarrollada a partir de un convenio con el Instituto de Hematología y Hemoterapia (IHH) de la UNC. El Banco de Sangre de esta Casa de Estudios ya la viene aplicando desde noviembre de 2008, complementariamente con los estudios serológicos tradicionales que fija la legislación sobre las normas de medicina transfusional. Su inclusión apunta a asegurar la calidad de la sangre disponible en esa dependencia sanitaria; y mediante esta técnica, el Cequimap analiza aproximadamente unas 600 muestras sanguíneas mensuales remitidas por el IHH.

Rayos Cósmicos: Malargüe

Un proyecto científico internacional para descubrir el origen de los rayos cósmicos de ultra-alta energía.
..............................................................................

El Observatorio Auger está emplazado en dos sitios: en el Hemisferio Sur, en la zona de Malargüe, Provincia de Mendoza, Argentina y en el Hemisferio Norte, en Colorado, Estados Unidos.

Medirá las cascadas de partículas que se producen cada vez que un rayo cósmico choca contra las moléculas de la atmósfera superior. Así se determinará la energía, dirección de llegada y la naturaleza de los rayos cósmicos de las más altas energías observables.

Cada sitio consistirá en una red de 1600 detectores, distanciados 1,5 km entre sí y cubriendo una superficie total de 3000 km2. La red de detectores de superficie se complementará con un conjunto de 24 telescopios de alta sensibilidad, que en las noches despejadas sin luna
escudriñarán la atmósfera para observar la tenue luz ultravioleta que producen las cascadas de rayos cósmicos al atravesar el aire.

Alrededor de 250 científicos de más de 50 instituciones de 15 países han participado en este emprendimiento.

¿Qué son los rayos cósmicos?

Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente a la Tierra desde todas las direcciones.

La mayoría de estas partículas son núcleos de átomos o electrones. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultra-energéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas por cualquier acelerador en el mundo.
Nadie sabe cuáles son las fuentes de los rayos cósmicos ultra-energéticos. La mayoría de las partículas de rayos cósmicos de baja energía que llegan a la Tierra provienen de algún sitio dentro de nuestra galaxia, la Vía Láctea. Éstos se cree que provienen de la explosión de estrellas llamadas supernovas. Sin embargo, la mayoría de las partículas de rayos cósmicos ultra-energéticos probablemente provengan de fuentes fuera de la Vía Láctea, pero ¿de dónde?
Los rayos cósmicos pueden ser detectados indirectamente en la superficie de la Tierra, observando cascadas de partículas que se producen en el aire. Una cascada ocurre cuando una partícula de alta velocidad choca con una molécula de aire. Fragmentos de esta colisión a su vez chocan con otras moléculas de aire, en una lluvia que continua hasta que la energía de la partícula original se encuentra destruida entre millones de partículas cayendo sobre la tierra.

Comprender cuáles son las fuentes astrofísicas más energéticas del universo y entender los mecanismos de aceleración de estas partículas. Incluso, podrían contener información sobre la evolución y posiblemente sobre el origen del universo.

Antimateria

En la primeras dos décadas del siglo XX, se instaló la idea de antimateria. Hoy es uno de los desafíos más importantes.
............................................................................................

Hace casi 80 años el físico inglés Paul Dirac logró una formulación para el comportamiento del electrón en que se mezcló la, entonces, recién descubierta mecánica cuántica con la relatividad de Einstein. Una predicción de la teoría de Dirac que de inmediato llamó la atención de los especialistas fue la existencia de la antimateria. Este resultado sorprendente implicó que todas las partículas que encontramos en la naturaleza se presentan por pares, cuyas propiedades son idénticas, salvo una (generalmente el signo de la carga eléctrica), y que la unión (aniquilación) de una partícula con su “antipartícula” produce energía. Inversamente, también resulta que partículas o luz de muy alta energía, al interaccionar con la materia producen pares partícula- antipartícula.

Si se pudiera utilizar la antimateria como energía... al juntar una moneda de materia de siete gramos con otra igual de antimateria se generaría energía suficiente como para mantener encendidas todas las lámparas del mundo durante 20 días.
Sabemos que una bomba atómica transportada en un avión fue capaz de destruir una ciudad, como fue el caso de Hiroshima. Pues bien; una bomba de igual peso, pero de antimateria, podría destruir cien ciudades como aquélla.

La antimateria es la contraparte de la materia. La materia está compuesta de partículas; la antimateria está compuesta por antipartículas. Un átomo de hidrógeno está compuesto por un protón (de carga positiva)en el núcleo y un electrón (de carga negativa) orbitando a su alrededor. Un átomo de antihidrógeno está compuesto por un antiprotón (de carga negativa) y un positrón (de carga positiva) que lo orbita. Si un átomo entra en contacto con un antiátomo se aniquilan, produciendo energía.

En 1995 se logró producir átomos de antihidrógeno. Pero cabe preguntarse ¿dónde se puede guardar un átomo de antimateria si al entrar en contacto con materia se aniquilan? La verdad es que no se puede guardar en una botella tapada con un corcho porque el átomo de antihidrógeno, al entrar en contacto con el hidrógeno del aire, se convertiría en energía, desapareciendo. La solución consistió en construir lo que se llama una “trampa”, que fue diseñada en el Laboratorio Nacional de Los Álamos de Estados Unidos. Consiste en un recipiente en el que se produjo el vacío y rodeado de un campo magnético que impide que la antimateria toque a la materia.La cantidad de antimateria que se produce actualmente es ínfima (menos de diez nanogramos por año), siendo un nanogramo una mil millonésima parte de un gramo. Y no sale nada barato; obtener un gramo de antimateria cuesta actualmente veinticinco mil millones de dólares.

El futuro de la Antimateria


Mientras que toneladas de combustible químico son necesarias para propulsar una misión humana a Marte, 10 miligramos de antimateria lo harían y la NASA ya esta pensando en utilizarla para futuros viajes a Marte. Sin embargo, en realidad esta energía viene con un precio.

Algunas reacciones de antimateria producen ráfagas de rayos gamma de alta energía. Los rayos gammas son como rayos X con esteroides. Penetran la materia y rompen en partes las moléculas en las células, así que no es sano exponerse a ellos. Los rayos gamma de gran energía pueden también hacer motores radiactivos de los fragmentos de átomos del material del motor.

El Instituto para Conceptos Avanzados de la NASA (NIAC) está financiando un equipo de investigadores que trabajan en un nuevo diseño para una nave espacial accionada por antimateria que evita este efecto secundario indeseable produciendo rayos gammas con una energía mucho más baja.

La antimateria a veces es llamada la imagen especular de la materia normal, porque mientras parece ser como la materia ordinaria, se invierten algunas características. Por ejemplo, los electrones normales, las partículas familiares que llevan la corriente eléctrica en todo tipo de cosas , desde teléfonos celulares a la televisión de plasma, tienen una carga eléctrica negativa.

Los antielectrones tienen una carga positiva, así que los científicos los llamaron "positrones". Cuando la antimateria se encuentra con la materia, ambas se aniquilan en un destello de energía. Esta conversión completa de energía es lo que hace que la antimateria sea tan poderosa. Incluso las reacciones nucleares que hacen funcionar las bombas atómicas se encuentran en segundo lugar, con solamente cerca del 3 por ciento de su masa convertida en energía.

Una nave espacial accionada por antimateria que empleara antiprotones, produciría rayos gamma de gran energía cuando se aniquilan. El nuevo diseño de la NASA utilizará positrones, que producen rayos gamma con cerca de 400 veces menor energía. La investigación de NIAC es un estudio preliminar para considerar si la idea es factible.

Si parece prometedora y los fondos están disponibles para desarrollar con éxito la tecnología, una nave espacial accionada por positrones tendría ventajas sobre los planes existentes para una misión humana a Marte, y cuyo nombre sería: misión de referencia a Marte.

Un viaje de referencia a Marte tomaría 180 días, mientras que con el uso de antimateria éste podría durar tan solo 45 días.

Antimateria vs. realidad


Un desafío técnico para volver una nave espacial de positrones una realidad es el coste para producir los positrones. Debido a su efecto dramático sobre la materia normal, no hay mucha antimateria a nuestro alrededor. En el espacio se crea en colisiones de partículas de alta velocidad llamadas rayos cósmicos.

En la tierra, tiene que ser creada en aceleradores de partículas, máquinas inmensas que estrellan violentamente los átomos. Las máquinas se utilizan normalmente para descubrir cómo trabaja el universo en un nivel fundamental y profundo, pero éstas pueden ser utilizadas como fábricas de antimateria.

"Un cálculo aproximado para producir 10 miligramos de positrones necesarios para una misión tripulada a Marte necesitaría 250 millones de dólares usan la tecnología que está actualmente en desarrollo", dijo Gerald Smith de Positronics Research, compañía que diseña esta tecnología.

El coste puede parecerse alto, pero tiene que ser considerado contra el coste adicional de lanzar un cohete químico más pesado (los costes actuales del lanzamiento son de cerca de 10 mil dólares por kilogramo) o el coste para aprovisionar de combustible y hacer seguro un reactor nuclear.

"Basado en la experiencia con la tecnología nuclear, parece razonable esperar que el coste de producción del positrón baje con la investigación," dijo Smith. Otro desafío se encuentra en el almacenamiento de suficientes positrones en un espacio pequeño. Como se aniquilan con la materia normal, usted no puede meterlos en una botella. En su lugar, tienen que ser contenidos en campos eléctricos y magnéticos.

"Nos sentimos confiados que con un programa dedicado a la investigación y desarrollo, estos desafíos podrán ser superados", afirmó Smith. Si esto es así, quizás los primeros seres humanos en alcanzar Marte llegarán en naves espaciales propulsadas por la misma fuente que encendió a las naves a través de los universos de nuestros sueños en la ciencia ficción.