El Alzheimer y el Aluminio

Según un estudio el mal de Alzheimer podria tener relación can la cantidad de Aluminio en el cerebro................................................

El asunto es importante

porque, si bien la neuropsicología -disciplina que estudia la relación entre las lesiones cerebrales y el funcionamiento mental- ha aportado ciertos criterios que permiten llegar a un diagnóstico del mal de Alzheimer, la certeza sólo puede ser obtenida una vez que el paciente ha fallecido, a través de un examen anatomopatológico. Por lo tanto, confirmar la hipótesis que exista algún tipo de relación entre el mal de Alzheimer y una elevada presencia de aluminio en el cerebro no pasa, por el momento, de ser una hipótesis entre tantas que esperan pacientemente ser confirmadas o descartadas.

Los contados estudios que han abordado este interrogante son poco conclus que postula que los cerebros de los pacientes que padecen el mal de Alzheimer se caracterizan por una presencia elevada de aluminio aportaría algunos elementos para pensar en la posibilidad de diagnosticar de modo concluyente la enfermedad durante la vida del paciente.

Iones, electrones y rayos X

El grupo de físicos de la CNEA que dirige el doctor Andrés Kreiner analiza muestras de cerebros de pacientes con Alzheimer y de pacientes sanos, para medir y comparar las cantidades de aluminio que contienen. Las muestras son proporcionadas por el grupo de investigadores médicos del hospital Santojanni, que dirige la doctora María Elena Levin, y procesadas en la cátedra de Toxicología y Química Legal de la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires (UBA).

En el Centro Atómico Constituyentes, el estudio de la muestra se realiza con una técnica llamada PIXE (Particle Induced X-ray Emission). Según el doctor Daniel Hojman, integrante del Grupo de Espectrometría Nuclear Discreta, "ésta es una técnica muy precisa que permite detectar partes por millón (ppm) de ciertos elementos que se hallan presentes en una matriz, y que actualmente tiene aplicaciones tanto en medicina como en arqueología, biología, arte y ciencias de materiales".

El modo de operar de esta técnica que echa mano del acelerador de partículas Tandar es el siguiente: se bombardea la muestra por analizar con ciertas partículas atómicas llamadas iones pesados , lo que produce un reordenamiento de los electrones que da lugar a una emisión de rayos X. Como todo elemento, el aluminio al ser ionizado produce una emisión de rayos X que le es característica y que permite determinar en qué cantidad se halla presente en la muestra.

Hasta el momento, tan sólo se ha analizado un pequeño número de muestras que corresponden a distintas áreas cerebrales de personas con Alzheimer y de otras que no padecían esta enfermedad. Los resultados -obviamente tempranos y provisionales- confirman la hipótesis: el 80% de las muestras de pacientes con Alzheimer contenía un promedio de 6,9 ppm de aluminio, mientras que sólo en un 19% de las muestras de pacientes sanos se encontró aluminio, y en una cantidad normal de 1,9 ppm.

Comisión Nacional de Energía Atómica

La Comisión Nacional de Energía Atómica (CNEA) es un organismo por el cual han pasado importantes figuras de la ciencia Argentina
............................................................................

Uno de sus objetivos principales es promover la formación de recursos humanos de alta especialización y el desarrollo de ciencia y tecnologías en materia nuclear. Para llevar adelante tales fines, y contando con el marco académico de Universidades Nacionales, CNEA ha creado Institutos para la formación de recursos humanos en sus áreas específicas.

Así surgieron los Institutos Balseiro, Sabato y Dan Beninson, y la Fundación Escuela de Medicina Nuclear. Todas estas Instituciones son prestigiosos centros educativos que, ofreciendo carreras de grado y posgrado, se comprometen con la formación de especialistas en los distintos dominios de la Física, las Aplicaciones Nucleares y la Ciencia y la Tecnología de Materiales.

Ingresar a uno de los centros académicos de CNEA exige esfuerzo, es cierto. Pero nuestras entidades educativas no son espacios reservados y selectos. Se trata de Instituciones que están abiertas para darles una oportunidad a todos aquellos que demuestren tenacidad, voluntad, responsabilidad y compromiso, cualidades que valoramos y estimulamos en nuestros estudiantes.

A lo largo de sus casi 60 años de vida, la Comisión Nacional de Energía Atómica hizo especial hincapié en la generación de recursos humanos calificados y creativos en campos del conocimiento científico-tecnológico. En este sentido, priorizó el entrenamiento de técnicos, científicos e ingenieros en actividades específicas, guiadas por profesionales con experiencia y a través de programas en los institutos académicos de la Institución.

En el marco de estos planes, CNEA ofrece becas a sus estudiantes, condición que les permite a los alumnos -y a la vez les exige- tener dedicación exclusiva para con su formación.
Además, en los Institutos de la Comisión Nacional de Energía Atómica los profesores son investigadores y tecnólogos de la propia CNEA activos en las tareas de investigación y desarrollo tecnológico realizadas en cada centro, lo que implica un alto nivel académico del cuerpo docente. Asimismo hay una relación muy directa y personalizada entre profesor y alumno, ya que prácticamente hay un docente por cada estudiante, mientras que el promedio universitario en otras instituciones es de un docente cada diez alumnos.

Finalmente, cabe destacar que nuestros Institutos académicos ponen a disposición de los estudiantes laboratorios, equipamientos y facilidades experimentales (inclusive reactores de investigación), en los cuales los alumnos llevan a cabo sus prácticas de investigación y/o desarrollo en los centros de investigación de CNEA: Centro Atómico Bariloche (CAB), Centro Atómico Constituyentes (CAC) y Centro Atómico Ezeiza (CAE).

Esta es nuestra propuesta académica, basada en nuestra trayectoria y solidez institucional. Por eso los invitamos y los convocamos, para poder contar con su capacidad, para que podamos encausar sus inquietudes y forjarlos como profesionales en conocimientos de la energía nuclear para fines pacíficos. Porque en CNEA, entendemos que el desarrollo de recursos humanos es una oportunidad para todos.

Instituto Malbrán

Fundado en 1916 produce vacunas y sueros y atiende a enfermos con base genética.
............................................................

El Instituto de Microbiología Dr. Carlos G. Malbrán fue fundado el 14 de Julio de 1916, a pesar de haber comenzado a funcionar como tal en el año 1893, con Rodolfo Kraus como primer Director de la Institución, siendo su sede, en aquel entonces, en la Oficina Sanitaria Argentina, con el Dr. Malbrán a cargo de la Sección Bacteriológica.

El Instituto médico, ubicado en Vélez Sarsfield 563 desde el año 1904, fue a lo largo de su historia, uno de los organismos más destacados entre los de su tipo en América Latina. Trabaja en cooperación con unidades del Ministerio de Salud de la Nación y de los Estados Provinciales o bien con otros Organismos nacionales e internacionales. La Administración Nacional de Laboratorios e Institutos de Salud (ANLIS), nuclea a 11 Institutos y Centros médicos distribuidos en todo el país.

El ANLIS, adquirió el nombre del Dr. Malbrán, mediante decreto presidencial del año 1941, en honor al médico oriundo de Catamarca, gran impulsor de políticas de Salud Pública a lo largo de su vida.

El instituto Malbrán atiende en la actualidad aproximadamente 7000 pacientes por año con enfermedades tales como Tuberculosis, Mal de Chagas, Meningitis, Polio, Hantavirus y Dengue.
En su trayectoria sanitaria, este centro de referencia, se especializó en la producción de vacunas y sueros, y en el estudio y atención de mujeres embarazadas en situaciones de alto riesgo. Sus estudios abarcan enfermedades con base genética y sus consecuencias en el medio ambiente y social.

La misión primaria del Instituto Carlos Malbrán se relaciona con políticas científicas y tecnológicas en el área de salud, promoviendo, evaluando y aprobando proyectos de investigación y producción de los Institutos y Centros de su dependencia. Una de sus funciones principales fue y es supervisar la elaboración y el control de calidad de productos biológicos, y la realización de investigaciones y desarrollos para mejorarlos o para generar nuevos beneficios hacia la población.
El Instituto Malbrán ostenta el orgullo de haber contado con César Milstein, Doctor en Ciencias Químicas, entre sus destacados profesionales. Milstein dejó su impronta en la historia de la medicina mundial, a partir de su estudio sobre el proceso de producción de anticuerpos en sangre, que le valió el Premio Nobel de medicina en el año 1984.
Caminaron los pasillos del instituto, dejando sus huellas, destacados profesionales, como Bernardo Houssay, Salvador Mazza, Eugenia Sacerdote de Lustig, Juan Jara, Julio Maiztegui, y por supuesto, el propio Carlos Malbrán.

La salud compleja está en manos del Instituto Malbrán desde hace 91 años. Prueba de ello fueron los acontecimientos del año 2002, cuando algunos ciudadanos recibieron cartas, que supuestamente contenían en su interior el virus del Ántrax. La institución tuvo a su cargo el estudio de la existencia del virus en las misivas recepcionadas, a fin de evitar su expansión en el caso de que fueran reales.

Las colaboraciones del Instituto para con la medicina a nivel nacional y mundial, fueron un gran aporte a la hora de combatir diversas enfermedades bacteriológicas. Aún cuando el estudio de enfermedades infecciosas no es tarea sencilla, los profesionales del Malbrán coinciden en que esta compleja tarea de la ciencia de la medicina es “apasionante”.

Desde hace 90 años, el Instituto Malbrán es el encargado de la distribución de insumos médicos necesarios para combatir enfermedades regionales, estableciendo los mecanismos causales y estudiando sus posibles soluciones. Tras el estudio de los distintos casos, los profesionales del instituto promueven una virtual medida, para luego orientar a los servicios de salud de la nación.
Una de las actividades a las que se encuentran avocados los especialistas del ANLIS es la prevención de virus potenciales y el estudio de nuevas enfermedades, marcando el camino junto con los centros e institutos de su dependencia al resto de los sedes médicas del país, sobre Prevención, Diagnóstico y Tratamiento de las enfermedades transmisibles de origen nutricional, genético y microbiano, garantizando la calidad de la salud en el país.

En agosto de 2001 se inauguró en el Instituto un laboratorio, único en su categoría, para el tratamiento exclusivo de la vacuna BCG, destinada a tratar el cáncer superficial de vejiga.
Ese mismo año, el instituto Malbrán estuvo a punto de cesar sus actividades debido a una gran crisis económica. Los 330 profesionales, junto con los más de 1000 empleados que conforman la ANLIS lucharon para que el histórico Centro de Investigaciones Bacteriológicas no cerrara, y lo consiguieron.

El fruto de este esfuerzo, se vió plasmado hace un año, cuando los pasillos del Malbrán se colmaron de entusiasmo frente a la inauguración del mayor laboratorio de Alta Bioseguridad de América Latina. En él, se desempeñan profesionales altamente calificados en Bacteriología, Virología, Micología y Parasitología, con la misión de identificar cualquier amenaza biológica emergente y proveer las primeras armas para combatirla.

Operación en tres dimensiones

Especialistas de la Fundación Benetti realizaron una operación de un tumor intracardíaco utilizando esta tecnología de vanguardia

..............................................................................

La utilización de la visión en tres dimensiones aplicada a la cirugía cardíacapermite acceder en cavidades con una visión equivalente a la del ojo humano para la asistencia de diferentes patologías, ventaja que presenta frente a tecnologías como la de dos dimensiones, más comúnmente utilizada en cirugías videolaparospcópicas y toracoscópicas.

La tecnología de visualización 3D es la misma que está incorporada en los Robots que se usan en cirugía. Hoy hay más de 500 robots en todo el mundo.
Sin embargo hay pocos centros en el mundo que rutinariamente lo utilicen en Cirugía Cardíaca debido a sus elevado costos de funcionamiento y a que la curva de aprendizaje del cirujano es muy larga y difícil de reproducir con efectividad a gran escala.

Por otra parte no se ha podido demostrar por ahora que los robots brinden mejores resultados que las técnicas más simples y de más rápida recuperación, mucho menos costosas y probadas en cirugía coronaria. Sí tienen una gran utilidad en Cirugía urológica y ginecológica.

La visualización 3D no requiere un entrenamiento específico y es una aparatología fácil de usar.

“En determinadas circunstancias es de gran ayuda y seguridad para el paciente que podamos usar esta tecnología, por ejemplo una paciente que operamos la semana pasada tenía un gran tumor del corazón izquierdo, para explorar las cavidades y poder sacarlo con precisión hubo que emplear la misma”, explicó el doctor Federico Benetti.

“Otro ejemplo de su uso es cuando uno tiene que reemplazar una válvula cardíaca (aórtica) que está calcificada. Al extraerla, un pedacito de calcio de la misma, puede penetrar en el ventrículo izquierdo y quedar atrapado entre los músculos papilares del mismo, con esta tecnología se puede ver y localizarla dentro de las cavidades cardíaca , disminuyendo los riesgos de una posible embolia”, completó Benetti.

La Fundación Benetti

El doctor Federico Benetti es considerado el padre de la cirugía Menos Invasiva del corazón. Desarrolló la cirugía coronaria sin la utilización de la circulación extracorpórea (a corazón latiendo) y realizó por primera vez en el mundo una cirugía coronaria utilizando videotoracoscopía para realizar un Bypass en 1994.

En 1997, también en Argentina por primera vez, realizó una cirugía de Bypass coronario en forma ambulatoria. En 1996 utilizó por primera vez en el mundo la visualización tridimensional para realizar un reemplazo de la válvula Mitral entre una innumerable cantidad de contribuciones e inventos en el campo de la cirugía cardíaca que totalizan alrededor del 20% de la Cirugía mundial.

Esta semana, realizó también por primera vez en, el mundo la extracción de un gran tumor intracardíaco, con la ayuda de esta técnica.

Virus HIV

Un equipo de científicos de la Universidad de Buenos Aires realizó un importante avance sobre el contagio del VIH.

.....................................................................................

Los espermatozoides podrían tener un importante rol en la transmisión del Virus de Inmunodeficiencia Humana (VIH), de acuerdo a un estudio de la Universidad de Buenos Aires que se publicó ayer en la revista digital Journal of Experimental Medicine. Al parecer, los espermatozoides, y no sólo el fluido en el que se encuentran, pueden transmitir el virus a varias células del sistema inmune que suponen los principales “caminos” para expandir el virus por todo el organismo Receptores.

La investigación, que consiste en una experimentación in vitro, fue llevado a cabo desde el Centro Nacional de Referencia para el Sida (CNRS), institución que depende de la Facultad de Medicina de la UBA. Los investigadores trabajan con espermatozoides, de los que hasta ahora no se tenía una idea muy clara sobre el papel que cumplen a la hora de transmitir la infección. Lo que sí se sabía anteriormente es que, en un hombre infectado, el VIH se transfiere a través del semen, que lleva tanto virus flotando “sueltos”, como glóbulos blancos infectados. Precisamente, el equipo del CNRS profundizó un poco en la forma en que el semen transporta al virus.
En diálogo con Hoy, Ana Ceballos, una de las autoras del trabajo, contó que “se logró determinar un receptor del espermatozoide, llamado heparán sulfato, por el cual el VIH se pega a él”. Según explicó, otros trabajos científicos publicados anteriormente sugerían que el principal receptor era otra molécula, llamada mannose, pero la nueva investigación muestra que ésta última tiene, en realidad, un papel mucho menor. “La otra novedad de nuestro trabajo es que el espermatozoide ofrece el virus a unas células del sistema inmune llamadas dendríticas que, a su vez, se lo lleva a otras células, los linfocitos T, y así se va expandiendo la infección”, señaló la especialista, y enfatizó: “Por eso decimos que el espermatozoide podría tener un papel relevante en la transmisión temprana”.
Ahora bien, con respecto a la circunstancia en que el espermatozoide se une o toma contacto con las células dendríticas, los investigadores suponen que eso podría suceder a través de las pequeñas abrasiones que, en general, se producen en la cubierta vaginal o anal durante la relación sexual, así como por alguna herida existente. Otra forma de ponerse en contacto podría ser por una especie de “puntas” parecidas a dedos que tienen las células dendríticas, y que se extienden hasta las superficies mucosas.
Acidez
Por otra parte, los autores del trabajo también notaron que, sometidos a un pH (medida de la acidez de una solución) similar al que presenta la vagina después del coito, los espermatozoides captan aun con mayor eficiencia al virus, lo cual promueve una tasa más alta de infección. Según explica Ceballos, un entorno vaginal saludable se encuentra normalmente en un pH de entre 4,0 y 6,0, mientras que los valores normales del semen varían entre 7,2 y 8. Pero cuando el semen entra en contacto con la mucosa vaginal, el pH de la vagina aumenta y llega hasta 6,5. Así, al nivelarse los pH de ambos genitales, el VIH pasa más fácil de uno a otro.
Este estudio “pone de manifiesto que la acidez de la vagina, en estado normal, proporciona un mecanismo de protección frente a la transmisión sexual del virus. El reto es conseguir un producto que sea capaz de mantener este ambiente incluso después del acto sexual”, concluyen los autores.
Como los valores de pH similares a los genitales femeninos y masculinos fueron “logrados” en el laboratorio, a partir de ahora los estudios están encaminados a comprobar si estos mismos procesos se dan por sí solos naturalmente. “Ya empezamos a analizar lo que sucede en algunos modelos de ratones, como para verificar si la interacción entre el espermatozoide y las células dendríticas que vimos in vitro, también se da in vivo”, señala Ceballos, y agrega que “un escenario podría ser el momento posterior a una relación sexual”.
Cabe destacar que el grupo de trabajo es interdisciplinario, y contó con especialistas de la Academia Nacional de Medicina, el Ibyme (Instituto de Biología y Medicina Experimental), el Instituto Halitus, y una colaboración desde el Instituto Curie, en Francia, por parte de Sebastián Amigorena, un biólogo argentino que se desempeña allá.

Organismos extremófilos

Organismos que sobreviven a altísimas exposiciones a la radiación.
..........................................................................

La deinococcus radiodurans es una pequeña bacteria extremófila que se considera el ser vivo mas resistente a la radiación. Se dice que es capaz de resistir a una hecatombe nuckear porque puede sobrevivir a dosis 100 veces mas altas que la escherichia coli, por ejemplo, que es a su vez varias veces superior a la tolerada por los seres humanos.

La D. radiodurans fue encontrada en alimentos irradiados, en granito procedente de la Antartida y en instrumental medico esterilizado, asi como en las cubas de reactores nucleares.

Su composicion genetica ha sido secuenciada por cientificos del instituto del Genoma y los estudios han demostrado que su ADN está organizado de forma tal que podría facilitar la reparación del mismo.

Argentina y el Espacio

La CONAE es el único Organismo del Estado Nacional diseñar y ejecutar proyectos en materia espacial en todo el ámbito de la República.
...............................................................................

Su misión, como agencia especializada es proponer y ejecutar el Plan Nacional Espacial, considerado Política de Estado, con el objeto de utilizar y aprovechar la ciencia y la tecnología espacial con fines pacíficos.

En 1994 se redactó el Plan Espacial "Argentina en el Espacio 1995-2006" en el que se enumeraron una variedad de acciones concurrentes a esos objetivos generales, estableciéndose que debe ser actualizado periódicamente, contando en cada oportunidad al menos con una década de horizonte para las actividades espaciales nacionales. En cada revisión del Plan se tienen en cuenta los avances de la tecnología espacial que tuvieron lugar durante el período anterior y la marcha de las demandas sociales en la materia.

Proyecto Actual

Entre muchos proyectos de investigación de distinta indole la conae tiene previsato la construcción y puesta en orbita para el 2010 del satélite argentino SAC-D Aquarius, este constituye un observatorio dedicado al estudio del océano y de la atmósfera terrestre, y también realizará observaciones sobre nuestro territorio con el fin de generar alertas tempranas de incendios e inundaciones.

Así, mediante los ocho instrumentos que lleva a bordo, este satélite obtendrá datos sobre la superficie del mar y la superficie de la Tierra, que se utilizarán por ejemplo para medir la salinidad del mar, su temperatura superficial, vientos y presencia de hielo (datos útiles para mejorar el conocimiento de la circulación oceánica y su influencia en el clima del planeta).

En sus observaciones sobre la superficie terrestre, el SAC-D Aquarius tomará datos de humedad de suelo y detectará focos de alta temperatura, entre otros parámetros, para su utilización en alerta temprana de incendios e inundaciones. Otra aplicación del observatorio será para el conocimiento de la distribución de deshechos espaciales y micrometeoritos existentes alrededor de la Tierra.

Este nuevo satélite da continuidad al Plan Espacial Nacional y a los acuerdos bilaterales que acompañan el desarrollo de la tecnología espacial argentina. El SAC-D Aquarius con sus 1.405 kilogramos de peso triplica al satélite anterior, el satélite SAC-C, puesto en órbita en el año 2000, que ya cumplió ocho años de exitoso funcionamiento y continúa operativo.

Trasplante de Córneas

La córnea es la única parte del ojo que puede trasplantarse. Estas son las características de este tipo de operación.
..........................................................................

Especialista del Hospital Oftalmológico Pedro Lagleizeafirma que el exito de un trasplante de córnea depende de la enfermedad del receptor, del estado de la cornea dadora, del cirujano, y de los cuidados posteriores a la intervención. No obstante las posibilidades de rechazo son mínimas.

De todas maneras hay que contemplar las distintas etapas por las que pasa el paciente y tenerlas en cuenta para que la operación sea exitosa.

Una vez que el oftalmólogo evalúa la posibilidad de que una persona se someta a un trasplante de córnea , se le realizarán una serie de estudios para certificar que su ojo y su estado clínico general, estén en condiciones para la cirugía. Los respectivos datos son registrados en la lista de los bancos de ojos. Luego de una espera de tiempo se obtiene una córnea acorde a las características del paciente.

La cirugía se realiza en un quirofano utilizando un microscopio e instrumental de microcirugía. Según la edad y las características del paciente, se utiliza anestesia local o general.
La duración de la intervención varía entre una y dos horas. Si existiera catarata u otra patología ocular puede eventualmente realizarse su cirugía simultáneamente.

La cornea implantada se fija a su posición con puntos de sutura muy delgados que se comienzan a retirar a partir de los 6 meses. Al finalizar la operación se le pondrá al paciente un oclusor protector y posteriormente se lo citará al dia siguiente para controlar el estado del trasplante.
Luego deben transcurrir de seis a doce meses para poder determinar la visión definitiva. Ocurre la forma de la córnea va cambiando a medida que cicatriza por lo que no se dará corrección optica hasta el año. Durante este tiempo se irán retirando algunos puntos previa topografía corneal con lo cual la visión irá mejorando. El paciente durante ese periodo debe evitar traumatismos sobre el ojo, esfuerzos, que se le introduzcan sustancias extrañas durante algunos meses y por ultimo, es necesario que duerma boca arriba o sobre el otro ojo.

Teoría de la Evolución

La Teoría de la Evolución sigue resolviendo todos los interrogantes de nuestra vida, algo que ni siquiera darwin pensó.
.........................................................................



La evolución biológica es el proceso continuo de transformación de las especies a través de cambios producidos en sucesivas generaciones, y que se ve reflejado en el cambio de las frecuencias alélicas de una población; hecho que esta representado en la actual teoría científica de laSíntesis evolutiva moderna.

Generalmente se denomina evolución a cualquier proceso de cambio en el tiempo. En el contexto de las ciencias de la vida, la evolución es un cambio en el perfil genético de una población de individuos, que puede llevar a la aparición de nuevas especies, a la adaptación a distintos ambientes o a la aparición de novedades evolutivas.

A menudo existe cierta confusión entre hecho evolutivo y teoría de la evolución. Se denomina hecho evolutivo al hecho científico de que los seres vivos están emparentados entre sí y han ido transformándose a lo largo del tiempo. La teoría de la evolución es el modelo científico que describe la transformación y diversificación evolutivas y explica sus causas.

En los inicios del estudio de la Evolución biológica, Charles Darwin y Alfred Russel Wallace propusieron la selección natural como principal mecanismo de la evolución. Actualmente, la teoría de la evolución combina las propuestas de Darwin y Wallace con las leyes de Mendel y otros avances genéticos posteriores; por eso es llamada síntesis moderna o teoría sintética.

En el seno de esta teoría, la evolución se define como un cambio en la frecuencia de los alelos en una población a lo largo de las generaciones. Este cambio puede ser causado por una cantidad de mecanismos diferentes: selección natural, deriva genética, mutación, migración (flujo genético). La teoría sintética recibe una aceptación general en la comunidad científica, aunque también ciertas críticas. Ha sido enriquecida desde su formulación, en torno a 1940, por avances en otras disciplinas relacionadas, como la biología molecular, la genética del desarrollo o la paleontología.

La antigua teoría del lamarckismo, la suposición de que el fenotipo de un organismo puede dirigir de alguna forma el cambio del genotipo en sus descendientes, es una posición teórica actualmente indefendible, en la medida en que es positivamente incompatible con lo que sabemos sobre la herencia, y también porque todos los intentos por hallar pruebas de observación o experimentales, han fracasado.

Referente al creacionismo, la posición de que en un grado u otro, los seres vivos tienen un autor personal consciente (léase Dios), es una posición religiosa o filosófica que no puede probarse científicamente, y por tanto no es considerada por la comunidad científica como una teoría científica. No obstante, en el marco de la cultura popular protestante y anglosajona, algunos se esfuerzan por presentarlo como tal a través del Diseño inteligente; pero el consenso científico es considerar tales intentos solo como una forma de propaganda religiosa.

Introducción al ADN

Prácticamente todo lo que somos esta encapsulado en un lenguaje codificado llamado información genética
........................................................................

El ADN (ácido desoxirribonucleico) es la información genética básica que se transmite de una generación
a otra y que codifica los datos necesarios para la síntesis de proteínas indispensables para el funcionamiento de la célula o partícula viral.

El ADN está conformado por combinaciones de cuatro bases nitrogenadas denominadas "nucleótidos": adenina (A), timina (T), guanina (G) y citosina (C), unidas en dos ejes de azúcar-fosfato. Como polos opuestos de un imán, la adenina siempre estará apareada a la timina y la guanina a la citosina, y viceversa (en combinaciones A-T, T-A, C-G y G-C).

Gráficamente, una molécula de ADN es representada como una doble hélice, es decir, como una escalera caracol, cuyos peldaños se mantienen unidos por dos cadenas o hebras en sus extremos. En este modelo, los escalones son las uniones A-T, T-A, C-G y G-C, mientras que las hebras son ejes de azúcar-fosfato que funcionan como un esqueleto.

Avance Científico en Argentina

Desarrollan un método de biología molecular para detectar virus de VIH y Hepatitis C en muestras de sangre
...........................................................................

Una científica del Centro de Química Aplicada de la Facultad de Ciencias Químicas desarrolló una técnica capaz de reconocer la presencia de estos patógenos virales en el plasma humano. El diagnóstico es inequívoco, porque el procedimiento detecta el material genético de los virus. El éxito del método radica en una secuencia de ADN que la investigadora diseñó a medida para encontrar regiones conservadas del genoma de esos virus por técnicas de biología molecular, y que permite amplificar el material genético de esos agentes infecciosos hasta hacerlos visibles a través de un equipo especial. Se trata de una metodología que reduce el período de ventana a sólo 11 días y que desde noviembre de 2008 se aplica a todas las extracciones que realiza el Banco de Sangre de la Universidad Nacional de Córdoba.

Los análisis serológicos tradicionales, que se practican para determinar si una persona está infectada con el virus de la inmunodeficiencia humana (VIH) o Hepatitis C, son indirectos. No detectan esos agentes patógenos por sí mismos, sino los anticuerpos que genera el sistema inmunológico del organismo infectado como defensa. El tiempo que demoran éstos en aparecer varía entre tres y doce semanas, pero está comúnmente aceptado que estos anticuerpos pueden ser reconocidos con certeza entre 45 y 50 días posteriores al contagio.

Durante ese "período de ventana", los estudios convencionales brindarán resultados negativos, aunque la sangre de la persona portadora podrá contagiar mediante transfusiones sanguíneas o relaciones sexuales en las que no se utilicen métodos profilácticos.

¿Cómo saber, entonces, si un donante no se encuentra en ese período de ventana al momento de someterse a una extracción de sangre? La respuesta viene de la mano de la biología molecular, una disciplina que estudia la estructura, función y composición de las moléculas biológicamente importantes. En este caso, la molécula analizada es el ácido ribonucleico (ARN), constituyente del material genético de los virus HIV y Hepatitis C.

Mediante la aplicación de técnicas de biología molecular, una científica de la Universidad Nacional de Córdoba (UNC) desarrolló un método cualitativo directo que permite identificar la presencia de ARN específico correspondiente a los virus del VIH y la Hepatitis C en el plasma humano. Su principal ventaja radica en su especificidad, ya que reconoce secuencias de ARN propias de los virus de HIV y Hepatitis C, y en su mayor sensibilidad, lo que permite reducir el período de ventana a sólo 11 días. La técnica en cuestión se denomina "transcriptasa reversa acoplada a la reacción en cadena de la polimerasa en tiempo real" (RT/RT-PCR, por sus siglas en inglés) y es el proceso en el que durante casi dos años trabajó para optimizar y poner a punto Mariana Núñez, coordinadora del Área Química Molecular del Centro de Química Aplicada (Cequimap) de la Facultad de Ciencias Químicas.

En términos simples, el proceso consiste en multiplicar exponencialmente el material genético de los virus -si es que están presentes en la muestra analizada- hasta hacerlos "visibles" mediante un equipamiento específico. El método posee una estricta serie de pasos, pero la clave de su éxito radica en la secuencia de ADN que posibilita y sirve de molde para su amplificación y detección. Precisamente, es esta secuencia de ADN la que diseñó a medida la investigadora del Cequimap, utilizando información de los genomas de cepas de VIH y Hepatitis C aisladas en Argentina.

La metodología fue desarrollada a partir de un convenio con el Instituto de Hematología y Hemoterapia (IHH) de la UNC. El Banco de Sangre de esta Casa de Estudios ya la viene aplicando desde noviembre de 2008, complementariamente con los estudios serológicos tradicionales que fija la legislación sobre las normas de medicina transfusional. Su inclusión apunta a asegurar la calidad de la sangre disponible en esa dependencia sanitaria; y mediante esta técnica, el Cequimap analiza aproximadamente unas 600 muestras sanguíneas mensuales remitidas por el IHH.

Rayos Cósmicos: Malargüe

Un proyecto científico internacional para descubrir el origen de los rayos cósmicos de ultra-alta energía.
..............................................................................

El Observatorio Auger está emplazado en dos sitios: en el Hemisferio Sur, en la zona de Malargüe, Provincia de Mendoza, Argentina y en el Hemisferio Norte, en Colorado, Estados Unidos.

Medirá las cascadas de partículas que se producen cada vez que un rayo cósmico choca contra las moléculas de la atmósfera superior. Así se determinará la energía, dirección de llegada y la naturaleza de los rayos cósmicos de las más altas energías observables.

Cada sitio consistirá en una red de 1600 detectores, distanciados 1,5 km entre sí y cubriendo una superficie total de 3000 km2. La red de detectores de superficie se complementará con un conjunto de 24 telescopios de alta sensibilidad, que en las noches despejadas sin luna
escudriñarán la atmósfera para observar la tenue luz ultravioleta que producen las cascadas de rayos cósmicos al atravesar el aire.

Alrededor de 250 científicos de más de 50 instituciones de 15 países han participado en este emprendimiento.

¿Qué son los rayos cósmicos?

Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente a la Tierra desde todas las direcciones.

La mayoría de estas partículas son núcleos de átomos o electrones. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultra-energéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas por cualquier acelerador en el mundo.
Nadie sabe cuáles son las fuentes de los rayos cósmicos ultra-energéticos. La mayoría de las partículas de rayos cósmicos de baja energía que llegan a la Tierra provienen de algún sitio dentro de nuestra galaxia, la Vía Láctea. Éstos se cree que provienen de la explosión de estrellas llamadas supernovas. Sin embargo, la mayoría de las partículas de rayos cósmicos ultra-energéticos probablemente provengan de fuentes fuera de la Vía Láctea, pero ¿de dónde?
Los rayos cósmicos pueden ser detectados indirectamente en la superficie de la Tierra, observando cascadas de partículas que se producen en el aire. Una cascada ocurre cuando una partícula de alta velocidad choca con una molécula de aire. Fragmentos de esta colisión a su vez chocan con otras moléculas de aire, en una lluvia que continua hasta que la energía de la partícula original se encuentra destruida entre millones de partículas cayendo sobre la tierra.

Comprender cuáles son las fuentes astrofísicas más energéticas del universo y entender los mecanismos de aceleración de estas partículas. Incluso, podrían contener información sobre la evolución y posiblemente sobre el origen del universo.

Antimateria

En la primeras dos décadas del siglo XX, se instaló la idea de antimateria. Hoy es uno de los desafíos más importantes.
............................................................................................

Hace casi 80 años el físico inglés Paul Dirac logró una formulación para el comportamiento del electrón en que se mezcló la, entonces, recién descubierta mecánica cuántica con la relatividad de Einstein. Una predicción de la teoría de Dirac que de inmediato llamó la atención de los especialistas fue la existencia de la antimateria. Este resultado sorprendente implicó que todas las partículas que encontramos en la naturaleza se presentan por pares, cuyas propiedades son idénticas, salvo una (generalmente el signo de la carga eléctrica), y que la unión (aniquilación) de una partícula con su “antipartícula” produce energía. Inversamente, también resulta que partículas o luz de muy alta energía, al interaccionar con la materia producen pares partícula- antipartícula.

Si se pudiera utilizar la antimateria como energía... al juntar una moneda de materia de siete gramos con otra igual de antimateria se generaría energía suficiente como para mantener encendidas todas las lámparas del mundo durante 20 días.
Sabemos que una bomba atómica transportada en un avión fue capaz de destruir una ciudad, como fue el caso de Hiroshima. Pues bien; una bomba de igual peso, pero de antimateria, podría destruir cien ciudades como aquélla.

La antimateria es la contraparte de la materia. La materia está compuesta de partículas; la antimateria está compuesta por antipartículas. Un átomo de hidrógeno está compuesto por un protón (de carga positiva)en el núcleo y un electrón (de carga negativa) orbitando a su alrededor. Un átomo de antihidrógeno está compuesto por un antiprotón (de carga negativa) y un positrón (de carga positiva) que lo orbita. Si un átomo entra en contacto con un antiátomo se aniquilan, produciendo energía.

En 1995 se logró producir átomos de antihidrógeno. Pero cabe preguntarse ¿dónde se puede guardar un átomo de antimateria si al entrar en contacto con materia se aniquilan? La verdad es que no se puede guardar en una botella tapada con un corcho porque el átomo de antihidrógeno, al entrar en contacto con el hidrógeno del aire, se convertiría en energía, desapareciendo. La solución consistió en construir lo que se llama una “trampa”, que fue diseñada en el Laboratorio Nacional de Los Álamos de Estados Unidos. Consiste en un recipiente en el que se produjo el vacío y rodeado de un campo magnético que impide que la antimateria toque a la materia.La cantidad de antimateria que se produce actualmente es ínfima (menos de diez nanogramos por año), siendo un nanogramo una mil millonésima parte de un gramo. Y no sale nada barato; obtener un gramo de antimateria cuesta actualmente veinticinco mil millones de dólares.

El futuro de la Antimateria


Mientras que toneladas de combustible químico son necesarias para propulsar una misión humana a Marte, 10 miligramos de antimateria lo harían y la NASA ya esta pensando en utilizarla para futuros viajes a Marte. Sin embargo, en realidad esta energía viene con un precio.

Algunas reacciones de antimateria producen ráfagas de rayos gamma de alta energía. Los rayos gammas son como rayos X con esteroides. Penetran la materia y rompen en partes las moléculas en las células, así que no es sano exponerse a ellos. Los rayos gamma de gran energía pueden también hacer motores radiactivos de los fragmentos de átomos del material del motor.

El Instituto para Conceptos Avanzados de la NASA (NIAC) está financiando un equipo de investigadores que trabajan en un nuevo diseño para una nave espacial accionada por antimateria que evita este efecto secundario indeseable produciendo rayos gammas con una energía mucho más baja.

La antimateria a veces es llamada la imagen especular de la materia normal, porque mientras parece ser como la materia ordinaria, se invierten algunas características. Por ejemplo, los electrones normales, las partículas familiares que llevan la corriente eléctrica en todo tipo de cosas , desde teléfonos celulares a la televisión de plasma, tienen una carga eléctrica negativa.

Los antielectrones tienen una carga positiva, así que los científicos los llamaron "positrones". Cuando la antimateria se encuentra con la materia, ambas se aniquilan en un destello de energía. Esta conversión completa de energía es lo que hace que la antimateria sea tan poderosa. Incluso las reacciones nucleares que hacen funcionar las bombas atómicas se encuentran en segundo lugar, con solamente cerca del 3 por ciento de su masa convertida en energía.

Una nave espacial accionada por antimateria que empleara antiprotones, produciría rayos gamma de gran energía cuando se aniquilan. El nuevo diseño de la NASA utilizará positrones, que producen rayos gamma con cerca de 400 veces menor energía. La investigación de NIAC es un estudio preliminar para considerar si la idea es factible.

Si parece prometedora y los fondos están disponibles para desarrollar con éxito la tecnología, una nave espacial accionada por positrones tendría ventajas sobre los planes existentes para una misión humana a Marte, y cuyo nombre sería: misión de referencia a Marte.

Un viaje de referencia a Marte tomaría 180 días, mientras que con el uso de antimateria éste podría durar tan solo 45 días.

Antimateria vs. realidad


Un desafío técnico para volver una nave espacial de positrones una realidad es el coste para producir los positrones. Debido a su efecto dramático sobre la materia normal, no hay mucha antimateria a nuestro alrededor. En el espacio se crea en colisiones de partículas de alta velocidad llamadas rayos cósmicos.

En la tierra, tiene que ser creada en aceleradores de partículas, máquinas inmensas que estrellan violentamente los átomos. Las máquinas se utilizan normalmente para descubrir cómo trabaja el universo en un nivel fundamental y profundo, pero éstas pueden ser utilizadas como fábricas de antimateria.

"Un cálculo aproximado para producir 10 miligramos de positrones necesarios para una misión tripulada a Marte necesitaría 250 millones de dólares usan la tecnología que está actualmente en desarrollo", dijo Gerald Smith de Positronics Research, compañía que diseña esta tecnología.

El coste puede parecerse alto, pero tiene que ser considerado contra el coste adicional de lanzar un cohete químico más pesado (los costes actuales del lanzamiento son de cerca de 10 mil dólares por kilogramo) o el coste para aprovisionar de combustible y hacer seguro un reactor nuclear.

"Basado en la experiencia con la tecnología nuclear, parece razonable esperar que el coste de producción del positrón baje con la investigación," dijo Smith. Otro desafío se encuentra en el almacenamiento de suficientes positrones en un espacio pequeño. Como se aniquilan con la materia normal, usted no puede meterlos en una botella. En su lugar, tienen que ser contenidos en campos eléctricos y magnéticos.

"Nos sentimos confiados que con un programa dedicado a la investigación y desarrollo, estos desafíos podrán ser superados", afirmó Smith. Si esto es así, quizás los primeros seres humanos en alcanzar Marte llegarán en naves espaciales propulsadas por la misma fuente que encendió a las naves a través de los universos de nuestros sueños en la ciencia ficción.

Estados Alotrópicos

En química, se denomina alotropía a la propiedad que poseen determinados elementos químicos de presentarse bajo estructuras moleculares diferentes, como el oxígeno, que puede presentarse como oxígeno atmosférico (O2) y como ozono (O3), o con características físicas distintas, como el fósforo, que se presenta como fósforo rojo y fósforo blanco (P4), o el carbono, que lo hace como grafito , diamante y fulereno. Para que a un elemento se le pueda denominar como alótropo, sus diferentes estructuras moleculares deben presentarse en el mismo estado físico.La explicación de las diferencias que presentan en sus propiedades se ha encontrado en la disposición de los átomos de carbono en el espacio. Por ejemplo, en los cristales de diamante, cada átomo de carbono está unido a cuatro átomos de carbono vecinos, adoptando una ordenación en forma de tetraedro que le confiere una particular dureza.En el grafito, los átomos de carbono están dispuestos en capas superpuestas y en cada capa ocupan los vértices de hexágonos regulares imaginarios. De este modo, cada átomo está unido a tres de la misma capa con más intensidad y a uno de la capa próxima en forma más débil. Esto explica porqué el grafito es blando y untuoso al tacto. La mina de grafito del lápiz forma el trazo porque, al desplazarse sobre el papel, se adhiere a éste una pequeña capa de grafito.El diamante y el grafito, por ser dos sustancias simples diferentes, sólidas, constituidas por átomos de carbono que reciben la denominación de variedades alotrópicas del elemento carbono

Energia eolica

La Conferencia de Kyoto obliga todos los países a que desarrollen la utilización de las fuentes energéticas renovables para reducir el consumo de combustibles fósiles y reducir las emisiones contaminantes en la atmósfera, que provocan el peligroso efecto invernadero.

Entre las fuentes energéticas renovables, el viento es un recurso disponible, ecológico y sostenible. En estos últimos años en Europa han aumentado mucho los lugares para la producción de energía eléctrica del viento (Wind Farm o bosques eólicos), en lugares donde las condiciones climáticas, orográficas y ambientales permiten el mejor aprovechamiento del viento. Esto ha contribuido a mejorar las tecnologías y a reducir los costes de la maquinaria eólica: de hecho actualmente se encuentran en el mercado maquinas eólicas de cualquier tamaño, seguras y tecnológicamente fiables.












La producción de energía eléctrica eólica normalmente se asocia a la imagen de grandes lugares con numerosas y enormes maquinas en las colinas o en mar abierto: instalaciones a menudo no admiradas por las personas por el impacto visual sobre el paisaje y, cuando están cerca de las viviendas, por el ruido continuo que provocan.

Las instalaciones eólicas de pequeño tamaño, en cambio, tienen un impacto visual y medioambiental sustancialmente nulo, de tamaño poco superior al de una antena parabólica. Se pueden utilizar de forma aislada o junto a paneles fotovoltaicos, para proporcionar electricidad a zonas aisladas o difícilmente alcanzables por la red eléctrica (viviendas aisladas, reservas naturales, estaciones meteorológicas, refugios alpinos, etc.).

Para alimentar una casa de 4 personas, hace falta una turbina eólica de aproximadamente 5KW. Su producción será de 8000 kilovatios-hora anuales, suficientes para abastecer el 50% de la energía de la casa.

Teoría de Cuerdas

Hasta ahora, los científicos han descrito los componentes básicos de la materia (átomos y partículas subatómicas) como pequeñas esferas o puntos. La Teoría de Cuerdas afirma que el alma de dichas partículas son hilos vibrantes de energía denominados cuerdas. Las cuerdas vibran de unas formas determinadas dotando a las partículas de sus propiedades únicas, como la masa y la carga. El origen de esta teoría se remonta a 1968 cuando el físico Gabrielle Veneziano descubrió que las ecuaciones de Euler, con 200 años de antigüedad, describían la interacción nuclear fuerte, iniciándose así un movimiento que desembocaría, gracias al físico Leonard Susskind, en la aparición de los hilos vibrantes como interpretación de dicha fórmula.

Si se agrandase un átomo hasta el tamaño del sistema solar, una cuerda sería como un árbol…


Todavía existen muchos escépticos, ya que se piensa de una forma completamente diferente a la habitual, el origen de todo no son puntos sino pequeños hilos vibrando. Además de que todavía no se ha realizado ningún experimento que demuestre la existencia de estas cuerdas. Los escépticos eran partidarios del Modelo Estándar, que se basa en las partículas y que puede reproducir experimentalmente. Las partículas (6 quarks y 6 leptones) se crean a partir de otras partículas y las denominadas partículas mediadoras o mensajeras, que originan las diferentes interacciones elementales. El fotón sirve de mediador en la interacción electromagnética, los bosones de Gauge en la nuclear débil y los gluones en la nuclear fuerte. Este modelo basado en teoría cuántica de campos describe todas las interacciones salvo la gravitatoria.

A la hora de explicar la Teoría de Cuerdas, aparecen numerosos problemas. El primero de ellos es que afirma la existencia de una partícula hipotética, el taquión, que viaja a velocidades superiores a la de la luz, lo que contradeciría la relatividad de Einstein. También esta teoría requiere de 10 dimensiones, lo que implica alguna dimensión más de las que conocemos, así como anomalías matemáticas o la existencia de partículas sin masa que no se podían descubrir en experimentos. Una de las soluciones a tan complicado problema fue identificar a la partícula sin masa (y que jamás se había observado) como el gravitón, la causante de la interacción gravitatoria a nivel cuántico.

Teoria de la Relatividad

Albert Einstein desarrolló una de las teorías más famosas en la historia de la ciencia, la teoría de la relatividad. Esta teoría realmente tiene dos partes: la teoría especial de la relatividad y la teoría general de la relatividad. Estas dos teorías introdujeron algunas ideas muy nuevas, diversas, y extrañas sobre la naturaleza básica del Universo.

Según la relatividad especial, cosas muy extrañas suceden cuando un objeto se mueve casi a la velocidad de la luz. El tiempo se retrasa, la longitud de un objeto disminuye y aumenta la masa del objeto en movimiento. Si dos observadores están en movimiento relativo entre ellos, pueden discrepar si dos eventos ocurren al mismo tiempo. De acuerdo a la famosa ecuación de Einstein, E = mc2, masa y energía se transforman de una a otra. Einstein introdujo la teoría especial de la relatividad en 1905.

La teoría general de la relatividad postula que la "forma" del espacio puede ser curvada cerca de objetos grandes con mucha gravedad. De hecho, de acuerdo a la relatividad, la gravedad es más una curvatura del espacio que una fuerza. Incluso los rayos de la luz se desvian cuando pasan cerca de un objeto masivo. Esta es la razón por la cual los huecos negros pueden "succionar" la luz que pasa cerca de ellos. Einstein desarrolló la teoría general de la relatividad entre 1907 y 1915.

Ejemplo: Supongamos dos vehiculos deciden partir de una ciudad con destino a otra que esta a 100 km de distancia. Imaginemos ahora que uno de ellos se mueve a una velocidad de 100 km/h y el otro a 50 km/h. Enseguida deducimos que el que va a 100 km/h tardará 1 hora mientras que el otro el doble de tiempo. Ahora si el primero aumentara a 200 km/h el tiempo se reduce a la mitad; mientras que cuanto mayor sea la velocidad menor será el tiempo entre un punto y el otro.
matemáticamente se demuestra que a medida que la velocidad aumenta el tiempo tiende a cero. Para Albert Einstein a velocidades normales no se evidencian cambios importantes, pero a velocidades cercanas a la velocidad de la luz comienzan a suceder extraños acontecimientos.
Para nuestro vehiculo en cuestion, moverse a tan impresionantes velocidades implicaría que el tiempo transcurriese muy lentamente, mucho mas que para el que se mueve a velocidades normales.

El Ozono

Entre los 19 y los 23 kilómetros por sobre la superficie terrestre, en la estratósfera, un delgado escudo de gas, la capa de ozono, rodea a la Tierra y la protege de los peligrosos rayos del sol. El ozono se produce mediante el efecto de la luz solar sobre el oxígeno y es la única sustancia en la atmósfera que puede absorber la dañina radiación ultravioleta (UV-B) proveniente del sol. Este delgado escudo hace posible la vida en la tierra.

Desde 1974, los científicos nos han advertido acerca de una potencial crisis global como resultado de la progresiva destrucción de la capa de ozono causada por sustancias químicas hechas por el hombre, tales como los clorofluorocarbonos (CFCs). Le tomó al mundo demasiado tiempo entender estas advertencias tempranas.

Hoy, la comunidad internacional es tan sólo un mero espectador que año a año ve desaparecer la capa de ozono a través de los informes sobre su disminución y sobre los comprometedores incrementos de radiación ultravioleta y los daños acumulados en diversos organismos vivos.

¿Cuál es el estado actual de la capa de ozono?

Imágenes del agujero de ozono de la Antártida en 1995

Según un informe de la ONU, la tasa de crecimiento en la producción de sustancias que agotan el ozono (SAO), por ejemplo los CFCs, ha decrecido como resultado directo de las reducciones de emisiones globales de estas sustancias. El lado negativo es que existe un crecimiento constante de sustancias que destruyen el ozono en la estratósfera, provenientes de fuentes industriales.

¿Cuáles son las consecuencias de la disminución del ozono?

El efecto de la disminución del ozono sobre la superficie terrestre es el aumento de los niveles de radiación ultravioleta-B. Este tipo de radiación UV-B daña a los seres humanos, animales y plantas. Los incrementos en la radiación UV-B han sido observados no sólo bajo el agujero de ozono en la Antártida sino en otros sitios como los Alpes (Europa) y Canadá (América del Norte).

Efectos en la salud humana.

Cáncer de piel.

Hoy se estima que los índices de cáncer de piel aumentaron debido a la disminución del ozono estratosférico. El tipo más común de cáncer de piel, el denominado no-melanoma, es causa de las exposiciones a la radiación UV-B durante varios años.

Existen ya personas que han recibido la dosis de UV-B que puede provocar este tipo de cáncer. Se calcula que entre 1979 y 1993 este tipo de dosis de UV-B se incrementó en un 8,9 por ciento en los 55° latitud Norte (aproximadamente a la altura de Copenhague y Moscú); 11,1 por ciento a los 45° latitud Norte (Venecia y Montreal); y 9,8 por ciento a los 35° latitud Norte (Chipre, Tokio y Menphis). El promedio entre los 55° y los 35° latitud Norte fue del 10 por ciento y se estima que los incrementos fueron mayores en el hemisferio sur.

El Programa de Naciones Unidas para el Medio Ambiente (PNUMA) pronostica que a una tasa anual de 10 por ciento de pérdida de ozono durante varias décadas, el aumento en casos de cáncer de piel rondará los 250.000 por año. Incluso teniendo en cuenta los acuerdos actuales para la eliminación de sustancias que agotan la capa de ozono (SAO), un modelo realista indicaría que el cáncer de piel aumentaría a un 25 por ciento por encima del nivel de 1980 para el año 2050, a lo largo de los 50° latitud Norte. El cáncer de piel más letal, denominado melanoma, también podría incrementar su frecuencia.

El Sistema Inmunológico

Las defensas de una persona para combatir las infecciones depende de la fortaleza de su sistema inmunológico. Se sabe que la exposición a la luz ultravioleta reduce la efectividad del sistema inmunológico, no sólo relacionándose con las infecciones a la piel sino también con aquellas verificables en otros partes del organismo.

PNUMA destaca que los efectos sobre el sistema inmunológico encierra uno de los interrogantes de mayor preocupación y A sugiere que la exposición a la radiación UV-B podría influenciar adversamente la inmunidad contra enfermedades infecciosas. Por ejemplo: leishmaniasis y malaria, e infecciones micóticas como la cándida.

La exposición a la radiación UV-B bien puede hacer que el sistema inmunológico tolere la enfermedad en lugar de combatirla. Esto podría significar la inutilidad de los programas de vacunación tanto en países industrializados como en vías de desarrollo.

Ecosistemas Acuáticos

La pérdida del fitoplancton, base de la cadena alimentaria marina, ha sido observada como causa del aumento de la radiación ultravioleta. Bajo el agujero de ozono en la Antártida la productividad del fitoplancton decreció entre el 6 y el 12 por ciento.

PNUMA indica que un 16 por ciento de disminución de ozono podría resultar en un 5 por ciento de pérdida de fitoplancton, lo cual significaría una pérdida de 7 millones de toneladas de pescado por año -alrededor del 7 por ciento de la producción pesquera mundial. El 30 por ciento del consumo humano de proteínas proviene del mar, esta proporción aumenta aún más en los países en vías de desarrollo.

Ecosistemas Terrestres

Animales

Para algunas especies, un aumento de radiación UV-B implica la formación de cáncer de piel. Esto se ha estudiado en cabras, vacas, gatos, perros, ovejas y animales de laboratorio y probablemente esté señalando que que se trata de una característica común a varias especies. Las infecciones en bovinos pueden agravarse con un aumento de la radiación UV-B.

Plantas

En muchas plantas la radiación UV-B puede tener los siguientes efectos adversos: alterar su forma y dañar crecimiento de plantas; reducir el crecimiento de los árboles; cambiar los tiempos de florecimiento; hacer que las plantas sean más vulnerables a las enfermedades y que produzcan sustancias tóxicas. Incluso podría haber pérdidas de biodiversidad y especies. Entre los cultivos en los que se registraron efectos negativos debido a la incidencia de la radiación UV-B figuran la soja y el arroz.

Contaminación del aire

Las pérdidas de ozono en la alta atmósfera hacen que los rayos UV-B incrementen los niveles de ozono en la superficie terrestre, sobre todo en áreas urbanas y suburbanas, alcanzando concentraciones potencialmente nocivas durante las primeras horas del día.

El ozono de baja altura puede causar problemas respiratorios y agravar el asma, así como también dañar a los árboles y a algunos cereales. Además, los bajos niveles de ozono contribuyen con el incremento de los problemas causados por la lluvia ácida.

Los Elementos Químicos

El término elemento químico hace referencia a una clase de átomos, todos ellos con el mismo número de protones en su núcleo. Aunque, por tradición, se puede definir elemento químico como aquella sustancia que no puede ser descompuesta, mediante una reacción química, en otras más simples. Es importante diferenciar a un «elemento químico» de una sustancia simple. El ozono (O3) y el oxígeno (O2) son dos sustancias simples, cada una de ellas con propiedades diferentes. Y el elemento químico que forma estas dos sustancias simples es el oxígeno (O). Otro ejemplo es el del elemento químico carbono, que se presenta en la naturaleza como grafito o como diamante (estados alotrópicos).

Algunos elementos se han encontrado en la naturaleza, formando parte de sustancias simples o de compuestos químicos. Otros han sido creados artificialmente en los aceleradores de partículas o en reactores atómicos. Estos últimos son inestables y sólo existen durante milésimas de segundo.

La relación que tienen los elementos con la tabla periódica es que la tabla periódica contiene los elementos químicos en una forma de ordenada de acuerdo a su peso atómico, estableciendo más de 118 elementos conocidos. Algunos se han encontrado en la naturaleza, formando parte de sustancias simples o de compuestos químicos. Otros han sido creados artificialmente en los aceleradores de partículas o en reactores atómicos. Estos últimos son inestables y sólo existen durante milésimas de segundo.

El descubrimiento de los elementos [editar]

Aunque algunos elementos como el oro (Au), plata (Ag), cobre (Cu), plomo (Pb) y el mercurio (Hg) ya eran conocidos desde la antigüedad, el primer descubrimiento científico de un elemento ocurrió en el siglo XVII cuando el alquimista Henning Brand descubrió el fósforo (P). En el siglo XVIII se conocieron numerosos nuevos elementos, los más importantes de los cuales fueron los gases, con el desarrollo de la química neumática: oxígeno (O), hidrógeno (H) y nitrógeno (N). También se consolidó en esos años la nueva concepción de elemento, que condujo a Antoine Lavoisier a escribir su famosa lista de sustancias simples, donde aparecían 33 elementos. A principios del siglo XIX, la aplicación de la pila eléctrica al estudio de fenómenos químicos condujo al descubrimiento de nuevos elementos, como los metales alcalinos y alcalino-térreos, sobre todo gracias a los trabajos de Humphry Davy. En 1830 ya se conocían 55 elementos. Posteriormente, a mediados del siglo XIX, con la invención del espectroscopio, se descubrieron nuevos elementos, muchos de ellos nombrados por el color de sus líneas espectrales características: cesio (Cs, del latín caesĭus, azul), talio (Tl, de tallo, por su color verde), rubidio (Rb, rojo), etc.
Metales, no metales y metaloides [editar]

La primera clasificación de elementos conocida fue propuesta por Antoine Lavoisier, quien propuso que los elementos se clasificaran en metales, no metales y metaloides o metales de transición. Aunque muy práctico y todavía funcional en la tabla periódica moderna, fue rechazada debido a que había muchas diferencias en las propiedades físicas como químicas.
Elementos químicos y número atómico [editar]

Un elemento químico es una sustancia pura formada por átomos que tienen el mismo número atómico, es decir, el mismo número de protones.Cada elemento se distingue de los demás por sus propiedades características. Se denomina número atómico al número de protones que tiene el núcleo de un átomo. Este número es igual al número de electrones que el átomo neutro posee alrededor del núcleo.

Fuerzas del Universo

Fuerzas fundamentales son aquellas fuerzas del Universo que no se pueden explicar en función de otras más básicas. Las fuerzas o interacciones fundamentales conocidas hasta ahora son cuatro: gravitatoria, electromagnética, nuclear fuerte y nuclear débil.

La gravitatoria es la fuerza de atracción que un trozo de materia ejerce sobre otro, y afecta a todos los cuerpos. La gravedad es una fuerza muy débil y de un sólo sentido, pero de alcance infinito.

La fuerza electromagnética afecta a los cuerpos eléctricamente cargados, y es la fuerza involucrada en las transformaciones físicas y químicas de átomos y moléculas. Es mucho más intensa que la fuerza gravitatoria, tiene dos sentidos (positivo y negativo) y su alcance es infinito.

La fuerza o interacción nuclear fuerte es la que mantiene unidos los componentes de los núcleos atómicos, y actúa indistintamente entre dos nucleones cualesquiera, protones o neutrones. Su alcance es del orden de las dimensiones nucleares, pero es más intensa que la fuerza electromagnética.

La fuerza o interacción nuclear débil es la responsable de la desintegración beta de los neutrones; los neutrinos son sensibles únicamente a este tipo de interacción. Su intensidad es menor que la de la fuerza electromagnética y su alcance es aún menor que el de la interacción nuclear fuerte.

Todo lo que sucede en el Universo es debido a la actuación de una o varias de estas fuerzas que se diferencian unas de otras porque cada una implica el intercambio de un tipo diferente de partícula, denominada partícula de intercambio o intermediaria. Todas las partículas de intercambio son bosones, mientras que las partículas origen de la interacción son fermiones.

En la actualidad, los científicos intentan demostrar que todas estas fuerzas fundamentales, aparentemente diferentes, son manifestaciones, en circunstancias distintas, de un modo único de interacción. El término "teoría del campo unificado" engloba a las nuevas teorías en las que dos o más de las cuatro fuerzas fundamentales aparecen como si fueran básicamente idénticas.

La teoría de la gran unificación intenta unir en un único marco teórico las interacciones nuclear fuerte y nuclear débil, y la fuerza electromagnética. Esta teoría de campo unificado se halla todavía en proceso de ser comprobada. La teoría del todo es otra teoría de campo unificado que pretende proporcionar una descripción unificada de las cuatro fuerzas fundamentales.

Hoy, la mejor candidata a convertirse en una teoría del todo es la teoría de supercuerdas. Esta teoría física considera los componentes fundamentales de la materia no como puntos matemáticos, sino como entidades unidimensionales llamadas "cuerdas". Incorpora la teoría matemática de supersimetría, que sugiere que todos los tipos de partícula conocidos deben tener una "compañera supersimétrica" todavía no descubierta. Esto no significa que exista una compañera para cada partícula individual (por ejemplo, para cada electrón), sino un tipo de partícula asociado a cada tipo conocido de partícula. La partícula hipotética correspondiente al electrón sería el selectrón, por ejemplo, y la correspondiente al fotón sería el fotino. Esta combinación de la teoría de cuerdas y la supersimetría es el origen del nombre de "supercuerdas".

El Efecto Invernadero

Este fenomeno se debe a que parte de la radiación solar atraviesa directamente la atmósfera para calentar la superficie de la Tierra. La tierra, a su vez, “reenvía” esta energía al espacio como radiación infrarroja de longitud de onda larga. El vapor de agua, el dióxido de carbono y otros gases que absorben esta radiación de la tierra, impiden que esta energía pase directamente de la superficie de la tierra hacia el espacio, y así calientan la atmósfera.

El aumento de los niveles atmosféricos de gases de efecto invernadero se puede comparar con la instalación de un doble cristal: si los aportes de la radiación solar en el interior del invernadero se mantuvieron constantes, la temperatura aumentará. El vapor de agua y las nubes que atrapan el calor contribuyen al efecto invernadero.

Los gases de efecto invernadero emitidos por la actividad humana son:

* Dióxido de carbono (CO2)
* Metano (CH4)
* Óxido nitroso (o N20)

Los clorofluorocarbonos (CFC), que también tienen el efecto de empobrecer la capa de ozono, también contribuyen al efecto invernadero. Además, hay que añadir a los gases precursores del ozono troposférico: compuestos orgánicos volátiles (COV), óxidos de nitrógeno (NOX) y monóxido de carbono (CO).

El Grupo Intergubernamental de Expertos sobre el Cambio Climático, en 1995 ya había confirmado la opinión de la mayoría de los científicos en las que se decía que las concentraciones de las emisiones de gases de efecto invernadero están aumentando como resultado de actividades humanas.

Los modelos utilizados por los climatólogos predicen un aumento de la temperatura media global de 2°C entre 1990 y 2100 en el caso de existir una duplicación de la concentración de gases de efecto invernadero en la atmósfera.

Si no se hace nada para limitar el aumento de la concentración de gases de efecto invernadero en la atmósfera, el calentamiento global será mucho mayor de lo esperado. El estudio de los climas del pasado, o “paleoclimatología” muestra que una variación de apenas unos pocos grados en la temperatura media de la Tierra es capaz de transformar, en profundidad, la fisonomía de nuestro planeta.

El colisionador de hadrones

El Gran Colisionador de Hadrones (en inglés Large Hadron Collider o LHC, siglas por las que es generalmente conocido) es un acelerador de partículas (colisionador de particulas) ubicado en la actualmente denominada Organizacion Europea para la Investigación Nuclear (la sigla es la del antiguo nombre en francés de tal institución: Conseil Européen pour la Recherche Nucléaire, CERN), cerca de Ginebra, en la frontera franco-suiza.

El LHC se diseñó para colisionar haces de hadrones, más exactamente de protones de 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estandar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.

Los protones son acelerados a velocidades del 99,99% de la velocidad de la luz (c) y chocan entre sí en direcciones diametralmente opuestas produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos durante o inmediatamente después del big bang. El LHC se convertirá en el acelerador de partículas más grande y energético del mundo.

Más de 2000 físicos de 34 países y cientos de universidades y laboratorios han participado en su construcción. Hoy en día el colisionador se encuentra enfriándose hasta que alcance su temperatura de funcionamiento, que es de 1,9 K (2 grados por encima del cero absoluto o −271,25 °C).

Los primeros haces de partículas fueron inyectados el 1 de agosto de 2008, el primer intento para hacer circular los haces por toda la trayectoria del colisionador se produjo el 10 de septiembre de 2008 mientras que las primeras colisiones a alta energía en principio estaban previstas para el 21 de octubre de 2008. Sin embargo, debido a una avería se produjo una fuga de helio líquido y el experimento se ha parado temporalmente. Está previsto que para verano de 2009 se reactiven las actividades.

Este funcionara a medio rendimiento durante 2 años, en esas condiciones será más difícil que pueda descubrir antes del 2011, al menos- el bosón de Higgs (la partícula de la masa), que es su principal objetivo y una de los mayores incógnitas de la física fundamental. Teóricamente se espera que, una vez en funcionamiento, se detecte la partícula conocida como el bosón de Higgs(a veces llamada "la partícula de Dios").

La observación de esta partícula confirmaría las predicciones y "enlaces perdidos" del Modelo Estándar de la física, pudiéndose explicar cómo adquieren las otras partículas elementales propiedades como su masa.

Verificar la existencia del bosón de Higgs sería un paso significativo en la búsqueda de una Teoría de la gran unificación, teoría que pretende unificar tres de las cuatro fuerzas fundamentales conocidas, quedando fuera de ella únicamente la gravedad. Además este bosón podría explicar por qué la gravedad es tan débil comparada con las otras tres fuerzas.

Junto al bosón de Higgs también podrían producirse otras nuevas partículas que fueron predichas teóricamente, y para las que se ha planificado su búsqueda, como los strangelets, los micro agujeros negros, el monopolo magnético o las partículas supersimétricas. El nuevo acelerador usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés).