También es esta misma playa fueron encontradas en los años 90 huellas humanas de 7.000 años de antigüedad, que según el especialista son las únicas halladas en Sudamérica.
hallazgo: Huellas Prehistoricas
También es esta misma playa fueron encontradas en los años 90 huellas humanas de 7.000 años de antigüedad, que según el especialista son las únicas halladas en Sudamérica.
La Teoría M
Las teorías del todo proponen que el universo está fundamentalmente compuesto por objetos unidimensionales que son similares a una cuerda.
.........................................................................................................
En sus ratos libres, la física actual sigue atrás de lo que supo llamarse la teoría del todo. La teoría M es una solución propuesta por el Dr. Edward Witten, a través de la cual intenta combinar las cinco teorías de supercuerdas y supergravedad en once dimensiones.
Tiene su origen en la teoría de cuerdas, según la cual detrás de los quarks existirían diminutas cuerdas que vibran a cierta frecuencia. Según esta teoría, se vive en un universo vibrando a cierta frecuencia, lo cual requiere al menos diez dimensiones.
Esta teoría todavía no ha sido comprobada, ya que por el momento carece de pruebas empíricas. Si alguna vez fuera verificada experimentalmente, la Teoría M y la Teoría de las cuerdas supondrían un significativo avance científico.
Además precisa de herramientas matemáticas que todavía tienen que ser inventadas y son necesarias para un total entendimiento de la misma, ya que es bastante compleja.
Teoría de Cuerdas
Para entender la Teoría M es necesario entender algo de la teoría de cuerdas. Esta teoría propone que el universo está fundamentalmente compuesto por objetos unidimensionales que son similares a una cuerda. Estas cuerdas serían tan pequeñas que incluso en la diminuta escala de las partículas parecerían como puntos. En la teoría de cuerdas cada partícula es creada de alguna forma por diferentes patrones de vibración de las cuerdas.
El desarrollo de la teoría de cuerdas ha venido principalmente por un problema extremadamente importante que ha existido en la física durante casi 100 años. El problema es que la relatividad general, la teoría desarrollada por Albert Einstein que explica cosas en escalas muy grandes o cosmológicas, es irreconciliable con la mecánica cuántica y el modelo estándar, que explica el universo a escala subatómica. También existen otros problemas con el modelo estándar: tiene unos 20 parámetros libres que deben ser ajustados a mano, y tiene un gran número de partículas que declara fundamentales (para cada partícula existen tres copias organizadas en generaciones, que sólo se diferencian entre sí en la masa). Además, debido a que no puede ser reconciliada con la relatividad general, carece de una descripción de la gravedad, la más corriente de las cuatro fuerzas fundamentales.
Usar objetos unidimensionales en lugar de partículas puntuales resuelve muchos de estos problemas. El número de parámetros libres de la teoría cae de 20 a uno (un parámetro que corresponde al tamaño de las cuerdas), y se espera que los detalles de la teoría expliquen por qué existen las tres familias de partículas. Aún más importante, los teóricos de las cuerdas encontraron que la teoría de cuerdas contiene gravitones de forma necesaria, es decir, la partícula que causa la gravedad.
Edward Witten, el fundador de la teoría-M, bromea que la teoría de cuerdas tiene la notable evidencia experimental que la gravedad existe a nuestro alrededor. Por tanto, la teoría de cuerda une de forma satisfactoria la Relatividad General con la Mecánica Cuántica.
Sin embargo, la teoría de cuerdas presenta algunos problemas. En primer lugar, requiere 10 dimensiones para que las cuerdas puedan vibrar, en contraposición a las 4 dimensiones (3 espaciales y 1 temporal) que podemos observar comúnmente. Esto puede parecer incongruente; sin embargo, es posible que las 6 dimensiones extra sean extremadamente pequeñas y curvadas. Por ejemplo, si se mira a un tubo desde una gran distancia, parece ser una línea (unidimensional). Una inspección más cercana del tubo revela 2 dimensiones: una a lo largo del tubo (la que vimos desde lejos) y una alrededor del tubo. Por tanto, el tubo es realmente una superficie bidimensional a pesar del hecho que parece ser una línea desde lejos.
Teoría M
En 1995, Edward Witten inició lo que ha sido llamado la Segunda Revolución de las Supercuerdas al presentar al mundo la teoría-M. Esta teoría combina las cinco diferentes teorías de cuerdas (junto con el intento previamente abandonado de unificar la Relatividad General y la Mecánica Cuántica llamado supergravedad once-dimensional) en una única teoría. Esto se logra tejiendo una red de relaciones entre las teorías llamadas dualidades (específicamente, S-dualidad, T-dualidad, y U-dualidad). Cada una de estas dualidades provee un modo de convertir una teoría de cuerdas en otra.
La T-dualidad es probablemente la más fácilmente explicable de las dualidades. Tiene que ver con el tamaño, denotado por R, de las dimensiones curvadas de las teorías de cuerdas. Se descubrió que si se toma una teoría de cuerdas de tipo IIA con un tamaño R, y se cambia el radio a 1/R, se obtiene lo que es equivalente a una teoría de tipo IIB de tamaño R. Esta dualidad, junto con las otras, crea conexiones entre las 5 teorías (o 6, si se cuenta la supergravedad).
De hecho, la existencia de estas dualidades se conocía antes que Witten presentara la idea de la teoría-M. Lo que hizo Witten fue predecir el hecho de que todas estas diferentes teorías estuvieran conectadas es un resultado de que hay una teoría subyacente de la cual son todas aproximaciones. Adicionalmente, se encontró que las ecuaciones que requieren que la teoría de cuerdas exista en 10 dimensiones son también aproximaciones. La teoría-M propuesta (aunque algo nebulosa) sería una teoría que se realizaría en 11 dimensiones, aunque los detalles no se han fijado todavía.
Escepticismo
La teoría-M ha sido el objetivo de un escepticismo creciente, puesto que algunos (notablemente Peter Woit y Lee Smolin) arguyen que lo teóricos de las cuerdas han sobrestimado muchas de las fortalezas de la teoría, mientras que han subestimado sus debilidades. Un argumento en contra de la teoría de cuerdas cuestiona el poder predictivo de la teoría, apuntando que la teoría de cuerdas no ha producido ninguna predicción "clara" (en el sentido de numérica) que se haya verificado en un experimento.
Los críticos continúan observando que debido al panorama de la teoría de cuerdas, la teoría puede ser incapaz de hacer estas predicciones incluso en principio, y por tanto no sería falsable. Otra versión de este argumento es la que dice que la teoría de cuerdas no está todavía bien definida, puesto que está basada en gran manera en las ecuaciones de la perturbación.
Los proponentes de la teoría de cuerdas responden que estos argumentos son tan sólo un signo de que la teoría de cuerdas no está todavía totalmente desarrollada. Otro argumento en contra de la teoría de cuerdas es que no conserva algunas de las propiedades de la Relatividad General, tales como la independencia del fondo, y que la teoría muestra un sesgo hacia la física de partículas.
Los proponentes de la teoría de cuerdas responden que la física de partículas ha sido probada de forma más precisa que la Relatividad General. Hay finalmente un argumento sociológico que indica que la teoría de cuerdas ha dominado la financiación y las posiciones de por vida de la física de altas energías, haciendo la exploración de las alternativas difícil.
Qué Significa la "M"
De acuerdo con su creador, Ed Witten, como se acotó en el documental de la PBS basado en el libro de Brian Greene "El universo elegante", la "M" en la teoría-M "significa magia, misterio o membrana (este ultimo término por el que originalmente nació la M) de acuerdo con el gusto de cada cual."
ADN: Hallazgos Argentinos
En las células del cuerpo humano funciona un elegante sistema de "corte y confección" de proteínas. Se conocía ya a los genes que operan como "costureras" en ese sistema.
................................................................................
El hallazgo fue realizado por el biólogo molecular Alberto Kornblihtt y por Mariano Alló, investigador y becario del Conicet respectivamente, que trabajan en la Facultad de Ciencias Exactas y Naturales de la UBA. Se trata de una investigación básica de tanta relevancia que su publicación fue adelantada en la versión on line de la revista especializada Nature Structure & Molecular Biology, de Inglaterra.
Tradicionalmente se pensaba que cada gen -formado por el famoso ADN- era capaz de fabricar sólo una proteína. En los años 80, se descubrió que cada uno de los genes puede hacer más: el 70 % de ellos puede fabricar más de una proteína. "Esto aumenta la capacidad informativa de los genes y explica la diferencia en complejidad biológica que tenemos respecto de otras especies", señala Kornblihtt.
Después se encontró el mecanismo por el cual un gen fabrica más de una proteína. Este sistema de corte y confección funciona así: cada gen se copia y fabrica un ácido ribonucleico (ARN) mensajero inmaduro. En el núcleo de las células, el ARN inmaduro es cortado y empalmado. Como resultado, ese ARN maduro es más corto que su precursor. En este proceso existe la posibilidad de que un mismo ARN inmaduro dé lugar a varios ARN maduros diferentes, según la forma en que los fragmentos se empalmen. Luego, el ARN maduro viaja dentro de la célula hacia el lugar donde será decodificado para formar la proteína.
En este punto, entró a jugar el equipo de Kornblitth y Alló: descubrió que hay un mecanismo que regula esos empalmes que dan lugar a las proteínas. Los encargados de controlar esos procesos se llaman ARN pequeños. ¿Cómo lo demostraron? Inyectaron ARN pequeños (que habían sintetizado) a células humanas en el laboratorio, y observaron que se unieron a los genes que buscaban sin modificar su información, aunque sí realizaron modificaciones que finalmente terminaron en empalmes y proteínas distintas.
Según Kornblihtt, "el hallazgo sirve para elaborar herramientas que permitan controlar mejor el desarrollo del cáncer y otras enfermedades como la distrofia miotónica, la atrofia muscular espinal, y la demencia fronto-temporal, entre otras menos conocidas".
¿Qué es la demencia frontotemporal?
La demencia frontotemporal es una enfermedad neurológica degenerativa que afecta a las regiones frontales y temporales del cerebro.
Existen casos donde una persona pierde su capacidad para protegerse, elige siempre opciones riesgosas y cambia de manera taxativa su personalidad. Aún así conserva las funciones intelectuales y discursivas intactas.
Esta situación compleja hace que la demencia frontotemporal sea una de las dolencias neuropsiquiátricas menos reconocidas en nuestra sociedad. Este desconocimiento representa un riesgo grave para los enfermos y quienes participan de su vida de relación.
El "cambio de personalidad" es una de las descripciones mas comunes de un paciente con lesión frontal. Esta etiqueta encapsula un rango de diversos problemas, que resume las fallas del paciente para interaccionar efectivamente con el entorno social y emocional.
El proceso de toma de decisiones humanas no es solo lógico ni computacional, sino también emocional, y se ve afectado en diversas patologías que involucran la corteza frontal. La demencia frontotemporal es una enfermedad neurológica degenerativa que afecta a las regiones frontales y temporales del cerebro.
Existe una variante frontal (que afecta más a los lóbulos frontales que a los temporales) y una variante temporal (afecta más los lóbulos temporales que los frontales y se caracteriza por dificultades progresivas en el lenguaje). La variante frontal (o conductual) de la demencia frontotemporal es una enfermedad que afecta a las regiones frontales del cerebro que son responsables de nuestra conducta.
Esta enfermedad implica grandes dificultades para los cuidadores, alta dependencia y se caracteriza por un cambio en la conducta social y personal, con una dificultad en la modulación de la conducta. Además existe una perdida de la inhibición que resulta en conductas impulsivas e inapropiadas y dificultades en la toma de decisiones. La progresión de la enfermedad conduce a una disminución en el juicio tanto social como financiero.
Es importante remarcar que todo esto ocurre en el contexto de que los pacientes presentan poca ?o ninguna- preocupación por sus actos. Los desórdenes conductuales se caracterizan por desinhibición social, pérdida de la conciencia de enfermedad, rigidez mental, compulsiones, conducta antisocial y, en ocasiones, euforia.
En estas personas, las neuroimágenes muestran atrofia frontal. Los pacientes generalmente tienen preservadas habilidades cognitivas como el lenguaje, la memoria, la atención, la orientación y el coeficiente intelectual no suele alterarse. El diagnostico de demencia frontotemporal (FTD, según sus siglas en inglés) puede ser un desafió aun para médicos con gran experiencia.
En la ausencia de un test clínico definitivo, este diagnostico se basa en criterios conductuales, en la entrevista a la familia y allegados, en la resonancia magnética cerebral que debe mostrar atrofia frontal y debe ser realizado por un experto en demencias.
Actualmente el tratamiento es sólo sintomático, todavía no existe una cura para la demencia frontotemporal y la progresión de la enfermedad no puede ser retrasada. Sin embargo, se pueden hacer muchas cosas para calmar los síntomas. Estar informado acerca de la enfermedad y comprender su desarrollo es por sí mismo, un medio efectivo para ayudar a los familiares a tolerarla.
¿Cuál es el metal mas pesado?
El iridio se considera el metal de transición mas pesado del mundo. Tan pesado es que un cubo de 30 centímetros de lado pesaría mas de media tonelada (alrededor de 650 kgs.).
El iridio está situado en el grupo 9 de la tabla periódica, con número atómico 77 y símbolo químico “Ir”. Además de pesado, es muy escaso y es el mas resistente a la corrosión.
El iridio presenta un color entre blanco y amarillo, funde a los 2.440º C y se encuentra en algunas aleaciones con platino y osmio. Sus principales yacimientos se encuentran en Rusia y Brasil, y fue descubierto en el año 1803.
Venenos: Usos y tipos
Se conoce que uno de los principales asesinos de América Latina es la enfermedad cardiovascular y en segundo lugar esta el Cáncer en todas sus variantes, pero sobre todo el cáncer del pulmón. Por lo tanto, encontrar nuevos tratamientos para estas enfermedades debe ser materia importante de estudio.
Según un estudio publicado por la revista de la Facultad de Medicina de la Universidad Central de Venezuela en enero de 2004, las serpientes de la familia Viperidae tienen en sus venenos una clase de proteínas de bajo peso molecular llamadas desintegrinas, que han mostrado (en estudios in vivo) ser eficaces para combatir enfermedades cardiovasculares, sin efectos perjudiciales sobre el paciente.
Sobre su posible uso contra el cáncer, se demostró en pruebas de laboratorio que cuatro desintegrinas del veneno de estas serpientes, inhibieron la formación de metástasis (diseminación de tumores a otros órganos) experimentales del pulmón cuando se inyectaban intravenosamente en ratones, conjuntamente con las células murinas del melanoma (células cancerosas en la piel).
El estudio sugirió que las desintegrinas pueden tener efectos inhibidores en el crecimiento de algunos tumores cancerosos en los pulmones, los senos y la piel en ratones. También se encontraron resultados positivos para suprimir el desarrollo de la diabetes y la perdida del hueso.
Los tipos de veneno según su acción son:
- Neurotóxico: actúa sobre el sistema nervioso central, el autónomo, y a nivel de las uniones neuromusculares. Entre otros síntomas, produce vómitos, taquicardia, excitación, hipertensión, sudoración, contracturas musculares, vientre en tabla, temblores, alucinaciones, etc.. Puede producir la muerte.
- Local (necrosante): actúa casi exclusivamente sobre el tegumento, produciendo a veces necrosis de tejidos circundantes y en algunos casos
a nivel visceral.
- Hemolítico: ataca al tejido interior de los vasos sanguíneos y desintegra los corpúsculos sanguíneos.
Supernovas
Una supernova es una explosión de una estrella que puede manifestarse de forma muy
notable, incluso a simple vista, en lugares donde antes no se había detectado nada en particular. Por esta razón, a eventos de esta naturaleza se los llamó inicialmente stellae novae («estrellas nuevas») o simplemente novae.
Con el tiempo se hizo la distinción entre fenómenos aparentemente similares pero de luminosidad intrínseca muy diferente; los menos luminosos continuaron llamándose novas, en tanto que a los más luminosos se les conoce como supernovas.
Estas nuevas formaciones producen destellos de luz de mucha intensidad que pueden durar desde varias semanas a varios meses. Se caracterizan por un rápido aumento de la intensidad hasta alcanzar un máximo, para luego decrecer en brillo de forma más o menos suave hasta desaparecer completamente.
La galaxia M82
Un equipo de astrónomos de varios países descubrió una explosión producida por una estrella masiva, una nueva supernova, en la galaxia M82. Siendo la supernova más cercana descubierta en los últimos cinco años, la explosión es exclusivamente detectable a longitudes de onda de radio por el denso gas y polvo alrededor de la explotada estrella. Sin este bloqueo de otras longitudes de onda, la explosión habría sido visible incluso con telescopios amateurs.
M82 es una galaxia irregular en un cercano grupo localizado a 12 millones de años luz de la Tierra. A pesar de ser menor que la Vía Láctea, hospeda una vigorosa formación estelar en su región más interna, en la que nacen más estrellas que en toda nuestra galaxia. M82 es a veces llamada una galaxia "explosiva" o "en explosión" porque aparece como desgarrada en las imágenes ópticas e infrarrojas como resultado de numerosas supernovas de estrellas masivas.
El nuevo descubrimiento fue realizado en abril de 2009 cuando el Dr. Andreas Brunthaler, de Max Planck Institute for Radio Astronomy (MPIfR), examinó datos tomados un día antes con el VLA de NRAO. "Luego miré datos más viejos que tomamos desde marzo a mayo del año pasado, y allí estaba también, brillando toda la galaxia!", indicó el científico. Observaciones tomadas antes de 2008 no mostraron emisiones pronunciadas ni en radio ni en rayos-X en la posición de la supernova, denominada SN 2008iz.
Por otro lado, observaciones de M82 tomadas el año pasado con telescopios ópticos que buscaban nuevas supernovas no mostraron señales de esta explosión. Es más, la supernova está escondida en imágenes de rayos-X y ultravioletas. La supernova explotó cerca del centro de la galaxia en un entorno interestelar muy denso. Es por eso que el brillante estallido permanece cubierto bajo las enormes nubes de gas y polvo que sólo las ondas de radio pueden penetrar.
Las radio emisiones pueden ser detectadas sólo del colapso del núcleo de una estrella masiva que produce un agujero negro o una estrella de neutrones. Se produce cuando la onda de choque de la explosión se propaga en material denso alrededor de la estrella, usualmente material que fue expulsado por la masiva estrella progenitora antes de explotar.
¿Que es la Fiebre Aftosa?
La Fiebre Aftosa (FA) es una enfermedad viral, altamente transmisible, de curso agudo que afecta a los animales herbívoros biungulados (se le dice biungulado a los que tienen pezuña hendida) el caballo es herbívoro, pero no biungulado y por lo tanto no sufre de esta enfermedad.
Se caracteriza por fiebre y presencia de vesículas principalmente en la cavidad bucal, hocico, espacios interdigitales y rodetes coronarios de las pezuñas.
Está clasificada como enfermedad de la Lista A de la Oficina Internacional de Epizootias (OIE), organismo de referencia para la Organización Mundial de Comercio (OMC) en temas relacionados con la salud animal.
El agente etiológico es un virus perteneciente a la familia picornaviridae de 23 a 30 nm de diámetro. Existen siete serotipos diferentes: A, O, C, SAT1, SAT2, SAT3 y Asia1. La
infección con un serotipo no confiere inmunidad contra los otros. Además, dentro de cada serotipo, se pueden diferenciar numerosos subtipos cuyo grado de protección cruzada
es muy variable. En la Argentina se han identificado, hasta el presente, los tipos A, O y C, y al igual que en el resto del continente americano no se ha detectado jamás otro tipo diferente a los mencionados.
Más de 90 especies animales son susceptibles al virus de Fiebre Aftosa (VFA), entre las especies domésticas más importantes se pueden citar a la bovina, ovina, caprina y porcina. La principal vía de entrada de la infección es la respiratoria y en menor grado la digestiva. Otras vías de ingreso del agente son a través de abrasiones en la piel o en las mucosas. La principal fuente de infección es un animal infectado, otras fuentes de importancia son productos o subproductos de origen animal conteniendo el agente y fomites contaminados tales como vehículos, ropas, equipos, etc.
La severidad de los signos clínicos en un animal infectado depende de: la especie afectada, el estado inmunitario, la dosis, la vía de exposición y la cepa viral.
Existen diferencias en la probabilidad de infectarse y en la importancia como fuente de infección entre individuos de diferentes especies domésticas. Aunque el bovino y el ovino requieren dosis infectantes mínimas semejantes por vía aerógena (15 a 25 UI), el bovino tiene mayores probabilidades de infectarse por que inspira un volumen de aire 17 veces mayor que el ovino por unidad de tiempo.
Por el mismo motivo, un bovino infectado es una mayor fuente de virus. El porcino tiene una especial importancia como diseminador de virus ya que puede eliminar concentraciones de virus equivalentes a 100-3000 bovinos por el aire expirado.
La importancia de una especie animal como fuente de infección está dada por la cantidad y el tiempo que libera virus al medio un individuo infectado, por la cantidad de animales presentes y por el grado de movilidad que tengan los individuos de esa especie. Por este motivo, generalmente y en nuestro país especialmente, el bovino es considerado el principal reservorio de la infección.
CONTROL Y ERRADICACIÓN
El control y erradicación del VFA están basados en tres principios básicos que generalmente
se usan en forma combinada. Las condiciones epidemiológicas, la capacidad técnica
y operativa y la disponibilidad de recursos humanos, económicos y financieros determinan
la importancia relativa que se da a cada uno de estos principios en la estrategia a aplicarse.
Estos principios son:
· Controlar las fuentes de infección
· Reducir la susceptibilidad de los animales
· Evitar el contacto entre los animales susceptibles y las fuentes de infección
Si se pudiesen controlar las fuentes de infección o se pudiese aumentar la resistencia de los animales al VFA de manera de que ya no sean susceptibles a la infección o se lograse evitar el contacto entre las fuentes de infección y los animales susceptibles el virus desaparecería de la población en forma natural y progresiva por la eliminación de los reservorios de virus y de las fuentes de infección o por la inactivación del agente en estas últimas.
En países libres en donde no se practica la vacunación, ante el ingreso del VFA, el énfasis es puesto en el control de las fuentes de infección y en evitar el contacto entre animales susceptibles y las fuentes de infección.
Lo primero, se hace mediante la detección precoz y destrucción y eliminación inmediata de los animales infectados y contactos, la desinfección de personas y equipos y la eliminación de materiales potencialmente infectados; lo segundo, se logra mediante la cuarentena de los establecimientos o áreas infectados y la imposición de restricciones a los movimientos de animales, productos y subproductos de origen animal y vehículos potenciales del agente.
En oportunidades en que la efectividad de las medidas descriptas no pueden ser garantizadas
o existen condiciones muy favorables para la transmisión viral (Ej.: alta densidad animal) esas acciones son complementadas mediante la vacunación en anillo, destinada a reducir la susceptibilidad de los animales y así disminuir la difusión del virus. Los animales vacunados son posteriormente sacrificados en forma progresiva.
En países libres en donde se practica la vacunación, ante la presencia del VFA se actúa de
manera semejante a la descripta para los países libres que no vacunan pero la vacunación
en anillo se practicaría en todos los casos.
En países infectados en donde se practica la vacunación sistemática se podría diferenciar
entre aquellos casos en que la presencia de focos es frecuente y aquellos en que el número de focos es esporádico o se está en las últimas etapas para lograr la erradicación.
En la primer situación, presencia de focos frecuente, evitar el contacto entre susceptibles y fuentes de infección y lograr el control de estas últimas debe implementarse con el mismo rigor que en lugares en donde no se vacuna. Sin embargo, el sacrificio de los animales no suele practicarse por resultar muy oneroso, técnicamente complicado e incluso poco efectivo.
La gran particularidad de esta situación es la importancia fundamental que adquiere la
Reducción de la susceptibilidad de los individuos en el control de la infección.
Actualmente, la única forma práctica de lograr esto es mediante la vacunación. Por esto, es conveniente aclarar conceptos relacionados con la eficacia de las vacunas y con la efectividad de las campañas de vacunación.
LAS VACUNAS
La eficacia de la vacuna es la capacidad de lograr los objetivos para los que fue desarrollada
bajo condiciones ideales. El objetivo primario de la vacuna es proteger contra la enfermedad, reducir la probabilidad de infección y reducir la capacidad de diseminar virus en el caso de que el animal se infecte.
La cantidad y el tipo de anticuerpos producidos por el individuo como respuesta a la vacunación determinarán el grado de protección, dependiendo este, de la cepa viral, la masa antigénica y la formulación usada en la elaboración del inmunógeno.
La eficacia (o potencia) de las vacunas puede ser evaluada por medio de pruebas directas como la de protección contra la generalización podal (PGP), consistente en el desafío por descarga viral de animales primovacunados.
Esta es la prueba aceptada internacionalmente como de referencia. Una alternativa a esta, es el uso de pruebas indirectas como el test de ELISA en fase líquida para la titulación de anticuerpos a tiempos posvacunación preestablecidos. Esta requiere del conocimiento de la existencia y tipo de correlación entre PGP y los títulos de anticuerpos inducidos por las cepas específicas contenidas en las vacunas analizadas. La potencia e inocuidad de todas las series de vacunas autorizadas para ser usadas en el programa de vacunación sistemática deben
haber sido controladas y aprobadas mediante pruebas oficiales estandarizadas y reconocidas.
La efectividad de la campaña de vacunación, no podrá ser buena sino está sustentada en una vacuna eficaz, pero esto no es suficiente y debe ser complementado con una correcta cobertura vacunal, frecuencia de vacunación, duración de períodos vacunales, intervalo entre vacunaciones, provisión, distribución y mantenimiento de los inmunógenos y aplicación. Asimismo, la correspondencia entre la cepa vacunal y la presente en el campo será determinante de la efectividad.
La planificación, implementación y control de una campaña efectiva de vacunación implica necesariamente la participación de diferentes sectores y niveles relacionados con la industria pecuaria.
El Contacto humano
No hay que temer por el consumo de carne aunque la carne estuviera altamente contaminada por virus, éste se destruye rápidamente por calentamiento o por maduración de la carne en heladeras.
Agujeros Negros
Una estrella puede contraerse hasta un volumen cero y la gravedad superficial aumentar hacia el infinito.
.....................................................................................................
Antes de analizar en detalle este fenómeno, pensemos en una estrella muy conocida por todos nosotros, el Sol.
Este astro tiene un diámetro de 1.390.000 kilómetros y una masa 330.000 veces superior a la de la Tierra. Teniendo en cuenta esa masa y la distancia de la superficie al centro se demuestra que cualquier objeto colocado sobre la superficie del Sol estaría sometido a una atracción gravitatoria 28 veces superior a la gravedad terrestre en la superficie.
Una estrella corriente conserva su tamaño normal gracias al equilibrio entre una muy alta temperatura central, que tiende a expandir la sustancia estelar, y la gigantesca atracción gravitatoria, que tiende a contraerla y estrujarla.
Si en un momento dado la temperatura interna desciende, la gravitación se hará dueña de la situación. La estrella comienza a contraerse y a lo largo de ese proceso la estructura atómica del interior se desintegra. En lugar de átomos habrá ahora electrones, protones y neutrones sueltos. La estrella sigue contrayéndose hasta el momento en que la repulsión mutua de los electrones contrarresta cualquier contracción ulterior.
La estrella es ahora una «enana blanca». Si una estrella como el Sol sufriera este colapso que conduce al estado de enana blanca, toda su masa quedaría reducida a una esfera de unos 16.000 kilómetros de diámetro, y su gravedad superficial (con la misma masa pero a una distancia mucho menor del centro) sería 210.000 veces superior a la de la Tierra.
En determinadas condiciones la atracción gravitatoria se hace demasiado fuerte para ser contrarrestada por la repulsión electrónica. La estrella se contrae de nuevo, obligando a los electrones y protones a combinarse para formar neutrones y forzando también a estos últimos a apelotonarse en estrecho contacto. La estructura neutrónica contrarresta entonces cualquier ulterior contracción y lo que tenemos es una «estrella de neutrones», que podría albergar toda la masa de nuestro sol en una esfera de sólo 16 kilómetros de diámetro. La gravedad superficial sería 210.000.000.000 veces superior a la que tenemos en la Tierra.
En ciertas condiciones, la gravitación puede superar incluso la resistencia de la estructura neutrónica. En ese caso ya no hay nada que pueda oponerse al colapso. La estrella puede contraerse hasta un volumen cero y la gravedad superficial aumentar hacia el infinito.
Según la teoría de la relatividad, la luz emitida por una estrella pierde algo de su energía al avanzar contra el campo gravitatorio de la estrella. Cuanto más intenso es el campo, tanto mayor es la pérdida de energía, lo cual ha sido comprobado experimentalmente en el espacio y en el laboratorio.
La luz emitida por una estrella ordinaria como el Sol pierde muy poca energía. La emitida por una enana blanca, algo más; y la emitida por una estrella de neutrones aún más. A lo largo del proceso de colapso de la estrella de neutrones llega un momento en que la luz que emana de la superficie pierde toda su energía y no puede escapar.
Un objeto sometido a una compresión mayor que la de las estrellas de neutrones tendría un campo gravitatorio tan intenso, que cualquier cosa que se aproximara a él quedaría atrapada y no podría volver a salir. Es como si el objeto atrapado hubiera caído en un agujero infinitamente hondo y no cesase nunca de caer. Y como ni siquiera la luz puede escapar, el objeto comprimido será negro. Literalmente, un «agujero negro».
Hoy día los astrónomos están buscando pruebas de la existencia de agujeros negros en distintos lugares del universo.
Strangelets: ¿Realidad o Ficción?
La propulsión Iónica
Para poder escapar de la Fuerza de Atracción Gravitatoria Terrestre, teniendo que soportar, además, el freno impuesto por el rozamiento atmosférico, el vehículo lanzador debe ser capaz de desarrollar una fuerza de empuje de gran magnitud. Ésta se consigue gracias a los sistemas de reacción con los que se dota al vehículo.
Dichos sistemas de propulsión se encuentran en su mayoría integrados por los motores y los tanques de combustible. Se puede demostrar teóricamente que los propulsores basan su fuerza final de despegue como función de la velocidad a la que los motores son capaces de expulsar el propelente. Esta velocidad de expulsión depende a su vez del tipo de combustión que realizan los motores de los lanzadores.
Puede hablarse en general de dos tipos de motores: los que expulsan moléculas y los que expulsan iones. A los primeros se les denomina Propulsores Químicos y a los segundos Motores de Iones.
Los Sistemas de Propulsión Química presentan el inconveniente de que para poder almacenar una masa suficiente de ellos, deben ser pasados al estado líquido y cuidados en condiciones especiales. Los Sistemas de Propulsión Iónica alcanzan velocidades mayores que las proporcionadas por los Sistemas de Propulsión Química. Pero el empuje producido, sin embargo, es menor debido a que la cantidad total de masa expulsada es menor.
Es por ello que los Sistemas de Propulsión Química son adecuados tanto para propulsar el lanzador en su vuelo de despegue y alcance de la órbita baja, como para las maniobras orbitales con el satélite, mientras que los Sistemas de Propulsión iónica sólo pueden emplearse para ésta última función.
Smart-1
La sonda SMART-1 que comenzó a operar sobre la orbita lunar en el 2005, es un equipo liviano de 367 kg. y un metro de longitud. El costo total de esta sonda es de 110 millones de euros y es parte de una estrategia de la Agencia Espacial Europea de construir sondas espaciales más pequeñas y baratas que aquellas de su contraparte norteamericana, la agencia espacial NASA.
Cuenta con un sistema de propulsión primaria de energía solar, que usa un impulsor de efecto Hall, PPS-1350, diseñado para dar mayor durabilidad que un equipo espacial dotado con cohetes químicos.
Las reservas de combustible abordo son de 60 litros de gas xenón, con una masa de 80 kg. Los impulsores usan un campo electrostático para proyectar iones de xenón a alta velocidad.
Por primera vez, Europa probó este sistema, que supone un ahorro de 1 a 5 comparado con la propulsión química clásica.
Funcionamiento de la propulsión iónica
Este forma de propulsión implica la ionización de un gas para propulsar una nave. En vez de que la nave sea propulsada por elementos convencionales, se utiliza gas Xenón, al que (que es similar al Neón o al Helio, pero más pesada) se le da una carga eléctrica -se lo ioniza-. De este modo se lo acelera eléctricamente a una velocidad de aproximadamente 30 km/s.
Cuando los iones de Xenón son expulsados a tales valores de velocidad como gas de escape de una nave, estos la impulsan en dirección opuesta.
El problema que presenta el sistema es su baja aceleración. Aunque la velocidad final es mayor en este sistema, el tiempo necesario para alcanzar importantes velocidades, es más elevado que los combustibles químicos.