Circular 603 de marzo 20 de 2011. Dirección



Descargar 292.14 Kb.
Página1/4
Fecha de conversión01.05.2018
Tamaño292.14 Kb.
  1   2   3   4
___________________________________________________________

RED DE ASTRONOMÍA DE COLOMBIA, RAC

www.rac.net.co astrocolombia-owner@yahoogroups.com



CIRCULAR 603 de marzo 20 de 2011.

___________________________________________________________



Dirección: Antonio Bernal González: abernal@antares.es

Edición: Gonzalo Duque-Escobar http://www.galeon.com/gonzaloduquee

__________________________________________________________

Las opiniones emitidas en esta circular, son responsabilidad de sus autores.

________________________________________________________


Apreciados amigos de la astronomía
Los cuatro objetivos de la reforma a la Ley 30 que regula la educación pública en Colombia, como una iniciativa del gobierno que pasa por el legislativo, contemplan: elevar la calidad académica en las funciones misionales, reducir la deserción y favorecer la permanencia de los alumnos en el sistema, orientar la oferta académica a las demandas sociales, y hacer eficiente la gestión tanto de las  instituciones de educación superior públicas como privadas, entre las cuales se contemplan ahora: Universidades, Instituciones universitarias, Instituciones tecnológicas, Instituciones técnicas profesionales y Escuelas tecnológicas. Solo que las fórmulas, además de desconocer avances del sistema y desmantelar la actividad investigativa, aprovecha la brecha de la cobertura para sacrificar los intereses de la Nación al fortalecer la educación privada como parte del presente y negocio del futuro.
Sabemos que en económica deben interesar las consecuencias y nunca las causas que solo conducen al arte de suponer. Entonces, si las propuestas para el nuevo sistema de educación superior colombiano responden al desmonte del Estado solidario, al mirar la experiencia vivida con el sistema de salud que ya corrió la misma suerte, podríamos objetar esta política por conducir a una reforma regresiva e inconveniente, ya que el modelo que propone, si bien impulsa la componente formativa del sistema universitario y allana el camino para cerrar la brecha de continuidad entre la básica secundaria y la superior, al entregarle las dinámicas de la academia a las leyes del mercado también amenaza su calidad y desmantela la función investigativa en temas cruciales para el desarrollo, cuando estos no resultan económicamente rentables pero sí social y ambientalmente necesarios, haciéndolo sin importar que sobre ellos también descansa el proyecto de Nación.
El pecado de la Ley 30 considerado como un incentivo perverso tanto para las universidades como para el gobierno según el ministerio de Educación, no es otro que garantizar la educación superior como una institución pública de calidad en la que también se genera un conocimiento estratégico a través del Estado, ejercicio que la teoría económica considera desleal para los intereses del mercado. Pero en el contexto social, económico y ambiental del país, y de cara a la soberanía nacional, esto resulta grave: basta mirar las diferencias en el desempeño de las Instituciones de Educación Superior colombianas cuando las califican según su capacidad y producción investigativa, donde las universidades públicas obtienen en conjunto y de lejos las mayores calificaciones, en comparación con las privadas.
Y como punto de partida coherente con esa política de privatización de la educación pública, mientras el ministerio de educación se declara ahora complacido con el nuevo presupuesto de $160 mil millones asignado a la educación pública para el 2011, al examinar su estructura las directivas universitarias con toda razón encuentran insuficiente e inconveniente la partida correspondiente a los gastos de funcionamiento, ya que continúa congelada así el ministerio de hacienda la justifique con el argumento de que dichas instituciones pueden administrar mejor este dinero, desconociendo lo que se ha logrado en los últimos años. Preocupa también que otras partidas: $70 mil millones para un fondo del Icetex destinado a aumentar la oferta de cupos y $30 mil millones para la actividad investigativa que irán a Colciencias, sean recursos que se ejecutarán por la vía de la demanda.
Entre tanto, consientes de que la universidad pública colombiana está en peligro como consecuencia de una propuesta gubernamental que no favorece el cumplimiento de su misión y que la condena a no crecer en virtud de un presupuesto cuyos objetivos financieros desconocen sus logros y necesidades, quitándoselos para destinarlos a satisfacer la racionalidad del mercado que ha incursionado en el sector educativo, entonces de conformidad con lo que señala el Rector de la Universidad Nacional de Colombia, Profesor Moisés Wasserman las universidades estatales estudian una contrapropuesta estructural que contemple, entre otros aspectos y pensando en el interés de la Nación, el crecimiento de los cupos de las últimas décadas, la necesidad de construir infraestructura para brindar una oferta de calidad, la renovación tecnológica y el crecimiento cualitativo y cuantitativo de la planta profesoral.

Desde el OAM, Gonzalo Duque-Escobar

http://www.manizales.unal.edu.co/oam_manizales

__________________________________________________________

BIENVENIDA

Damos la bienvenida a personas y grupos que se inscribieron por medio del servidor automático de Yahoogroups.

Que disfruten y de nuestra Web oficial en http://www.rac.net.co y de las Circulares RAC en http://www.manizales.unal.edu.co/oam_manizales/circulares.htm

___________________________________________________________



La sonda Messenger ya está en Mercurio

http://www.akronoticias.com Saturday, March 19th, 2011

atmercury_tn.jpg

Por primera vez en la historia de la astronomía, una sonda ha entrado en la órbita del planeta Mercurio. La Messenger (acrónimo de la misión Mercury Surface, Space Environment, Geochemistry & Ranging), que partió hace más de seis años y medio y ha recorrido 7,9 millones de kilómetros para alcanzar su objetivo, estudiará durante doce meses el planeta más próximo al Sol. El próximo día 23 de marzo se pondrán en marcha sus instrumentos, y el 4 de abril comenzará su misión científica.


La sonda de la NASA dará una vuelta alrededor de Mercurio cada doce horas, y se ocupará de realizar estudios sobre la composición de la atmósfera y de la superficie del planeta. Los científicos esperan obtener información sobre el campo magnético y el núcleo de Mercurio, así como determinar si hay hielo en los cráteres de sus polos, que están de manera permanente en sombra.
Maniobras
Antes de lograr ponerse en órbita, la nave tuvo que hacer una difícil maniobra que empezó a las 20.45 del jueves (hora de la costa del este de EE.UU.) y concluyó 15 minutos más tarde. El motor más potente, de 660 newton, se encendió para desacelerar la velocidad de la nave y que pudiera ponerse en una órbita muy elíptica que irá desde los 200 kilómetros hasta los 15.000 kilómetros. Esta gran elipse es necesaria porque la temperatura en Mercurio, el planeta más cercano al Sol, es muy alta y, aunque Messenger tiene un escudo protector, conviene que se aleje para enfriarse y luego se acerque para continuar con la captura de datos. “Ahora es cuando empieza la misión”, ha dicho el científico jefe de Messenger, Sean Solomon, tras su entrada en órbita. “Estamos listos para aprenderlo todo sobre uno de nuestros vecinos más cercanos”.
Esta es la primera vez que una nave se coloca en la órbita de Mercurio, uno de los planetas que más ha costado investigar. Y no sólo porque se mueve mucho más rápido que La Tierra y una nave debe desplazarse a unos 104.607 kilómetros por hora para alcanzarlo, sino porque además debe enfrentarse al calor del Sol. Las temperaturas en este planeta superan los 1.000 ºC.
Tras alcanzar la órbita de Mercurio, a la NASA sólo le quedan dos planetas por orbitar, Urano y Neptuno, aunque ha hecho acercamientos a todos con distintas misiones.

__________________________________________________________



NOS ESCRIBEN

Nuevo portal de la Red de Astronomía de Colombia, RAC

rac.jpg

www.rac.net.co

Ahora la RAC ha diseñado su nuevo portal de Internet bajo el dominio: www.rac.net.co

Les invitamos a visitarlo. Destacamos la sección de miembros por ciudades de Colombia. Consulte el Directorio de Miembros RAC por ciudades.

También estamos en

Facebook: RAC, Red de Astronomía de Colombia

Twitter: @RedAstroCol.

Saludos cordiales

Germán Puerta

Presidente RAClogorac.png

Bogotá, Colombia

_____________________________________________________ BUEN DIA SR. GONZALO



Encuentro RAC 2011

Como es sabido por todos, del 12 al 15 de agosto de 2011 en la ciudad de Barrancabermeja (Santander) se realizará el XII Encuentro Nacional de Astronomía de la Red de Astronomía de Colombia - RAC, cuyo tema central es “La Astronomía y las Ciencias del Espacio en el Desarrollo y la Educación”. Contaremos con la presencia de importantes conferencistas y panelistas nacionales, y además dos internacionales; Pedro Russo, ex coordinador del IYA-2009 y actual Director del proyecto Universe Awareness y Eduardo Leyton de Chile.

Inscríbase en www.carlsaganbarranca.org

Más información en rac2011barranca@gmail.com

Cordialmente;

Ronals Chinchilla Vélez

Vicepresidente de la Red de Astronomía de Colombia-RAC, 2010-2012


Celular 311 70 95 990/ E-mail: ronalsc@yahoo.com.mx/ rac2011barranca@gmail.com

Barrancabermeja (Colombia)



_____________________________________________________

Conferencia de Daniel Arbeláez*

Los pasatiempos matemáticos de Martin Gardner”

Martin Gardner, nacido en 1914 y muerto en 2010, estudió Filosofía y después se dedicó al periodismo. Durante 30 años (1956-1986) escribió mensualmente la columna Juegos matemáticos en la Revista Scientific American. Trató los temas más importantes y paradojas de las matemáticas modernas. También escribió una columna en la revista Skeptical Inquirer con objetivo de poner en evidencia los fraudes científicos.

Martes 22 de Marzo de 2011 - 6:30 PM

Biblioteca Departamental, Calle 5 # 24 A 91. Cali, Colombia

* Profesor U el V

¡Entrada libre!

Asociación de Astrónomos Aficionados ASAFI

asaficali@gmail.com

_____________________________________________________

El LHC podría convertirse en la primera máquina del tiempo

http://www.europapress.es (Europa Press) - Madrid, 16 Mar.

Permitiría enviar mensajes al pasado o al futuro

foto de la noticia

Foto: JULIAN HERZOG/WIKIMEDIA COMMONS

   Si la última teoría de Tom Weiler y Chui Ho Man es acertada, el Gran Colisionador de Hadrones (LHC)- el mayor acelerador de partículas del mundo, que inició su operación regular del año pasado - podría ser la primera máquina capaz de producir la materia precisa para viajar en el tiempo.

   "Nuestra teoría es una posibilidad muy remota", admitió Weiler, que es profesor de Física en la Universidad de Vanderbilt, "pero no viola las leyes de la física o las limitaciones experimentales".

   Uno de los objetivos principales del colisionador es encontrar el esquivo bosón de Higgs: las partículas que los físicos invocan para explicar por qué las partículas como los protones, neutrones y electrones tienen masa. Si el colisionador tiene éxito en la producción del bosón de Higgs, algunos científicos predicen que se creará una segunda partícula, llamado el singlete de Higgs, al mismo tiempo.

   Según la teoría de Weiler y Ho, estos singletes deben tener la capacidad de saltar a una quinta dimensión extra, en la que se puede mover hacia delante o hacia atrás en el tiempo y volver a aparecer en el futuro o pasado, informa la Universidad de Vanderbilt.

   "Uno de los atractivos de este enfoque para viajar en el tiempo es que evita todas las grandes paradojas", dijo Weiler. "Debido a que el tiempo del viaje se limita a estas partículas especiales, no es posible que un hombre viaje en el tiempo para asesinar a sus padres antes de que nazca, por ejemplo. Sin embargo, si los científicos pudieran controlar la producción de singletes de Higgs, podrían ser capaces de enviar mensajes al pasado o al futuro".

   La prueba de la teoría de los investigadores se producirá si los físicos que manejan el seguimiento del Colisionador comienzan a ver partículas de singletes de Higgs y aparecen productos de desintegración espontánea. Si lo hacen, Weiler y Ho creen que habrán sido producidos por las partículas que viajan en el tiempo para comparecer ante las colisiones que los produjo.

   La teoría de Weiler y Ho se basa en la teoría M, una "teoría del todo". Un pequeño grupo de físicos teóricos ha desarrollado la teoría-M hasta el punto de que puede adaptarse a las propiedades de todas las partículas subatómicas y las fuerzas conocidas, entre ellas el peso, pero requiere de diez u once dimensiones en lugar de nuestras cuatro. Esto ha llevado a sugerir que nuestro universo puede ser como una membrana de cuatro dimensiones flotando en un espacio multi-dimensional.

   De acuerdo con este punto de vista, los elementos básicos de nuestro universo están permanentemente adheridos a la membrana y por lo tanto no puede viajar en otras dimensiones. Hay algunas excepciones, sin embargo. Algunos argumentan que la gravedad, por ejemplo, es más débil que otras fuerzas fundamentales, ya que se difunde en otras dimensiones. Otra excepción posible es la propuesta del singlete de Higgs, que responde a la gravedad, pero no a cualquiera de las fuerzas básicas.

___________________________________________________________



Super Luna llena

http://ciencia.nasa.gov/ Marzo 16, 2011:
Anote en su calendario. Este 19 de marzo, una Luna llena de tamaño y belleza descomunales se levantará en dirección al Este durante el atardecer.
"La última Luna llena tan grande y cercana a la Tierra se produjo en marzo de 1993", dice Geoff Chester, quien trabaja en el Observatorio Naval de Estados Unidos, en Washington DC. "Diría que vale la pena echarle un vistazo".

El tamaño de una Luna llena varía debido a la forma ovalada de la órbita lunar. Es una elipse que tiene uno de sus extremos (el perigeo) alrededor de 50.000 kilómetros más cerca de la Tierra que el otro (el apogeo). Diagrama: http://www.sidewalkastronomer.com/spanish/headlines/y2011/images/supermoon/diagram_spanish.gif

Cuando está cerca del perigeo, la Luna se ve alrededor de un 14% más grande y un 30% más brillante que cuando se encuentra en su apogeo, al otro lado de su órbita.

super full moon (movie strip, 550px)

Cuando se encuentra en su perigeo, la Luna puede verse hasta un 14% más ancha y un 30% más brillante que en otras ocasiones. Video: http://www.youtube.com/watch?v=r1yalg_Apdw

"La Luna llena del 19 de marzo ocurrirá a menos de una hora del perigeo; una coincidencia tan cercana a la perfección se produce sólo cada 18 años aproximadamente", comenta Chester.

Una Luna llena de perigeo trae consigo "mareas del perigeo" más altas de lo normal, aunque esto no debe ser causa de preocupación, según la NOAA (National Oceanic and Atmospheric Administration o Administración Nacional Océanica y Atmosférica, en idioma español). En la mayoría de los lugares, la gravedad causada por la Luna en su perigeo hace que el agua de las mareas se levante unos pocos centímetros (alrededor de una pulgada) más alto de lo normal. La geografía local puede amplificar el efecto hasta alrededor de quince centímetros (seis pulgadas), lo que no constituye exactamente una gran inundación.

Y, contrariamente a lo que puedan alegar informes que circulan por Internet, el hecho de que la Luna esté en su perigeo no causa desastres naturales. La "super Luna" de marzo de 1983, por ejemplo, tuvo lugar sin que se produjera ningún incidente. Y una casi super Luna, en diciembre de 2008, resultó también inofensiva.

super full moon (moon illusion, 200px)

La Luna aparenta ser extra–grande cuando brilla en proximidad de objetos en primer plano, lo cual se conoce como "ilusión lunar".

Pues bien, la Luna será un 14% más grande de lo usual, pero ¿es posible darse cuenta de la diferencia? Es difícil. No hay reglas de medición flotando en el cielo para ayudarnos a medir el diámetro lunar. Cuando la Luna llena esté alta en el cielo, sobre nuestras cabezas, donde no haya puntos de referencia que nos den sentido de escala, podría parecernos que no es muy distinta de las demás.

El mejor momento para observarla es cuando la Luna esté cerca del horizonte. Ahí es cuando la ilusión se mezcla con la realidad para producir una vista realmente impresionante. Por razones que los astrónomos y psicólogos no entienden aún completamente, la Luna baja en el horizonte, avistada entre los árboles, los edificios y otros objetos en primer plano, parece ser mucho más grande de lo normal. Este 19 de marzo, ¿por qué no dejar que esta "ilusión lunar" amplifique una Luna que de por sí es extra–grande? La hinchada orbe que se levantará hacia el Este, al atardecer, parecerá tan cercana que usted pensará que casi puede tocarla.

Pero no tiene sentido que lo intente. Incluso en su perigeo, la Luna se encuentra todavía a 356.577 kilómetros de distancia. Esa es, al parecer, una distancia que corresponde a una extraña belleza.

Consulte ScienceCast, de esta historia, en YouTube en: http://www.youtube.com/watch?v=r1yalg_Apdw (en idioma inglés).



Créditos y Contactos

Autor: Dr. Tony Phillips


Funcionaria Responsable de NASA: Ruth Netting
Editor de Producción: Dr. Tony Phillips

Traducción al Español: Juan C. Toledo


Editora en Español: Angela Atadía de Borghetti
Formato: Juan C. Toledo

Más información



1Nota al pie: La Luna llena que no coincide tan perfectamente con el perigeo ocurre con mayor frecuencia. En 2008, por ejemplo, hubo una Luna llena a sólo cuatro horas del perigeo. A muchos observadores les pareció impresionante, de manera que la Luna llena de 2011, que tendrá lugar a solamente una hora del perigeo, sin duda agradará mucho al público.

Herramienta para calcular el perigeo y el apogeo lunar —(en idioma inglés).

¿Qué son las "Mareas Primaverales de Perigeo"? ¿Causan inundaciones costeras? —explicación proporcionada por la NOAA (en idioma inglés).

___________________________________________________________



¿Energía nuclear?

Elespectador.com / Opinión | Por: José Fernando Isaza/ 16 Mar 2011

josé fernando isaza

LA POLÍTICA DE GENERAR UN porcentaje de electricidad con plantas nucleares va a modificarse después del riesgo de explosión de los núcleos de los reactores de la central de Fukushima, en Japón.

La construcción de estas centrales ha estado acompañada de una fuerte oposición, por los riesgos que conlleva.



A lo anterior se agrega la presión de los países pertenecientes al “club de la bomba atómica” para oponerse a que países que no son de su órbita de influencia desarrollen plantas nucleares. La razón es sencilla: el residuo del combustible atómico, sea plutonio o uranio enriquecido, es materia prima para la fabricación de explosivos atómicos. Las características de una bomba nuclear no son hoy un secreto, como tampoco lo es el cálculo de masa crítica. El explosivo que genera la explosión de fisión, y desencadena la fusión, se conseguía comercialmente. En una tesis, un estudiante de física de Berkeley publicó la “receta” de la bomba atómica. Existe un mercado negro de plutonio, que permite construir una bomba “sucia”. Por ejemplo, hace poco un compatriota fue detenido en Alemania con un maletín lleno de este material radiactivo.

En el momento de escribir estas notas, parece que se ha logrado evitar la fusión de los núcleos de la central Fukushima, alejándose el riesgo de explosión de la carcasa que aísla el reactor del ambiente.

Los tres peores accidentes nucleares han sido Three Miles Island, en USA, cerca de Hanisborng, el 28 de marzo de 1979. En escala de 1 a 7 fue catalogado como nivel 5.

Chernobil, en Ucrania, el 26 de abril de 1986, cuando explotó la cápsula de concreto, emitiendo 500 veces más radiación que la bomba atómica de Hiroshima. El nivel del accidente fue 7. Hasta ahora, Fukushima tiene nivel entre 6 y 7.

Luego de Chernobil y Three Miles Island, se produjo una casi moratoria de nuevas centrales nucleares. A partir de 1990 las mayores evidencias sobre el efecto del aumento del nivel de anhídrido carbónico (CO2) en el calentamiento atmosférico, le dieron un nuevo aire a la industria nuclear. La generación termoeléctrica con combustibles fósiles, contribuye en cerca de una cuarta parte de las emisiones de CO2. Las plantas nucleares no emiten gas de invernadero. La oposición ambiental a la construcción de centrales nucleares se redujo. Respetables ecologistas, como Amory Lovins, se declararon en pro de la generación nuclear, al considerar que los riesgos de ésta son inferiores a los daños que causan los gases de invernadero emitidos por las centrales térmicas convencionales. La situación está cambiando. A pesar de las medidas de seguridad de las plantas japonesas, el riesgo de radiación por los embates de la naturaleza es real.

Para los productores de combustibles tradicionales, como Colombia, esta nueva realidad favorece, pues valoriza el recurso. Se oyen voces que afirman que los daños causados por radiación, pueden ser menores que los de alcance planetario por el calentamiento atmosférico. En término de vidas perdidas por hora pueden tener razón. Pero piénsese en el siguiente escenario: si a los habitantes de una ciudad de 6 millones se les pide sacrificar una hora de su vida para evitar la muerte de 10 personas, con seguridad lo aceptarían, y sin embargo, esas horas “perdidas” son mayores que las “salvadas” en las 10 personas.

* Rector Universidad Jorge Tadeo Lozano.

 

___________________________________________________________



Más datos sobre la época en que las primeras estrellas del Universo comenzaron a brillar


http://www.amazings.com/ 18 de Febrero de 2011.

Después de la creación del universo por el Big Bang hace 13.000 millones de años, el cosmos quedó sumido en la oscuridad. No había ni estrellas ni galaxias. Sólo existía el gas (mayormente hidrógeno) que quedó después del Big Bang. Con el tiempo, esa época llegó a su fin. Eso ocurrió cuando las primeras estrellas se encendieron y su radiación convirtió en iones a los átomos de gas de las cercanías. Un experimento llevado a cabo recientemente ha permitido desvelar algunos detalles de esa época fascinante del universo, la de cuando se hizo la luz.

Esa fase de la historia del universo en que las primeras estrellas comenzaron a funcionar como tales y a emitir su resplandor, se llama la Época de la Reionización, y está íntimamente ligada a muchas cuestiones fundamentales de la cosmología. Pero mirar hacia tan atrás en el tiempo presenta numerosos desafíos observacionales. foto: judd bowman/arizona state university

Judd Bowman, de la Universidad Estatal de Arizona, y Alan Rogers, de Instituto de Tecnología de Massachusetts, han llevado a cabo un experimento diseñado para detectar una señal, nunca antes vista, de esa época arcaica de la reionización del universo. La señal está presente en las ondas de radio emitidas por el hidrógeno que existió entre las primeras galaxias. Algunas de esas ondas de radio están llegando a la Tierra hoy en día, y ciertas características de las ondas pueden aportar datos decisivos sobre la Época de la Reionización.

A medida que se formaron las galaxias, ionizaron el hidrógeno primordial alrededor de ellas y causaron que esa señal de radio característica y casi omnipresente del hidrógeno desapareciera. Por lo tanto, verificando si la línea estaba presente o no en ciertas épocas (lo que se logra observando a las distancias correspondientes en años-luz), los astrónomos pueden obtener indirectamente datos acerca de las primeras galaxias y cómo evolucionaron en el universo temprano.

Los primeros resultados obtenidos por Bowman y Rogers indican que el gas no ionizado tardó al menos 5 millones de años en ionizarse.



Información adicional en:

  • MIT

___________________________________________________________

¿EL SOL ES CULPABLE DEL DESASTRE EN JAPÓN?

http://actualidad.rt.com Cosmos | 17 mar 2011 | 21:28 MSK

¿el sol es culpable del desastre en japón?

Imagen: NASA

Una potente erupción solar que se produjo el 9 de marzo no pudo haber sido la causa directa del terremoto en Japón. Así opina el jefe del Departamento de Física del Sol del Observatorio astronómico de Púlkovo (provincia de Leningrado), Yuri Nagovitsyn. Ver en: http://actualidad.rt.com/ciencia_y_tecnica/cosmos/issue_20629.html

El terremoto de 9 grados en la escala Richter se produjo cerca de la costa noreste de Japón el 11 de marzo. El posterior tsunami causado por la sacudida alcanzó 10 metros de altura en varias regiones. La cantidad de muertos y desaparecidos, según la información oficial, superó ya las 15.000 personas. Ver en: http://actualidad.rt.com/tag/747

Según explicó el científico, la meteorología del espacio ejerce cierta influencia indirecta en los procesos de la Tierra. Sin embargo, la erupción que se produjo en el Sol el 9 de marzo y alcanzó a la Tierra en de dos días no superó los límites. Nagovitsyn agregó que durante el último ciclo de actividad solar, que dura desde hace 11 años, fueran registradas unas 130 erupciones solares de una potencia similar.

El especialista también dijo que normalmente la reacción del campo magnético de la Tierra a la actividad solar casi no se nota. Así, pueden producirse leves interferencias en las radiocomunicaciones, en los sistemas de navegación de navíos y aviones o en los satélites orbitales, sin embargo, no se produce un fallo total de los equipos técnicos sino que solo se trata de interferencias particulares. Asimismo, algunas personas que padecen enfermedades crónicas o graves pueden sentirse peor, porque la perturbación geomagnética obstaculiza la permeabilidad capilar.

A su vez, su colega del observatorio de Púlkovo, Alexánder Soloviov, agregó que la actividad solar a menudo se usa para varias especulaciones e “invenciones extraordinarias” que carecen de cualquier base científica.

Así, el científico refutó las suposiciones de que el Sol se pueda estallar en 2012, que su temperatura va subiendo y las erupciones solares pronto extinguirían todo lo vivo en la Tierra. “Es un absurdo, el Sol es un astro muy estable”, subrayó, y explicó que las perturbaciones de la superficie solar no habrían podido mover la corteza terrestre bajo el territorio japonés.

Según el experto, los fenómenos que se producen en el espacio y en la Tierra tienen vínculos tan complejos que los científicos todavía no pueden decir con seguridad qué relación tienen los movimientos de la corteza terrestre con las condiciones meteorológicas locales, las condiciones en el espacio cercano y decenas de otros factores.

___________________________________________________________

USACH EJECUTARÁ ESTUDIOS DE MODELOS SOBRE LA EXPANSIÓN ACELERADA DEL UNIVERSO
http://noticias.123.cl 18/Marzo/2011 - 15:20
usach_espacio.jpg

Imagen en: http://blog.postgrado.usach.cl




El académico del Departamento de Física de la Facultad de Ciencia de la Universidad de Santiago, doctor Norman Cruz, se adjudicó a inicios de 2011 un proyecto Fondecyt denominado Energía oscura y evolución fantasma, en el cual buscará averiguar la naturaleza de la energía oscura.

La investigación se centrará en modelar la evolución del cosmos. Dentro de los antecedentes que ya se manejan está el dato de que la energía oscura interactúa con la materia oscura, que es otro de los grandes componentes del universo presente en las galaxias y que se caracteriza por ser una materia que no se ve y que tampoco se sabe -exactamente- qué partículas la componen.

Asimismo, la llamada evolución fantasma a la que hace referencia el proyecto es un término, consistente con la observación, con el que se bautizó a una posible expansión del universo cuando se descubrió (a inicios del 2000), que la energía oscura podría tener un comportamiento particular.

El investigador detalló que, a medida que el universo se expande, la densidad de esa energía oscura podría crecer. Es un asunto extraño, porque si algo se expande la densidad tiende a disminuir, pero en esta energía oscura su densidad podría crecer. Eso hace que exista la probabilidad teórica de que el universo se expanda cada vez más rápido, y en algún momento esta expansión podría ser tan rápida que simplemente todo el universo se va a disgregar. Va a haber una especie de explosión infinita y todos vamos a quedar separados de todos, el universo completo, incluyendo las estructuras más elementales.

Cruz precisó que el objetivo del proyecto es lograr construir un modelo que permita recrear una expansión acelerada del universo; porque eso es lo que se observa hoy en día: una expansión que es acelerada por algún mecanismo, pero que en algún momento va a detenerse y, mejor todavía, tal vez no dé lugar a ninguna expansión de tipo explosiva.
upi/so - Texto Agencia UPI.
___________________________________________________________

EL TERREMOTO EN JAPÓN ACELERÓ LA ROTACIÓN DE LA TIERRA Y ACORTÓ EL DÍA

http://actualidad.rt.com Cosmos | 15 mar 2011 | 19:22 MSK

el terremoto en japón aceleró la rotación de la tierra y acortó el día

Imagen: RT

El terremoto del 11 de marzo en Japón, de 9 grados de magnitud, hizo que nuestro planeta gire con mayor rapidez acortando ligeramente la duración del día. Ver en: http://actualidad.rt.com/actualidad/internacional/issue_21578.html

"Al cambiar la distribución de la masa de la Tierra, el terremoto de Japón causó que la Tierra girara un poco más rápido", explicó el geofísico de la NASA Richard Gross.

Según los investigadores, este “un poco más” en términos matemáticos sería de 1,8 microsegundos, siendo un microsegundo la millonésima parte de un segundo.

Sin embargo, según el investigador, “la velocidad de rotación de la Tierra cambia permanentemente, no sólo por efecto de los movimientos telúricos. Un efecto mayor lo causan los vientos atmosféricos y las orientes oceánicas”, comentó Gross.

Además, el reciente devastador golpe asestado a Japón no ha sido el único que aceleró la rotación del planeta.

En febrero de 2010, el terremoto de 8,8 grados de magnitud en Chile también acortó el día: lo hizo en 1,26 microsegundos. El terremoto de 9,1 grados de Sumatra en 2004 lo acortó aún más: 6,8 microsegundos.

___________________________________________________________

EL PLUTONIO, RADIACTIVO Y DE PROPIEDADES INSÓLITAS

http://noticiasdelaciencia.com Física/ Viernes, 18 marzo 2011

plutonio-radiactivo.jpg

Lingote de plutonio con un poco de galio, procedente de un arma nuclear. Foto: Lawrence Livermore National Laboratory.

La presencia en el reactor 3 de la central nuclear de Fukushima Daiichi de cantidades importantes de plutonio pone de actualidad a ese elemento. Pero sobre el plutonio no suele circular mucha información, y de hecho su existencia se mantuvo en secreto durante algunos años debido a su utilidad estratégica para armamento nuclear. 


Muchos científicos consideran al plutonio el elemento más desconcertante de los que tienen un uso práctico. Es capaz de combinarse con casi cualquier otro elemento existente para formar compuestos, complejos o aleaciones, y establece hasta 12 enlaces químicos con moléculas en una disolución, algo que, hasta donde se sabe, ningún otro elemento puede hacer. 
El plutonio de origen natural es escasísimo, y la práctica totalidad del que hay en la actualidad tiene un origen artificial. Se consiguió sintetizarlo por vez primera en la Segunda Guerra Mundial, mediante un ciclotrón de la Universidad de California en Berkeley, aunque el logro no se dio a conocer hasta después del fin de la guerra, ya que se trataba de un secreto militar estratégico. El plutonio fue usado en la bomba atómica detonada en la ciudad japonesa de Nagasaki. Aún hoy se realizan estudios sobre los efectos a largo plazo del plutonio allí. 
Desde que comenzó a ser sintetizado, en el mundo se han producido nada menos que unas 1.500 toneladas de este raro metal, el elemento 94 de la tabla periódica. Se ha usado mucho para armamento nuclear, aunque también sirve como combustible de central nuclear. Sus radioisótopos conocidos son una veintena. Los isótopos más estables son el plutonio-244, con un periodo de semidesintegración de 80,8 millones de años, el plutonio-242, con un periodo de semidesintegración de 373.300 años, y el plutonio-239 (el isótopo de mayor interés), con un periodo de semidesintegración de 24.110 años. 
El plutonio-239 pasa por seis transformaciones de fase de estado sólido, más que cualquier otro elemento conocido. Registra grandes cambios de volumen y densidad conforme pasa a través de esas seis fases hacia su estado líquido, el cual alcanza a los 640 grados centígrados. Bajo presión, exhibe una séptima fase.
El plutonio es el metal más complejo, y se comporta de un modo distinto al de cualquier otro elemento en la naturaleza. Su estructura cristalina es irregular, y su núcleo es inestable, lo que produce que el metal se vaya desintegrando espontáneamente con el transcurso del tiempo, dañándose la retícula metálica circundante.
Aparte de por su peligrosidad, trabajar con plutonio resultó muy difícil al principio. Los primeros lotes del metal eran demasiado quebradizos para soportar procesos convencionales de maquinado. Para hacer maquinable al metal, era necesario lograr que a temperatura ambiente el plutonio retuviera la estructura cúbica de alta simetría lograda a elevadas temperaturas. Los científicos del Proyecto Manhattan (nombre en clave del programa estadounidense de investigación y desarrollo tendente a fabricar la bomba atómica en la Segunda Guerra Mundial),  consiguieron esto agregando una pequeña cantidad de galio. 
En el plutonio puro, los enlaces entre los átomos de plutonio son muy irregulares, haciendo que el metal tenga una alta propensión a adoptar estructuras de baja simetría. Sin embargo, cuando un átomo de galio se coloca en la red cristalina del plutonio, eso hace que los enlaces sean más uniformes, con el resultado de una estructura cúbica de alta simetría. El galio allana y nivela los enlaces del plutonio. Agregar galio estabiliza la estructura cúbica y hace apto al plutonio para el maquinado a temperatura ambiente.
El plutonio es muy persistente como contaminante del medio ambiente. Es capaz de extenderse en las aguas subterráneas más allá de lo que hasta hace pocos años se creía posible. Según los resultados de una línea de investigación llevada a cabo en años recientes, una razón de que ese aspecto de su conducta haya resultado imprevisible durante medio siglo es que el plutonio puede adoptar una configuración en racimos de dimensiones nanométricas de óxido de plutonio. Cuando el plutonio forma racimos, su química es muy diferente. Los nanorracimos están formados por 38 átomos de plutonio y no tienen apenas carga. A diferencia de los iones comunes de plutonio que tienen una carga positiva, no son atraídos por los electrones de vegetales, minerales y otros cuerpos que detienen la progresión de los iones en las aguas subterráneas. Los racimos también son un problema para las técnicas destinadas a limpiar los lugares que han sido contaminados por el plutonio. Los iones libres son relativamente fáciles de separar de las aguas subterráneas, pero los racimos son difíciles de retirar.
Debido en parte a su radiactividad, el plutonio "envejece" químicamente a un ritmo bastante rápido, hasta el punto de que llegó a temerse que, por sus alteraciones, dejase deteriorados a los misiles nucleares mucho antes de que estos, como máquinas, alcanzasen su "fecha de caducidad" que les hiciera ser retirados del servicio y desmantelados.

 ___________________________________________________________



LA ESCUELA

Plantas de Energía Nuclear POR FiSIÓN

Generación de electricidad


Artículo principal: Central nuclear, en: http://es.wikipedia.org/wiki/Central_nuclear

Probablemente, la aplicación práctica más conocida de la energía nuclear es la generación de energía eléctrica para su uso civil, en particular mediante la fisión de uranio enriquecido. Para ello se utilizan reactores en los que se hace fisionar o fusionar un combustible. El funcionamiento básico de este tipo de instalaciones industriales es similar a cualquier otra central térmica, sin embargo poseen características especiales con respecto a las que usan combustibles fósiles:



  • Se necesitan medidas de seguridad y control mucho más estrictas. En el caso de los reactores de cuarta generación estas medidas podrían ser menores,[19] mientras que en la fusión se espera que no sean necesarias.[20]

  • La cantidad de combustible necesario anualmente en estas instalaciones es varios órdenes de magnitud inferior al que precisan las térmicas convencionales.

  • Las emisiones directas de C02 y NOx en la generación de electricidad, principales gases de efecto invernadero de origen antrópico, son nulas; aunque indirectamente, en procesos secundarios como la obtención de mineral y construcción de instalaciones, sí se producen emisiones.[21]

A partir de la fisión


Tras su uso exclusivamente militar, se comenzó a plantear la aplicación del conocimiento adquirido a la vida civil. El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un reactor nuclear (en el reactor estadounidense EBR-I, con una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central nuclear soviética Obninsk, generando 5 MW con solo un 17% de rendimiento térmico). El primer reactor de fisión comercial fue el Calder Hall en Sellafield, que se conectó a la red eléctrica en 1956. El 25 de marzo de 1957 se creó la Comunidad Europea de la Energía Atómica (EURATOM), el mismo día que se creó la Comunidad Económica Europea, entre Bélgica, Francia, Alemania, Italia, Luxemburgo y los Países Bajos. Ese mismo año se creó el Organismo Internacional de Energía Atómica (OIEA). Ambos organismos con la misión, entre otras, de impulsar el uso pacífico de la energía nuclear.

Su desarrollo en todo el mundo experimentó a partir de ese momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la generación eléctrica era muy marcada (39 y 73% respectivamente en aquellos años, en 2008 generan un 78 y un 30% respectivamente mediante reactores de fisión. En 1979 el accidente de Three Mile Island provocó un aumento muy considerable en las medidas de control y de seguridad en las centrales, sin embargo no se detuvo el aumento de capacidad instalada. Pero en 1986 el accidente de Chernóbil, en un reactor RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en occidente, acabó radicalmente con ese crecimiento.

En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7 millones de MWh en 2006. La potencia instalada en 2007 fue de 370.721 MWe. En marzo de 2008 había 35 centrales en construcción, planes para construir 91 centrales nuevas (99.095 MWe) y otras 228 propuestas (198.995 MWe).[22] Aunque solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15% de la energía eléctrica generada en el mundo se produce a partir de energía nuclear.[23]

La mayoría de los reactores son de los llamados de agua ligera (LWR por su sigla en inglés), que utilizan como moderador agua intensamente purificada. En estos reactores el combustible utilizado es uranio enriquecido ligeramente (entre el 3 y el 5%).

Más tarde se planteó añadir el plutonio fisible generado ({}_{94}^{239}pu) como combustible extra en estos reactores de fisión, aumentando de una forma importante la eficiencia del combustible nuclear y reduciendo así uno de los problemas del combustible gastado. Esta posibilidad incluso llevó al uso del plutonio procedente del armamento nuclear desmantelado en las principales potencias mundiales. Así se desarrolló el combustible MOX, en el que se añade un porcentaje (entre un 3 y un 10% en masa) de este plutonio a uranio empobrecido. Este combustible se usa actualmente como un porcentaje del combustible convencional (de uranio enriquecido). También se ha ensayado en algunos reactores un combustible mezcla de torio y plutonio, que genera una menor cantidad de elementos transuránicos.

Otros reactores utilizan agua pesada como moderador. En estos reactores se puede utilizar uranio natural, es decir, sin enriquecer y además se produce una cantidad bastante elevada de tritio por activación neutrónica. Este tritio se prevé que pueda aprovecharse en futuras plantas de fusión.

Otros proyectos de fisión, que no han superado hoy en día la fase de experimentación, se encaminan al diseño de reactores en los que pueda generarse electricidad a partir de otros isótopos, principalmente el {}_{90}^{232}thy el {}_{92}^{238}u.

Tipos de reactores

La diferencia básica entre los distintos diseños de reactores nucleares de fisión es el combustible que utilizan. Esto influye en el tipo de moderador y refrigerante usados. De entre todas las posibles combinaciones entre tipo de combustible, moderador y refrigerante, solo algunas son viables técnicamente (unas 100 contando las opciones de neutrones rápidos). Pero solo unas cuantas se han utilizado hasta el momento en reactores de uso comercial para la generación de electricidad (ver tabla).

El único isótopo natural que es fisionable con neutrones térmicos es el {}_{92}^{235}u, que se encuentra en una proporción de un 0.7% en peso en el uranio natural. El resto es {}_{92}^{238}u, considerado fértil, ya que, aunque puede fisionar con neutrones rápidos, por activación con neutrones se convierte en {}_{94}^{239}pu, que sí es físil mediante neutrones térmicos.

Los reactores de fisión comerciales, tanto de primera como de segunda o tercera generación, utilizan uranio con grados de enriquecimiento distinto, desde uranio natural hasta uranio ligeramente enriquecido (por debajo del 6%). Además, en aquellos en los que se usa uranio enriquecido, la configuración del núcleo del reactor utiliza diferentes grados de enriquecimiento, con uranio más enriquecido en el centro y menos hacia el exterior. Esta configuración consigue dos fines: por una parte disminuir los neutrones de fuga por reflexión, y por otra parte aumentar la cantidad de {}_{94}^{239}puconsumible. En los reactores comerciales se hacen fisionar esos átomos fisibles con neutrones térmicos hasta el máximo posible (al grado de quemado del combustible se le denomina burnup), ya que se obtienen mayores beneficios cuanto más provecho se saca del combustible.

Otro isótopo considerado fértil con neutrones térmicos es el torio (elemento natural, compuesto en su mayoría por el isótopo {}_{90}^{232}th), que por activación produce {}_{92}^{233}u, físil con neutrones térmicos y rápidos (es regla general que aquellos elementos con número atómico A impar sean fisibles, y con A par fértiles).

Esos tres isótopos son los que producen fisiones exoergicas, es decir, generan más energía que la necesaria para producirlas, con neutrones térmicos. Los demás elementos (con z<92) solo fisionan con neutrones rápidos. Así el {}_{92}^{238}upor ejemplo puede fisionarse con neutrones de energías superiores a 1,1 MeV.

Aunque hay varias formas de clasificar los distintos reactores nucleares, la más utilizada, y con la que se denominan los distintos tipos de reactores de fisión es por la combinación moderador/refrigerante utilizado. Estas son las denominaciones de los reactores comerciales de neutrones térmicos utilizados en la actualidad (de segunda generación), junto a su número en el mundo (entre paréntesis)[27] y sus características principales:


  • PWR (VVER en ruso). (264). Uranio enriquecido, moderador y refrigerante agua ligera.

  • BWR. (94). Uranio enriquecido, moderador y refrigerante agua ligera.

  • CANDU. (43). Uranio natural, moderador y refrigerante agua pesada.

  • AGR. (18). Usa uranio enriquecido como combustible, moderador grafito, refrigerante CO2.

  • RBMK. (12). Uranio natural o enriquecido, moderador grafito, refrigerante agua ligera.

  • Otros. 4 reactores rusos que usan uranio enriquecido, moderador grafito y refrigerante agua ligera.

Los diseños de reactores que utilizan neutrones rápidos, y por tanto pueden utilizar como combustible {}_{92}^{238}u, {}_{94}^{239}puo {}_{90}^{232}thentre otros, no necesitan moderador para funcionar. Por ese motivo es difícil utilizar los mismos materiales que se usan en los térmicos como refrigerantes, ya que en muchas ocasiones también actúan como moderador. Todos los reactores de este tipo hasta el momento han utilizado como refrigerante metales líquidos (mercurio, plutonio, yoduro potásico, plomo, bismuto, sodio...). Cuando estos reactores además consiguen producir más cantidad de material físil que el que consumen se les denomina reactores reproductores rápidos. En la actualidad existen 4 FBR, 3 en parada fría y solo uno en operación comercial.[27]

Los diseños de reactores que aprovechan las lecciones aprendidas en el medio siglo transcurrido (aproximadamente una docena de diseños distintos) se denominan de tercera generación o reactores avanzados. Solo se han puesto en marcha algunos en Japón y se están construyendo algunos otros. En general son evoluciones de los reactores de segunda generación (como el BWR avanzado o ABWR o el PWR avanzado: el EPR o el AP1000), aunque existen algunos diseños completamente nuevos (como el PBMR que utiliza helio como refrigerante y combustible TRISO que contiene el moderador de grafito en su composición).

Los reactores de cuarta generación no saldrán del papel al menos hasta el 2020, y en general son diseños que buscan, además de niveles de seguridad superiores a las plantas de fisión de las generaciones anteriores, que los únicos residuos de alta actividad tengan vidas muy cortas, quemando los actínidos de vida larga. A este grupo pertenecen por ejemplo los reactores asistidos por acelerador (ADS). En general estos reactores se basarán en neutrones rápidos.

Existen algunos otros diseños, basados fundamentalmente en los descritos, para generar energía en lugares remotos, como el reactor flotante ruso KLT-40S o el microrreactor nuclear de 200 kW de Toshiba.[28]



Seguridad [29][30]

Como cualquier actividad humana, una central nuclear de fisión conlleva riesgos y beneficios. Los riesgos deben preverse y analizarse para poder ser mitigados. A todos aquellos sistemas diseñados para eliminar o al menos minimizar esos riesgos se les llama sistemas de protección y control. En una central nuclear de uso civil se utiliza una aproximación llamada defensa en profundidad. Esta aproximación sigue un diseño de múltiples barreras para alcanzar ese propósito. Una primera aproximación a las distintas barreras utilizadas (cada una de ellas múltiple), de fuera adentro podría ser:



  1. Autoridad reguladora: es el organismo encargado de velar que el resto de barreras se encuentren en perfecto funcionamiento. No debe estar vinculado a intereses políticos ni empresariales, siendo sus decisiones vinculantes.

  2. Normas y procedimientos: todas las actuaciones deben regirse por procedimientos y normas escritas. Además se debe llevar a cabo un control de calidad y deben estar supervisadas por la autoridad reguladora.

  3. Primera barrera física (sistemas pasivos): sistemas de protección intrínsecos basados en las leyes de la física que dificultan la aparición de fallos en el sistema del reactor. Por ejemplo el uso de sistemas diseñados con reactividad negativa o el uso de edificios de contención.

  4. Segunda barrera física (sistemas activos): Reducción de la frecuencia con la que pueden suceder los fallos. Se basa en la redundancia, separación o diversidad de sistemas de seguridad destinados a un mismo fin. Por ejemplo las válvulas de control que sellan los circuitos.

  5. Tercera barrera física: sistemas que minimizan los efectos debidos a sucesos externos a la propia central. Como los amortiguadores que impiden una ruptura en caso de sismo.

  6. Barrera técnica: todas las instalaciones se instalan en ubicaciones consideradas muy seguras (baja probabilidad de sismo o vulcanismo) y altamente despobladas.

Además debe estar previsto qué hacer en caso de que todos o varios de esos niveles fallaran por cualquier circunstancia. Todos, los trabajadores u otras personas que vivan en las cercanías, deben poseer la información y formación necesaria. Deben existir planes de emergencia que estén plenamente operativos. Para ello es necesario que sean periódicamente probados mediante simulacros. Cada central nuclear posee dos planes de emergencia: uno interior y uno exterior, comprendiendo el plan de emergencia exterior, entre otras medidas, planes de evacuación de la población cercana por si todo lo demás fallara.

Aunque los niveles de seguridad de los reactores de tercera generación han aumentado considerablemente con respecto a las generaciones anteriores, no es esperable que varíe la estrategia de defensa en profundidad. Por su parte, los diseños de los futuros reactores de cuarta generación se están centrando en que todas las barreras de seguridad sean infalibles, basándose tanto como sea posible en sistemas pasivos y minimizando los activos. Del mismo modo, probablemente la estrategia seguida será la de defensa en profundidad.

Cuando una parte de cualquiera de esos niveles, compuestos a su vez por múltiples sistemas y barreras, falla (por defecto de fabricación, desgaste, o cualquier otro motivo), se produce un aviso a los controladores que a su vez se lo comunican a los inspectores residentes en la central nuclear. Si los inspectores consideran que el fallo puede comprometer el nivel de seguridad en cuestión elevan el aviso al organismo regulador (en España el CSN). A estos avisos se les denomina sucesos notificables.[35] [36] En algunos casos, cuando el fallo puede hacer que algún parámetro de funcionamiento de la central supere las Especificaciones Técnicas de Funcionamiento (ETF) definidas en el diseño de la central (con unos márgenes de seguridad), se produce un paro automático de la reacción en cadena llamado SCRAM. En otros casos la reparación de esa parte en cuestión (una válvula, un aspersor, una compuerta,...) puede llevarse a cabo sin detener el funcionamiento de la central.

Si cualquiera de las barreras falla aumenta la probabilidad de que suceda un accidente. Si varias barreras fallan en cualquiera de los niveles, puede finalmente producirse la ruptura de ese nivel. Si varios de los niveles fallan puede producirse un accidente, que puede alcanzar diferentes grados de gravedad. Esos grados de gravedad se organizaron en la Escala Internacional de Accidentes Nucleares (INES) por el OIEA y la AEN, iniciándose la escala en el 0 (sin significación para la seguridad) y acabando en el 7 (accidente grave). El incidente (denominados así cuando se encuentran en grado 3 o inferiores) más grave ocurrido en España fue el de Vandellós I en 1989, catalogado a posteriori (no existía ese año la escala en España) como de grado 3 (incidente importante).[37]

La ruptura de varias de estas barreras (no existía independencia con el gobierno, el diseño del reactor era de reactividad positiva, la planta no poseía edificio de contención, no existían planes de emergencia, etc.) causó el accidente nuclear más grave ocurrido: el accidente de Chernóbil, de nivel 7 en la Escala Internacional de Accidentes Nucleares (INES).

  1   2   3   4


La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal