jueves, octubre 25, 2007

Felicidades Yauco High Blogers


Por fin se cumple nuestro primer año juntos como un equipo trabajanto por crear una pagina de internet educativa pero a la misma vez agradable y que todos nos la podamos disfrutar. quisas esto empozo como requisito para la clase de biologia pero con el tiempo nos dimos cuenta de que no solo era un trabajo sino un medio de expresion muy comun como lo son el messenger y el My space. Les exhorto a todos a que continuen con su blog y que sigan mejorando este mundo de la informacion virtual o sea el internet.

lunes, octubre 22, 2007

Nanotecnología es...


Nanotecnología es el desarrollo y la aplicación práctica de estructuras y sistemas en una escala nanométrica (entre 1 y 100 nanómetros).


No hay que confundirla con el término "Nanociencia", que no implica una aplicación práctica pero sí el estudio científico de las propiedades del mundo nanométrico."Nano" es un prefijo griego que significa "mil millones" (una mil millonésima parte de un metro es la unidad de medida que se usa en el ámbito de la Nanotecnología). Un átomo es más pequeño que un nanómetro, pero una molécula puede ser mayor.Una dimensión de 100 nanómetros es importante la Nanotecnología porque bajo este límite se pueden observar nuevas propiedades en la materia, principalmente debido a las leyes de la Física Cuántica.



Hay dos tipos de Nanotecnología



A) Top-down: Reducción de tamaño. Literalmente desde arriba (mayor) hasta abajo (menor). Los mecanismos y las estructuras se miniaturizan a escala nanométrica. Este tipo de Nanotecnología ha sido el más frecuente hasta la fecha, más concretamente en el ámbito de la electrónica donde predomina la miniaturización.
B) Bottom-Up: Auto ensamblado। Literalmente desde abajo (menor) hasta arriba (mayor). Se comienza con una estructura nanométrica como una molécula y mediante un proceso de montaje o auto ensamblado, se crea un mecanismo mayor que el mecanismo con el que comenzamos. Este enfoque, que algunos consideran como el único y "verdadero" enfoque nanotecnológico, ha de permitir que la materia pueda controlarse de manera extremadamente precisa. De esta manera podremos liberarnos de las limitaciones de la miniaturización, muy presentes en el campo de la electrónica.


El último paso para la Nanotecnología de auto montaje de dentro hacia fuera se denomina "Nanotecnología molecular" o "fabricación molecular", y ha sido desarrollada por el investigador K। Eric Drexler. Se prevé que las fábricas moleculares reales sean capaces de crear cualquier material mediante procesos de montaje exponencial de átomos y moléculas, controlados con precisión. Cuando alguien se da cuenta de que la totalidad de nuestro entorno perceptivo está construida mediante un limitado alfabeto de diferentes constituyentes (átomos) y que este alfabeto da lugar a creaciones tan diversas como el agua, los diamantes o los huesos, es fácil imaginar el potencial casi ilimitado que ofrece el montaje molecular.


Algunos partidarios de una visión más conservadora de la Nanotecnología ponen en duda la viabilidad de la fabricación molecular y de este modo tienen una visión contradictoria a largo plazo con respecto a la teoría de Eric Drexler, el defensor más conocido de la teoría de la fabricación molecular। Es importante tener en cuenta de alguna manera esta nota discordante, porque la mayoría de los investigadores involucrados piensan que la madurez de la Nanotecnología es una evolución positiva y que la Nanotecnología mejorará de manera significativa la calidad de la vida en el planeta (y en el espacio) de la población mundial.





Hay que saber algo fundamental acerca de la Nanotecnología: la materia se manipula hasta llegar hasta su elemento más básico, el átomo. La Nanotecnología es un avance lógico, inevitable en el transcurso del progreso humano.


Más que un mero progreso en el limitado campo de la tecnología, representa el proceso de nacimiento de una nueva "era" en la que usamos todas las posibilidades de la Nanotecnología. Son múltiples las áreas en las que la Nanotecnología tiene aplicaciones potenciales: desde potentes filtros solares que bloquean los rayos ultravioleta hasta nanorobots diseñados para realizar reparaciones celulares. A continuación se enumera una lista con algunos ejemplos de los principales campos que se verán afectados por los avances de la Nanotecnología:


Materiales: nuevos materiales, más duros, más duraderos y resistentes, más ligeros y más baratos.


Electrónica: los componentes electrónicos serán cada vez más y más pequeños, lo que facilitará el diseño de ordenadores mucho más potentes.


Energía: se prevé un gran aumento de las posibilidades de generación de energía solar, por ejemplo.


Salud y Nanobiotecnología: hay grandes expectativas en las áreas de prevención, diagnóstico y tratamiento de enfermedades. Por ejemplo, podrán colocarse sondas nanoscópicas en un lugar para medir nuestro estado de salud las veinticuatro horas del día, se desarrollarán nuevas herramientas para luchar contra las enfermedades hereditarias mediante el análisis genético y se podrán crear indicadores que detecten y destruyan, una a una, células cancerígenas. Estas son algunas de las posibles aplicaciones.


Los avances en estos campos tendrán repercusión en una amplia gama de industrias como la industria de los cosméticos, la industria farmacéutica, la industria de los electrodomésticos, la industria higiénica, el sector de la construcción, el sector de las comunicaciones, la industria de seguridad y defensa y la industria de la exploración espacial. Nuestro entorno también se beneficiará, en tanto que la producción de energía será más económica y limpia y se utilizarán materiales más ecológicos.


En breve, muchas áreas de nuestra vida diaria se verán afectadas de una manera u otra por el avance de la Nanotecnología. La Nanotecnología nos permitirá hacerlo todo mejor y con menos esfuerzo.

La biotecnología es ...


La biotecnología es la tecnología basada en la biología, especialmente usada en agricultura, farmacia, ciencia de los alimentos, ciencias forestales y medicina। Probablemente el primero que usó este término fue Karl Ereky, ingeniero húngaro, en 1919.


Una de las definiciones más ampliamente aceptadas es la siguiente:

La biotecnología se refiere a cualquier aplicación tecnológica que utilice sistemas biológicos y organismos vivos o sus derivados para la creación o modificación de productos o procesos para uso específico।


Riesgos y beneficios


Entre los riesgos de la biotecnología destacan:


  1. Propagación de genes. Los organismos genéticamente modificados (OGM) podrían propagarse hacia parientes silvestres contaminándolos y desapareciéndolos además de que podría ser difícil controlarlos। Esto siempre y cuando no se tengan los controles necesarios.
  2. Daño colateral। Los cultivos de OGM podrían acelerar las mutaciones de insectos y plagas hacia formas resistentes a las modificaciones hechas a las especies.
  3. Efectos en la salud। Sin percatarse, los OGM podrían introducir alérgenos en el cuerpo humano.



Entre las principales ventajas de la biotecnología se tienen:

  1. Rendimiento superior। Mediante los OGM el rendimiento de los cultivos aumenta, dando más alimento por menos recursos, disminuyendo las cosechas perdidas por enfermedad o plagas así como por factores ambientales.
  2. Reducción de pesticidas। Cada vez que un OGM es modificado para resistir una determinada plaga se está contribuyendo a reducir el uso de los pesticidas asociados a la misma que suelen ser causantes de grandes daños ambientales y a la salud, es una lucha la reducción de pesticidas.
  3. Mejora en la nutrición. Se puede llegar a introducir vitaminas y proteínas adicionales en alimentos así como reducir los alergenos y toxinas naturales. También se puede intentar cultivar en condiciones extremas lo que auxiliaría a los países que tienen menos disposición de alimentos.
  4. Mejora en el desarrollo nuevos componentes para materiales।
  5. Desde el punto de vista medico, se puede preservar la vida, suplantando hormonas que son necesarias para el metabolismo de alimentos।

lunes, octubre 08, 2007

Caída del dolar americano


Hoy el dólar estadounidense rompió ciertas marcas para las cuales muchos no estaban preparados aún. Este día pasará a la historia, pues el dólar estadounidense no solo se devaluó hasta malograr la paridad con el dólar canadiense, sino que se degradó hasta un nuevo nivel histórico frente al Euro, al este último pasar a cotizarse sobre los US$1.40 dólares.

La tendencia bajista del dólar se viene registrando desde inicios del año pasado y no se ha detenido desde entonces y en este escenario el papel de la FED (Reserva Federal Estadounidense) ha tenido mucha preponderancia.

Durante el mandato del pasado jefe de directivos de la FED, Alan Greenspan, se radicaron ciertas medidas en función de una política monetaria que incentivara la inversión en los mercados bursátiles, los cuales estaban en plena época de tribulaciones e incertidumbre por el “crack” de la burbuja Dot-com y los atentados del 11 de Septiembre del 2001.

Esa política hizo posible la recuperación de los principales índices bursátiles estadounidenses y reactivó la economía estadounidense de forma esplendorosa. Se produjo un boom inmobiliario, creció el gasto de los consumidores y el desempleo descendió a niveles inferiores al 5%.

Sin embargo esta política llegó muy lejos. Los tipos de interés bajos, que llegaron hasta el 1%, desataron un boom crediticio sin precedentes en la historia y se creó un entorno donde todo aquel con un historial, bueno o malos, se inclinó por obtener un préstamo (o varios) para satisfacer sus ambiciones o metas. Muchos lo hicieron y no se preocuparon por el futuro, pues asumieron que los tipos de interés de sus préstamos iban a ser eternamente bajos y eso, como sabemos, no sucedió de tal manera.

Para muchos los pagos mensuales se incrementaron hasta en un 50% y la consecuencia de ello fue la morosidad de los clientes. Este factor logró que se conjugara en los Estados Unidos una ausencia de liquidez en los mercados (radicados principalmente en entidades bancarias e hipotecarias).

Esa falta de liquidez es lo que hoy se denomina “Crisis Hipotecaría Sub-prima del 2007” o simplemente Crisis Crediticia del 2007.

Esta crisis obligó a la FED a descender los tipos de interés medio punto porcentual. El Jefe de la FED, Ben Bernanke, dijo que esta rebaja en la meta de los tipos de interés de la FED tiene la finalidad de aliviar la crisis crediticia que agobia a los mercados y dejó entredicho que esta medida era “cosa de una sola vez”.

Esta rebaja en la meta de tipos de interés bancarios suscitó junto a las especulaciones dentro del mercado cambiario y las presiones del mercado bursátil por un tipo de cambio más barato, la caída del dólar a niveles récord.

Ahora, la pregunta: ¿Hasta cuándo? Hay muchas interrogantes y escenarios que hacen imposible definir el porvenir del dólar americano, por ello las especulaciones y la constante presión del mercado dan una perspectiva negativa para esta moneda. Esta incertidumbre, sin embargo podría aliviarse a partir del año 2009 cuando podría sucederse un cambio de gobierno en los Estados Unidos.

Hay algo que por seguro podemos tener: “El dólar se recuperará”. Lo ha hecho antes y el sano crecimiento de la economía estadounidense (y su población) nos indican que en alguna coyuntura del futuro sucederá. Otra cosa que podemos asumir como verdadero es que la hegemonía del dólar no se verá flagelada por ninguna otra moneda y de eso se ha asegurado el gobierno norteamericano históricamente.

El BCE ha apoyado constantemente al Euro y bajo todas las circunstancias. El gobierno de los Estados Unidos ha hecho todo lo contrario de manera estratégica, pero en contraste a su “homólogo ficticio” este tiene la facilidad de revalorizar su moneda con solo mencionar o especular sobre el asunto. ¿Se imaginan el impacto de un “basta ya” o “es tiempo de pensar en el dólar”?

martes, septiembre 11, 2007

Hoy 9-11 de 2007




Hoy es un día memorable me acuerdo como si el tiempo no hubiera pasado hace exactamente 6 años los Estados Unidos se paralizaron un fatidico atentado las torres gemelas deribaron. y hoy les envio mis mas sinceras condolencias a todos aquellos que perdieron algun ser querido en el ataque y les digo que siempre estaran con ellos y que los recuerden con honor como los grandes valientes que murieron por culpa de personas inescrupulosas.

Una perra mas rica que tu y que yo


Así como lo escuchas la empresaria hotelera Leona Helmsley, conocida como la "Cruella de Vil" de Nueva York le dejo una herencia de tan solo 12 millones de dolares a su perrita Trouble. Ya que esta no quiso dejarsela ni a sus hijos ni nietos. La anciana de 87 años sorprendió a la opinión pública al desheredar a dos de sus cuatro nietos y legar 12 millones de dólares a su pequeña mascota, que llegó a protagonizar los anuncios de la cadena de hoteles de lujo Helmsley, controlada por su dueña.

Mediante esto muchas personas se han querido aprovechar de la pobre perrita y ahorra la demandan hasto por caminar en su hotel ya que una persona fue mordida por esta y la demanda por una suma millonaria.

miércoles, agosto 29, 2007

MI GRADUACIÓN


Por fin este año es mi graduación de 4to año y aunque es mi ultimo año les exorto a todos los que estan en esta misma pocisión que lo disfruten que nunca vuelve para atras. Se que es un año dificil pero si todos nos proponemos salir bien lo lograremos. QUE DISFRUTEN SU ULTIMO AÑO AL IGUAL QUE YO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

miércoles, marzo 28, 2007

viernes, marzo 23, 2007

martes, marzo 20, 2007

Efectos de la radiación Ultravioleta "un gran daño nos causa"


Según estudios realizados, los protectores solares pueden prevenir la aparición de arrugas producidas por los rayos UV. Algunos estudios hechos con animales han demostrado que los protectores solares con una adecuada cobertura UVA pueden prevenir la aparición de arrugas y la pérdida de elasticidad de la piel producidas por la radiación UVA de gran intensidad.

cáncer de la piel
Tenga en cuenta las siguientes estadísticas sobre el cáncer de piel:

En Estados Unidos, se diagnostican cada año más de un millón de casos de cáncer de piel distintos del melanoma.

El melanoma representa sólo el 4 por ciento de todos los casos de cáncer de piel en Estados Unidos, pero es responsable del 79 por ciento de las muertes por cáncer de piel.


Si bien se considera que la exposición a los rayos solares ultravioleta (UV) es el factor de mayor importancia entre las causas del cáncer de la piel, alrededor del 70 por ciento de los adultos de Estados Unidos no toman medidas de protección contra el sol.

La mayoría de los cánceres de piel aparecen después de los 50 años, pero el daño que provoca el sol en la piel comienza mucho antes. Por consiguiente, las medidas de protección para prevenir la posterior aparición del cáncer de la piel se deben tomar desde la niñez.

Envejecimiento prematuro (envejecimiento por acción del sol)
La exposición al sol también causa el envejecimiento prematuro de la piel, una condición denominada envejecimiento por acción de sol, que es diferente del envejecimiento cronológico.

Las personas que toman el sol con regularidad muestran señales de esta condición a una edad muy temprana, a menudo antes de los 30 años. El envejecimiento cronológico de la piel suele manifestarse después de los 40 años e incluso más tarde.

La aparición de pecas y de arrugas finas, y la dilatación de los capilares suelen ser los primeros signos del proceso de envejecimiento por acción del sol.

Con el paso de los años, la pigmentación de la piel envejecida por acción del sol suele volverse irregular (manchas hepáticas).

Tanto el envejecimiento cronológico como el provocado por el sol producen arrugas y pérdida de elasticidad en la piel. Sin embargo, estos cambios se manifiestan antes cuando la piel se expone al sol en exceso.

Cataratas y otras enfermedades de los ojos
Las cataratas, una enfermedad de los ojos caracterizada por un cambio en la estructura del cristalino que produce visión borrosa, constituyen una de las principales causas de ceguera en todo el mundo. La exposición excesiva a los rayos ultravioleta es uno de los factores de riesgo de las cataratas. De hecho, las personas que pasan más tiempo al sol pueden desarrollar cataratas más temprano que las demás. La Academia Americana de Oftalmología (American Academy of Ophthalmology) actualmente recomienda el uso de gafas de sol con protección ultravioleta y de sombreros de ala ancha para disminuir la exposición a los rayos ultravioleta.

Las quemaduras solares en la córnea, los crecimientos en la superficie externa del ojo, las lesiones en la retina y otras enfermedades oculares se atribuyen, con mayor o menor grado de certeza, a la exposición a largo plazo a los rayos ultravioleta.

Daño al sistema inmunológico

La piel es parte del sistema natural de defensa del cuerpo. Muchos profesionales del cuidado de la salud creen que la radiación ultravioleta puede alterar las funciones del sistema inmunológico. Cuando la radiación UV suprime la respuesta inmunológica, la capacidad del cuerpo de combatir ciertas enfermedades, entre ellas el cáncer, se reduce. Se sospecha que la exposición en exceso a la radiación UV también obstaculiza la eficacia de la inmunización que se administra a través de la piel.

La capa de ozono la capa que nos protege...


Se denomina capa de ozono, u ozonosfera, a la zona de la estratosfera terrestre que contiene una concentración relativamente alta de ozono, gas compuesto por tres átomos de oxígeno (O3). "Relativamente alta" quiere decir unas pocas partículas por millón, mucho más alta que las concentraciones en la atmósfera baja pero aún pequeña comparada con la concentración de los principales componentes de la atmósfera.

La capa de ozono fue descubierta en 1913 por los físicos franceses Charles Fabry y Henri Buisson. Sus propiedades fueron examinadas en detalle por el meteorólogo británico G.M.B. Dobson, quien desarrolló un sencillo espectrofotómetro que podía ser usado para medir el ozono estratosférico desde la superficie terrestre. Entre 1928 y 1958 Dobson estableció una red mundial de estaciones de monitoreo de ozono, las cuales continúan operando en la actualidad. La Unidad Dobson, una unidad de medición de la cantidad de ozono, fue nombrada en su honor.

Los mecanismos fotoquímicos que producen la capa de ozono fueron investigados por el físico británico Sidney Chapman en 1930. El ozono de la estratosfera terrestre es creado por la luz ultravioleta que choca con las moléculas de oxígeno gaseoso, que contiene dos átomos de oxígeno (O2), separándolas en átomos de oxígeno (oxígeno atómico); el oxígeno atómico se combina con aquel O2 que aún permanece completo, formando así el ozono, O3.

Las moléculas de ozono son inestables (aunque en la estratosfera poseen una larga vida) y cuando la luz ultravioleta choca con el ozono, este se separa nuevamente en sus reactantes (O2 y O), formando así un proceso continuo llamado "ciclo del ozono y oxígeno", el cual provoca la formación de la capa de ozono en la estratósfera. El ozono troposférico es creado en pequeñas cantidades a través de diferentes mecanismos.

El ozono presente en capas más próximas a la superficie terrestre, como en la ya mencionada troposfera, es peligroso ya que es nocivo para los seres vivos pues forma parte del denominado smog fotoquímico.

Alrededor del 90% del ozono de la atmósfera está contenido en la estratosfera, región comprendida entre 10 a 50 km sobre la superficie terrestre. El 10% restante está localizado en la troposfera, la parte más baja de la atmósfera donde ocurren todos los fenómenos climáticos.

La concentración de ozono es mayor entre los 15 y 40 km, con un valor de 2-8 partículas por millón. Si todo el ozono fuese comprimido a la presión del aire al nivel del mar, este tendría solo 3mm de espesor.

El ozono ayuda como filtro de las radiaciones nocivas que llegan a la Tierra permitiendo el paso de las otras como ultravioleta de onda larga llega a la superficie.

En los últimos años se considera amenazada, por este motivo la Asamblea General de las Naciones Unidas se reunió el 16 de setiembre de 1987 par firmar el Protocolo de Montreal. A partir de entonces el 16 de setiembre se celebra el Día Internacional para la Preservación de la Capa de Ozono.

El enrarecimiento grave de la capa de ozono provocara el aumento de los casos de melanomas (cáncer) de piel, de cataratas oculares, supresión del sistema inmunitario en humanos y en otras especies, también afectara los cultivos sensibles a la radiación ultravioleta. Para proteger la capa de ozono hay que disminuir a cero el uso de químicos clorofluorocarbonos (refrigerantes industriales, propelentes), y de funguicidas de suelo de bromuro de metilo (Argentina, 900 t/año [[1]]) que destruyen la capa de ozono a un ritmo 50 veces superior a los CFC.

jueves, marzo 15, 2007

Estructura y composición del Sol


Desde la Tierra sólo vemos la capa exterior. Se llama fotosfera y tiene una temperatura de unos 6.000 ºC, con zonas más frías (4.000 ºC) que llamamos manchas solares. El Sol es una bola que puede dividirse en capas concéntricas. De dentro a fuera son:

Núcleo: es la zona del Sol donde se produce la fusión nuclear debido a la alta temperatura, es decir, el generador de la energía del Sol.

Zona Radiativa:: las partículas que transportan la energía (fotones) intentan escapar al exterior en un viaje que puede durar unos 100.000 años debido a que éstos fotones son absorbidos continuamente y reemitidos en otra dirección distinta a la que tenían.

Zona Convectiva: en ésta zona se produce el fenómeno de la convección, es decir, columnas de gas caliente ascienden hasta la superficie, se enfrían y vuelven a descender.

Fotosfera: es una capa delgada, de unos 300 Km, que es la parte del Sol que nosotros vemos, la superfície. Desde aquí se irradia luz y calor al espacio. La temperatura es de unos 5.000°C. En la fotosfera aparecen las manchas oscuras y las fáculas que son regiones brillantes alrededor de las manchas, con una temperatura superior a la normal de la fotosfera y que están relacionadas con los campos magnéticos del Sol.

Cromosfera: sólo puede ser vista en la totalidad de un eclipse de Sol. Es de color rojizo, de densidad muy baja y de temperatura altísima, de medio millon de grados. Esta formada por gases enrarecidos y en ella existen fortísimos campos magnéticos.

Corona: capa de gran extensión, temperaturas altas y de bajísima densidad. Está formada por gases enrarecidos y gigantescos campos magnéticos que varían su forma de hora en hora. Ésta capa es impresionante vista durante la fase de totalidad de un eclipse de Sol.

Componentes químicos %
Hidrógeno 92,1
Helio 7,8
Oxígeno 0,061
Carbono 0,03
Nitrógeno 0,0084
Neón 0,0076
Hierro 0,0037
Silicio 0,0031
Magnesio 0,0024
Azufre 0,0015
Otros 0,0015

martes, marzo 13, 2007

Cuestionario Solar!!!


Create polls and vote for free. dPolls.com

Degradacion del planeta Pluton:


El jueves 24 de agosto de 2006, los expertos aprobaron una definición de planeta que degradó a Plutón a una categoría menor. El científico principal encargado de la misión robótica a Plutón de la NASA criticó duramente la decisión y la calificó de "vergonzosa", mientras que el director del Comité de Definición de Planetas (CDP) de la IAU, encargado de tomar la decisión sobre las definiciones de planeta afirmó que el voto había sido de hecho "secuestrado".


La votación se llevó a cabo durante la asamblea general de la Unión Astronómica Internacional (IAU por sus siglas en inglés), en Praga, que se extendió por diez días. La IAU es el organismo oficial encargado de adjudicar nombres en el campo de la astronomía desde 1919, pero de los más de 8 800 miembros del organismo, participaron 2 700 y sólo 424 astrónomos permanecieron hasta el último día del encuentro y participaron en la votación.

La propuesta inicial de la IAU de agregar tres nuevos planetas al Sistema Solar -el asteroide Ceres, Charon (la luna de Plutón) y el mundo distante conocido como 2003 UB313- se topó con una oposición considerable. Lo que siguió fue un acalorado debate que generó cuatro propuestas.

Eventualmente, los científicos adoptaron los parámetros históricos que colocan a Plutón en una categoría secundaria: la de "planeta enano".

Poniendo límites

El Doctor Alan Stern, quien dirige la misión a Plutón "Nuevos Horizontes" de la NASA, y que no votó en Praga, le dijo a la BBC: "es una definición horrible, absurda, y no pasa el examen de los expertos, por dos razones".

"Primero, es imposible establecer una línea divisoria entre planetas y planetas enanos. Es como si dijésemos que las personas no son personas por una razón tan arbitraria como que 'porque tienden a vivir en grupos'".

"Segundo", agregó, "la definición en sí es peor, porque es inconsistente". Uno de los tres criterios para definir qué es un planeta establece que "el espacio a su alrededor debe estar despejado". El problema de Plutón es que su órbita -marcadamente elíptica- se superpone con la de Neptuno.

Sin embargo, Stern señala que la Tierra, Marte, Júpiter y Neptuno tampoco tienen un espacio tan despejado a su alrededor. La Tierra orbita con unos 10.000 asteroides relativamente cercanos, mientras que Júpiter está acompañado en su recorrido por 100.000 asteroides.

Estas rocas son esencialmente trozos de desechos que quedaron desperdigados cuando se formó el Sistema Solar, hace más de 4.000 millones de años.

"Si Neptuno hubiese despejado el espacio que lo rodea, Plutón no estaría allí", agregó el científico.

Stern dijo que otros astrónomos que compartían sus principios lanzaron una petición para que Plutón recupere su categoría de Planeta. Como parte de esta iniciativa, crearon unas pegatinas para colocar en los automóviles (y que pueden adquirirse por internet) que dicen: "Si crees que Plutón es un planeta, toca la bocina".

También han enviado mensajes de correo electrónico donde describen a la IAU como la "Unión Astronómica Irrelevante" (por Internacional).

Un arreglo poco conveniente

Owen Gingerich presidió la reunión del el Comité de Definición de Planetas, compuesto por siete personas, entre los que habían astrónomos, escritores e historiadores de reconocimiento internacional, y contribuyó a desarrollar la propuesta inicial, elevando el número total de planetas a 12.

Este profesor emérito de Harvard afirmó que el resultado se debía en gran medida a una "revuelta" de los dinamicistas, los astrónomos que estudian el movimiento y los efectos gravitatorios de los objetos celestes.

"En nuestra propuesta inicial utilizamos la definición de planeta preferida por los geólogos planetarios. Los dinamicistas se sintieron tremendamente insultados por que no los consultamos. Y eran tantos, que al final se creó una gran protesta", señaló Gingerich.

"La revuelta creció tanto como para destruir la integridad científica y la sutileza de la resolución (inicial)".

Y agregó que "durante el encuentro en Praga había 2.700 astrónomos. Pero sólo un 10% de ellos votaron por la tarde. Los que no estaban de acuerdo y estaban decididos a bloquear la otra resolución se presentaron en masa y superaron al grupo que pensaba: 'y bueno, ésta es una de las tantas cosas en las que está trabajando la IAU".

Las manchas solares:


Una mancha solar es una región del Sol con una temperatura más baja que sus alrededores, y con una intensa actividad magnética. Una mancha solar típica consiste en una región central oscura, llamada "umbra", rodeada por una "penumbra" más clara. Una sola mancha puede llegar a medir hasta 12 000 km (casi tan grande como el diámetro de la Tierra), pero un grupo de manchas puede alcanzar 120 000 km de extensión e incluso algunas veces más. La penumbra está constituida por una estructura de filamentos claros y oscuros que se extienden más o menos radialmente desde la umbra. Ambas (umbra y penumbra) parece oscuras por contraste con la fotosfera, simplemente porque están más frías que la temperatura media de la fotosfera; así la umbra tiene una temperatura de 4000 K, mientras que la penumbra alcanza los 5600 K, evidentemente inferiores a los aproximados 6000 K que tienen los gránulos de la fotosfera. Por la ley de Stefan-Boltzmann, en que la energía total radiada por un cuerpo negro (como una estrella) es proporcional a la cuarta potencia de su temperatura efectiva (E = σT4, donde σ = 5,67·10-8 W/m2K4; véase Constante de Stefan-Boltzmann), la umbra emite aproximadamente un 32% de la luz emitida por un área igual de la fotosfera y análogamente la penumbra tiene un brillo de un 71% de la fotosfera. La oscuridad de una mancha solar es solamente un efecto de contraste; si pudiéramos ver a una mancha tipo, con una umbra del tamaño de la Tierra, aislada y a la misma distancia que el Sol, brillaría una 50 veces más que la Luna llena. Las manchas están relativamente inmóviles con respecto a la fotosfera y participan de la rotación solar. El área de la superficie solar cubierta por las manchas se mide en términos de millonésima del disco visible.

El eclipse solar...



Hay eclipse solar en un lugar de la Tierra, cuando la Luna oculta al Sol, desde ese punto de la Tierra. Esto sólo puede pasar durante la luna nueva.

Hay tres tipos de eclipse solar:

Parcial: la Luna no cubre por completo el disco solar que aparece como un creciente.
Total: desde una franja (banda de totalidad) en la superficie de la Tierra, la Luna cubre totalmente el Sol. Fuera de la banda de totalidad el eclipse es parcial. Se verá un eclipse total para los observadores situados en la Tierra que se encuentren dentro del cono de sombra lunar, cuyo diámetro máximo sobre la superficie de nuestro planeta no superará los 270 km, y que se desplaza en dirección este a unos 3.200 km/h. La duración de la fase de totalidad puede durar varios minutos, entre 2 y 7.5, alcanzando algo más de las 2 horas todo el fenómeno, si bien en los eclipses anulares la máxima duración alcanza los 12 minutos y llega a más de 4 h en los parciales, teniendo esta zona de totalidad una anchura máxima de 272 km y una longitud máxima de 15.000 km
Anular: ocurre cuando la Luna se encuentra cerca del apogeo y su diámetro angular es menor que el solar, de manera que en la fase máxima, permanece visible un anillo del disco del Sol. Esto ocurre en la banda de anularidad, fuera de ella el eclipse es parcial.
Para que se produzca un eclipse solar la Luna ha de estar en o próxima a uno de sus nodos, y tener la misma longitud celeste que el Sol.

Cada año suceden sin falta 2 eclipses de Sol, cerca de los nodos de la órbita lunar, si bien pueden suceder 4 e incluso 5 eclipses.

Suceden 5 eclipses solares en un año cuando el primero de ellos tiene lugar poco tiempo después del primero de enero. Entonces el segundo tendrá lugar en el novilunio siguiente, el tercero y el cuarto sucederán antes de que transcurra medio año, y el quinto tendrá lugar pasados 345 días después del primero, puesto que ese es el número de días que contienen 12 meses sinódicos.

Por término medio sucede un eclipse total de Sol en el mismo punto terrestre una vez cada 200-300 años. Para que suceda un eclipse de Sol, es preciso que la Luna esté en conjunción inferior (Luna nueva) y además que el Sol se encuentre entre los 18º 31´ y 15º 21´ de uno de los nodos de la órbita lunar.

La mayor o menor distancia de la Luna a su perigeo va a determinar que el eclipse sea total o anular, como se explica en la figura 2. Los valores extremos para el perigeo y apogeo lunares en el siglo XXI, tomados del Anuario del Observatorio Astronómico de Madrid, son los siguientes:


Perigeo lunar: entre 356.375 km y 370.350 km

Apogeo lunar: entre 404.050 km y 406.712 km

Considerando los valores extremos de los anteriores resulta que la distancia de la Luna a la Tierra variará en nuestro siglo en 50.337 km como máximo, cantidad importante que supone unos 4 minutos de arco para el diámetro angular lunar, en más o en menos, un 8% del diámetro angular medio de nuestro satélite. De esta forma, el Sol puede quedar completamente oculto, o no

El calentamiento global un problema mundial


Calentamiento global es un término utilizado habitualmente en dos sentidos:

Es el fenómeno observado en las medidas de la temperatura que muestra en promedio un aumento en la temperatura de la atmósfera terrestre y de los océanos en las últimas décadas.
Es una teoría que predice, a partir de proyecciones basadas en simulaciones computacionales, un crecimiento futuro de las temperaturas.
La denominación "calentamiento global" suele llevar implícita las consideraciones de la influencia de las actividades humanas. Esta variante antropogénica de la teoría predice que esto sucederá si continúan las emisiones de gases de efecto invernadero. La opinión científica mayoritaria sobre el cambio del clima dice que "la mayor parte del calentamiento observado en los últimos 50 años, es atribuible a la actividad humana"[1]. Las simulaciones parecen indicar que la principal causa del componente de calor inducido por los humanos se debería al aumento de dióxido de carbono. La temperatura del planeta ha venido elevándose desde finales del siglo XIX, cuando se puso fin a la etapa conocida como la pequeña edad de hielo.

Calentamiento global y efecto invernadero no son sinónimos. El efecto invernadero acrecentado por la contaminación puede ser, según las teorías, la causa del calentamiento global observado.

Aunque la discusión se centra en la temperatura, el calentamiento global o cualquier tipo de cambio climático implica cambios en otras variables: las lluvias globales y sus patrones, la cobertura de nubes y todos los demás elementos del sistema atmosférico. La complejidad del problema y sus múltiples interacciones hacen que la única manera objetiva de evaluar simultáneamente estos cambios sea a través del uso de modelos computacionales que intentan simular la física de la atmósfera y del océano y que tienen una precisión muy limitada debido al desconocimiento actual del funcionamiento de la atmósfera.

El cuerpo multigubernamental y científico encargado de su análisis global es el Panel Intergubernamental del Cambio Climático (IPCC, por sus siglas en inglés de Inter-Governmental Panel on Climate Change). Una de las consecuencias más notables de su trabajo es el Protocolo de Kyoto, que promueve una reducción de emisiones contaminantes (principalmente gases de efecto invernadero) por parte de los países industrializados. El protocolo ha sido tachado de injusto, al considerar asociadas el incremento de las emisiones al desarrollo, con lo que las naciones más afectadas serán aquellas menos desarrolladas. La previsión del protocolo es que, si todos los paises más contaminantes lo firmaran, se conseguiría una reducción de la temperatura media del aire en el planeta de 0.07 ºC

martes, febrero 20, 2007

El amor celular


Mi pared celular se estremese cuando te veo y la membrana te deja pasar. Soy hidrofilico a tí porque eres muy especial. tu cuerpo, tu mente y tu alma pasan por mi canal de proteínas hasta llegar al fondo de mi ser. Mi corazón es semipermeable a tí eres mi todo, mi vida.

Acrostico


Membrana plamática
Organelos rodea
Sirve como frontera ente la celula y su ambiente
Al exterior de esta se encuentra la pared celular
Importante para la celula
Controla el movimiento de sustancias
Organiza la celula

Forma parte de las celulas eucariotas y procariotas
Le permite la entrada al oxígeno y otros nutrimentos
Utiles, no utiles las sustancias que entran y salen de la membrana
Imaginemonos sin membrana, la celula no existiria
Desechos permite eliminar
Otro componente es la bicapa lípida

lunes, febrero 12, 2007

El calentamiento global y el efecto en los polos

Célula


Célula, unidad mínima de un organismo capaz de actuar de manera autónoma. Todos los organismos vivos están formados por células, y en general se acepta que ningún organismo es un ser vivo si no consta al menos de una célula. Algunos organismos microscópicos, como bacterias y protozoos, son células únicas, mientras que los animales y plantas son organismos pluricelulares que están formados por muchos millones de células, organizadas en tejidos y órganos. Aunque los virus y los extractos acelulares realizan muchas de las funciones propias de la célula viva, carecen de vida independiente, capacidad de crecimiento y reproducción propios de las células y, por tanto, no se consideran seres vivos. La biología estudia las células en función de su constitución molecular y la forma en que cooperan entre sí para constituir organismos muy complejos, como el ser humano. Para poder comprender cómo funciona el cuerpo humano sano, cómo se desarrolla y envejece y qué falla en caso de enfermedad, es imprescindible conocer las células que lo constituyen.

Las plantas y los animales están formados por miles de millones de células individuales organizadas en tejidos y órganos que cumplen funciones específicas. Todas las células de cualquier planta o animal han surgido a partir de una única célula inicial —el óvulo fecundado— por un proceso de división. El óvulo fecundado se divide y forma dos células hijas idénticas, cada una de las cuales contiene un juego de cromosomas idéntico al de la célula parental. Después, cada una de las células hijas vuelve a dividirse de nuevo, y así continúa el proceso. Salvo en la primera división del óvulo, todas las células crecen hasta alcanzar un tamaño aproximado al doble del inicial antes de dividirse. En este proceso, llamado mitosis, se duplica el número de cromosomas (es decir, el ADN) y cada uno de los juegos duplicados se desplaza sobre una matriz de microtúbulos (huso mitótico) hacia un polo de la célula en división, y constituirá la dotación cromosómica de cada una de las dos células hijas que se forman.

la capa de ozono un video de bajo presupuesto production

Las placas tectonicas en el mundo y su efecto

viernes, febrero 09, 2007

El ADN nuestra forma de ser


Ácido desoxirribonucleico (ADN), material genético de todos los organismos celulares y casi todos los virus. El ADN lleva la información necesaria para dirigir la síntesis de proteínas y la replicación. Se llama síntesis de proteínas a la producción de las proteínas que necesita la célula o el virus para realizar sus actividades y desarrollarse. La replicación es el conjunto de reacciones por medio de las cuales el ADN se copia a sí mismo cada vez que una célula o un virus se reproduce y transmite a la descendencia la información que contiene. En casi todos los organismos celulares el ADN está organizado en forma de cromosomas, situados en el núcleo de la célula.La molécula de ADN tiene la estructura de una escalera formada por azúcares, fosfatos y cuatro bases nucleotídicas llamadas adenina (A), timina (T), citosina (C) y guanina (G). El código genético queda determinado por el orden de estas bases, y cada gen tiene una secuencia única de pares de bases. Los científicos utilizan estas secuencias para localizar la posición de los genes en los cromosomas y elaborar el mapa del genoma humano.

Aplicaciones utiles del ADN.

La investigación sobre el ADN tiene un impacto significativo, especialmente en el ámbito de la medicina. A través de la tecnología del ADN recombinante los científicos pueden modificar microorganismos que llegan a convertir en auténticas fábricas para producir grandes cantidades de sustancias útiles. Por ejemplo, esta técnica se ha empleado para producir insulina (necesaria para los enfermos de diabetes) o interferón (muy útil en el tratamiento del cáncer). Los estudios sobre el ADN humano también revelan la existencia de genes asociados con enfermedades específicas como la fibrosis quística y determinados tipos de cáncer. Esta información puede ser valiosa para el diagnóstico preventivo de varios tipos de enfermedades.El estudio del ADN también ayuda a los taxónomos a establecer las relaciones evolutivas entre animales, plantas y otras formas de vida, ya que las especies más cercanas filogenéticamente presentan moléculas de ADN más semejantes entre sí que cuando se comparan con especies más distantes evolutivamente. Por ejemplo, los buitres americanos están más emparentados con las cigüeñas que con los buitres europeos, asiáticos o africanos, a pesar de que morfológicamente y etológicamente son más similares a estos últimos.

martes, enero 30, 2007

Francis Crick



Francis Harry Compton Crick (1916- ), biofísico británico y galardonado con el premio Nobel que contribuyó a determinar la estructura del ADN, una larga molécula que almacena la información genética de los organismos. Nacido en Northampton, se doctoró en física por el Caius College de la Universidad de Cambridge, y en 1949 ocupó un cargo en el laboratorio de biología molecular de dicha universidad. A comienzos de la década de 1950, junto al bioquímico estadounidense James Dewey Watson, y con ayuda de imágenes de moléculas orgánicas de gran tamaño obtenidas por difracción de rayos X por el biofísico Maurice Wilkins, determinó la estructura tridimensional del ácido desoxirribonucleico (ADN). El ADN es la sustancia que transmite las características genéticas de una generación a la siguiente, y el conocimiento de su estructura llevó a rápidos avances en el campo de la genética. En 1962 Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología y Medicina por su trabajo. Crick siguió estudiando el código genético e investigando los virus. En 1976 se incorporó al Instituto Salk para Estudios Biológicos de California, donde desarrolló varios estudios sobre el funcionamiento del cerebro.

James Dewey "The ADN man"

James Dewey Watson (1928- ), biofísico y genetista estadounidense, galardonado con el Premio Nobel de Fisiología y Medicina por su contribución al descubrimiento de la estructura del ácido desoxirribonucleico (ADN). Compartió el premio con los biofísicos británicos Francis Crick y Maurice Wilkins.

Nació el 6 de abril de 1928 en Chicago. Estudió Zoología en la Universidad de Chicago, licenciándose en 1947, y obtuvo el doctorado por la Universidad de Indiana en 1950. En 1951 se incorporó al Laboratorio Cavendish, Universidad de Cambridge, donde empezó a investigar la estructura del ADN con Crick. Basándose en los trabajos realizados en el laboratorio por Wilkins, Watson y Crick propusieron, en 1953, la estructura en doble hélice de la molécula de ADN, sustancia que transmite las características genéticas de una generación a la siguiente. Posteriormente, el bioquímico estadounidense Arthur Kornberg aportó pruebas experimentales de la exactitud de su modelo. En 1955 se incorporó al Departamento de Biología de la Universidad de Harvard, puesto en el que permaneció hasta 1976, donde estudió el papel del ácido ribonucleico (ARN) mensajero en la síntesis de proteínas. Como reconocimiento a sus trabajos sobre la molécula del ADN, Watson, Crick y Wilkins compartieron en 1962 el Premio Nobel. Watson escribió La doble hélice (1968), historia del descubrimiento de la estructura del ADN. En 1968 fue nombrado director del Laboratorio de Biología Cuantitativa de Cold Spring Harbor (Nueva York), mientras continuaba con sus funciones en Harvard. De 1988 a 1992, ayudó a dirigir el Proyecto Genoma Humano, en los Institutos Nacionales de la Salud. Watson continuó su trabajo en el Laboratorio de Cold Harbor y, en 1994, fue nombrado presidente de esta institución.

Resumen del trabajo del ADN en las fresas

Para comenzar se trituran de 2 a 3 fresas en una bolsa resellable asegurándose de que no se quede ningún pedazo grande. Luego se le añade un buffer que es una sustancia hecha de liquido de fregar, sal y agua mineral o destilada. Luego se deja reposar por 10 minutos las fresas con el buffer. Al cabo de los 10 minutos lo cuelas para separar las partículas de gran tamaño de la sustancia líquida de las fresas. Luego le añades alcohol etílico a la misma cantidad de mililitros que tu echaste de las fresas con el buffer. El alcohol y el jugo de las fresas no pueden moverse y mientas le vas añadiendo el alcohol se va destacando el ADN de las fresas el cual es una sustancia como viscosa y de un color transparente. Luego se saca con mucho cuidado el ADN de las fresas con una burreta, y el ADN sustraído se coloca en una capsula de petri para luego ser observado atravez de un microscopio.