Thursday, December 21, 2006

¡¡FELIZ NAVIDAD Y PRÓSPERO AÑO NUEVO!!

Espero que se la pasen muy bonito en estas fiestas junto a sus seres queridos; y también les deseo éxito en todo lo que hagan en este año que está por iniciar, que todos sus sueños se cumplan y que sean muy muy felices.

Espero verlos a todos el próximo año.

¡¡FELICES FIESTAS!!

Tuesday, December 19, 2006

Feliz Navidad y Próspero Año 2007 Químic@s!


Les deseo lo mejor para el próximo año.
No dejen de visitar este blog, que es suyo. Conservenlo.
Feliz Navidad y próspero año 2007!

Thursday, December 14, 2006

Antioxidantes

¿Qué son los antioxidantes? son unas sustancias existentes en determinados alimentos que nos protegen frente a los radicales libres, causantes de los procesos de envejecimiento y de algunas otras enfermedades.
¿Qué son los radicales libres? Son moléculas "desequilibras", con átomos que tienen un electrón en capacidad de aparearse, por lo que son muy reactivos. Estos radicales recorren nuestro organismo intentando captar un electrón de las moléculas estables, con el fin de lograr su estabilidad electroquímica y con potenciales reacciones en cadenas destructoras de nuestras células.
Los antioxidantes y los radicales libres. Los antioxidantes retrasan el proceso de envejecimiento combatiendo la degeneración y muerte de las células que provocan los radicales libres. La incapacidad de nuestro cuerpo para neutralizar los radicales libres a los que nos exponemos diariamente nos obliga a recurrir a alimentos con la propiedades antioxidantes con capacidad de neutralizarlos.
Antioxidantes y cáncer. Muchas investigaciones ponen énfasis en llevar dietas adecuadas que sean aliados activos contra el cáncer. Estas dietas parten de enzimas y sustancias antioxidantes de determinados alimentos que son ricos en los componentes que recogemos arriba. Los mecanismos son diversos y van desde la inhibición hasta una reacción más activa del sistema inmunológico en general.

Aumento en la venta de autos híbridos

Las ventas de coches híbridos en Estados Unidos llevan camino de superar este año la marca de 250 mil vehículos, superior a los 205 mil de 2005, con lo que se mantiene la creciente tendencia de la que se aprovechan las marcas japonesas.
De enero a septiembre se vendieron en todo el país 191 mil 987 vehículos híbridos y la media de los últimos cuatro meses fue de 24 mil 541 unidades.
De mantenerse las cifras de ventas, a finales de año habrá más de 265 mil nuevos híbridos en las carreteras de Estados Unidos.
Hace sólo seis años, en 2000, las ventas de vehículos híbridos fueron de sólo 9 mil 350 unidades, y hace dos años, en 2004, los concesionarios del país vendieron 88 mil unidades.
El imparable ascenso de los híbridos está sin duda relacionado con la dolorosa subida de los precios de la gasolina.
El año se inició en EU con la gasolina a 0.63 dólares por litro y en el verano llegó a los 0.79 dólares el litro, una cifra que puso a muchas familias trabajadoras en una situación grave.
El pico de las ventas de híbridos en agosto (cuando se vendieron 26 mil 189 vehículos) coincidió con los máximos precios de la gasolina.
Desde entonces, los precios han caído fuertemente y en estos días flotan alrededor de los 0.57 dólares el litro.
Pero, ¿cuánto tiempo se mantendrán en esos niveles?
Gran número de estadounidenses no tiene muchas esperanzas de que estos precios se mantendrán más allá de las elecciones noviembre.
Según una reciente encuesta de la empresa Gallup, un 42% de los estadounidenses consideran que el gobierno del presidente George W. Bush "ha manipulado de forma deliberada los precios de la gasolina para que cayesen antes de las elecciones".
En noviembre se renovarán todos los escaños de la Cámara de Representantes y un tercio del Senado, y las encuestas indican que los demócratas tienen posibilidades de lograr el control de ambas cámaras, que ahora mantienen los republicanos de Bush.
El portavoz de la Casa Blanca, Tony Snow, ha negado tajantemente alguna intervención oficial en la caída de los precios del petróleo.
Pero las sospechas, sobre todo entre los votantes demócratas, son constantes. No sólo de que el gobierno de Bush está manipulando los precios a la baja de cara a las elecciones, sino también de que antes favoreció la subida para beneficiar a las empresas petroleras.
Tanto Bush como su vicepresidente, Dick Cheney, han sido altos ejecutivos del sector petrolero.
Con o sin manipulación, los elevados precios de la gasolina están afectando los hábitos del país.
De momento, Toyota y Honda se está beneficiando de la situación.
El Departamento de Energía publicó el martes la lista de los diez vehículos que menos gasolina consumen.

Ciudades libres de carros

Las ciudades del Mundo son muy diferentes unas de otras en muchos aspectos. Pero la mayoría de ellas tiene algo en común: la congestión y la contaminación provocada por los automóviles. El reporte que usted tiene en sus manos describe la dimensión global del problema del transporte en las ciudades: como la congestión esta paralizando las ciudades, como la contaminación del aire esta dañando la salud de las personas y como los automóviles son una de las causas principales que esta empujando a la humanidad al cambio climático poniendo en peligro el futuro del mundo a través de desastres naturales sin precedentes.
El documento presenta un aspecto positivo al mostrar que existen soluciones y describir cuales son las herramientas que los políticos deben utilizar para liberar a las ciudades de los automóviles. Se muestra algunos modelos de ciudades alrededor del mundo que han comenzado a introducir algunas de estas políticas.
La Organización Ecologista Internacional Greenpeace esta difundiendo estos ejemplos positivos alrededor del mundo para crear ciudades libres de automóviles. En la actualidad la idea de "Ciudades Libres de Automóviles" no sólo es atractiva para los ciudadanos afectados por el ruido y los problemas de salud. Esta idea también esta tomando fuerza dentro de la comunidad de los políticos encargados de los problemas urbanos. Este movimiento culmina en la propuesta de Carlo Ripa di Meana, Comisionado Europeo para el Medio Ambiente, de fundar el "Club de Ciudades Libres de Automóviles".
Aun así hay mucho por hacer, para limpiar el aire de las ciudades y salvar el clima. Para hacer que esta planificación urbana suceda, que se invierta en infraestructura de transporte y organización del trafico, debemos basarnos en el concepto de "Ciudades Libres de Automóviles". Esto requiere re-pensar las políticas actuales de transporte.
Se esta llamando a la comunidad de políticos alrededor del Mundo a crear ciudades libres de automóviles para mejorar la salud de sus habitantes y crear "zonas de protección climática" donde las emisiones de gases invernadero del transporte y otras fuentes se reduzcan. Si usted quiere mayor información, por favor contacte la oficina local de Greenpeace. Apoye la Campaña Internacional por Ciudades Libres de Automóviles para proteger la salud y el clima de nuestra generación y las futuras.

Wednesday, December 13, 2006

Un DVD utiliza proteínas de microbios para almacenar los datos

Según un investigador establecido en los EEUU, un DVD cubierto con una capa de proteínas podría llegar algún día a almacenar tanta información (unos 50.000 Gb) que el disco duro del ordenador quedará obsoleto.El investigador afirma que la capa de proteínas, elaborada a partir de diminutas proteínas de microbios modificadas genéticamente, podría permitir que los DVD y otros dispositivos externos almacenen terabytes de información. El Prof. V. Renugopalakrishnan, de la Escuela de Medicina de Harvard, en Boston, informó de su descubrimiento en la International Conference on Nanoscience and Nanotechnology celebrada en Brisbane esta semana. Según él, “esto acabará eliminando por completo la necesidad del disco duro”.

Microbots Designed to Swim Like Bacteria

By Bill Christensen

Tiny microrobots are under development at Monash University in Australia. A remarkable micromotor will allow them to swim like an E. coli bacterium, which uses its flagella to move around.
A flagellum is a long, structure composed of microtubules; bacteria use them in a whip-like motion to move around.
James Friend's goal is to build a device no wider than 250 microns—that's the width of two human hairs—that would be capable of swimming through the human body.
He and his team have already built a linear motor the size of a salt crystal. With a $300,000 grant from the Australian Research Council, Friend believes that his team will be able to reduce the motor to the necessary size within three years.
According to Friend, the main difference between the microrobot motor and a conventional electromagnetic type is that the latter spins much faster but has much less twisting force. In an email interview with Technovelgy.com, he remarked:
"The swimming robot idea in and of itself has indeed been around a long time—since at least the 1950's anyway, and our motor is of a scale and has the performance characteristics needed to actually make this sort of thing possible.
We're using ultrasonic motor technology here, which offer higher torques at lower speeds."
Friend said, "We've operating larger mm-sized prototypes of the motor, and have a fairly good handle on the analysis, which turns out to be quite complicated for twisted-beam structures." (See a design for the prototype microrobot.)
The micromotor that Friend and his team have designed for their propulsion system should be smaller overall than a similar microrobot propulsion system described in November by Moshe Shoham (see Propulsion System for 'Fantastic Voyage' Robot). Friend points out that his team has a "motor suitable for his [Shoham's] or our propulsion system that is far smaller than the technology he's [Shoham's] wanting to use."
Ultimately, tiny microrobots would give surgeons the ability to avoid traumatic and risky procedures in some cases. A remotely-controlled microrobot would extend a physician's ability to diagnose and treat patients in a minimally invasive way.
Researchers at UCLA have gone in a different direction for a power source for a microrobot; click on Musclebot: Microrobot with a Heart for an alternative to micromotors. If you can't quite picture cell repair by medical nanorobots, click here for a graphic view.
Other sources for this story include this article and this Monash University press release.

Scientists Make Bacteria Behave Like Computers

By Robert Roy Britt

Bacteria have been programmed to behave like computers, assembling themselves into complex shapes based on instructions stuffed into their genes.
The research could lead to smart biological devices that could detect hazardous substances or bioterrorism chemicals, scientists say. Eventually, the process might be used to direct the construction of useful devices or the growth of new tissue, perhaps restoring function to a severed spinal cord.
Many lines of research hold similar promise for controlling biology to build useful things. Predictions do not always come true. What's new about this latest effort is that the bacteria are made to communicate, so that millions or even billions of them gather in a predictable manner.
And there are pictures to prove it.
The researchers programmed E. coli bacteria to emit red or green fluorescent light in response to a signal emitted from another set of E. coli. The living cells were commanded to make a bull's-eye pattern, for example, around central cells based on communication between the bacteria.
Other patterns produced with this new "synthetic biology" technique include a pretty good semblance of a heart and a rudimentary flower pattern.
The work was led by Ron Weiss, an assistant professor of electrical engineering and molecular biology at Princeton University.
Weiss and his colleagues engineer a special segment of DNA, the blueprints for any cell's operations. The segment is called a plasmid.
"You have a segment of DNA that dictates when proteins should be made and under what conditions," Weiss told LiveScience. The plasmid is inserted into a cell, and "the cell then executes the set of instructions."
While most real-world applications of the technique are likely many years away, Weiss said it might be used in three to five years to make devices that could detect bioterrorism chemicals.
The bacteria "have an exquisite capability to sense molecules in the environment," he said. "The bull's-eye could tell you: This is where the anthrax is."
The study is detailed in April 28 issue of the journal Nature.
In a paper March 8 in the Proceedings of the National Academy of Sciences, another team led by Weiss showed they could insert DNA into cells to make them behave like digital circuits. The cells could be made to perform basic mathematical logic. The latest work expands this concept to vast numbers of bacteria responding in concert."Here we're showing an integrated package where the cells have an ability to send messages and other cells have the ability to act on these messages," Weiss said.

Brain Cells Fused with Computer Chip

By Ker Than

The line between living organisms and machines has just become a whole lot blurrier. European researchers have developed "neuro-chips" in which living brain cells and silicon circuits are coupled together.

The achievement could one day enable the creation of sophisticated neural prostheses to treat neurological disorders or the development of organic computers that crunch numbers using living neurons.

To create the neuro-chip, researchers squeezed more than 16,000 electronic transistors and hundreds of capacitors onto a silicon chip just 1 millimeter square in size.

They used special proteins found in the brain to glue brain cells, called neurons, onto the chip. However, the proteins acted as more than just a simple adhesive.
"They also provided the link between ionic channels of the neurons and semiconductor material in a way that neural electrical signals could be passed to the silicon chip," said study team member Stefano Vassanelli from the University of Padua in Italy.


The proteins allowed the neuro-chip's electronic components and its living cells to communicate with each other. Electrical signals from neurons were recorded using the chip's transistors, while the chip's capacitors were used to stimulate the neurons.

It could still be decades before the technology is advanced enough to treat neurological disorders or create living computers, the researchers say, but in the nearer term, the chips could provide an advanced method of screening drugs for the pharmaceutical industry.
"Pharmaceutical companies could use the chip to test the effect of drugs on neurons, to quickly discover promising avenues of research," Vassanelli said.


The researchers are now working on ways to avoid damaging the neurons during stimulation. The team is also exploring the possibility of using a neuron's genetic instructions to control the neuro-chip.

Monday, December 11, 2006

... ¿Y la capa de ozono?

Como me gustó el rollo del Proyecto Milagro y Molina, y como mi ensayo es del ozono, y como que ya se me prendió el foco y me llegó la inspiración y la concentración y aunque mi cerebro ya no carbure del todo bien (son casi las 3 de la mañana). Y a pesar de todo, aqui les traigo unos datos interesantillos, jeje.

A pesar de su frecuente utilización, el término "Capa de ozono" es entendido, generalmente, de una manera que se presta al equívoco. El término sugiere que, a una cierta altura de la atmósfera, existe un nivel de ozono concentrado que cubre y protege la tierra, a modo de un cielo que estuviese encapotado por un estrato nuboso. Lo cierto es que el ozono no está concentrado en un estrato, ni tampoco por lo tanto, está situado a una altura específica, si no que es un gas escaso que está muy diluido en el aire y que, además, aparece desde el suelo hasta más allá de la estratosfera.

La capa de ozono se encuentra en la estratosfera, aproximadamente de 15 a 50 Km. sobre la superficie del planeta.

El ozono es un compuesto inestable de tres átomos de oxígeno, el cual actúa como un potente filtro solar evitando el paso de una pequeña parte de la radiación ultravioleta (UV) llamada B que se extiende desde los 280 hasta los 320 manómetros (nm).

La radiación UV-B puede producir daño en los seres vivos, dependiendo de su intensidad y tiempo de exposición; estos daños pueden abarcar desde irritación a la piel, conjuntivitis y deterioro en el sistema de defensas, hasta llegar a afectar el crecimiento de las plantas y dañando el fitoplancton, con las posteriores consecuencias que esto ocasiona para el normal desarrollo de la fauna marina.

El ozono es un gas tan escaso que, si en un momento lo separásemos del resto del aire y que lo atrajésemos al ras de tierra, tendría solamente 3mm de espesor.

El ozono está en todas partes y a cualquier altura. Incluso en los niveles estratosféricos de máxima concentración relativa es un componente minoritario de la mezcla de gases que componen el aire. En ninguna altura , llega a representar ni el 0,001% del volumen total de aire.
¿3 mm de espesor? :-s

Sunday, December 10, 2006

Preguntas

Does the Full Moon Make People Crazy?
Friday October 6, 2006


Luna was the wife of Zeus, sister of Helios the sun, and the mother of 50 children. Arguably the first lunatic. A word which, by the way, has its roots in a belief that the Moon made people mad.
Even modern studies have managed to associate full Moons with everything from insanity to traffic accidents. But the connections have been thin. Some studies have found weak associations to increased aggression, unintentional poisonings and absenteeism. But other studies have contradicted these findings. Now that's enough to make you crazy!

Perhaps the most well-founded human relationship to the lunar cycle is the menstrual cycle of many women (at least among those who choose to continue having them these days).


Why Does Slicing Onions Make Me Cry?


Wednesday October 4, 2006


When your knife slices through a crisp onion, it tears through cells, releasing the cells’ contents. Chemicals react to produce a sulfur-based gas. Once the gas contacts the water coating your eyes, it forms sulfuric acid, a fiery irritant. To rid your peepers of the intruder, your tear ducts work overtime. If you aren’t game for sporting goggles in the kitchen, try moving your face farther away from the onion so the gas disperses before reaching your eyes.


Why is the Sky Blue?


Tuesday October 3, 2006


The light coming from the
sun is made of many colors, each of which has a different wavelength. The atmosphere affects how each color of light passes through, as the light waves encounter molecules, small water droplets and bits of dust.


Blue light has a short wavelength, and the particles in the air scatter it around, making the sky
appear blue. Red light has a longer wavelength, which acts more strongly and is not scattered as much.


Sunsets are red because in the evening, the light has more atmosphere to pass through to get to your eye, and only the strong red light can make it. The atmosphere in this illustration is exaggerated in relation to the
Earth to show the difference.

Energías alternativas

Todas las fuentes de energía, salvo la geotérmica y la nuclear, proceden, en última instancia del sol, pero lo usual es identificar como energía solar la energía renovable obtenida con el empleo directo de la energía del sol en forma de luz o calor. Entendemos como energía renovable aquella cuya fuente de obtención se renueva constantemente, poniéndose a nuestra disposición de forma periódica, frente las energías no renovables que no se renuevan o que tienen unos períodos de renovación muy largos.
La energía que recibe la tierra del sol es enorme, si bien no nos damos cuenta ya que la tenemos como cosa cotidiana. La energía solar recibida por la tierra en un año es miles de veces superior al consumo total de energía de la humanidad en un año, si bien se registran grandes variaciones en función de la localización geográfica. Además, existen grandes variaciones diarias (días claros o nublados) y estacionales.
La fotosíntesis es la utilización más importante de la energía solar, y la única fuente de materia orgánica, alimentos y biomasa. La leña es una consecuencia de la fotosíntesis, y los combustibles fósiles no son más que energía solar almacenada a lo largo de millones de años. Bueno, también son un almacenamiento seguro para el CO2, pero esta es otra cuestión.
La energía de las mareas es consecuencia de la acción combinada del sol y la luna, la hidroeléctrica del ciclo del agua, causado en última instancia por el sol, que es quién provee la energía necesaria para evaporar agua del mar y elevarla a las montañas para que pueda ser aprovechada su fuerza al descender. La energía del viento es causada por el sol al calentar desigualmente distintas masas de aire...
El aprovechamiento directo de la energía solar, al tratarse de una forma de energía difusa, variable y poco concentrada, entraña ciertas dificultades, que la tecnología se encarga de solucionar día a día ofreciendo continuamente mejoras. Básicamente hay dos tipos de aprovechamiento de la energía solar directa: la fotovoltaica, que convierte la radiación solar en electricidad, y la térmica, que aprovecha el calor del sol.
Las energías alternativas son, en muchas ocasiones, más económicas que las convencionales. La radiación del sol es gratuita e inagotable, y su uso energético es rentable a medio plazo, permitiendo amortizar en poco tiempo su instalación.
Deducido el coste de amortización, las energías alternativas son totalmente gratuitas, aunque siempre es necesario un sistema de apoyo energético con fuentes no renovables para cuando las condiciones meteorológicas no son favorables.
Consúltenos sobre equipos para aprovechamiento de energía eólica o hidráulica para bombeo de aguas, molinos y otras aplicaciones. Muchos de los equipos son aptos para uso doméstico y su precio es muy asequible.
También podemos suministrar equipos para aprovechamiento de la biomasa, la gasificación o metanización de residuos. Puede ser interesante la obtención de gas metano a partir de residuos de ganadería.

Combustibles limpios: Sinopsis

¿Qué son Combustibles Limpios?
Los combustibles más populares o conocidos para el transporte en este país son la gasolina y el diesel, pero unsinnúmero de fuentes de energía son capaces de suministrar energía a un vehículo. Éstos incluyen alcoholes, electricidad, gas natural y el propano.
Algunos combustibles para vehículos producen menos contaminación que la gasolina de hoy, debido a suspropiedades físicas o químicas. Éstos se llaman "combustibles limpios".

¿Por Qué Cambiar a Combustibles Limpios?
Los autos que funcionan con las gasolinas de hoy emiten mezclas complejas de compuestos que llevan a laformación de ozono al nivel del suelo; muchos de estos compuestos además son tóxicos. Se ha hecho mucho parareducir la contaminación proveniente de los autos, desde el desarrollo de tecnologías innovadoras para controlarlas emisiones hasta el establecimiento de programas de Inspección y Mantenimiento. Pero cada año hay más autosen las carreteras que viajan más millas, y las medidas de control de contaminación que se han tomado hastaentonces no han sido suficientes para resolver el problema del ozono en muchas ciudades grandes.
Los combustibles limpios tienen algunas propiedades intrísicas que los hacen más limpios que la gasolinaconvencional. Por lo general, estos combustibles emiten menos hidrocarburos, y los hidrocarburos que emiten sonmenos reactivos (más lentos en formar ozono) y menos tóxicos. Las emisiones de vehículos impulsados porelectricidad, gas natural o alcohol pueden tener hasta 90 por ciento menos tóxicos e hidrocarburos que formanozono que las emisiones de vehículos que utilizan gasolina convencional. Se espera que nuevas formulaciones degasolina (gasolina reformulada) reduzcan estas emisiones hasta un 25 por ciento comparados con las de lagasolina de hoy.
El uso de combustibles limpios también podría contribuir a retardar la acumulación atmosférica de dióxido decarbono, un "gas de efecto de invernadero" que contribuye al potencial del calentamiento global. La combustiónde cualquier combustible a base de carbón produce el dióxido de carbono. Pero el impacto general de uncombustible particular en el calentamiento global depende de cómo se produce el combustible. Por lo general, loscombustibles provenientes de biomasa de dióxido de carbono que los combustibles hechos de petróleo o carbón.
Los combustibles limpios tienen beneficios que van más allá de sus ventajas en cuanto a la calidad del aire.Nuevos combustibles en el mercado le proporcionarían a los consumidores nuevas opciones y podrían reducirnuestra dependencia en el petróleo importado.

Envases, empaques y embalajes alimentarios

Diversos avances tecnológicos han podido ofrecer a la humanidad la posibilidad de mejorar la calidad de vida al modificar nuestros hábitos y costumbres; ese es el caso de los envases que guardan los alimentos. Antes de que se pudiera refrigerarlos, los envases ayudaron a conservar durante periodos más largos diversos productos. A lo largo del tiempo, los envases han llegado a tener un alto grado de perfeccionamiento, derivado de la extensa oferta de materiales para fabricarlos y de los alimentos. El actual ritmo de vida ha generado un crecimiento enorme de las industrias dedicadas a la fabricación de envases, embalajes y empaques de los alimentos.

La mercadotecnia, por su parte, ha generado una cerrada competencia en el sector porque un envase, además de contener, transportar y proteger el producto, debe asimismo mostrar una imagen que pueda venderse y ser atractiva al variado gusto de los consumidores, pues en muchos casos se trascienden las fronteras. Aquí veremos cómo se ha hecho la sustitución gradual de materiales metálicos, de vidrio y de madera, hasta los materiales plásticos biodegradables tan necesarios hoy en día, pasando por los materiales plásticos derivados de la petroquímica.

Friday, December 08, 2006

Frustraciones

Ahora que hago el ensayo que tenemos que hacer en lenguaje normalito, me he dado cuenta (y eso que de todas maneras no usarìa un lenguajamuy acà inentendible) pero pues sì es bastante complicado el hablar de un tema en especifico sin poder profundizarmucho (mas bien, sin saber como profundizarlo) debido a la diferencia de lenguaje que se necesita para poder entenderlo.

Ademàs, siempre he tenido una pequeña frustraciòn con los ensayos, ¡jamàs he sabido còmo empezarlos! Siempre he pensado que eso nos deberìan enseñar (al menos a mi), algo asi para impulsar, desarrollar y expresar de una forma concreta nuestras ideas sin perdernos en un desvario de ideas sin razòn. Y a saberlas darlas a conocer, de manera efectiva, rapida y sencilla.

¿Alguien tiene idea de como empezar a hacer un ensayo? :-D

...Y a pesar de todo, apesar de que no me entiendan, de que de repente de a entender algo que no quiero, que escribaideas medias raras y todo, todo: ¡me gusta escribir! (¿No se nota? Creo que crearè mi propio blog para cuando tenga ganas de hablar, hablar y hablarporque esto es de pura Quìmica, jejejeje,sorry)

Thursday, December 07, 2006

Alimentos ecológicos con calidad certificada

Es indudable que la salud es la principal preocupación de todos los seres humanos y la alimentación es parte inseparable de una buena salud. La producción y venta de alimentos ecológicos, vienen a dar respuesta a los consumidores y a la cada vez mayor atención que se presta a la alimentación. La innecesaria ingestión de químicos, producto de las explotaciones agrícolas y ganaderas son nocivos para la salud y deteriora el medio ambiente. Se podría decir que los alimentos ecológicos, orgánicos o biológicos, son aquellos alimentos y bebidas producidos sin la utlización de productos químicos en todas las fases de su elaboración. Actualmente, los consumidores tienen la garantía de que los alimentos naturales que compran son realmente ecológicos y saludables si al comprar alimentos ecológicos estos están certificados por los organismos correspondientes.

Los alimentos ecológicos proporcionan además un aporte nutricional más completo que los convencionales y sus efectos en el organismo siempre serán positivos. Los alimentos ecológicos contienen entre un 40% y un 60% más de vitaminas y minerales que los productos convencionales y menos porcentaje de agua, por lo que aportan más resistencia ante las enfermedades. Se conservan mejor que los tradicionales y poseen un contenido en nutrientes muy superior al de los productos convencionales.
La parte negativa se encuentra en el precio de venta de los alimentos ecológicos que es más elevado que el de los convencionales, si bien esta diferencia se está reduciendo en los últimos años por el aumento de la demanda y ya son muchos los alimentos ecológicos que se pueden comprar, zumos, legumbres, frutas, carne, verduras, vinos, etc. Los consumidores bien informados aceptan este mayor precio de venta ya que realmente obtienen productos saludables de mucha mejor calidad. También es cierto que algunos productos, sobre todo vegetales, no tienen un aspecto tan bonito como los tradicionales pero a cambio si tienen un color mucho más puro. Los alimentos ecológicos hacen recuperar el verdadero aroma y sabor de las comidas y bebidas.

Wednesday, December 06, 2006

Tipos de armas químicas


La llamada guerra bioquímica amenaza con diversas opciones de acuerdo al agente agresor que se utilice en los ataques:
Químicos: diversas sustancias como el cianuro generalmente en forma de gases, entre los cuales se popularizó el gas Sarin luego de un ataque en el Metro de Tokio en 1995. Su acción tiene lugar en distintos puntos del organismo, sobre todo a nivel pulmonar y atacando el sistema nervioso central, provocando paros cardiorrespiratorios, inmovilización, etc.
Bacteriológicos: se llaman así aunque los agentes infecciosos no son sólo bacterias como la causante del Botulismo o la Peste, sino también virus como el de la Viruela o el temible Ébola. Su acción consiste en la infección de la población con alguno de estos agentes patógenos, para los cuales hay diversa capacidad de reacción por parte de la ciencia. Su efecto se hace más devastador cuando se piensa que la población infectada puede contagiar a muchas más personas, originándose epidemias. Aún frente a aquellos microorganismos que pueden ser controlados con drogas y atención médica, una sociedad puede verse indefensa cuando los pacientes son miles y la situación es de caos. Otras de las enfermedades que se creen posibles de ser usadas son el Antrax, Fiebre Q, Hanta-virus, virus enteropatógenos que afectan al sistema digestivo, etc.
Algunas de las necesidades estructurales y organizativas para afrontar un ataque con armas de esta naturaleza son las siguientes:
• entrenamiento y dotación de elementos específicos al personal sanitario; • redoble de los planes de inmunización contra los agentes que lo contemplen;• almacenamiento de drogas y antídotos suficientes para una demanda a gran escala, e infraestructura para recibir y trasladar a los enfermos; • laboratorios con capacidad de trabajo diversificada y veloz, incluyendo secuenciadores de ADN para identificar los patógenos;• puesta a punto de canales de comunicación para la coordinación y estricto control de los medios masivos para el mantenimiento de la calma una adecuada información de la población.
En efecto, una de las consecuencias más graves que puede poseer un ataque con armas bioquímicas es el efecto psicológico sobre la sociedad. Evitar el pánico y el colapso social sería tan necesario como atender a los directamente afectados por los agentes agresores.
La incoherencia de un mundo que ha luchado por vencer la enfermedad y el sufrimiento, frente al horror de sembrarlos en la sociedad indefensa sería una paradoja muy difícil de aceptar.

La alquimia de las estrellas

El sueño de los alquimistas, la transmutación de los elementos, a la que dedicaron tanto tiempo y esfuerzo durante la Edad Media, en realidad venía ocurriendo en el cielo todo el tiempo y desde hace miles de millones de años, ya que este fenómeno es parte del ciclo vital de las estrellas. A partir de la confección de la tabla periódica de los elementos, el descubrimiento del electrón y de otras partículas elementales , y el surgimiento de la física atómica a principios del siglo XX, la explicación de las propiedades químicas de los elementos se hizo relativamente sencilla, pero faltaba explicar la distribución de las masas atómicas, que no guardaba ninguna relación aparente con la de los números atómicos.Un primer paso en este sentido fue el descubrimiento del neutrón, partícula sin carga eléctrica y con una masa similar a la del protón, realizado en 1932 por el físico inglés James Chadwick. Otro de los que por ese entonces sospechaban de la existencia del neutrón, el físico alemán Hans Bethe, sugirió estudiar las estrellas para entender el origen de los elementos.Un detalle importante para entender la síntesis de los elementos es que las reacciones que ocurren en las estrellas son reacciones nucleares, esto es, que involucran la estructura íntima del núcleo. Estas se diferencian de las reacciones químicas en que son controladas por las llamadas fuerzas nucleares en vez de por la fuerza electromagnética. La principal reacción nuclear que ocurre en las estrellas es la que transforma hidrógeno en helio, conocida como fusión del hidrógeno. La presencia de estos elementos químicos en la superficie de las estrellas se pone de manifiesto mediante una técnica denominada espectroscopía.Fue allá por 1942 que el físico ruso-ucraniano, nacionalizado estadounidense, George Gamow propuso que la explicación de la teoría de la Gran Explosión sobre el origen del universo, y por ende, de los elementos químicos, se basaba en cadenas o series de reacciones nucleares. Esta teoría, también conocida por su expresión inglesa Big Bang, había sido propuesta inicialmente por el sacerdote belga Georges Lemaître, en 1927.En 1948, Gamow, Ralph Alpher y Bethe presentaron una primera hipótesis sobre el origen de los elementos y las reacciones nucleares que ocurrieron en los minutos inmediatamente posteriores al Big Bang, en el proceso conocido como nucleosíntesis.Del debate e intercambio científico subsiguiente se llegó a la conclusión de que la nucleosíntesis del Big Bang requería un comienzo muy caliente, el que, según los cálculos de Alpher y Robert Hermann, tendría que haber dejado –a pesar del enfriamiento posterior debido a la expansión del universo– un rastro en forma de radiación de microondas, cuya temperatura sería de unos 5 kelvin (268 grados centígrados bajo cero). A esta radiación se la conoce como Radiación Cósmica de Fondo.En 1957 el astrofísico inglés Fred Hoyle, junto con William Fowler y otros, demostraron que, bajo supuestos muy diferentes que los que se utilizaron en la década de 1930, casi todos los elementos más pesados que el helio podían ser sintetizados en las estrellas. Esta teoría reunía, además, la experiencia recogida en los años precedentes en cuanto a reacciones nucleares.Esto último llevó al austríaco nacionalizado inglés Hermann Bondi a formular, cerca de 1960, la teoría del estado estacionario que describía la situación posterior al Big Bang. Dicha teoría supone la creación continua de materia a medida que el universo se expande, es decir, nunca hubo principio ni final. Sin embargo, el descubrimiento, en 1965, de la radiación cósmica de fondo por los estadounidenses Arno Penzias y Robert Wilson dio mayor impulso a la teoría de la Gran Explosión.Volviendo al origen de los elemen-tos, los núcleos atómicos provienen de cuatro tipos de reacciones: captura, decaimiento, fusión y fisión. En la captura un núcleo es impactado por un protón, un neutrón o bien una partícula alfa (núcleo de helio).En el decaimiento, en cambio, un núcleo se transforma en otro emitiendo partículas (protones, elec-rones, neutrones, positrones, neu-trinos o antineutrinos) o radiación. De acuerdo con esto, si un núcleo captura un neutrón continúa siendo el mismo elemento químico pero con mayor masa atómica. En cambio, si captura un protón, pasa a ser un nuevo elemento. Cualquiera sea la reacción, si la misma no diera lugar a un núcleo que cumpla con ciertas condiciones de estabilidad, éste decaería en otro más estable.La fusión implica que dos núcleos (no ya un núcleo y una partícula) se unen para formar un tercero más pesado, y la fisión es la fragmentación de un núcleo pesado en otros dos más livianos, no necesariamente iguales. Así, la gama de posibilidades resulta enorme, aunque algunas reacciones son más factibles que otras, dependiendo de las condiciones del caso. Las reacciones de fusión y captura que dan lugar a los elementos más livianos (carbono, oxígeno, magnesio) ocurren todo el tiempo en el interior de estrellas jóvenes como el Sol, donde las altas presiones y temperaturas les son favorables. Los elementos más pesados ocupan sólo una porción minoritaria del total de las reacciones y adquieren importancia relativa solamente cuando se agota el hidrógeno en el interior de la estrella y ésta comienza a fusionar el de su parte exterior. Esta situación se percibe desde fuera por un cambio de color en la estrella y un aumento en su tamaño: pasa a ser una gigante roja. Cuando el Sol alcance su fase de gigante roja crecerá hasta alcanzar la órbita de la Tierra, pero a no preocuparse: todavía faltan unos cuantos millones de años para que eso ocurra.Mientras tanto, en el interior de la gigante roja se consume helio y se produce carbono. Esto dura poco tiempo y finalmente la estrella se contrae hasta convertirse en lo que se conoce como una enana blanca, que mide tan solo una pequeña fracción del tamaño original.Si la estrella fuera más grande (un 40 a 50 por ciento mayor que el Sol) las reacciones nucleares continúan y el carbono y el helio se fusionan hasta producir oxígeno, y la cadena de reacciones continúa hasta que se forma hierro. Dado que el núcleo atómico de hierro es sumamente estable, se detienen las reacciones de fusión. El núcleo de la estrella se contrae y los protones y neutrones son expelidos junto con las capas exteriores de la estrella, en lo que se conoce como explosión supernova.Por su brevedad y violencia, dicho estallido genera una onda de choque de tal magnitud que da lugar a la formación de los elementos más pesados, hasta el uranio inclusive. Estos elementos se mezclarán con las nubes de polvo cósmico y gas de las cuales, eventualmente se formarán nuevas estrellas y planetas. Nuestra estrella se contraerá a un diámetro mucho menor aún que el de una enana blanca, formando lo que se conoce como una estrella de neutrones. Estas, en su etapa inicial, eyectan partículas cargadas, lo que da lugar a intensos campos magnéticos que son percibidos desde la Tierra como señales que varían rápidamente y en forma muy regular, como si fuera un faro en el espacio. Es por ello que a dichas estrellas se las conoce como pulsares.Si la estrella resultara aún más grande, lo que seguiría a la supernova sería todavía más concentrado, lo que se conoce como un agujero negro.Sin cesar, en algún lugar del infinito universo, la alquimia continúa.

Monday, December 04, 2006

Sabor y olor de la comida

Creo que ya me entró mi depresión vacacional, pero: ¡jamás pensé que fuera tan pronto!
No sé a ustedes, pero a mi, después de tanta presión, estrés, exámenes y tareas, cuando llegan las vacaciones, ¡no encuentro que hacer!
Pero nunca pensé que fuera tan pronto, aún no termino con mi ensayo del Ozono y ya ando buscando actividades para entretenerme (y está vez, encontré el blog en el que sé que puedo publicar cosas y cosas y cosas, jajaja).
En esta ocasión, les dejo un articulillo, así a grandes rasgos acerca del olor y sabor de los alimentos (que en este momento, con esta gripa, no percibo ni olores ni sabores [buen punto: alguien sabe ¿por qué?]) Jajajaja.

¿Qué son los modificadores y potenciadores del sabor?
Hay ciertas sustancias químicas, normalmente presentes en la naturaleza, que, aunque en si mismas no tienen mucho efecto, al ser añadidas a algunos alimentos producen una modificación de su sabor y olor natural .El cloruro sódico (la sal de mesa) es uno de estos productos que se usa desde la antigüedad.
Red cristalina del cloruro sódico
La miracularina (glicoproteína de elevado peso molecular) es un modificador del sabor presente en una planta de la familia de las sapotáceas (Synsepalum dulcificum). Al masticar las bayas de esta planta se inhibe (durante una hora) la capacidad de apreciar el sabor ácido pero no el sabor dulce. El limón mas agrio, sabe como la naranja mas dulce. Se cree que la miracularina actúa uniéndose a los receptores de las células responsables del gusto ácido, impidiéndoles así su funcionamiento.
El olor de la comida
El estudio de las sustancias químicas responsables de los olores de los alimentos ha tenido un gran auge en los últimos veinticinco años. El desarrollo de técnicas especiales de análisis como la cromatografía de gases, ha permitido identificar pequeñas cantidades de las sustancias volátiles que dan lugar al olor. El paso posterior a la identificación ha sido la síntesis de las mismas, que ha traído consigo la aparición de alimentos con aromas artificiales.

Cromatografía


Bueno, les voy a comentar algunas de las cosas que hacía en mi laboratorio. Como es el laboratorio de Química Orgánica, pues nos dedicábamos a bajar columna y sacar plaquitas cromatográficas, aqui les paso información acerca de lo que son estas placas y la forma de hacerlas correctamente:

La técnica de cromatografía en capa fina (TLC) es una de las más comunes empleadas en un laboratorio de Química Orgánica. Entre otras cosas permite:
*Determinar el grado de pureza de un compuesto
*Comparar muestras
*Realizar el seguimiento de una reacción
*Controlar el contenido de las fracciones obtenidas en cromatografía de columna.

La cromatografía en capa fina usa como fase estacionaria un sólido como gel de sílice a alúmina conteniendo algún material que hace que se mantenga la fase estacionaria sobre un soporte tal y como placas de vidrio, aluminio e incluso materiales plásticos. Las placas pueden prepararse en el laboratorio o adquirirse en el mercado.Para realizar una cromatografía en columna se procede de la siguiente manera:

1) Preparar o cortar, en su caso, una placa de tamaño adecuado.
2) Disolver una pequeña cantidad de la muestra y, mediante un capilar de vidrio, pinchar en la parte inferior de la placa a cierta distancia del borde.
3) Introducir la placa en un recipiente con el disolvente adecuado. Dicho recipiente debe presentar una atmósfera saturada en el vapor del disolvente por lo que se pone trozo de papel de filtro en la parte posterior y disponer de un sistema de cierre.
4. Cerrar el recipiente y dejar que el líquido ascienda por capilaridad.
5) Revelar la placa para poner de manifiesto donde se encuentran los puntos .
6) Determinar las posiciones relativas de los puntos mediante el cálculo del Rf

COLORANTES ARTIFICIALES

En los últimos años la preocupación por la seguridad de los alimentos, y la presión del público, ha llevado a muchas empresas a revisar la formulación de sus productos y sustituir cuando es tecnológicamente factible los colorantes artificiales por otros naturales. Además, son más resistentes que los colorantes naturales.Precisamente la preocupación por su seguridad ha hecho que los colorantes artificiales hayan sido estudiados en forma exhaustiva por lo que respecta a su efecto sobre la salud, mucho más que la mayoría de los colorantes naturales. Ello ha llevado a reducir cada vez más el número de colorantes utilizables, aunque al contrario de lo que sucede en los otros grupos de aditivos, existan grandes variaciones de un pais a otro. Por ejemplo, en los Paises Nórdicos están prohibidos prácticamente todos los artificiales, mientras que en Estados Unidos no está‡n autorizados algunos de los que se usan en Europa pero sí lo están otros que no se utilizan aquí.En España la cantidad total de colorantes artificiales está limitada en cualquier producto alimentario. Además cada colorante tiene por sí mismo un límite que varía según la sustancia de que se trate y del alimento en el que se utilice. La tendencia actual es a limitar más aún tanto los productos utilizables como las cantidades que pueden añadirse

ALIMENTOS TRANGÉNICOS


Los alimentos transgénicos ya están en nuestra mesa. Son parte de la globalización económica: diseñados por grandes multinacionales ávidas de beneficios, llegan a buena parte del globo para ser consumidos por gente como tú. ¿Conoces sus riesgos?



¿Qué problemas plantean los organismos manipulados genéticamente?
A grandes rasgos, hay problemas medioambientales (destrucción de biodiversidad, un problema muy grave), de salud para quien los consume (por la manipulación genética y por el aumento de uso de pesticidas en muchos casos), de desigualdad social y hambre (las repercusiones sobre el campesinado son brutales), de irreversibilidad (la contaminación genética se reproduce a sí misma)... Las ventajas son nulas excepto para un sector social: los millonarios que dirigen las multinacionales agroindustriales.
Si los transgénicos causan tantos problemas, ¿por qué la Comisión Europea y en general los gobiernos occidentales los promueven?
Es bastante sencillo. Las grandes multinacionales interesadas en los transgénicos tienen un enorme poder económico, y dado que vivimos en "la mejor democracia que el dinero puede comprar", estas grandes empresas tienen a su servicio a gran parte de los dirigentes "políticos". Este es el motivo por el que los gobernantes aprueban leyes favorables a los transgénicos (aderezadas con falsas "medidas de control") pese a que la mayoría de la población no está de acuerdo.
¿Pero por qué las grandes empresas tienen tanto interés en que se desarrollen los transgénicos?
A las grandes empresas del sector agroindustrial los transgénicos les interesan porque suponen una fuente de poder monopolístico (ya que son patentables y favorecen la concentración de capital).
Las grandes empresas sotienen que los transgénicos pueden acabar con el hambre en el mundo. ¿Es cierto?
Es justo al contrario. Los transgénicos aumentan el hambre ya que favorecen que las tierras pasen de ser propiedad de pequeños campesinos a grandes empresas. El hambre en el mundo tiene causas sociales, no de falta de producción. De hecho, hoy día hay producción alimenticia suficiente para alimentar a todo el mundo, pero está mal repartida. Este hecho es consustancial al funcionamiento del capitalismo, y se ve acelerado por la globalizacion económica.

LO QUE CUESTA LA SALUD DE LAS PLANTAS

Según un estudio reciente la investigación y desarrollo, de un nuevo producto fitosanitario para proteger o curar plantas y cultivos tarda una media de 9 años en ponerse en el mercado y cuesta alrededor de 200 millones de Euros en Europa, cifra que ha aumentado 8 veces en las dos últimas décadas.
Muchos ciudadanos creen que los productos se introducen en el mercado sin más, sin embargo, y para su tranquilidad, los estudios que requieren las autoridades europeas y nacionales, y que revisan expertos independientes para autorizar un producto, superan la centena e incluyen datos sobre 6 áreas definidas:1. Las propiedades físicas y químicas de la sustancia activa
2. Métodos analíticos: que permiten la determinación de la pureza de la sustancia activa y la detección de residuos potenciales en los alimentos, la tierra y el agua
3. Toxicidad: la toxicidad aguda (a corto plazo) y crónica (a largo plazo) de la sustancia activa medida en humanos, ganado y animales de compañía, así como efectos cancerígenos, mutagénicos y teratogénicos y secundarios.
4. Estudios de metabolismo y degradación: éstos analizan qué le ocurre al producto en plantas, mamíferos y otros animales de laboratorio
5. Residuos en alimentos: se miden en todos los estadios desde la aplicación del producto a la cosecha y almacenaje de los alimentos. También se verifican y analizan en alimentos procesados.
6. Estudios de medio ambiente y ecotoxicología: se estudia la evolución delproducto en el terreno, el agua y el aire. También se estudia cualquierefecto potencial en aves, peces, algas y otros organismos no objetivos y beneficiosos como las abejas, las lombrices y los microorganismos de la tierra.
7. Eficacia y comportamiento: se incluyen datos sobre la eficacia del producto en el control de malas hierbas, enfermedades o plagas sin que dañe al cultivo.

Actualmente, sólo sale al mercado un nuevo producto por cada 140.000 moléculas investigadas para cada nuevo producto, mientras que en 1995, sólo se tenían que analizar 52.000 moléculas.


También ha aumentado el tiempo medio de desarrollo (desde la primera síntesis hasta la comercialización) desde los 8,3 años en 1995 a 9,1 años en 2000.

La industria atribuye este aumento drástico a los más rigurosos estándares reglamentarios y también a los criterios más estrictos aplicados por las propias empresas durante el proceso de investigación y desarrollo de productos para garantizar la seguridad del consumidor y del medio ambiente.


El estudio fue solicitado por ECPA, European Crop Protection Association, y fue desarrollado por Phillips McDougall quien analizó la industria fitosanitaria mundial líder en I+D para comparar los costes derivados del descubrimiento,

El colesterol

Bueno, en mi clase de Pensamiento y Lenguaje, terminé hablando del colesterol, así que aquí les paso un artículo muy bueno que supongo que no sabían... (Espero que no valga mi 10 en la materia)

TAKING A CLOSE LOOK AT LDL CHOLESTEROL NMR technique paves the way for a better measure of low-density lipoproteins A. MAUREEN ROUHI, C&EN WASHINGTON
It is dogma that high levels of low-density lipoprotein (LDL) cholesterol--the bad cholesterol--significantly increase the risk of heart disease. So we regularly check our LDL levels. But in trying to assess risk for heart disease, the bad-cholesterol number may not be the right one to monitor.

Cholesterol is the most abundant lipid in low-density lipoprotein. But it is not cholesterol per se that directly leads to cardiovascular disease. It is the LDL particle itself that initiates and promotes atherosclerosis. What has happened in clinical diagnostics is that the cholesterol in LDL has become a convenient surrogate marker of LDL particle numbers.
"Because people figured out how to measure cholesterol in the blood a long time ago, people have been measuring cholesterol and imagining that it was giving them a good representation of LDL levels in patients," says James D. Otvos, founder and chief scientific officer of LipoScience, Raleigh, N.C. Many studies show, however, that LDL cholesterol is not as good a predictor of heart disease as it is touted; what is more reliable is the number of LDL particles, Otvos says. The bad-cholesterol numbers we routinely get during our annual physical examinations could be misleading when assessing risk, he suggests.
Lipoproteins are the vehicles for transporting cholesterol and trigylcerides in the blood stream. They have a common structure: a neutral lipid core surrounded by a spherical shell of phospholipids and protein. Lipoprotein particles vary in density and are categorized as very low density, low density, and high density. The particles also vary in size.
"If every LDL particle had the same size and had exactly the same amount of cholesterol, then LDL cholesterol would be a perfect, completely faithful marker of the number of LDL particles," Otvos says. But suppose two people with the same level of LDL cholesterol have LDL particles of vastly different sizes. The individual with smaller particles would have to have more particles to carry the equivalent amount of cholesterol. All other factors being equal, that person is at higher risk for heart disease.
Otvos is on a mission to convince the medical community to adopt LDL particle number in place of LDL cholesterol. A major hurdle is the perceived difficulty of measuring LDL particle number. At present, LDL particle number is accessible only through an immunoassay of apolipoprotein B. According to Otvos, one molecule of this protein is present on every LDL particle, as well as on every very low density lipoprotein (VLDL) particle. Because LDL particles greatly outnumber VLDL particles, the level of apoliprotein B gives a reasonable approximation of the number of LDL particles. "However," Otvos says, "as with all protein immunoassays, measurement reproducibility is limited and standardization is required to ensure good interlaboratory accuracy."
Otvos trumps these analytical challenges with LipoScience's methodology based on nuclear magnetic resonance spectrometry. In Raleigh, LipoScience has 16 400-MHz NMR spectrometers analyzing clinical samples. After much jury-rigging, the instruments are fully automated. With the push of a button, they analyze the number of LDL--and VLDL and high-density lipoprotein--particles in blood plasma samples with no additional sample preparation or reagents.
"We plan to make further engineering modifications to the machinery so that we can make available to labs worldwide an NMR analyzer that will initially do this one important test with proven clinical value," Otvos says. "The menu of test offerings will then expand over time." LipoScience is considering potential collaborations with major NMR instrument suppliers.

NMR ANALYSIS of lipoprotein particles is based on the methyl signal coming from all methyl groups in the lipoprotein. "The size of the particle imposes spectroscopic distinctness on the signal," Otvos says. "What we discovered and have put to use is the very small difference in the magnetic susceptibility of a big particle versus a small particle. So the frequency of the signal is a little bit different when the lipids are carried in a bigger particle versus a smaller particle. The differences are so slight that it wasn't imagined that they could be exploited for anything." Not anyone can step up to an NMR spectrometer with a blood plasma sample and get an answer, Otvos cautions. The NMR signal is the sum of all the contributions from all the different-size lipoprotein particles. It has to be deconvoluted to get the amplitude resulting from each size class. Those amplitudes are directly proportional to the numbers of particles, irrespective of the exact amount of any particular lipid--such as cholesterol--in those particles.
Deconvolution is based on knowing the spectral characteristics of a library of reference standards that represent all lipoprotein particles likely to be found in human plasma, Ostvos explains. That information doesn't come easily. "It's a tremendous effort to physically isolate reference samples of each of the different-size particles. We have spent years doing that," he says, "and we have figured out computationally how to use the information. It would be extremely difficult to extract meaningful information from the NMR spectrum otherwise."
Cholesterol testing is a billion-dollar market, Otvos says. He has no illusions that the use of LDL cholesterol to assess the risk for heart disease will change overnight. Resistance to adopting an alternative LDL measure is strong because so much effort has been invested into educating the public about the importance of cholesterol, he explains.With disease prediction by LDL particle number demonstrably better than that by LDL cholesterol, Otvos says, he is convinced that change will happen eventually. "The methodology behaves beautifully. We can crank out very good, very reproducible, very accurate information very efficiently," he tells C&EN. "We think this will drive the introduction of NMR spectrometry into clinical laboratory medicine."

fin de cursos

hola!
pues al parecer este semestre ya se nos terminó, pero se fue tan rápido... no creen?
bueno sólo quisiera dar mi opinión final sobre este curso,
realmente me ayudó muchisimo, pues ahora tengo una perspectiva mucho más grande de lo que es la Química y de lo que hace por nosotros cada día.
Además de que fue muy agradable conocer a todos mis compañeros químicos, pues es interesante relacionarse con alguien que comparte este tipo de intereses (pues ya averiguamos con las encuestas que somos realmente escasos)

la tarea que más me dejó pensando definitivamente fue la de las encuestas, por que la verdad no me esperaba taaaaantas respuestas que me dieron... algunas veces se siente un poco feo que la gente deteste lo que nosotros algún día haremos, pero por otro lado es padre saber que no somos tan comunes.

ojalá a uds les haya dejado algo positivo este curso (y todos los demás)
felices vacaciones y nos vemos el proximo semestre.

un poco de historia

solo una pizca de la historia de como la quimica "del carbono" se inicio y continua haciendolo.


HistoriaEn Septiembre de 1997 se cumplieron 12 años desde aquellos fantásticos 11 días que, según algunos, cambiaron la cara de la Química moderna. Durante aquellos días en el laboratorio del Departamento de Química de la Universidad Rice en Houston, Texas, EE.UU., los químicos Harry Kroto, Rick Smalley, Bob Curl y sus dos estudiantes de post-grado, fueron los primeros seres humanos en descubrir, es decir en observar y reconocer, una nueva forma de Carbono puro en la Naturaleza. Hasta entonces sólo se conocían otras dos formas naturales estables o alotrópicas del elemento Carbono: el diamante, uno de los más duros materiales conocidos y el grafito, uno de los más quebradizos [Nota 1].
¿Cómo es posible que nunca nadie haya observado antes esta tercera forma de Carbono siendo éste uno de los elementos más estudiados por el Hombre por tratarse del ladrillo constitutivo fundamental de la vida en la Tierra? Para ser exactos, sí fue observado --y muchas veces [Nota 2]. Sucedía que aquellos que lo vieron no lo reconocieron por lo que era: una forma no identificada de Carbono puro. Requirió de la mente investigativa y preparada de un grupo de científicos que, aunque no lo buscaban, una vez que se les apareció este nuevo enigma no cejaron hasta encontrar una explicación a sus "extrañas" observaciones.
Esta fantástica odisea de descubrimiento y sagacidad comienza cuando al científico inglés Harold Kroto de la Universidad de Sussex, se le ocurre pedir prestada una máquina de bombardeo y vaporización que utilizaban los químicos norteamericanos Richard Smalley y Robert Curl en sus experimentos en Rice para formar "racimos" (clusters) de átomos metálicos. En esta máquina, diseñada por Smalley, los científicos tejanos pueden vaporizar una barra de Silicio sometiéndola a altas temperaturas por medio de rayos láser hasta dislocar sus átomos convirtiéndolos en un plasma. En ella se alcanzan temperaturas "superiores a los diez mil grados", como acota Smalley, "fácilmente más caliente que la superficie de cualquier estrella". En la cámara de vacío del vaporizador se logran agrupar los átomos así dislocados gracias al ingenioso mecanismo de "soplar" los racimos con una nubecilla de gas de Helio, el cual al ser inerte no interviene en la reacción [Nota 3]. Cuando se logra una buena cantidad de estas cadenas de átomos agregados o racimos, se los analiza con un espectrómetro de masa para estudiar detenidamente su estructura.
Kroto, un astroquímico, buscaba una explicación para sus observaciones del Carbono estelar, "polvo estelar" como él lo llama. Estas observaciones son sumamente importantes para dar respuesta a una de las interrogantes más fascinantes de la Ciencia: ¿De dónde venimos? El Carbono es el elemento fundamental de la vida en nuestro planeta. ¿Cómo llegó hasta aquí? Astrónomos han sabido por mucho tiempo que la mayoría del Carbono de nuestro universo se formó en los núcleos de las estrellas relativamente poco tiempo después del Big Bang. Este nuevo material junto con otros recién creados viajó por el espacio hasta caer sobre los planetas en formación como verdadero maná vital. Solo en aquellos en los que las condiciones eran fértiles para la vida carbonífera, éste se consolidó con otros elementos para formar parte de los primeros micro-organismos auto-replicantes. "En ultima instancia", nos decía el famoso astrónomo Carl Sagan en su popular serie Cosmos, "no somos mas que polvo de las estrellas". Pero, ¿cómo y en qué condiciones llegó este elemento hasta la Tierra? Eso es justamente lo que estudian químicos-astrónomos como Harry Kroto. Usando espectroscopia de micro-ondas, él estudiaba la composición de estrellas ricas en Carbono cuyas atmósferas contienen cadenas alternadas de Carbono y Nitrógeno (cianopolienos). ¿Cómo se forman estos agregados?, se preguntaba Kroto. ¿Cómo se mantienen unidos estos conglomerados de manera que puedan viajar por la vastedad del espacio interestelar sin destruirse?
Una vez instalado en el laboratorio de Curl y Smalley, Kroto reemplazó el Silicio que ellos habían estado estudiando por el Carbono, que era lo que a él le interesaba investigar. Con la ayuda de los estudiantes-ayudantes, comenzó a analizar los agregados de átomos de Carbono que se encontraban en el plasma de su cámara de vacío, muy similares a los que él había encontrado en sus estudios de plasma estelar. Sin embargo, como ocurre en Ciencia a menudo, lo que se busca no es siempre lo que se encuentra. A poco andar, los análisis de Kroto y Smalley mostraron que existía una regularidad en el espectro de las cadenas de Carbono producidos: aparentemente a los átomos de Carbono les "gustaba" asociarse mayoritariamente en grupos de a 60 átomos. Mientras más repetían el experimento, más adeptos se ponían los experimentadores a producir estas pequeñas agrupaciones de 60 átomos. Pero, ¿por qué 60? ¿Qué tiene el número 60 que los átomos de Carbono lo prefieren sobre cualquier otro? [Nota 4].

escuela de nanoparticulas

pues como dice el profe mendez, la nanotecnologia es algo asi como nuestra media hermana...asi que porque no estar un poco informadas acerca de ello?


Un innovador proyecto argentino-brasileño en nanopartículas
Ayer a la mañana, muy temprano, el presidente de la Agencia Nacional de Promoción Científica y Tecnológica, doctor Lino Barañao, y los doctores Ernesto Calvo, investigador principal del Conicet en el Instituto de Química Física de los Materiales, Medio Ambiente y Energía, David J. Schiffrin, Mathias Brust, de la Universidad de Liverpool, y Daniela Zanchet, del Laboratorio Nacional Sincrotron de Luz en Campinas, de Brasil, entre otros, dieron comienzo a un emprendimiento pionero: la Escuela de Nanopartículas, primera actividad del Centro Binacional de Nanociencia y Nanotecnología, creado a fines del año último por científicos argentinos y brasileños para impulsar la
"Ernesto Calvo (a la izquierda) y David Schiffrin, en uno de los laboratorios". Foto: La Nación, por Rodolfo Pezzoni
colaboración científica en la región.

"El objetivo es establecer una comunidad de ideas en un área de muy rápido desarrollo y crear relaciones lo más profundas posibles entre grupos de investigación de Brasil y la Argentina", explicó Schiffrin, profesor invitado en la Universidad de Helsinki, Finlandia, y vicepresidente de la comisión de química de la Unión Europea.

El científico -que nació y se graduó en el país, pero más tarde se vio obligado a emigrar a Gran Bretaña- fue invitado gracias al Programa Milstein, que intenta mantener el contacto con científicos argentinos destacados que residen en el exterior. Es uno de los encargados de guiar a 30 becarios (13 argentinos, 13 brasileños, dos chilenos y un uruguayo) y a otros 30 jóvenes científicos de la ciudad y la provincia de Buenos Aires, seleccionados entre cientos de aspirantes.

Todos ellos recibirán clases teóricas y prácticas sobre uno de los temas de investigación que actualmente inspira más expectativas por su potencial para alimentar futuros desarrollos económicos en el área de la salud e industriales.

"Uno de los aspectos quizá más importantes [de las nanopartículas] es su uso en sensores de muy pequeño tamaño para la detección de enfermedades y para estudiar problemas de genética a través del reconocimiento de componentes de los genes", explica Schiffrin.

Según el investigador, las nanopartículas, pequeñísimos cristales que tienen propiedades muy diferentes de las de material común, y tamaños de entre 10 y 20 nanómetros [millonésimos de metro], ya se están utilizando -en ciudades como Vancouver o Chicago- en pilas de combustible que se emplean en motores de autos y ómnibus que funcionan con hidrógeno y oxígeno.

"La idea de estas escuelas es lograr que los jóvenes que constituyen la futura generación científica en el espacio del Mercosur se conozcan, comiencen a hablar un lenguaje común y a interactuar. Esto es lo que hacen, entre otros, el Programa Erasmus y otras redes en Europa y, a mi juicio, es tanto o más importante que el financiamiento mismo", afirma Calvo.

Y coincide Schiffrin: "Es lo que debemos hacer para crear una comunidad científica latinoamericana mucho más integrada que hasta el momento".

escuela de nanoparticulas

pues como dice el profe mendez, la nanotecnologia es algo asi como nuestra media hermana...asi que porque no estar un poco informadas acerca de ello?


Un innovador proyecto argentino-brasileño en nanopartículas
Ayer a la mañana, muy temprano, el presidente de la Agencia Nacional de Promoción Científica y Tecnológica, doctor Lino Barañao, y los doctores Ernesto Calvo, investigador principal del Conicet en el Instituto de Química Física de los Materiales, Medio Ambiente y Energía, David J. Schiffrin, Mathias Brust, de la Universidad de Liverpool, y Daniela Zanchet, del Laboratorio Nacional Sincrotron de Luz en Campinas, de Brasil, entre otros, dieron comienzo a un emprendimiento pionero: la Escuela de Nanopartículas, primera actividad del Centro Binacional de Nanociencia y Nanotecnología, creado a fines del año último por científicos argentinos y brasileños para impulsar la
"Ernesto Calvo (a la izquierda) y David Schiffrin, en uno de los laboratorios". Foto: La Nación, por Rodolfo Pezzoni
colaboración científica en la región.

"El objetivo es establecer una comunidad de ideas en un área de muy rápido desarrollo y crear relaciones lo más profundas posibles entre grupos de investigación de Brasil y la Argentina", explicó Schiffrin, profesor invitado en la Universidad de Helsinki, Finlandia, y vicepresidente de la comisión de química de la Unión Europea.

El científico -que nació y se graduó en el país, pero más tarde se vio obligado a emigrar a Gran Bretaña- fue invitado gracias al Programa Milstein, que intenta mantener el contacto con científicos argentinos destacados que residen en el exterior. Es uno de los encargados de guiar a 30 becarios (13 argentinos, 13 brasileños, dos chilenos y un uruguayo) y a otros 30 jóvenes científicos de la ciudad y la provincia de Buenos Aires, seleccionados entre cientos de aspirantes.

Todos ellos recibirán clases teóricas y prácticas sobre uno de los temas de investigación que actualmente inspira más expectativas por su potencial para alimentar futuros desarrollos económicos en el área de la salud e industriales.

"Uno de los aspectos quizá más importantes [de las nanopartículas] es su uso en sensores de muy pequeño tamaño para la detección de enfermedades y para estudiar problemas de genética a través del reconocimiento de componentes de los genes", explica Schiffrin.

Según el investigador, las nanopartículas, pequeñísimos cristales que tienen propiedades muy diferentes de las de material común, y tamaños de entre 10 y 20 nanómetros [millonésimos de metro], ya se están utilizando -en ciudades como Vancouver o Chicago- en pilas de combustible que se emplean en motores de autos y ómnibus que funcionan con hidrógeno y oxígeno.

"La idea de estas escuelas es lograr que los jóvenes que constituyen la futura generación científica en el espacio del Mercosur se conozcan, comiencen a hablar un lenguaje común y a interactuar. Esto es lo que hacen, entre otros, el Programa Erasmus y otras redes en Europa y, a mi juicio, es tanto o más importante que el financiamiento mismo", afirma Calvo.

Y coincide Schiffrin: "Es lo que debemos hacer para crear una comunidad científica latinoamericana mucho más integrada que hasta el momento".

la cerveza

pues a mi la verdad no me gusta la cerveza, pero es interesante saber como se prepara, conociendo que para poder llegar a esta bebida que esta en boca de muchos, es necesario un proceso quimico.

Se describe el proceso de elaboración de cerveza en la cervecería Cuauhtémoc - Moctezuma.El corazón de toda la planta se llama fuerza motriz o sala de máquinas, porque de ahí salen todas las fuentes de energía que se necesitan para que funcione toda la planta. Trabaja los 365 días del año las 24 horas del día. Si algo falla en esta parte se detiene toda la planta. Se maneja un código de colores para distinguir las diferentes fuentes de energía. Los más importantes son: el azul, que representa el agua; el color verde representa al vapor de agua pura utilizado en los cocimientos; el color anaranjado es el gas amoniaco, que sirve para enfriar las salas frías y para procesar la fermentación de la cerveza; el azul rey es el gas carbónico que se libera en la fermentación y se utiliza en el envasado; el color gris es la electricidad; y el amarillo es aire comprimido que se utiliza para hacer funcionar algunas máquinas.Se manejan dos tipos de agua, la que proviene del lago de Chapala y se le da tratamiento ahí en la planta que se utiliza para el mantenimiento, el otro tipo proviene de pozos Cartesianos de los que se obtiene agua muy pura y se le da otro pequeño tratamiento y se utiliza para el proceso de la cerveza.El proceso de la cerveza empieza desde la llegada de la materia prima, la cual llega por vía terrestre o vía férrea. La materia prima utilizada es maimilo, lúpulo (flor femenina comprimida), arroz, cebada fermentada, malta y agua. Esta materia prima es almacenada silos mientras llega el momento de ser utilizada. Más tarde se deposita en unas tolvas. Existe una tolva llamada tolva de día y ahí se almacena toda la materia prima que se va a utilizar en un día de proceso. Existen unas ollas de agua caliente a más de 90 grados centígrados para facilitar el cocimiento del producto, hacerlo más rápido. Se trae la materia prima de los silos que se va a utilizar durante el proceso. Primero se hace una filtración de toda la materia prima, principalmente de la malta, cebada y arroz, para eliminar cualquier basurita u objeto no deseado en el proceso. En seguida se pasa a los molinos para ser triturada, se trituran 4.5 toneladas por hora. En esta molienda lo que se hace es rasgar el material sin hacerlo polvo para que el cocimiento sea más fácil. Pasa a las tolvas báscula y se pesa la materia prima y ahí es donde se empiezan a diferenciar las marcas. Es ligeramente distinta la cantidad de material de una cerveza a otra. El arroz y el maimilo son almidones de cadenas de azúcares muy largas y por eso se cocen para cortar dichas cadenas y que queden iguales a las cadenas de la malta y la cebada, que sus cadenas son más cortas. Esto hace que la mezcla se haga homogénea. Ya que están bien cocidos el arroz y el maimilo se pasan a los maceradores que son una especie de licuadoras donde se están moliendo la cebada y la malta. Con el cocimiento de las 4 materias primas se obtiene azúcares, que pueden ser de dos tipos: fermentables y no fermentables. Las no fermentables le van a dar cuerpo a la cerveza, es decir, que no sea simplemente agua. Las azúcares fermentables son las que se van a poner en las levaduras en las cámaras frías para producir el alcohol. Una vez que ya está licuado se va a obtener un líquido de color amarillo llamado mosto dulce, puesto que está formado de azúcares. El mosto se cuela. El lúpulo es la materia prima encargada de dar el sabor amargo y el olor característico a la cerveza, este es un producto importado de lugares donde nieva. Existen unos filtros lauther que sirven para separar el mosto dulce de la masilla. Estos filtros tienen un falso fondo en el cual cae el líquido y se va quedando la masilla. Esta masilla se venda para ser utilizada como alimento de ganados porque tiene muchas proteínas. Una vez filtrado el líquido pasa a los últimos filtros, donde se realiza la última filtración de ahí el mosto se pasa a las pailas donde se pone a hervir. Al momento de hervir se le agrega el lúpulo y se pasa a unos tanques que actúan con una fuerza centrífuga, es decir que gira en contra de las manecillas del reloj y lanza el mosto que ya le llamamos mosto caliente porque ya se le quitó lo dulce; esto hace que todo lo sólido se concentre en la parte central y cuando se deja de aplicar la fuerza se precipita, y así queda limpio el mosto. Una vez limpio el mosto se deja al proceso de fermentación en las salas frías.El mosto caliente pasa las salas frías a través de un enfriador y su temperatura decrece de más de 90ºC a sólo 6ºC gracias a la participación de agua y glicol. Una vez estable a una baja temperatura se le inyecta aire y la levadura, que son microorganismos que al estar en contacto con el aire se reproducen. El aire desaparece y las levaduras empiezan a comerse las azúcares fermentables y al comérselas liberan alcohol y gas carbónico. Este gas carbónico se limpia y se reutiliza en el proceso de envasado, para formar la espuma de la cerveza. Una vez que se está levando a cabo la fermentación se diferencian las marcas debido a que unas necesitan más tiempo de fermentación que otras. Esta fermentación dura de una semana hasta dos semanas de fermentación. Después de esta fermentación la cerveza esta "recién nacida", por lo que hay que dejarla madurar. Esto da todas las características de una cerveza como su olor, color, sabor, brillantez.Las salas frías se mantienen a esa temperatura gracias al gas carbónico. Estas son las condiciones ideales para que se lleve a cabo la fermentación, las cuales son la ausencia de aire y la baja temperatura. Una vez que ya esta hecha la fermentación, se filtra la levadura y se sustrae el gas. La levadura que se separa se vuelve a usar por diez generaciones, es decir se reutiliza diez veces.Ya que se separó la levadura se pasa a una sala de gobierno, en la que ya termina su reposo y está lista para ser envasada.Existe un laboratorio donde se hacen las pruebas para verificar la calidad de la cerveza desde la materia prima hasta que ya está envasada. La gente que trabaja en este laboratorio es la encargada de que la cerveza cumpla con los estándares de calidad. Se hacen dos tipos de pruebas, una son analíticas, que revisan todo el proceso físico de la cerveza, su color, olor, sabor, brillantez, etc.; y en las pruebas microbiológicas, hacen prueban revisando todos los microorganismos que pueda haber en la cerveza y en el ambiente para que ninguno afecte las características de la cerveza.El proceso de envasado comienza cuando del almacén se traen las cajas con las botellas vacías de los depósitos. El llenado de las botellas es un proceso en series. Durante el transcurso de las botellas, éstas son lavadas con sosa cáustica para evitar cualquier tipo de microorganismo en ella. A la botella ya llena se le hace pasar por unos sensores electrónicos que distinguen si una de ellas no tiene algo propio, no está totalmente llena o está rota. En el llenado, a la cerveza se le agrega gas carbónico y agua caliente para que ésta haga espuma y no exista aire al momento de taparla.Entre los detalles que más llaman la atención encuentran los siguientes:
Las botellas y cajas que no se utilizan, son recicladas.
La cerveza no provoca adicción.
El contenido proteínico de una cerveza es equivalente al de un bistec
La importancia de esta industria a nivel mundial.
La gran organización de los empleados.

y de la quimica ambiental

December 4, 2006
Volume 84, Number 49
p. 13
Atmospheric Chemistry
Air pollution controls nip NOx in the bud
Ivan Amato
Using newly available satellite data, scientists in the U.S. and Germany have shown that atmospheric concentrations of NOx—the combination of NO and NO2 central to the production of near—surface ozone and smog-have declined over the Ohio River Valley by about 40% since 1999 (Geophys. Res. Lett., DOI: 10.1029/2006GL027749).
Geophys. Res. Lett. View Enlarged Image
NOx Drops Satellite data indicate that ozone-forming pollutants have declined in the Ohio River Valley, where power plants are the dominant source of NOx (big box), but not in the northeast, where mobile sources dominate (small box).
In-stack NOx measurements from power plants fitted with emissions controls have been indicating declining NOx emissions, but it has taken atmospheric transport and chemistry models to get pictures of the larger, regional consequences. Now, Si-Wan Kim, Stuart McKeen, Gregory Frost, and Michael Trainer of the National Oceanic & Atmospheric Administration and their colleagues have turned to orbiting sensors to measure those regional NOx trends more directly.
"We have used satellite-borne measurement to demonstrate that the reduction of NOx by power plants has been effective" in the Ohio River Valley, Kim says. Similar declines in NOx levels did not show up along the Northeast Corridor, where cars and other mobile sources, rather than power plants, are the dominant NOx sources.
Computer models of near-surface ozone production suggest that the diminishing NOx levels should be reflected by 4-10% reductions in ozone in the Ohio River Valley and nearby regions, the researchers report. Preliminary on-ground ozone measurements confirm that simulation result, comments Kenneth L. Schere of EPA's Atmospheric Sciences Modeling Division.
Chemical & Engineering News
ISSN 0009-2347
Copyright © 2006 American Chemical Society

rompiendo los usos comunes

DE LA ORQUESTA MONDRAGÓN AL ÀCIDO BÒRICO
Ante la serie de despropòsitos aparecidos en varios medios de España, con la intenciòn de vincular a ETA con los sucesos del 11 de marzo de 2004 en Madrid, y sobre todo, ante la increìble conducta anti-ètica de los peritos que vincularon el hallazgo del àcido bòrico en viviendas de miembros de ETA; islamistas y un joven antisistema, creo conveniente aclarar los VERDADEROS USOS DEL ÀCIDO BÒRICO.
ACIDO BÒRICO: FICHA TÉCNICA: SINONIMIA: ACIDO ORTO-BORICO. FORMULA: BO3 H3. PESO MOLECULAR: 61,84. CRISTALIZACION: Cristaliza en escamas triclínico-pinacoidales. PUNTO DE FUSION: 170º C. DENSIDAD RELATIVA: 1,435 a 15º C. CALOR DE DISOLUCION: - 5400 cal/mol a 18º C.
USOS :INDUSTRIA DEL VIDRIO: Borosilicatos y vidrios térmicos usados para material de laboratorio, tubos, vasos, termómetros, etc. Enseres de cocina resistentes al calor como fuentes para horno y para llama directa, cafeteras, lecheras, etc. Faros para automóviles. Lentes para señales luminosas y semaforos. Lentes para anteojos, cámaras fotográficas, telescopios, microscopios, etc.
Fibra de vidrio usada como aislante térmico y acústico.
ESMALTES: Fabricación de superficies duras, durables y fácilmente lavables de cocinas, lavarropas, heladeras, bañeras, estufas, hornos, chapas para nomenclaturas de calles, etc.
FRITAS: Esmaltes vítreos para la industria cerámica: azulejos, baldosas, tejas, etc.
PRODUCTOS QUIMICOS DERIVADOS: Fluoboratos, fluoruros de Boro, aleaciones de Boro, Carburo de Boro, Ferro-Boro, etc. Hidruros de Boro, Boranos, Diboranos, Ácidos Borónicos, Borazinas, etc.
FRUTICULTURA: Lavado de citrus y conservación de los mismos.
FUNGUICIDAS.
COSMETICA Y FARMACIA: Cremas, lociones y polvos faciales, dentífricos, anti-transpirantes, shampúes, soluciones oftálmicas, medicamentos en general.ESTABILIZADOR DE COLORANTES.
REFINACION DE METALES NO FERROSOS: Cromo, Níquel, Cobre, Plomo, Aluminio, etc.
INSECTICIDAS.
CURTIEMBRES: Acabado de cueros y pieles.
INDUSTRIA TEXTIL: Acabado de Tejidos.
CONSERVACION DE CARNES.
IGNIFUGOS: Protección contra el fuego de telones teatrales, papeles decorativos, trajes ignífugos, etc.
PINTURAS: Pinturas a base de látex.
El ácido bórico es un componente de un explosivo usado en la II Guerra Mundial llamado boracitol, que está compuesto por TNT y ácido bórico. Existen siete informes en el mundo sobre el uso explosivo del ácido bórico, frente a más de 100.000 que limitan sus propiedades a antiséptico, matacucarachas, a combatir el mal olor, entre otras. Un informe estadounidense de 1972 explica que el boracitol es el explosivo que más rápido desaparece si se entierra. Precisamente por tener ácido bórico. En los primeros meses pierde el 70 de su capacidad explosiva.
El ácido bórico NO ES UN ÁCIDO “NORMAL”, contiene grupos OH pero NO CEDE PROTONES como hace el sulfúrico ya que los ácidos se clasifican en:
-Ácidos de Lewis
-Ácidos de Brönsted-LowryEl bórico es de la primera familia, su poder ácido consiste en que el Boro central está muy insaturado de electrones y, vulgarmente, cualquiera que le deje electrones queda unido a ese boro. Ese es el caso del agua que es nucleófilo o base de Lewis quedando unido a dicho centro, esto provoca que su actividad sea desecante y abrasiva… pero de muchísima debilidad. El ácido bórico NO ES INFLAMABLE, NO ES EXPLOSIVO, NO SIRVE PARA LA SÍNTESIS DE NINGÚN EXPLOSIVO y, básicamente, es un insecticida o funguicida.

cientificos descubren nueva molecula en la saliva

hola a todos! pues aqui un dato curioso sobre lo que se puede encontrar en lugares tan comunes para nosotros, como la saliva


Identifican una molécula presente en la saliva humana que tiene un poder analgésico como el de la morfina
Este hallazgo podría propiciar nuevos fármacos para luchar contra el dolor
Un grupo de investigadores del Instituto Pasteur de París ha identificado una nueva molécula en el organismo que puede convertirse en un gran aliado para luchar contra las molestias físicas. Se trata de la opiorfina, que está en la saliva humana y que podría ser un analgésico tan poderoso frente al dolor como la morfina.Según concluyó el estudio, las ratas tratadas con inyecciones de esta nueva molécula necesitaron una dosis tres veces más baja que los roedores tratados con morfina para poder calmar su dolor. Con una dosis de un miligramo por kilogramo, la opiorfina logró los mismos resultados que con 3-6 miligramos de morfina. La nueva sustancia natural eliminó la sensación de dolor y redujo la inflamación en los animales tratados.El método que utilizó el equipo de Catherine Rougeot para aislar y sintetizar la opiorfina para suprimir la sensación del dolor de un grupo de ratas se relata ahora en "Proceedings", la revista de la Academia de Ciencias Americana. Así, los investigadores relatan que habían identificado con anterioridad otra sustancia inhibidora del dolor en ratas, denominada sialorfina. Pensaron que si existía este compuesto en estos animales también podrían buscarlo en humanos. Efectivamente, los científicos franceses aislaron con éxito de la saliva humana ese pequeño péptido denominado opiorfina y comprobaron que inhibía la misma clase de proteínas que la sialorfina de las ratas.La opiorfina humana presenta un poder analgésico que potencia el sistema opioide endógeno del organismo, encargado de controlar los mecanismos de recompensa que han sido tan decisivos en la supervivencia de nuestra especie. De esta forma, cuando sufrimos una lesión, el cuerpo activa sus mecanismos de alarma. Sentimos dolor y en el sistema nervioso central se liberan unas sustancias con poder analgésico suficiente como para que ese dolor no sea insoportable. El conocimiento de ese sistema natural resulta de importancia para lograr nuevas dianas terapéuticas y obtener nuevos fármacos para luchar contra el dolor. El desarrollo de un arsenal terapéutico más amplio es esencial en el tratamiento crónico del dolor. Y es que algunos de los derivados de la morfina que se utilizan van perdiendo su capacidad analgésica a medida que el organismo se va habituando. Asimismo, los científicos del Instituto Pasteur esperan que el hallazgo les permita identificar las condiciones en las que el organismo libera de forma natural la opiorfina para inducir esta reacción.

GREENPEACE ENCUENTRA SUSTANCIAS QUÍMICAS PELIGROSAS EN PERFUMES

La mayor parte de los perfumes existentes en el mercado tienen en su composición sustancias químicas potencialmente peligrosas. Así lo demuestra el informe Eau de Toxines que ha presentado Greenpeace . 34 de las 36 marcas analizadas contienen sustancias peligrosas (ftalatos y almizcles sintéticos) cuya inocuidad no ha sido probada. Estos perfumes pueden aumentar nuestra exposición a estas sustancias facilitando su penetración en nuestro organismo. Estos químicos no se degradan con facilidad y algunos pueden acumularse en los tejidos del cuerpo humano. Además evidencias científicas indican que podrían tener efectos no deseados en la salud. El estudio Eau de Tóxicos ha analizado en 36 marcas de conocidos perfumes la presencia de dos tipos de sustancias químicas artificiales potencialmente peligrosas; los ftalatos y los almizcles sintéticos. La práctica totalidad de los perfumes y colonias analizadas loscontienen. Estudios ciencíficos han demostrado que los ftalatos penetran rápidamente a través de la piel y se distribuyen por el cuerpo con cada exposición. El cuerpo convierte este compuesto químico en monoetil ftalato. Se cree que esta sustancia está detrás de posiblesalteraciones del ADN espermático y en la restricción de la función pulmonar en los hombres. Por su parte los almizcles sintéticos se pueden concentrar en los tejidos de los seres vivos. Además, algunos pueden alterar el sistema hormonal de los peces, anfibios y mamíferos y exacerbar los efectos de la exposición a otras sustancias químicas.

ARMAS QUIMICA

Las armas químicas fueron utilizadas a gran escala durante la Primera Guerra Mundial, luego de su introducción en el conflicto por parte de las fuerzas alemanas en 1915.
La utilización de estas armas ha sido prioridad -en la mayoría de los casos- de estados que se encontraban en guerra.
Las armas químicas fueron utilizadas a gran escala durante la Primera Guerra Mundial, luego de su introducción en el conflicto por parte de las fuerzas alemanas en 1915.
Los 17 tipos de gas utilizados en la guerra entraban en tres categoría distintas.
· Agentes lacrimógenos, similares al gas lacrimógeno usado actualmente como defensa personal y para dispersar multitudes.
· Agentes asfixiantes, concebidos para sofocar al enemigo.
· Agentes abrasivos, como el gas mostaza, que quema la piel, los pulmones y los ojos. Sus objetivos eran incapacitar más que matar, sobrecargar los centros médicos del enemigo.
Las armas químicas de esos años no eran muy confiables. La primera vez que las tropas británicas las utilizaron, en septiembre de 1915, el viento les devolvió el gas a los mismos soldados que lo habían rociado. (que loco no crees)
Esta primera experiencia no se olvidó fácilmente y la mayoría de los ataques con armas químicas que se llevaron a cabo después se realizaron desde aviones, más que con andanadas de artillería.

Scientists Levitate Small Animals

Scientists have now levitated small live animals using sounds that are, well, uplifting.
In the past, researchers at Northwestern Polytechnical University in Xi'an, China, used
ultrasound fields to successfully levitate globs of the heaviest solid and liquid—iridium and mercury, respectively. The aim of their work is to learn how to manufacture everything from pharmaceuticals to alloys without the aid of containers. At times compounds are too corrosive for containers to hold, or they react with containers in other undesirable ways.
"An interesting question is, 'What will happen if a living animal is put into the acoustic field?' Will it also be stably levitated?" researcher Wenjun Xie, a materials physicist at Northwestern Polytechnical University, told LiveScience.
Xie and his colleagues employed an ultrasound emitter and reflector that generated a sound pressure field between them. The emitter produced roughly 20-millimeter-wavelength sounds, meaning it could in theory levitate objects half that wavelength or less.
After the investigators got the ultrasound field going, they used tweezers to carefully place animals between the emitter and reflector. The scientists found they could
float ants, beetles, spiders, ladybugs, bees, tadpoles and fish up to a little more than a third of an inch long in midair. When they levitated the fish and tadpole, the researchers added water to the ultrasound field every minute via syringe.
The levitated ant tried crawling in the air and struggled to escape by rapidly flexing its legs, although it generally failed because its feet find little purchase in the air. The ladybug tried flying away but also failed when the field was too strong to break away from.
"We must control the levitation force carefully, because they try to fly away," Xie said. "An interesting moment was when my colleagues and I had to catch escaping ladybugs."
The ant and ladybug appeared fine after 30 minutes of levitation, although the fish did not fare as well, due to the inadequate water supply, the scientists report.
"Our results may provide some methods or ideas for biology research," Xie said. "We have tried to hatch eggs of fish [
during] acoustic levitation."
The research team reported their findings online Nov. 20 in the journal Applied Physics Letters.

Binary temporal upconversion codes of Mn2+-activated nanoparticles for multilevel anti-counterfeiting

Optical characteristics of luminescent materials, such as emission profile and lifetime, play an important role in their applications in opt...