domingo, 15 de diciembre de 2013

ALARMA ROJA: LUCHAR O HUIR?

La adrenalina o epinefrina, es una hormona y un neurotransmisor secretado por las glándulas suprarrenales (que están sobre los riñones) cuando hay situaciones de alerta, de peligro y miedo. Sirve para que el organismo se prepare ante situaciones de emergencia. También existe la adrenalina sintética que se utiliza como medicamento (inyectable) para tratar reacciones asmáticas o alérgicas potencialmente mortales. El término adrenalina deriva de las raíces latinas ad- y renes que literalmente significan “junto al riñón”, en referencia a su ubicación anatómica. El término epinefrina tiene un significado similar, deriva de las raíces griegas epi- y nephron que significan “sobre el riñón”.

En 1886 William Bates anunció el descubrimiento de una sustancia producida por las glándulas suprarrenales. El químico japonés Jokichi Takamine la aisló y purificó (en 1901) de las glándulas suprarrenales de ovejas y bueyes. Fue la primera hormona que se pudo cristalizar y el primer broncodilatador eficaz para el asma. Su estructura fue determinada por Jowett y fue sintetizada en 1904, independientemente, por Friedrich Stolz y Henry Drysdale Dakin.

La adrenalina se produce en la médula de las glándulas suprarrenales a partir de los aminoácidos fenilalanina y tirosina a través de una serie de productos intermedios. Es almacenada y, ante situaciones de riesgo, es liberada. Actúa sobre casi todos los tejidos del cuerpo principalmente los músculos, el tejido adiposo y el hígado: relaja la musculatura de las vías respiratorias y aumenta la velocidad de respiración (ingresa más aire a los pulmones), estimula el corazón (latidos con mayor fuerza y rapidez), retarda la digestión y aumenta la glucosa en sangre (más sangre y energía para los músculos), dilata las pupilas (mayor capacidad de observación), contrae los vasos sanguíneos, aumenta la presión, etc. Todos estos efectos preparan al cuerpo para una mejor reacción ante los peligros, dejándolo listo para la lucha o la huida.

El plasma de un adulto en reposo contiene adrenalina en una concentración menor a los 10 ng/L (nanogramos por litro), durante el ejercicio puede subir unas 10 veces y, durante el estrés, llegar a unas 50 veces este valor. Los principales desencadenantes fisiológicos de la liberación de adrenalina son las tensiones tales como las amenazas físicas, las emociones intensas, los ruidos, las luces brillantes y la alta temperatura ambiental. Comienza a liberarse en cuestión de segundos, alcanza su punto más alto al minuto y su efectividad se extiende entre uno y tres minutos, tiene la capacidad de aumentar el metabolismo normal del cuerpo hasta en un 100%.

Su molécula es relativamente pequeña (C9H13NO3), es muy soluble en agua, forma cristales blancos y es sensible a la luz y al aire, se descompone dando productos oscuros. La molécula tiene un átomo de carbono asimétrico o quiral, por lo que existen dos formas (isómeros ópticos) en los que uno es la imagen en el espejo del otro (enantiómeros). El isómero natural y el que posee actividad farmacológica es la forma levógira o R(-)adrenalina. El isómero dextrógiro o S(+)adrenalina carece de actividad farmacológica. Con fines médicos se usa la adrenalina sintética que contiene ambos isómeros en proporción 1:1 (es una mezcla racémica o racemato).
                                                                                        
La adrenalina no se puede administrar por vía oral porque se descompone en el aparato digestivo. Se aplica por vía sub-lingual, o mediante inyecciones sub-cutáneas (debajo de la piel) o mejor aún por vía intramuscular (más profunda que la sub-cutánea) que es de acción más rápida. También pueden usarse otras vías (intravenosa, nebulización, intratraqueal o incluso intracardíaca) pero éstas sólo se aplican dentro de hospitales. Su uso puede ser riesgoso si no se toman las precauciones adecuadas.


La adrenalina se usa para el tratamiento de reacciones alérgicas graves. Las reacciones alérgicas pueden ser de tipo asma, rinitis, conjuntivitis, de piel, inflamación, digestivas o generalizadas como la anafilaxia. La gravedad de ellas varía mucho de un paciente a otro. Cuando la reacción es una amenaza para la vida, el tratamiento de urgencia es la adrenalina. Así, en casos agudos de asma, que casi no permiten la respiración, una inyección de adrenalina dilata los bronquios y reduce la inflamación en forma casi instantánea. También se usa en casos de reacciones alérgicas agudas y graves (como alergias por alimentos, medicamentos, picaduras de insectos, etc.). Sus efectos son muy rápidos, casi instantáneos y de corta duración, por lo que a veces hay que repetir la aplicación cada 15 a 20 minutos.

BIBLIOGRAFÍA

http://www.seicap.es/adrenalina.asp

Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ. 

sábado, 30 de noviembre de 2013

CIANUROS: ÚTILES Y PELIGROSOS

El cianuro de hidrógeno o ácido cianhídrico (H−C≡N) es un líquido incoloro que tiene un punto de ebullición tan bajo (26°C) que, a temperatura ambiente, suele encontrarse como gas. Es un ácido débil, muy soluble en agua e inflamable. En 1782 Scheele lo aisló a partir del colorante Azul de Prusia (ferrocianuro férrico) de donde deriva su nombre antiguo (ácido prúsico). Sus sales (“cianuros”) son sólidos blancos, muy solubles en agua y con muchas aplicaciones por sus características especiales. Las sales más conocidas son el cianuro de sodio y el de potasio. Cuando el grupo ciano (C≡N) se une a un resto orgánico se denominan “nitrilos”.

Tanto el cianuro de hidrógeno como los cianuros son muy tóxicos por contacto (se absorben a través de la piel), por ingestión y por inhalación. Inhiben el transporte de oxígeno en la sangre, produciendo muerte por asfixia. La sangre de las víctimas envenenadas tiene un color rojo cereza característico. Por ello, su uso industrial está muy restringido y quienes trabajan con ellos deben tener las precauciones propias para estos compuestos y portar detectores adecuados. Los síntomas del envenenamiento por cianuros son: cansancio, dolor de cabeza, adormecimiento, pulso rápido, náuseas, piel enrojecida, vómitos, respiración dificultosa, paro respiratorio, inconsciencia y muerte.



En el organismo humano se encuentra una pequeña cantidad de cianuro, por lo que su orina puede tener un promedio de 0,3 ppm (partes por millón) y, si la persona es fumadora, puede incrementarse hasta unos 0,8 ppm. En la naturaleza, existen pequeñas cantidades de cianuros producidos por diversas bacterias, insectos y hongos; se encuentran en las hojas de ciertas plantas (durazno, sauce, laurel cerezo), en la parte interna de los huesos de ciertas frutas (ciruelas, melocotones), en alimentos como almendras, castañas, nueces, yuca, paltas, lentejas, brócoli, espinaca, maíz, papas y ajos; en las semillas de manzanas, peras o uvas; en el café, cerveza y hasta en la sal de mesa. En las plantas “cianogénicas” se encuentran generalmente combinados con otros compuestos y, durante la digestión o la cocción, liberan ácido cianhídrico. Por ejemplo, la amigdalina se descompone por acción de la emulsina (una enzima beta-glucosidasa) y genera cianuro de hidrógeno.

También se encuentran cianuros en los gases de escape de los autos, en los productos de combustión de materiales sintéticos (telas y plásticos), en el humo del cigarrillo y en la sal industrial usada para derretir el hielo formado en los caminos. En la industria son más usados los cianuros (sólidos) porque pueden ser manipulados y transportados con mayor facilidad y seguridad que el cianuro de hidrógeno (gas); además, el olor de éste no es irritante y muchas personas no lo perciben, lo que lo hace más peligroso. El cianuro de hidrógeno también es un sub-producto en la manufactura de fibras sintéticas.

En la década de 1920 estos compuestos han sido utilizados para exterminar plagas de ratas e insectos y, más tarde, adquirieron siniestra fama en la Alemania nazi al utilizarlos para exterminar personas en los campos de concentración durante la II Guerra mundial y se sospecha que fue usado, junto con el Agente Naranja, en la guerra del Vietnam.
 

El cianuro se utiliza en las industrias de papel, pinturas, textiles y plásticos (nylon y acrílicos), en productos agroquímicos y farmacéuticos, en metalurgia para la “galvanoplastía” (en especial para el dorado y platinado) y limpieza de metales. Desde 1887 la minería utiliza cianuro para extraer y recuperar el oro y la plata porque con ellos forma derivados (complejos de coordinación) solubles en agua. La “cianuración” se ha convertido en la forma más segura y confiable para sustituir al antiguo método de amalgamado, que usa mercurio. Por lo general, los cianuros no son “persistentes” (en el medio ambiente son oxidados y destruidos por acción de la luz solar) no se acumulan en los organismos acuáticos y pueden ser degradados por los microorganismos. Ya se ha desarrollado una normativa adecuada para su control y manejo.

En los Estados Unidos, la Agencia de Protección del Medio Ambiente (EPA) regula los niveles permitidos de cianuro en el agua potable y el nivel máximo permitido en ésta es de 0,2 ppm. La Administración de Seguridad y Salud Ocupacional (EU-OSHA) ha establecido un límite para el cianuro de hidrógeno y la mayoría de cianuros de 10 ppm en el aire del trabajo.

BIBLIOGRAFÍA

http://www.quimica.unam.mx/IMG/pdf/20cianuros.pdf
http://www.ymad.com.ar/wp-content/uploads/2011/10/Explicaci%C3%B3n-Completa-sobre-el-uso-del-Cianuro.pdf

Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ

viernes, 15 de noviembre de 2013

BERNARDO ALBERTO HOUSSAY

De ascendencia francesa, Bernardo Alberto Houssay nació en Buenos Aires el 10 de abril de 1887. Fue un joven prodigio: culminó sus estudios secundarios a los 13 años, ingresó a la Universidad de Buenos Aires graduándose de farmacéutico (1904), de médico (1911) y en 1913 inició su carrera docente en la misma Universidad. En 1919 fundó el Instituto de Fisiología en la Facultad de Medicina, un centro de excelencia mundial en investigación científica, en el que empezó la formación de sus discípulos que serían los primeros profesores universitarios de fisiología de su país.

En 1943 el gobierno constitucional argentino era débil e impopular. Al estallar una revolución militar se formó un nuevo Gobierno, lo que llevó al cierre de varias Facultades y a la parálisis de la enseñanza. Por haber firmado un manifiesto declarando que el país debía volver a la “normalidad constitucional y democracia efectiva”, Houssay (y otros prestigiosos profesores) fue separado de su cátedra, de la dirección del Instituto de Fisiología y de otras comisiones. Sin embargo, rechazó varios ofrecimientos laborales del exterior y resolvió, con sus colaboradores, quedarse en la Universidad para guardar el patrimonio científico y porque consideraban que la situación se revertiría pronto.

En 1944 fundó el Instituto de Biología y Medicina Experimental de Buenos Aires, donde realizó, junto con sus compañeros, más de mil trabajos en endocrinología, nutrición, farmacología y otras áreas de la fisiología. También fue Presidente de la Sociedad Argentina de Biología, de la Academia Nacional de Medicina, de la Asociación Argentina para el Progreso de las Ciencias que otorgaba becas para realizar estudios (en el país o en el extranjero) y subsidios para la ejecución de investigaciones. Aunque sus fondos nunca fueron suficientes para cumplir con la magnitud de los fines propuestos, son muchísimas las investigaciones que recibieron sus aportes. En 1945, un nuevo gobierno lo reincorporó a la docencia, pero en 1946 fue jubilado de oficio al promulgarse una nueva ley universitaria y, nuevamente, su refugio fue el Instituto de Biología y Medicina Experimental.

Dueño de una sorprendente memoria y capacidad de lectura, solía llevarse por la tarde algún libro recién recibido en el Instituto y, durante la merienda del día siguiente, recomendaba la lectura de algunos temas o párrafos del libro. Entre sus muchas publicaciones, destaca el texto “Fisiología Humana”, escrita en colaboración con otros autores, cuya primera edición fue publicada en 1945 y traducida a varios idiomas. Recibió importantes premios como el de la Universidad de Toronto (Canadá), del Royal College of Physicians (Inglaterra), de la Royal Society of New South Wales (Australia), el Doctorado Honoris causa de la Universidad de Oxford, etc.


Observó que sus pacientes diabéticos (que no producen insulina) tenían una hipófisis (o glándula pituitaria) hiperactiva y dedujo que ésta interviene en regular los niveles de azúcar en la sangre. Experimentando con perros, observó que al extraerles parte de la hipófisis aumentaba la producción de insulina y cuando les inyectaba esta hormona, su producción disminuía.

En 1947 fue galardonado con el Premio Nobel de Fisiología y Medicina (compartido con los esposos Carl Ferdinand Cori y Gerty Theresa Radnitz) por el descubrimiento que el lóbulo anterior de la hipófisis, además de regular el crecimiento, tiene influencia en el metabolismo de los hidratos de carbono. Fue el primer hispanoamericano que ganó un Premio Nobel en ciencias.

En 1955 Houssay y colaboradores volvieron al Instituto de Fisiología porque las nuevas autoridades universitarias restituyeron al personal separado de las cátedras. En 1958 fue designado presidente del nuevo Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) lo que le permitió extender a nivel nacional sus ideas para el adelanto de la Ciencia y la Técnica. Murió en Buenos Aires el 21 de setiembre de 1971 dejando muchísimos discípulos, entre los cuales destaca Luis Federico Leloir, Premio Nobel de Química 1970.

BIBLIOGRAFÍA

Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ.

jueves, 31 de octubre de 2013

UMAMI, EL QUINTO SABOR

El glutamato monosódico (GMS) o glutamato de sodio, es la sal sódica del ácido L-glutámico (C5H9NO4, abreviado Glu o E), uno de los 20 aminoácidos que forman parte de nuestras proteínas y uno de los más abundantes de la naturaleza. Se encuentra en casi todos nuestros alimentos, especialmente en aquellos ricos en proteínas. Es un importante neurotransmisor y desempeña funciones fundamentales en el metabolismo, entre ellas la de regular las sensaciones de apetito y saciedad. Sin embargo, es considerado “no esencial” porque su presencia en la dieta humana no es indispensable, ya que el hombre puede sintetizarlo a partir de otros compuestos.

El GMS, en su forma libre, produce un sabor específico y peculiar conocido como “umami” o “el quinto sabor”, porque no es ninguno de los cuatro sabores tradicionales (salado, dulce, ácido y amargo). La leche materna y algunos alimentos muy aromatizantes (como champiñones y tomates) tienen altos niveles de glutamato natural. Se libera al descomponerse la proteína de los alimentos, por ejemplo, durante la digestión, la cocción de la carne, la fermentación de la salsa de soja o soya, la maduración del tomate o al envejecer el queso parmesano. Al principio, el GMS se extraía de alimentos ricos en proteínas, actualmente se obtiene por un proceso de fermentación bacteriana similar a la producción de vino, vinagre, yogurt, etc. Se utilizan bacterias seleccionadas que se alimentan de almidones o melaza y liberan ácido glutámico al medio de cultivo, de donde es aislado.

 
El GMS un aditivo muy utilizado en muchos alimentos y golosinas, en la cocina asiática y en casi todos restaurantes de comida rápida, como potenciador de sabor: amplifica los otros sabores. Como sucede con otros sabores básicos -excepto la sacarosa- el umami es agradable sólo dentro de un margen de concentración. En promedio, una persona ingiere diariamente unos 10 a 20 gramos de glutamato en las proteínas de sus alimentos y un gramo de glutamato libre. Además, su organismo sintetiza unos 50 gramos de glutamato.

A fines del siglo XIX Auguste Escoffier, conocido chef francés al que llamaban el “rey de los cocineros y cocinero de reyes”, descubrió la existencia de este nuevo sabor cuando desarrolló su famoso caldo de huesos de ternera. Sabía que había encontrado algo muy importante pero no lo podía precisar. En 1908 el químico Kikunae Ikeda, profesor de la Universidad Imperial de Tokio, mientras saboreaba un caldo del alga kombu (Luminaria japonica), acuñó el término “umami” (“delicioso” en japonés) para describir un sabor profundo y sabroso, distinto a los sabores conocidos. En su laboratorio logró extraer y cristalizar el glutamato de sodio. Escribió un artículo en la Revista de la Sociedad Química de Tokio y, al igual que con Escoffier, los científicos rechazaron la idea de un nuevo sabor. En 1909 los hermanos Suzuki iniciaron su comercialización con la marca AJI-NO-MOTO® que, en japonés, significa “la esencia del sabor”. Aunque el término “umami” era nuevo, el concepto es muy antiguo: apareció en los primeros alimentos fermentados como el garum (condimento de los romanos) y en las salsas fermentadas de los asiáticos como la salsa de soja que se cree apareció hace más de 2800 años.

En 1968 se informó por primera vez del “Síndrome del restaurante chino”, que consiste en una serie de síntomas (náuseas, sensación de quemazón en la nuca, opresión en el pecho y sudoración) que tienen algunas personas después de ingerir comida china. Se creyó que era causado por el GMS pero ello no se confirmó con numerosas pruebas y se lo atribuye a reacciones alérgicas causadas por otras sustancias (maní, gambas, etc.) o a la existencia de un grupo de personas (menos del 1% de la población) sensibles al GMS.


En muchos países se usa GMS como un condimento de mesa, en la Unión Europea su uso está normado y es clasificado como el aditivo alimentario E-621. Organismos internacionales como la Organización Mundial de la Salud (OMS), la Organización para la Alimentación y la Agricultura (FAO), la Food and Drug Administration (FDA) de los Estados Unidos o la Agencia Europea del Medicamento, han declarado que su uso no es peligroso y “no existen cantidades autorizadas ni límites impuestos a este saborizante”. Hay muchas publicaciones que dudan de su inocuidad y lo responsabilizan de producir una “adicción indiscriminada” a comidas envasadas y golosinas, de producir un “apetito voraz” y ser la causa de la “epidemia de obesidad” que afecta a muchos países industrializados, de producir fatiga crónica, desórdenes de aprendizaje y memoria, de lesiones en la retina, glaucoma y hasta cáncer. Esto se ha negado en varios reportes de organizaciones internacionales. En 1995 la FDA sustentó la inocuidad del GMS en base a un informe de la Federación Americana de Sociedades de Biología Experimental (FASEB) que concluyó que el GMS es seguro cuando se consume “en niveles habituales”.
BIBLIOGRAFÍA
http://www.nutritelia.com/glutamato-monosodico-potenciador-del-sabor/
Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ.


miércoles, 16 de octubre de 2013

LA ÓSMOSIS INVERSA

La ósmosis (del griego “osmos” = impulso y el sufijo “-sis” = acción) es un proceso físico-químico que se realiza espontáneamente cuando dos soluciones (de diferente concentración de sólidos disueltos) están separadas por una membrana semi-permeable, que posee poros u orificios de tamaño muy reducido (algunas micras, un filtro de dimensión molecular) y sólo las moléculas más pequeñas (como las del solvente) de la solución de menor concentración atraviesan la membrana y pasan hacia la solución de mayor concentración, hasta que se alcance el equilibrio. Este flujo hacia la zona de mayor concentración origina la “presión osmótica”.

La ósmosis es un fenómeno de trascendental importancia en el mantenimiento de la vida y fue explicado a fines del siglo XIX por Van’t Hoff (Premio Nobel de Química 1901) y Gibbs. Se realiza en forma natural en todas las células y, mediante ella, el agua pasa de una zona de baja concentración de sólidos en solución (el exterior de la célula) a la de mayor concentración (su interior) atravesando la membrana celular (membrana semi-permeable), que permite el paso de moléculas pequeñas como oxígeno, agua, dióxido de carbono, etc. pero se lo impiden a moléculas mayores como la sacarosa, almidón, proteínas, etc. Si la célula está en un medio de mayor concentración de sólidos disueltos (solución hipertónica), por efecto de la ósmosis la célula pierde agua, ésta sale hacia el exterior. Por el contrario, si la célula está en un medio de menor concentración de sólidos disueltos (solución hipotónica), la célula se hincha ingresa agua y puede estallar. Por esta razón, para reemplazar la sangre perdida debemos utilizar un líquido isotónico como el suero, si usáramos agua pura, puede ocurrir la ruptura de los glóbulos (hemólisis).


La “ósmosis inversa” es una creación del hombre para hacer que el proceso se realice en el sentido inverso al natural. Consiste en aplicar una presión externa (superior a la presión osmótica) sobre el líquido más concentrado y con ello se revierte el proceso: las moléculas pequeñas (como las del agua) pasan de la zona de mayor concentración hacia la de menor concentración.

Mediante este proceso es posible la desalinización o eliminación de las sales del agua y obtener agua dulce a partir de una fuente salobre como el agua de mar. Un 72% de la superfície terrestre está cubierto por agua, pero el 97% de ella está en los mares y océanos cuya elevada salinidad (3,5%), no permite su uso para el consumo humano ni para la mayoría de otros usos. El agua doméstica debe tener como máximo 500 ppm (0,05%) de sales y el agua de ríos, lagos y agua subterránea sólo constituye el 0,6% del total. El rápido
crecimiento de la población mundial, ha aumentado la demanda por agua dulce. Para superar este problema, los países utilizan distintas técnicas, según su ubicación y recursos. La ósmosis inversa ha tenido un masivo desarrollo y en algunos países es la única opción factible para disponer de agua potable.

El fenómeno de ósmosis inversa fue descrito por primera vez en 1953 por Sir Charles E. Reid como una propuesta para obtener agua potable a partir de agua de mar. Las dependencias estatales la consideraron una curiosidad de laboratorio, no un proceso práctico y útil. En esos años las membranas no tenían las características adecuadas para separar las sales, materia coloidal, compuestos pirogénicos, los virus y bacterias que puede contener el agua.


La ósmosis inversa fue posible gracias al perfeccionamiento del elemento o membrana de acetato de celulosa (a mediados de la década del 60) y, en la actualidad se fabrican membranas (de poliamida o de acetato de celulosa) especializadas para cada tipo de agua. A partir de 1970 la técnica comenzó a ser competitiva y muchas veces superior a los otros métodos por su tecnología simple, realizada en una sola etapa y en forma continua, que no requiere de mayor mantenimiento ni personal especializado y permite remover hasta un 99% de sólidos disueltos, bacterias y material en suspensión.

Los campos de aplicación de la ósmosis inversa son muy variados, además del abastecimiento de agua potable y de uso industrial, se usa en el tratamiento de efluentes municipales e industriales, en la industria de los alimentos para concentrar jugos de frutas, de tomate, etc., en la industria farmacéutica para la separación de proteínas, eliminación de virus, etc.

BIBLIOGRAFÍA

http://www.acquamatter.com/osmosis_inversa_proceso.htm
http://www.maquinariapro.com/tecnologia/osmosis-inversa.html


Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ.

lunes, 30 de septiembre de 2013

TALIDOMIDA: DOLOROSA LECCIÓN

Mediante la “síntesis”, el hombre puede transformar los compuestos naturales y fabricar moléculas distintas o producir compuestos escasos en la naturaleza o que son difíciles de obtener en forma natural. Cuando un carbono está unido a 4 grupos distintos (carbono asimétrico o quiral) pueden existir 2 moléculas diferentes (isómeros) que son como nuestras manos: una es la imagen en el espejo de la otra, se llamaron “enantiomorfos o enantiómeros” (de enantio = contrario y morph = forma) por diferir en la distribución de sus átomos o grupos y se designan como “R” y “S”. (ver temas 35 y 80 de AQV).

Las propiedades de los enantiómeros son tan similares que, por ejemplo, los 2 ácidos lácticos fueron considerados idénticos por muchos años. Sin embargo, su comportamiento dentro de los seres vivos puede ser muy diferente. Así, el R-limoneno tiene olor a naranja, mientras el S-limoneno huele a limón. En el caso de los fármacos estas diferencias pueden ser muy relevantes; por ejemplo, el S-ibuprofeno es analgésico y anti-inflamatorio y el R-ibuprofeno no lo es. Por mucho tiempo, los métodos utilizados por el hombre para sintetizar estos compuestos no han sido muy eficientes ya que en vez de obtener uno de los isómeros producen una mezcla de ambos (“racemato o mezcla racémica”).


En 1953 el Dr. Wilhem Kunz sintetizó la talidomida para la compañía farmacéutica Ciba, como medicamento para tratar la alergia (antihistamínico). Sin embargo, el mayor efecto era su poder hipnótico y sedante. Después de varios años de experimentación la compañía aseguró que el fármaco es “tan inocuo como un caramelo”. En 1957 la compañía alemana Chemie Grunenthal empezó a comercializarla sin receta médica y, por su efecto sedante, la recomendó para combatir la ansiedad, náuseas y vómitos del embarazo. Su uso se extendió rápidamente por unos 50 países y llegó a ser el tercer fármaco más vendido del mundo. Luego vino la tragedia: gran incremento de niños que nacían con graves malformaciones: defectos en brazos y/o piernas, manitas en forma de aleta, defectos en ojos, oídos, corazón, genitales y tracto digestivo.

En 1958 ya se notaba en Alemania el incremento de estas malformaciones, pero se ignoraba la causa hasta que, en 1961, el médico alemán Widukind Lenz halló 14 casos y alertó que la causante era la talidomida. Pocos días después, el fármaco fue retirado del mercado alemán. Posteriormente se conoció que la talidomida utilizada era el racemato: la R-talidomida tiene las propiedades sedantes deseadas y la S-talidomida produce malformaciones en el feto (teratogénico). Se cree que produjo unas 20 mil víctimas.

La comercialización de la talidomida nunca fue aprobada en Estados Unidos gracias al profesionalismo de la Dra. Frances Oldham Kelsey, una farmacóloga con gran experiencia en temas toxicológicos y recién incorporada a la Food and Drug Administration (FDA) quien consideró insuficientes las pruebas realizadas. Según los fabricantes, el fármaco se administró durante varias semanas a conejas, monos, ratas y perras embarazadas, sin producir efectos secundarios. Después se halló que las pruebas se hicieron en forma incorrecta y se falsearon los resultados. Pruebas posteriores en conejos y monos producen los mismos efectos terribles como en los seres humanos.

El Dr. Hiroshi Harada y sus colaboradores del Tokyo Institute of Technology descubrieron que la talidomida inactiva una enzima importante en el desarrollo de los miembros del feto. Durante las semanas 3 a 8 de la gestación, el embrión mide sólo unos milímetros y para crecer necesita un aporte extra de oxígeno y nutrientes. Si la talidomida llega en este periodo, inhibe la formación de nuevos vasos sanguíneos y, por esto, el aporte de nutrientes y de oxígeno es deficiente. Actualmente, la talidomida se usa en el tratamiento de enfermedades como lepra, ciertos tipos de cáncer, el eritema nudoso leproso, el mieloma múltiple y otras afecciones severas y poco usuales. Cuando es recetada deben seguirse estrictamente las indicaciones.
Esta tragedia cambió el modo en que los fármacos se desarrollan, se prueban y se autoriza su comercialización. Actualmente, para aprobar un medicamento debe ser sometido a un largo y riguroso proceso de estudio. Además, ya existen métodos de síntesis que permiten fabricar sólo el enantiómero con actividad farmacológica, ya que la separación del racemato es difícil y costosa. En el año 2001, el Premio Nobel de Química fue concedido a los investigadores William S. Knowles (norteamericano), Ryoji Noyori (japonés) y K. Barry Sharpless (norteamericano) por sus aportes en este campo.

BIBLIOGRAFÍA


Q.F. JUAN JSOÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ



domingo, 15 de septiembre de 2013

EL ÁCIDO LÁCTICO

En 1780 el químico sueco Scheele aisló un ácido al que llamó “láctico” porque fue encontrado en la leche agria. En 1807 Berzelius halló un compuesto muy parecido en un extracto de tejido muscular. Por varios años se pensó que ambos ácidos eran idénticos porque sus propiedades, grupos funcionales y fórmula molecular (C3H6O3) son iguales. En 1815 el físico francés Biot halló que ciertos compuestos naturales (azúcar común, ácidos tartáricos, etc.) poseen la propiedad de modificar o rotar el plano de vibración de la luz polarizada. Con esta propiedad (“actividad óptica”) se demostró que los 2 ácidos no son idénticos: mientras el obtenido del tejido muscular gira el plano de vibración de la luz en el sentido horario, es “dextrógiro” (o ácido (+)láctico), el ácido obtenido de la leche realiza el giro en sentido anti-horario, es “levógiro” (o ácido (-)láctico). A pesar de ser una molécula pequeña, los químicos no hallaban explicación a estas diferencias.

En 1874 dos químicos Jacobus Van’t Hoff (holandés, 22 años) y Joseph Le Bel (francés, 27 años) propusieron, en forma independiente y casi simultánea, una “novedosa” idea: que el átomo de carbono tiene sus 4 enlaces dirigidos hacia los vértices de un tetraedro regular (aún prevalecía la idea del carbono plano). Por la juventud de sus autores, los químicos más prestigiosos no le daban importancia a esta idea y hasta bromeaban en torno a ellas, pero después se dieron cuenta que la “descabellada idea” permitía explicar muchos hechos experimentales que aún no tenían explicación. Muchos años después, Bragg comprobó (mediante análisis por difracción de rayos “X”) que la idea del carbono tetraédrico es la correcta. El primer Premio Nobel de Química (1901) le fue conferido a Van’t Hoff (ver tema 29 de AQV).


Los dos ácidos lácticos son como nuestras manos: guardan entre sí la relación de “objeto vs. imagen en el espejo”. A pesar de tener las mismas partes, éstas se han distribuido de diferente manera y no podemos lograr que coincidan las partes de ambas porque son moléculas distintas (ver tema 35 de AQV).

Durante la transformación de la leche a yogurt (“fermentación”), se produce el desdoblamiento (hidrólisis) de la lactosa (disacárido de la leche) a glucosa y galactosa (monosacáridos). La glucosa es degradada produciendo ácido láctico, que es uno de los responsables del sabor típico del yogurt. Las bacterias “acidófilas” (como Lactobacillus bulgaricus y Streptococcus thermophilus) se encargan de realizar estos cambios.

En nuestra sangre siempre tenemos pequeñas cantidades de ácido láctico, que se encuentra generalmente como lactato (su forma ionizada) en las células musculares, glóbulos rojos, hígado, etc. Provienen de la descomposición de la glucosa en ausencia de oxígeno; es decir, durante los ejercicios anaeróbicos, en los que hay mucha intensidad y poca duración (como levantar pesas o correr a gran velocidad). Al iniciar la actividad física, cada molécula de glucosa es convertida en dos moléculas de ácido pirúvico o piruvato (moléculas similares al ác. láctico), el que puede usarse para producir energía o (en escasez de oxígeno) ser convertido en ác. láctico o lactato, los que también pueden quemarse produciendo energía. Si el ejercicio continúa y el lactato no es metabolizado ni removido hacia otra zona, las fibras musculares se acidifican y se produce fatiga muscular y calambres. Los atletas bien entrenados pueden hacer grandes esfuerzos y por largo tiempo porque, con el entrenamiento, sus músculos han “aprendido” a transportar rápidamente el ác. láctico o lactato y evitan su acumulación. Por su importante papel en el desempeño de los deportistas, los entrenadores y fisiólogos controlan frecuentemente el ác. láctico o lactato en los atletas y deportistas.

El ácido láctico puede ser obtenido por vía química o biotecnológica. Más del 90% de su producción mundial se hace por vía biotecnológica, que utiliza bacterias u hongos para fermentar sustratos ricos en carbohidratos. Tiene la ventaja de producir sólo uno de los isómeros, mientras que la vía química produce una mezcla de ambos. El Lactobacillus delbrueckii es el organismo más usado en la producción a gran escala del ácido (+)láctico.
 

Un importante uso del ácido láctico es la fabricación de ác. poliláctico (PLA), un plástico “bio-degradable” de interesantes aplicaciones en la industria y la medicina. Sus enlaces “éster” son comunes en los seres vivos y las enzimas de éstos los hidrolizan y degradan. Los plásticos que solo presentan enlaces carbono-carbono resisten a la acción de hongos y bacterias ambientales, permaneciendo inalterables por cientos de años (no son “bio-degradables”).

BIBLIOGRAFÍA

Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nacional Agraria La Molina. PERÚ.

sábado, 31 de agosto de 2013

LA PASTILLA MÁS POPULAR

El hombre siempre ha buscado en la naturaleza el alivio para sus males. Muchos de los medicamentos que utilizamos derivan de las plantas. Así, la Aspirina ha sido preparada a partir del sauce (Salix sp.). Desde antes de Hipócrates (400 a.C.) ya se usaba la corteza del sauce para combatir la fiebre (antipirético) y el dolor (analgésico). Durante la Edad Media y hasta el siglo XVIII la corteza de sauce fue desplazada como analgésico por el opio hasta que, en 1763, el reverendo Edward Stone presentó un informe a la Real Sociedad de Medicina inglesa en el que detalla las propiedades analgésicas y antipiréticas de la corteza del sauce blanco.

En 1828 Johann A. Büchner, profesor de Farmacia de la Universidad de Munich, obtuvo de la corteza de Salix alba unos cristales amarillentos de sabor muy amargo que fue llamado “salicina” y encontró que éste es el responsable de su actividad. Esta sustancia también se encuentra en otras plantas como Spiraea ulmaria que más tarde inspiró el nombre de “Aspirina”. En 1829 el farmacéutico francés H. Leroux aisló la salicina en estado puro.

La salicina es fácilmente descompuesta (hidrolizada) originando glucosa y alcohol salicílico. La oxidación de este alcohol produce ácido salicílico (AS), que es más efectivo que la salicina pero tiene un excesivo sabor amargo y, por ser un ácido, causa irritación en las paredes del estómago. En 1859 el AS es sintetizado por Hermann Kolbe.
 
En 1896 la Compañía Bayer encargó a su joven químico, Felix Hoffmann, preparar una variante del ácido salicílico que no tenga sus efectos secundarios. El 10 de octubre de 1897 Hoffmann informó haber preparado el ácido acetil-salicílico (AAS) mediante una reacción de acetilación, para ello había modificado y perfeccionado el método empleado en 1853 por el químico francés Charles Fréderic Gerhardt.

En 1899 la Bayer registra el AAS con el nombre de “ASPIRINA” en la Oficina Imperial de Patentes de Berlín y empezó a comercializarla en forma de polvo, para posteriormente hacerlo como tableta o comprimido. La primera década del siglo XX fue testigo del éxito de la Aspirina en Europa y en EEUU. En la actualidad está registrada en más de 70 países de todo el mundo y sus propiedades terapéuticas han ido en aumento. Primero se la utilizó como analgésico y antipirético, luego se descubrió que era anti-inflamatoria y se usó para tratar la migraña, para prevenir los riesgos cardiovasculares, para ataques agudos de gota y otras numerosas indicaciones terapéuticas.

Durante la I Guerra Mundial, los empleados de la filial norteamericana de Bayer pasaron a ser posibles enemigos y, además, la patente americana ya había prescrito. Las instalaciones de Bayer en EEUU fueron confiscadas y subastadas y surgieron varios productos conteniendo AAS fabricados por otras compañías y a precios más bajos.

Entre los efectos adversos más frecuentes del AAS están pequeñas molestias en el estómago y en la primera porción del duodeno que son las zonas en las que se alcanza un mayor nivel de acidez. La complicación más grave son las hemorragias digestivas que están relacionadas con su acción irritativa sobre la mucosa gástrica e intestinal. Estos efectos disminuyen cuando, en vez de administrarlo en tabletas se lo hace en otras formas farmacéuticas que limitan su contacto con la mucosa gástrica e intestinal.

En 1971 el farmacólogo británico John Robert Vane demostró que las múltiples aplicaciones médicas del AAS derivan de su capacidad para bloquear la producción de ciertas prostaglandinas, que son derivados de los ácidos grasos y que se encuentran en casi todos los tejidos del organismo. Las prostaglandinas fueron descubiertas por Von Euler en 1930 y se encargan de regular muchas funciones biológicas como la fiebre, la inflamación de los tejidos, la coagulación sanguínea, etc. (Tema 33 de AQV). Ese mismo año (1971) Smith y Willis demostraron que el AAS bloquea de forma irreversible la producción de prostaglandinas en las plaquetas humanas.


El AAS es uno de los primeros fármacos sintetizados por el hombre; además, es el más popular y ha viajado hasta la luna en el botiquín de los astronautas. En 1950 fue incorporado al Libro Guinness de los récords como por ser el medicamento más vendido del planeta. El AAS, el paracetamol, el metamizol y otros forman un grupo de fármacos llamados “Anti-inflamatorios no esteroideos” (AINES), para diferenciarlos de los esteroides o hormonas de la corteza suprarrenal que también tienen efecto anti-inflamatorio.

BIBLIOGRAFÍA

Q.F. JUAN JOSÉ LEÓN CAM <jjleon@lamolina.edu.pe>
Departamento de Química. Universidad Nac. Agraria La Molina. PERÚ.