lunes, 25 de julio de 2011

Hitos en la Historia de la Bio-Química

Recientemente encontré una recopilación de Hitos en la Bioquímica realizado por un equipo del Departamento de Bioquímica, de la facultad de Medicina de la Universidad Nacional Autónoma de México, Flores Herrera O, Rendón Huerta E., Riveros Rosas H., Sosa Peinado A., Vázquez Contreras E., Velázquez López I. que publicaron en la revista "Mensaje Bioquímico, Vol XXIX http://bq.unam.mx/mensajebioquimico 

Que me parece merece la pena retomar y con ella participar en el VI Carnaval de Química que alberga Patricia en su blog "Divagaciones de una investigadora en apuros" y también en la edición del BioCarnaval de Verano V edición que alberga Marimarus blog

Año 
______________________________________________________________
2000   J. Craig Venter y sus colegas publican la secuencia completa del
         genoma de Drosophila melanogaster.
2000  André Rosenthal y Yoshiyuki Sakaki, quienes encabezan el Proyecto
        del Genoma Humano, mapean la secuencia completa del cromosoma
        21, el más pequeño de los cromosomas humanos.
2000  homas A. Steitz, Nenad Ban, Paul Nissen y colegas resuelven
        mediante cristalografía de rayos X, la estructura tridimensional de la
        subunidad mayor del ribosoma.
2000  Arvid Carlsson, Paul Greengard y Eric Kandel reciben el premio
        Nobel por sus descubrimientos sobre la transducción de señales en el
        sistema nervioso y en especial por la caracterización de la
        transmisión sináptica lenta y la memoria de corto plazo a través de
        fosforilación y defosforilación de proteínas.
1995 J. Craig Venter y sus colegas publican la primera secuencia completa
       del genoma de un organismo de vida libre: Haemophilus influenzae.
1995 Edward Lewis, Christiane Nüsslein-Volhard y Eric Wieschaus
       reciben el premio Nobel por sus descubrimientos concernientes al
       control genético de las etapas tempranas del desarrollo embrionario.
1990 Andrew Simon Bell, David Brown y Nicholas Kenneth Terrett
       patentan un compuesto dilatador de los vasos sanguíneos, el
       sildenafil citrato, comercializado con el nombre de Viagra, que es
       empleado para tratar la disfunción eréctil.
       Es difícil dejar de hacer mención que también en 1995 el mexicano Mario
       Molina, junto con Sherwood Rowland y Paul Crutzen recibieron el premio Nobel por
       su trabajo en el área de química atmosférica y en particular por su contribución a la  
       dilucidación de los mecanismos que participan en la formación y descomposición del 
       ozono en la estratosfera.

1990  French Anderson encabeza el primer protocolo de terapia génica
        aprobado en humanos para tratar de reparar una deficiencia del
        sistema inmune de un niño de 4 años de edad.
1985  Kary Banks Mullis y colaboradores desarrollan la reacción en cadena
        de la polimerasa (PCR por sus siglas en inglés), método que permite
        clonar rápidamente secuencias específicas de DNA sin necesidad de
        una célula viva.
1985  Michael S. Brown y Joseph L. Goldstein reciben el premio Nobel por
        sus contribuciones al conocimiento sobre la regulación del
        metabolismo del colesterol y la descripción de los receptores que
        participan en la internalización de las lipoproteínas.
1985  Herbert Hauptman y Jerome Karle reciben el premio Nobel por el
        desarrollo de métodos directos para la determinación de la estructura
        tridimensional de moléculas cristalizadas.
1980  Paul Berg recibe el premio Nobel por sus estudios sobre la
        Bioquímica de los ácidos nucleicos y el desarrollo de las técnicas
        sobre DNA-recombinante. Dicho premio lo comparte con Walter
        Gilbert y Frederick Sanger quienes son galardonados por sus
        contribuciones a la secuenciación de ácidos nucleicos.
1975  Bruce Ames desarrolla un método para examinar la capacidad
        mutagénica de diversos compuestos químicos (el ensayo de Ames).
1975  John Warcup Cronforth y Vladimir Prelog reciben el premio Nobel
        por sus investigaciones sobre la estereoquímica de las moléculas
        orgánicas y las reacciones catalizadas por enzimas.
1975  David Baltimore, Renato Dulbecco y Howard Temin recibieron el
        premio Nobel por sus descubrimientos relativos a la interacción entre
        los virus que producen tumores y el material genético de las células.
1970  Susumu Ohno publica Evolution by Gene Duplication, libro que
        describe las bases moleculares de la evolución.
1970  Mort Mandel demuestra que Escherichia coli, en presencia de CaCl2
        es permeable a los ácidos nucleicos. Este hallazgo será básico para
        el desarrollo de la ingeniería genética.
1970  El argentino Luis Leloir recibe el premio Nobel por el descubrimiento
        de los azucares de nucleótidos y su papel en la biosíntesis de
        carbohidratos.
1965  Francois Jacob, André Lwoff y Jacques Monod reciben el premio
        Nobel por sus contribuciones concernientes al control genético de las
        enzimas y la síntesis de virus.
1965  Jacques Monod, Jeffries Wyman y Jean-Pierre Changeux proponen
        su modelo de transición alostérica de proteínas.
1965  Se terminó de elucidar el código genético, en un trabajo conjunto de
        los laboratorios de los doctores Marshall W. Niremberg, Har G.
        Khorana y Severo Ochoa.
1960  Francis Crick, Sydney Brenner y Fracois Jacob predicen la
        existencia del RNA mensajero. Dos años después la predicción sería
        confirmada.
1960  R. Hill y F. Bendall postulan el esquema en Z de la fotosíntesis.
1960  Max Perutz y John Kendrew reportaron por primera vez la estructura
        cristalográfica de una proteína, la hemoglobina y mioglobina (un
        trabajo que Perutz inició 23 años antes).
1960  Francois Jacob, David Perrin, Carmen Sánchez y Jacques Monod
        proponen por primera vez la hipótesis del operón.
1955  Christian René de Duvé y sus colegas aíslan un nuevo organelo
        celular, el lisosoma.
1955  S. Benzer concluye que un gen tiene muchos sitios mutables.
1950  E. Chargaff demuestra que la relación del contenido timina/adenina y
        guanina/citosina en el DNA es siempre uno.
1950  Linus Pauling y Robert Corey proponen la estructura de hélice α
        para las α-queratinas.
1950  Barbara McClintock muestra evidencia sobre la existencia de
        elementos génicos móviles en maíz, que posteriormente serán
        denominados transposones.
1950  Eugene P. Kennedy y Albert L. Lehninger demuestran que dentro de
        la mitocondria se efectúan el ciclo de Krebs, la oxidación de los
        ácidos grasos y la fosforilación oxidativa.
1945  Erwin Rudolf Josef Alexander Schrödinger publica la obra ¿Qué es
        la vida? libro que se convertiría en una agenda para la bioquímica
        durante los siguientes 30 años.
1940  George W. Beadle y Edward L. Tatum deducen la relación un gen –
        una enzima.
1940  Ernst B. Chain y Howard W. Florey extraen y purifican penicilina,
        dando inicio a su aplicación terapéutica.
1940  Herman Moritz Kalckar esclarece la formación de ATP en la
        fosforilación oxidativa.
1935  Hugh Davson y James Frederick Danielli postularon un modelo para
        la estructura de la membrana celular (el “sándwich” lípido-proteína).
1935  Wendell M. Stanley es el primero en cristalizar un virus, el del
        mosaico del tabaco.
1935  William Cumming Rose descubre la treonina, el último aminoácido
        esencial en ser identificado.
1935  Roger J. Williams y sus colegas deducen la estructura de la vitamina B1.
1935  John Tileston Edsall y A. von Muralt completan el aislamiento de la
        miosina del músculo.
1930  Phoebus Aaron Levene elucida la estructura de los mononucleótidos
        y muestran que son las unidades estructurales que conforman los
        ácidos nucleicos.
1930  Theodor Svedberg inventa la ultracentrífuga y demuestra que las
        proteínas son macromoléculas de muy alto peso molecular.
1925  G. E. Briggs y J. B. S. Haldane elaboran importantes refinamientos a
        la teoría de la cinética enzimática, postulando el estado estacionario o
        equilibrio dinámico.
1910  P. Boysen-Jensen prueba la existencia de auxinas en plantas,
        hormonas que controlan el crecimiento en vegetales.
1905  Metchnikoff propone la teoría de que los glóbulos blancos de la
        sangre son capaces de engullir y matar a las bacterias.
1905  F. Knoop deduce la b-oxidación de los ácidos grasos.
1905  A. Harden y W. Young muestran que la fermentación alcohólica
        requiere fosfatos.
1890  Richard Altmann describe un procedimiento para teñir mitocondrias,
        analiza su distribución y postula que poseen autonomía genética y
        metabólica.
1885  Oscar Hertwig y Eduard Strasburger desarrollan la idea de que en el
        núcleo se localiza la base de la herencia.
1855  Claude Bernard aísla glucógeno del hígado, muestra que se
        convierte en glucosa y descubre el proceso de gluconeogénesis.
1815  Jean-Baptiste Biot descubre la actividad óptica de poseen algunos
        compuestos orgánicos.
1810  Louis Joseph Gay-Lussac deduce la ecuación de la fermentación alcohólica.
  
Información recopilada de diversas fuentes por:
Héctor Riveros Rosas
Adriana Julián Sánchez

Salu2 a tod@s y Felíz cumpleaños a mi buen amigo Danilo O. que ayer estuvo de cumpleaños

Mr. Moon.
La vida es un 10% como viene y un 90% como la tomamos.

miércoles, 20 de julio de 2011

Identifican un potente antioxidante de origen natural en plantas de tomate

Un equipo de investigadores del Instituto de Biología Molecular y Celular de Plantas (IBMCP), centro mixto de la Universitat Politècnica de València (UPV) y el Consejo Superior de Investigaciones Científicas (CSIC), ha identificado un novedoso y potente antioxidante natural en plantas de tomate. Se trata de una sustancia fenólica que sintetiza la planta de tomate cuando se ve sometida a un estrés biótico y que hasta el momento era totalmente desconocida, ha informado la institución académica en un comunicado.
La UPV y el CSIC han registrado la patente nacional e internacional del nuevo antioxidante descubierto, así como del procedimiento para aislarlo en laboratorio y también sintetizarlo químicamente. El hallazgo ha sido publicado recientemente en la revista 'Environmental and Experimental Botany'.
Según apuntan los investigadores del IBMCP, el poder antioxidante de este nuevo compuesto es mucho mayor -catorce veces más- que el que posee, por ejemplo, el resveratrol, conocido antioxidante presente en el vino tinto, capaz de retardar el envejecimiento celular. Además, es cuatro veces y media más potente que la vitamina E y diez veces más que la vitamina C.
Sus aplicaciones podrían ser múltiples. Así, por ejemplo, en la industria alimentaria podria utilizarse como conservante de alimentos para el consumo humano y piensos para animales, por su acción como retardante de la oxidación de los lípidos. Este potente antioxidante evitaría alteraciones tales como el enranciamiento de grasas y aceites, lo cual merma extrordinariamente su calidad alimentaria. También podría utilizarse como suplemento para productos funcionales.
Asimismo, cabe destacar que los antioxidantes poseen propiedades beneficiosas para la salud, como son la prevención de las enfermedades coronarias y el cáncer, por lo que el compuesto podría tener grandes aplicaciones en la industria farmacéutica.
Otros posibles usos podrían darse en la industria petroquímica, como conservante de la gasolina, y en la industria de polímeros, utilizándose en la fabricación de fibras, productos de caucho, geotextiles y otros. En este caso, el antioxidante se utilizaría como estabilizante en el proceso de producción y para aumentar la vida útil del producto final.
Por otro lado, en la industria cosmética podría emplearse en productos para el cuidado de la piel, dadas sus posibles propiedades para la prevención del envejecimiento.
Desde los laboratorios ubicados en la Ciudad Politécnica de la Innovación, los investigadores han descubierto esta sustancia, que está presente en plantas de tomate sometidas a un estrés biótico y además, han desarrollado un proceso sencillo y económico para su síntesis en el laboratorio.
Según explica el equipo investigador del IBMCP, cuando una planta se ve instigada por un agente estresante, reacciona y activa unos mecanismos que hacen que los niveles de ciertos compuestos se alteren. "Muchos compuestos fenólicos son producidos por las plantas en respuesta a estreses bióticos o abióticos y poseen múltiples efectos, entre ellos su actividad antioxidante", apunta Vicente Conejero, director del grupo investigador.
Fue precisamente estudiando estas circunstancias anómalas -estrés- de las plantas, cuando descubrieron la inducción de este compuesto. "Al igual que la fiebre es una alarma asociada a mecanismos de defensa en humanos, en las plantas enfermas dicha alarma consiste en la síntesis de una serie de compuestos químicos. Uno de ellos -y que hasta ahora no se conocía- es el que hemos descubierto y que presenta unas capacidades antioxidantes extraordinarias. Y, además, somos capaces de sintetizarlo en nuestro laboratorio", apuntan José Mª Bellés y Mª Pilar López, investigadores del IBMCP.
En este sentido, hay que señalar que el proceso de síntesis es sencillo y económico por lo que, según apuntan los expertos del IBMCP, ya está preparado para ser introducido en el mercado, ofreciendo además importantes ventajas respecto al resto de antioxidantes comerciales.
Equipo
Las investigaciones que han permitido descubrir esta nueva sustancia han sido desarrolladas, fundamentalmente, por la doctora María Pilar López y el Dr. José María Bellés, con la colaboración de Purificación Lisón e Ismael Rodrigo, todos ellos pertenecientes al laboratorio de Señalización y Respuesta al Estrés Biótico del IBMCP, bajo la dirección del Dr. Vicente Conejero, todos ellos profesores del Departamento de Biotecnología de la Universitat Politècnica de València .
El trabajo ha contado con el soporte económico del proyecto 'Estudios sobre la respuesta defensiva de las plantas frente a patógenos', financiado por el Ministerio de Ciencia e Innovación.
Salu2 a tod@s y Felicidades a María José Palma que hoy esta de cumpleaños
Mr. Moon.
La vida es un 10% como viene y un 90% como la tomamos.

jueves, 14 de julio de 2011

Para qué sirven las matemáticas ?

Siempre que los padres enfrentan el reclamo de sus hijos "y para que me servirá estudiar matemáticas en mi vida ????"  los padres tenemos problemas para responder y refutar de una manera adecuada, pedagógica y con razón, no tenemos muchos ejemplos, al menos en la memoria, pero aquí viene Francis al rescate y nos da la respuesta perfecta, en una entrada de su blog La Mula Francis, ahora puedes responder a tu hij@ con altura, porte y talante, como diría el mismisimo Liberachi : "Dignos y Firmes" (tomada de la película "Gladiador") espero les guste tanto como a mí.


Peter Rowlett nos presenta en Nature siete ejemplos que demuestran que el trabajo teórico de los matemáticos puede conducir a aplicaciones prácticas inesperadas. Muchos científicos e ingenieros descubren que las herramientas matemáticas que necesitan fueron desarrolladas hace muchos años, incluso hace siglos, por matemáticos que no tenían en mente ninguna aplicación práctica concreta. La vida de las herramientas matemáticas, si no tienen errores, es eterna; una vez que la comunidad de matemáticos está satisfecha con una solución a cierto problema matemático, por dicha solución no pasan los años. Sin embargo, con la crisis económica ha crecido el interés en buscar aplicaciones a los desarrollos matemáticos en su etapa germinal, cuando aún son meras ideas abstractas. El problema es que para un matemático predecir para qué pueden servir sus ideas raya lo imposible. No se pueden forzar las cosas y algunas aplicaciones de las matemáticas actuales aparecerán dentro de décadas o incluso siglos. Para ilustrarlo, Peter Rowlett nos presenta los siguiente siete ejemplos en ”The unplanned impact of mathematics,” Nature 475: 166–169, 14 July 2011. La Sociedad Británica para la Historia de las Matemáticas tiene abierta una convocatoria con objeto de recopilar más ejemplos, si conoces alguno puedes enviarlo siguiendo este enlace “The British Society for the History of Mathematics.”

Mark McCartney & Tony Mann: “De los cuaterniones a Lara Croft”
La historia de cómo descubrió los cuaterniones el matemático irlandés William Rowan Hamilton (1805–1865) el 16 de octubre 1843 mientras estaba caminando sobre el Puente de “Broome” en Dublín es muy conocida. Hamilton había estado buscando una manera de extender el sistema de números complejos a tres dimensiones de tal forma que permitiera describir las rotaciones tridimensionales respecto a un eje arbitrario como los números complejos describen las rotaciones bidimensionales. Su idea feliz ahora nos resulta casi obvia, no era posible hacerlo con ternas de números, las rotaciones tridimensionales requieren un sistema de números con cuatro componentes imaginarias. Si los números complejos son de la forma a + i b, donde a y b son números reales, e i es la raíz cuadrada de –1, entonces los cuaterniones deben tener la forma a + b i + c j + d k , donde las unidades imaginarias cumplen 2 = 2 = 2 = ijk= –1.

Hamilton pasó el resto de su vida tratando de convencer a toda la comunidad de matemáticos de que los cuaterniones eran una solución elegante a múltiples problemas en geometría, mecánica y óptica. Tras su muerte, pasó el testigo a Peter Guthrie Tait (1831–1901), profesor de la Universidad de Edimburgo. William Thomson (Lord Kelvin) pasó más de 38 años discutiendo con Tait sobre la utilidad real de los cuaterniones. Kelvin prefería el cálculo vectorial, que a finales del siglo XIX eclipsó a los cuaterniones y los matemáticos del siglo XX, en general, consideran los cuaterniones como una hermosa construcción matemática sin ninguna utilidad práctica. Así fue hasta que por sorpresa, en 1985, el informático Ken Shoemake presentó la idea de interpolar rotaciones usando cuaterniones en el congreso de gráficos por computador más importante del mundo (el ACM SIGGRAPH). Interpolar matrices preservando la ortogonalidad de las matrices de rotación es muy engorroso y utilizar los ángulos de Euler ayuda poco. Las técnicas convencionales de interpolación para númeos reales se extienden de forma natural a los números complejos y a los cuaterniones. Interpolaciones suaves y rápidas de calcular que desde entonces se utilizan en todos los juegos por ordenador que presentan gráficos tridimensionales. En la actualidad, los cuaterniones son imprescindibles en robótica y en visión por ordenador, además de en gráficos por ordenador. Al final del s. XX, la guerra entre Kelvin y Tait fue ganada por este último. Hamilton vio cumplido su sueño en la industria de los videojuegos, 150 después de su descubrimiento, una industria que mueve más dinero en el mundo que la industria del cine (más de 100 mil millones de dólares en 2010).

Graham Hoare: “De la geometría a la gran explosión”
En 1907, Albert Einstein formuló el principio de equivalencia, un paso clave para el desarrollo de la teoría general de la relatividad. Su idea es simple en extremo, que los efectos de una aceleración son indistinguibles de los efectos de un campo gravitatorio uniforme, o dicho de otro modo, que la masa como “carga” gravitatoria y la masa inercial son equivalentes. Esta idea llevó a Einstein a concebir la gravedad como una curvatura del espaciotiempo. En 1915 publicó las ecuaciones de su teoría general que indican cómo la materia curva el espaciotiempo circundante. Las matemáticas que utilizó tienen su origen a mediados del siglo anterior. Bernhard Riemann introdujo los fundamentos de la geometría diferencial en 1854, en la defensa de su tesis de habilitación (una especie de tesis doctoral que era requisito para impartir clases en la universidad). Introdujo la geometría diferencial de espacios (hipersuperficies) de n dimensiones, llamadas variedades, y las nociones de métrica y curvatura. En los 1870, Bruno Christoffel extendió las ideas de Riemann e introdujo las conexiones afines y el concepto de transporte paralelo. El cálculo diferencial en variedades (o cálculo tensorial) alcanzó altas cotas de abstracción con los trabajos de Gregorio Ricci-Curbastro y su estudiante Tullio Levi-Civita (entre 1880 y los inicios del s. XX). Pero estas ideas tan abstractas no tenían ninguna aplicación práctica hasta que Albert Einstein en 1912, con la ayuda de su amigo matemático Marcel Grossman decidió utilizar este cálculo tensorial para articular su profunda visión física sobre el espaciotiempo.  Gracias a las variedades de Riemann en cuatro dimensiones (tres para el espacio y una para el tiempo), Einstein revolucionó nuestras ideas sobre la gravedad y sobre la evolución del universo. Las ecuaciones de Einstein no tenían ninguna solución estática, por lo que Einstein introdujo en 1917 una término adicional, la constante cosmológica con objeto de compensar la expansión natural del universo. Tras los trabajos teóricos de otros físicos, como Alexander Friedmann en 1922, y los resultados experimentales de Edwin Hubble, Einstein decidió en 1931 eliminar la constante cosmológica y calificar su inclusión como “el mayor error de su vida.” Hoy en día, tras la gran sorpresa de 1998, el concepto de energía oscura ha reintroducido la constante cosmológica.

Edmund Harris: “De las naranjas a los módems”
En 1998, de repente, las matemáticas fueron noticia en todos los medios. Thomas Hales (Universidad de Pittsburgh, Pennsylvania) había demostrado la conjetura de Kepler, que afirma que la mejor forma de apilar naranjas en una caja es la utilizada en todas las fruterías (el empaquetamiento de esferas más eficiente posible). Un problema que había estado abierto desde 1611, cuando lo propuso Johannes Kepler. En algunos medios de prensa y TV se llegó a decir “creo que es una pérdida de tiempo y dinero de los contribuyentes.” Hoy en día, las matemáticas del empaquetamiento de esferas se utilizan en ingeniería de comunicaciones y teoría de la información y de la codificación para planificar canales de comunicación y para desarrollar códigos correctores de errores. El problema de Kepler fue mucho más difícil de demostrar de lo que Kepler nunca pudo imaginar. De hecho, el problema más sencillo sobre la mejor forma de empaquetar círculos planos fue demostrado en 1940 por László Fejes Tóth.

Otro problema sencillo cuya solución costó muchos años fue el problema de las esferas que se besan, planteado en el siglo XVII por Isaac Newton y David Gregory: Dada una esfera, ¿cuántas esferas iguales que ésta pueden colocarse con la condición de que toquen a la inicial? En dos dimensiones es fácil demostrar que la respuesta es 6. Newton pensaba que 12 era el número máximo en 3 dimensiones. Lo es, pero la demostración tuvo que esperar al trabajo de Kurt Schütte y Bartel van der Waerden en 1953. Oleg Musin demostró en 2003 que el número de besos en 4 dimensiones es 24. En cinco dimensiones sólo se sabe que se encuentra entre 40 y 44. Sabemos la respuesta en ocho dimensiones, que es 240, como demostró Andrew Odlyzko en 1979. Más aún, en 24 dimensiones la respuesta es 196.560. Estas demostraciones son más sencillas que la del resultado en tres dimensiones y utilizan empaquetamiento de esferas mucho más complicados e increíblemente densos, la red E8 en 8 dimensiones y la red de Leech en 24 dimensiones.
Todo esto es muy bonito, pero ¿sirve para algo? En la década de 1960, un ingeniero llamado Gordon Lang diseñó los sistemas de comunicación por módem utilizando estos empaquetamientos de esferas multidimensionales. El problema de la comunicación analógica en una línea telefónica es el ruido. En una conversación entre dos personas el lenguaje natural es tan redundante que el ruido importa poco, pero para enviar datos es necesario introducir ciertas redundancias y utilizar técnicas correctoras de error, lo que reduce el ancho de banda del canal (la cantidad de información que se puede transmitir por segundo). Lang utilizó los empaquetamientos de esferas para lidiar con el ruido y aumentar al máximo el ancho de banda. Para ello utilizó una codificación basada en el empaquetamiento E8 (más tarde también se utilizó el de Leech). En la década de los 1970, el trabajo de Lang fue clave para el desarrollo temprano de la internet. Donald Coxeter, matemático que ayudó a Lang en su trabajo, dijo que estaba “horrorizado de que sus bellas teorías hubieran sido manchadas de esta manera por las aplicaciones.”

Juan Parrondo y Noel-Ann Bradshaw: “De una paradoja a las pandemias”
En 1992, dos físicos propusieron un dispositivo simple para convertir las fluctuaciones térmicas a nivel molecular en un movimiento dirigido: un motor browniano (Brownian ratchet) basado en alternar el encendido y el apagado de cierto campo. En 1996, la esencia matemática de este fenómeno fue capturada en el lenguaje de la teoría de juegos por la paradoja de Parrondo. Un jugador alterna dos juegos, en ambos juegos por separado la esperanza a largo plazo implica perder, sin embargo, alternar ambos juegos permite lograr a largo plazo una victoria. En general, se utiliza el término “efecto de Parrondo” para describir el resultado dos pruebas que combinadas logran un resultado diferente al de dichas pruebas individuales. El “efecto Parrondo” tiene muchas aplicaciones, como en el control de sistemas caóticos ya que permite que la combinación de dos sistemas caóticos conduzca a un comportamiento no caótico. También puede ser utilizado para modelar en dinámica de poblaciones la aparición de brotes de enfermedades víricas o en economía para predecir los riesgos de ciertas inversiones en bolsa.

Peter Rowlett: “De los jugadores a las aseguradoras”
En el siglo XVI, Girolamo Cardano fue un matemático y un jugador compulsivo. Por desgracia para él, perdió en el juego la mayor parte del dinero que había heredado. Por fortuna para la ciencia escribió lo que se considera el primer trabajo en teoría de la probabilidad moderna, “Liber de ludo aleae,” que acabó publicado en 1663. Un siglo después, otro jugador, Chevalier de Méré, tenía un truco que parecía muy razonable para ganar a los dados a largo plazo, pero perdió todo su dinero. Consultó a su amigo Blaise Pascal buscando una explicación. Pascal escribió a Pierre de Fermat en 1654. La correspondencia entre ellos sentó las bases de la teoría de la probabilidad. Christiaan Huygens estudió estos resultados y escribió la primera obra publicada sobre probabilidad, “Ratiociniis De Ludo Aleae” (publicada en 1657).

En el siglo XVII, Jakob Bernoulli reconoció que la teoría de la probabilidad podría aplicarse mucho más allá de los juegos de azar. Escribió “Ars Conjectandi” (publicado después de su muerte en 1713), que consolidó y amplió el trabajo en probabilidad de Cardano, Fermat, Huygens y Pascal. Bernoulli probó la ley de grandes números, que dice que cuanto mayor sea la muestra, más se parecerá el resultado muestral al de la población original. Las compañías de seguros deben limitar el número de pólizas que venden. Cada póliza vendida implica un riesgo adicional y el efecto acumulado podría arruinar la empresa. A partir del siglo XVIII, las empresas de seguros comenzaron a utilizar la teoría de probabilidades para sus políticas de ventas y para decidir los precios de los seguros con objeto de garantizar beneficios a largo plazo. La ley de Bernoulli de los grandes números es clave para seleccionar el tamaño de las muestras que permiten realizar predicciones fiables.

Julia Collins: “Desde un puente hasta el ADN”
Leonhard Euler inventó una nueva rama de las matemáticas cuando demostró en 1735 que no se podían atravesar los siete puentes de Königsberg en un solo viaje sin repetir ningún puente. En 1847, Johann Benedict Listing acuñó el término ”topología” para describir este nuevo campo. Durante los siguientes 150 años los matemáticos trabajaron en topología porque suponía un gran desafío intelectual, sin ninguna expectativa de que fuera a ser útil. Después de todo, en la vida real, la forma es muy importante (nadie confunde una taza de café con un dónut). ¿A quién le preocupan los agujeros de 5 dimensiones en un espacio de 11 dimensiones? Incluso ramas de la topología en apariencia muy prácticas, como la teoría de nudos, que tuvo su origen en los primeros intentos para comprender la estructura de los átomos, se pensó que eran inútiles durante la mayor parte de los XIX y XX.

Pero en la década de 1990, las aplicaciones prácticas de la topología comenzaron a aparecer. Lentamente al principio, pero ganando impulso hasta que ahora parece que hay pocas áreas de la ciencia en las que la topología no se utilice. Los biólogos utilizan la teoría de nudos para comprender la estructura del ADN. Los ingenieros en robótica utilizan la teoría para planificar las trayectores de los robots móviles. Las bandas de Möbius se utilizan para obtener cintas transportadoras más eficientes. Los médicos utilizan la teoría de la homología para hacer escaneos cerebrales y los cosmólogos las usan para comprender cómo se forman las galaxias. Las empresas de telefonía móvil utilizan la topología para identificar los lugares donde no hay cobertura de la red. E incluso en computación cuántica se están utilizando hilos trenzados para construir ordenadores cuánticos robustos. La topología permite usar los mismos teoremas para resolver problemas muy diversos, desde el ADN a los sistemas de GPS (Sistemas de Posicionamiento Global). ¿Hay alguna aplicación práctica donde no se utilice la topología?

Chris Linton: “Desde las cuerdas a la energía nuclear”
Las series de funciones seno y coseno fueron utilizadas por Leonard Euler y otros en el siglo XVIII para estudiar la dinámica de las vibraciones de cuerdas y para estudiar los movimientos de los cuerpos en mecánica celeste. Joseph Fourier, a principios del siglo XIX, reconoció la gran utilidad práctica de estas series para estudiar la conducción del calor y comenzó a desarrollar una teoría general de las mismas. A partir de entonces, las series de Fourier se utilizan por doquier, desde la acústica o la óptica, hasta los circuitos eléctricos. En la actualidad, los métodos de Fourier están en la base de gran parte de la ciencia y de la ingeniería modernas, en especial de las técnicas computacionales.

Sin embargo, las matemáticas de principios del siglo XIX eran inadecuadas para el desarrollo riguroso de las ideas de Fourier y aparecieron gran número de problemas de carácter técnico que desafiaron a muchas de las grandes mentes de la época. Costó mucho desarrollar nuevas técnicas matemáticas para poder resolver estas dificultades. En la década de 1830, Gustav Lejeune Dirichlet obtuvo la primera definición clara y útil del concepto de función. Bernhard Riemann en la década de 1850 y Henri Lebesgue en la década de 1900 obtuvieron nociones rigurosas de la integración de funciones. La convergencia de series infinitas resultó muy  resbaladiza al principio, pero se logró dominar gracias a Augustin-Louis Cauchy y a Karl Weierstrass, que trabajaron en la décadas de 1820 y 1850, respectivamente. En la década de 1870, los primeros pasos de Georg Cantor hacia una teoría abstracta de los conjuntos se iniciaron con el análisis de las diferencias entre funciones que no son iguales pero cuyas series de Fourier son idénticas.

En la primera década del siglo XX, el concepto de espacio de Hilbert fue clave para entender las propiedades de las series de Fourier. El matemático alemán David Hilbert y sus colegas definieron estos espacios de forma axiomática, algo que parecía muy alejado de las aplicaciones prácticas. Sin embargo, en la década de 1920, Hermann Weyl, Paul Dirac y John von Neumann reconocieron que este concepto era la piedra angular de la mecánica cuántica, ya que los estados posibles de un sistema cuántico son elementos de cierta clase de espacios de Hilbert. La mecánica cuántica es la teoría científica más exitosa de todos los tiempos. Sin ella, gran parte de nuestra tecnología moderna (el láser, los ordenadores, los televisores de pantalla plana, la energía nuclear, etc.) no existiría. Quien podía imaginar que problemas matemáticos abstractos relacionados con las propiedades matemáticas de las series de Fourier acabarían revolucionando la ciencia y la ingeniería del siglo XX, y acabarían conduciendo a la energía nuclear.

Salu2 a tod@s y Felíz cumpleaños a mi gran amigo Francisco Ramírez, Chico para los que le apreciamos pues ayer estuvo de cumpleaños.

Mr. Moon.
La vida es un 10% como viene y un 90% como la tomamos.

martes, 12 de julio de 2011

Un estudio sugiere que el semen hace feliz a las mujeres

Un estudio demuestra que la esperma actúa como antidepresivo. Aquellas féminas que no utilizan condón, piensan menos en el suicidio

El semen te hace feliz pues actúa como antidepresivo, según un estudio reciente que señala que puede actuar como una droga psicoactiva en el cuerpo de las mujeres, mejorando su estado de ánimo y sus habilidades cognitivas.

El estudio, dado a conocer por la revista New Scientist se centra en las bondades del semen que pueden estar relacionadas con ventajas evolutivas.
El descubrimiento de que el semen actúa como un antidepresivo natural se debe al Dr. Gordon Gallup y a la Dra. Rebecca Burch, de la Universidad Estatal de Nueva York.

El estudio comenzó con una sospecha, pues Gallup se topó en los años 90, con el dato de que a diferencia de las mujeres heterosexuales, sexualmente activas viviendo juntas, las lesbianas sexualmente involucradas no tenían  el famoso "efecto McClintok" (el que las mujeres que comparten espacios comunes sincronizan sus ciclos menstruales como ocurre con las hembras de otras especies).

Ambos se preguntaron cuál era la causa que promueve la sincronía menstrual entre mujeres heterosexuales: la respuesta es que en sus relaciones hay semen.

Gallup y Burch, dedujeron entonces que ciertos químicos en el semen humano afectan la biología femenina a través de la absorción vaginal, de forma tal que las mujeres que tienen sexo sin condón, huelen diferente que quienes no utilizan éste preservativo, o al menos sus cuerpos emiten feromonas que empalman los ciclos menstruales de mujeres cohabitantes.

Para comprobar su teoría estudiaron a 293 mujeres, quienes debían responder un cuestionario sobre su comportamiento sexual y un test llamado: Beck Depression Inventory, que revela síntomas depresivos.

Aquellas mujeres que tenían parejas más estables y podían tener relaciones sexuales sin protección, presentaban menor nivel de síntomas depresivos, mientras que en aquellas que los usaban ocasionalmente, el nivel aumentaba considerablemente.

La vagina está rodeada de una red vascular: arterias, vasos sanguíneos, vasos linfáticos y los químicos que se absorben vía vaginal, los cuales tienen una línea casi directa con el sistema circulatorio periférico.

El semen contiene más de 50 sustancias químicas, hormonas, neurotransmisores, endorfinas e inmunosupresores, y diversos compuestos que afectan el estado de ánimo, incluyendo, cortisol (incrementa el afecto), estrona (eleva el estado de ánimo), prolactina (funciona como un antidepresivo natural),  oxitocina (eleva el estado de ánimo y genera un sentimiento de apego), melatonina (hormona que  regula el sueño), y hasta serotonina (el neurotransmisor antidepresivo más conocido).

El estudio mostró que sólo el 4.5 por ciento de las mujeres que "nunca" usaban condón consideraban la posibilidad de suicidarse, mientras que 28.9 por ciento de las que lo usaban dijeron considerar "a veces" el suicido, mientras que el 13.2 por ciento de las que "siempre" usaban condón consideraba el suicidio como una opción.

El Dr. Gallup, encontró también que "las mujeres expuestas al semen se desempeñan mejor en pruebas cognitivas y de aprendizaje", lo que parece sugerir que el semen no sólo hace felices a las mujeres, sino que mejora sus aptitudes intelectuales.

¿Usarías el sexo como un antidepresivo?


Salu2 a tod@s y Felíz cumpleaños a Fernando allá en Guate pues hoy esta de cumpleaños

Mr. Moon.
La vida es un 10% como viene y un 90% como la tomamos.