Hemos de ser honestos: no es sencillo medir los riesgos de las terapias alternativas. Eso ha sido un problema serio que se evidenciaba en nuestras dificultades para responder la inocente y sencilla pregunta de que "¿Qué mal pueden hacer?".
"Mucho" era la respuesta y lo intuíamos, pero hasta ahora no podíamos demostrarlo. Los pacientes no siempre cuentan que han abandonado los tratamientos y si lo hacen, no siempre quieren facilitar los datos para estudiarlos. Un estudio que acaba de salir trata de poner los puntos sobre las íes y, aunque aún hemos de ser prudentes, hacía falta que alguien los pusiera.
Datos que confirman nuestros peores temores
Un equipo de Yale se ha sumergido en las profundidades de las bases de datos estadounidenses sobre el cáncer para cuantificar el riesgo real que se oculta tras de esas terapias sin aval científico.
Los resultados son cristalinos y muy preocupantes: aquellos que abandonaron o retrasaron el tratamiento convencional para usar otros tratamientos alternativos tuvieron un riesgo mucho mayor de morir en los siguientes cincos años que los que no.
Las cifras varían según el tipo de cáncer, pero más por la dinámica propia de cada uno que por la eficacia de los tratamientos alternativos. Las pacientes con cáncer de mama tenían 5,7 veces más probabilidad de morir en los siguientes cinco años. Los pacientes de cáncer colorrectal tenían 4,6 veces.
Usar tratamientos alternativos aumenta el riesgo de morir en los siguientes cincos años hasta casi seis veces mayor
Hay casos especiales. Por un lado, en los pacientes con cáncer de pulmón la tasa de mortalidad en cinco años solo se duplicó. Esto se debe, probablemente, a que este tipo de cánceres son muy agresivos e incluso con los mejores tratamientos las tasas de supervivencia son bajas.
En el otro tenemos al cáncer de próstata, el único cáncer que no se vio afectado por la escasa eficacia de las terapias alternativas. Encaja con nuestro conocimiento de la enfermedad: se trata de un cáncer de progresión muy lenta y una supervivencia media en estadíos precoces de más de 10 años.
El equipo de investigadores, coordinados por Skyler Johnson, profesor de radiología terapéutica de Yale, estudiaron estos cuatro tipos de cáncer porque fueron los más prevalentes entre 2004 y 2013. Examinaron con detalle las historias clínicas para determinar patrones raros y la aparición de códigos de tratamientos alternativos.
Aún es pronto para sacar conclusiones
Es importante señalar que, aunque fueron bastante cuidadosos en la selección de pacientes, es un estudio pequeño (solo 280 pacientes tratados con terapias alternativas de un total de 840) y que tiene muchas limitaciones metodológicas. No obstante, aporta suficientes indicios como para ofrecer una visión de conjunto sobre los problemas que acarrean este tipo de timos sanitarios.
Y, lo que es más importante y por lo que creo que es realmente más interesante, este estudio plantea negro sobre blanco la importancia de investigar este tema. Estudios observacionales como este solo sirven para comenzar a explorar el problema.
Sobre todo, porque algunas conclusiones son muy alarmantes: el perfil de paciente que se pasa a tratamientos alternativos es mujer, de mediana edad, nivel socioeducativo alto y pocas complicaciones de salud. Un colectivo especialmente proclive a sufrir cáncer de mama que, como vemos, es especialmente sensible a la ausencia de tratamiento. Aquí hay algunos temas cruciales que la medicina debe resolver urgentemente.
Las terapias alternativas y
complementarias incluyen una gran variedad de prácticas, tales como la acupuntura, la
reflexología, la homeopatía o
las flores de Bach, que se publicitan como supuestos tratamientos contra un
gran abanico de enfermedades. Sin embargo, en el caso de que sustituyamos la medicina
convencional por una de estas pseudoterapias,
nuestro estado de salud se agravará y tendremos muchas más posibilidades de
morir.
Un reciente estudio publicado en Journal of the
National Cancer Institute advierte de los peligros que
encierra el hecho de elegir una terapia alternativa en lugar del tratamiento
convencional (quimioterapia, radioterapia, cirugía o terapia hormonal) para
tratar el cáncer.
Según sus resultados, aquellos pacientes que sufran un tumor maligno presentan
una peor supervivencia a los cinco años si optan por las
pseudoterapias.
La investigación, realizada por la Facultad de
Medicina de la Universidad de Yale (Estados Unidos), analizó un total
de 840 individuos, de los que 280 habían optado por las pseudoterapias tras
la detección del cáncer y 560 habían seguido las indicaciones médicas. El
trabajo comparó cuántos pacientes habían sobrevivido a los cinco años de haber
sido diagnosticados de la enfermedad en función de si habían elegido una
terapia alternativa o los tratamientos de la medicina convencional. Los
resultados son una prueba de algo que ya sabíamos o intuíamos: recibir una
pseudoterapia en lugar del tratamiento oncológico avalado por la evidencia
científica no es una buena idea.
Según el artículo, el riesgo es especialmente
significativo en los casos de cáncer de mama, de pulmón y colorrectal,
pero no en los de próstata, probablemente por el carácter más 'benigno' de
estos tumores. En el caso de los tumores de mama, la posibilidad de haber
fallecido era cinco veces mayor, mientras que en el cáncer colorrectal era cuatro
veces superior y en los tumores pulmonares, el doble. Los autores del trabajo,
no obstante, advierten de que sus resultados presentan limitaciones al tratarse
de un estudio observacional, en el que podría haber cierto sesgo de selección y
en el que podrían no haber contado con pacientes que hubieran recibido terapias
con base científica en otros centros.
Los resultados apoyan la evidencia científica
disponible hasta la fecha. En 2004, dos investigadores del Centro del
Cáncer Memorial Sloan-Kettering afirmaron en un trabajopublicado en The
Oncologist que las terapias alternativas "no habían sido
probadas" y que "pueden ser dañinas". En términos similares se
expresaba recientemente la Fundación para
la Investigación del Cáncer de Reino Unido, cuando señalaba que
"no había evidencia científica ni médica que mostrase que las terapias
alternativas pudieran curar el cáncer".
Mientras las pseudoterapias se empleen de forma
complementaria, su uso puede ayudar como efecto placebo,
pero en ningún caso servirá si optamos por ellas como terapias alternativas, es
decir, como sustitutas en lugar de por los tratamientos médicos que sí tienen
base científica. Porque, parafraseando al músico y humorista Tim Minchin, "la
medicina alternativa que ha demostrado funcionar se llama medicina".
En nuestra experiencia cotidiana el tiempo transcurre, siempre, en una única dirección, esto es, desde el presente hacia el futuro. La materia envejece y se corrompe, los niños crecen, los adultos se hacen viejos y a nadie se le ocurriría quedar con un amigo "hace tres horas".
Sin embargo, y desde hace décadas, los científicos se preguntan si el Universo "debe" por fuerza avanzar y desarrollarse en esa única dirección. ¿Por qué no al revés? Sobre todo teniendo en cuenta que, en el mundo de las partículas subatómicas, esas de las que todo y todos estamos hechos, las leyes de la Física son simétricas con respecto al tiempo. O lo que es lo mismo, funcionan igual con independencia de que el tiempo transcurra hacia delante o hacia atrás. Es al pasar al nivel macroscópico cuando todo parece "elegir" moverse únicamente hacia el futuro. El físico Arthur Eddington bautizó esta situación, a principios del siglo pasado, como «la flecha del tiempo».
La razón por la que esta "flecha" apunta siempre en una dirección, pero no en la otra, es uno de los mayores rompecabezas científicos de todos los tiempos. Y la respuesta clásica para que las cosas sean así es que la flecha del tiempo se desprende de la Segunda Ley de la Termodinámica, que establece que la entropía, o el desorden, siempre aumenta dentro de un sistema cerrado.
Es por eso, por ejemplo, que la leche se mezcla fácilmente con el café o el té, pero nunca vuelve a emerger limpia y pura de una taza de café con leche; o que un huevo, una vez frito, jamás volverá a ser un huevo crudo; o que el calor fluya siempre desde el objeto más caliente hacia el más frío, y nunca al contrario.
Otra razón importante para que las cosas funcionen tal y como vemos son las condiciones iniciales del sistema. Y por motivos que aún escapan a nuestra comprensión, el Universo primitivo estaba muy caliente y su energía se distribuía uniformemente por todas partes. Lo cual es un estado de baja entropía en un sistema dominado por la gravedad. Con el paso del tiempo, en efecto, la entropía del Universo no ha dejado de aumentar, y eso es lo que determina la dirección de la flecha del tiempo.
«Desfreír» un huevo
Ahora, un equipo internacional de investigadores liderado por Kaonan Micadei, físico en la Universidad Federal ABC, en Brasil, se ha preguntado qué sucedería al modificar las condiciones iniciales de un sistema cerrado. Es decir, si el estado inicial de un sistema determina la dirección de la flecha del tiempo, ¿sería posible crear, aquí en la Tierra, sistemas cerrados cuyas condiciones iniciales obliguen a la flecha del tiempo a apuntar en la dirección opuesta? Si la respuesta fuera afirmativa, dentro de ese sistema los huevos fritos podrían "desfreirse" de forma espontánea y el calor podría fluir de los objetos más fríos a los más calientes.
La respuesta es que sí. Micadei y su equipo, en efecto, han logrado, por primera vez, construir un sistema de estas características. Y, efectivamente, en su experimento la flecha del tiempo apunta en dirección contraria, permitiendo a los investigadores comprobar cómo un objeto frío es capaz de aportar calor a otro más caliente, algo impensable en nuestra realidad cotidiana. El trabajo, publicado en arXiv.org, abre las puertas al desarrollo de toda una nueva generación de dispositivos en los que el tiempo se mueve hacia atrás, en lugar de hacia delante.
La investigación, por supuesto, no nos permitirá emprender un viaje al pasado para ver dinosaurios, pero sí que podría decirnos por qué nuestro Universo está "atrapado" en una calle de un solo sentido.
Entrelazamiento cuántico
El exótico sistema creado en laboratorio por los investigadores es una mezcla de cloroformo disuelto en acetona. El cloroformo (CHCl3), está formado por un átomo de carbono, otro de hidrógeno y tres de cloro, un escenario perfecto para llevar a cabo experimentos de física cuántica, que es capaz de manipular los espin (una especie de rotación interna) de los núcleos de carbono e hidrógeno gracias a una técnica denominada resonancia magnética nuclear.
La idea era alinear los núcleos por medio de un potente campo magnético. Los físicos usaron pulsos de radio para invertir uno o ambos espins, y consiguieron que ambos se entrelazaran. El entrelazamiento es un extraño, pero bien conocido proceso cuántico en el que dos partículas comparten la misma existencia de forma que, como si de dos gemelos microscópicos se tratara, lo que le sucede a una es inmediatamente "sabido" por la otra, con independencia de la distancia que las separe. Después, una vez entrelazados, al escuchar las señales de radio emitidas por los núcleos los físicos pudieron determinar cómo evolucionaban sus estados cuánticos.
Al mismo tiempo, los núcleos de los átomos de carbono e hidrógeno estaban en contacto térmico, lo que significa que la energía térmica podía fluir entre ambos. Los investigadores podían controlar la temperatura de los dos núcleos y calentarlos de forma independiente gracias a la resonancia magnética nuclear. En estas condiciones, lo lógico sería que, como sucede en el mundo real, el calor fluyera desde el núcleo más caliente hacia el más frío. Pero Micadei y su equipo observaron justo lo contrario.
La clave para lograrlo fue, como se ha dicho antes, el entrelazamiento, el fenómeno que Micadei y sus colegas explotaron para crear el conjunto único de condiciones iniciales que permiten que, dentro de ese sistema, el tiempo corra hacia atrás.
El resultado fue la creación de un tipo de "motor" capaz de impulsar la energía térmica en la dirección opuesta a la que nos es familiar. "Observamos -reza el artículo- un flujo de calor espontáneo desde el sistema frío al caliente".
Escala macroscópica
El hallazgo tiene importantes implicaciones para nuestra comprensión de la naturaleza del tiempo, y de su relación con el entrelazamiento cuántico y la entropía. "Nuestros resultados soble la flecha termodinámica del tiempo -explica Micadei- podrían también tener estimulantes consecuencias sobre la flecha cosmológica del tiempo". Lo cual da a entender que procesos parecidos a los descritos en su experimento podrían ser responsables de las condiciones iniciales del Universo, el sistema en que vivimos, y explicar por qué el tiempo fluye en la dirección que observamos.
Otro aspecto significativo de este trabajo, de naturaleza más práctica, es que los fenómenos observados por los investigadores no se limitan solo a los sistemas microscópicos, sino que funcionan también a escala macroscópica, con un gran número de moléculas implicadas. Por lo tanto, estos resultados podrían desembocar en una nueva generación de dispositivos en cuyo interior el tiempo correría al revés, y que serían capaces de conducir la energía térmica de objetos fríos a otros más calientes.
Lo de ir a ver dinosaurios, por desgracia, tendrá aún que esperar...
El 9 de noviembre de 1967 a las 12:00 UTC despegaba el mayor cohete jamás construido por el hombre. La inmensa máquina de 111 metros de alto alzó el vuelo desde la rampa 39A en la misión conocida como AS-501 (Apollo Saturn 501), aunque pasaría a la historia como Apolo 4. Las vibraciones fueron tan intensas que el despegue de la bestia pudo sentirse a decenas de kilómetros a la redonda. El lanzamiento tuvo lugar nueve meses después de la tragedia del Apolo 1 en la que murieron los astronautas Grissom, White y Chaffee y supuso un paso adelante fundamental para un programa que necesitaba un éxito sonoro para seguir adelante. Y vaya si lo fue. El gigantesco Saturno V era sin duda el elemento clave para poner un hombre en la Luna antes de 1970 y solo se realizaron dos vuelos sin tripulación de este monstruo —Apolo 4 y Apolo 6— antes de llevar a cabo una misión con astronautas en la que también debía probarse el módulo lunar en órbita terrestre. Además, y aunque la misión Apolo 4 no viajó a la Luna, el módulo de mando CSM Apolo Block I (CSM-017) tenía que alcanzar una velocidad de reentrada atmosférica de 11 km/s con el fin de probar por primera vez el escudo térmico en condiciones similares a las de un viaje lunar.
El Saturno V era una maravilla de la ingeniería. Había sido diseñado a principios de los años 60 por los ingenieros del Centro Marshall de la NASA liderados por el equipo del mítico Wernher von Braun, el creador del misil balístico A-4 (V-2), que dio origen a la carrera por el espacio. En su primera etapa S-IC incorporaba cinco F-1 —de ahí el nombre Saturno V— de queroseno y oxígeno líquido, los motores de combustible líquido más potentes de la historia hasta la entrada en servicio del RD-170/171 de los lanzadores Energía y Zenit soviéticos. La tercera etapa S-IVB era criogénica —o sea, usaba hidrógeno y oxígeno líquidos— y podía encenderse varias veces gracias a su motor J-2, menos potente que el F-1, pero que en su momento supuso un desafío tecnológico equiparable.
Entre 1960 y 1962 el Centro Marshall investigó varios modelos de lanzadores pesados a los que denominó Saturno. El origen del nombre se debía simplemente a que el anterior lanzador de los chicos de von Braun bajo el control del ejército se había llamado Júpiter. Dentro de la familia Saturno se agrupaban dos tipos de lanzadores diferentes, unos que usaban una primera etapa que agrupaba varios cohetes Redstone modificados (Saturno C-1 y C-2, que finalmente derivarían en el Saturno IB) y otros que hacían uso de los poderosos F-1 en la primera etapa (C-3, C-4 y C-5). Estas últimas versiones eran capaces de situar 40, 100 y 120 toneladas en órbita baja, respectivamente, unas cifras que a día de hoy siguen siendo impresionantes, pero que en esa época eran casi de ciencia ficción. También se estudiaron configuraciones más pesadas, como el Saturno C-8, con ocho motores F-1, y capaz de colocar en órbita cerca de doscientas toneladas.
Cuando comenzó el desarrollo del Saturno V no se conocía qué método emplearía el Apolo para alcanzar la Luna, de ahí los múltiples diseños. En el momento que Kennedy anunció el desafío de poner un hombre en la Luna antes de 1970 el método favorito de la NASA era el ascenso directo, lo que requería un cohete gigantesco que pudiera lanzar entre cien y doscientas toneladas a la órbita baja. Este tipo de lanzador se denominó genéricamente Nova, aunque bajo este nombre se concibieron muchas familias de vectores, incluyendo algunas versiones del Saturno V. El centro Marshall de von Braun apostaba sin embargo por la técnica EOR (Earth Orbit Rendezvous), que requería cohetes mucho más pequeños (con el Saturno C-4, con una capacidad de cien toneladas, bastaba). Pero ante la duda la NASA decidió aprobar en febrero de 1962 el desarrollo del Saturno C-5 (luego rebautizado como Saturno V porque el cinco en números romanos era considerado más elegante y acorde con el nombre del programa Apolo), que tenía cinco motores F-1 en la primera etapa, cinco J-2 en la segunda y un J-2 en la tercera. El Saturno V incorporaba además una Unidad Instrumental (IU) a cargo de IBM con toda la aviónica y sistemas de vuelo que garantizaba una redundancia extra con respecto a los sistemas de guiado y navegación del CSM Apolo (y, de paso, permitía lanzar misiones de carga que no llevasen esta nave).
En julio de 1962 la NASA anunció que finalmente Apolo usará el método LOR (Lunar Orbit Rendezvous) para ir a la Luna. Esta técnica permitía aumentar considerablemente la carga útil del lanzador, a cambio eso sí de introducir un vehículo nuevo (el módulo lunar), y maniobras de acoplamiento en órbita de la Luna, por entonces un procedimiento que se consideraba muy arriesgado. Este método había sido el favorito de varios expertos, pero principalmente sería el Centro Langley de la NASA con John Houbolt a la cabeza su valedor más importante. Al equipo de von Braun el sistema LOR no le gustaba en absoluto. El Saturno V parecía ser ahora un cohete demasiado potente —y caro— para esta técnica. De hecho, el Saturno V terminó poseyendo una capacidad de carga superior a las 120 toneladas, unas cifras similares a las versiones más pequeñas del Nova. Esta capacidad extra, lejos de ser un inconveniente, se convertiría en una bendición cuando el módulo de mando CSM y el LM no pararon de engordar a medida que se acercaban a su diseño final.
La apuesta más arriesgada del Saturno V era el empleo de tecnología criogénica no solo en la tercera etapa, relativamente pequeña, sino también en la segunda (para la primera se descartó esta opción por varios motivos, pero principalmente porque el hidrógeno líquido es muy voluminoso y entonces el Saturno V habría tenido unas dimensiones aún más descomunales). Por aquella época la industria aeroespacial estaba aprendiendo por las malas las dificultades inherentes a esta tecnología de propulsión, muy eficiente, pero también increíblemente compleja. Para mitigar este problema se decidió que la tercera etapa S-IVB, construida por Douglas, volaría antes como segunda etapa del Saturno IB, permitiendo así depurar esta díscola tecnología. Así, cuando el Apolo 4 despegó de la rampa 39A en Florida, la S-IVB ya había volado tres veces. Mientras, Boeing pudo concretar el diseño de la potente primera etapa S-IC —que equivalía a casi la mitad del cohete en altura y masa—, y North American se hizo cargo del ‘muerto’ que supuso la segunda etapa S-II. Casi todos los márgenes de peso se los habían tragado las etapas S-IC y S-IVB, que comenzaron su desarrollo antes, así que North American no solo tuvo que lidiar con el desafío de construir una gran etapa criogénica con cinco motores muy potentes, algo que nunca se había hecho antes, sino que además tuvo que usar todo tipo de trucos para aligerar el peso de la etapa. Y no nos olvidemos de que, por si fuera poco, al mismo tiempo esta empresa estaba desarrollando el CSM Apolo. Además, la compañía encargada de los F-1, Rocketdyne, era una filial de North American.
En la Unión Soviética la respuesta al Saturno V fue aprobada por el gobierno soviético demasiado tarde. Efectivamente, no sería hasta 1964 cuando el N1 de la oficina OKB-1 de Serguéi Koroliov recibió el visto bueno de las autoridades. Este lanzador había sido diseñado originalmente con una capacidad de ochenta toneladas en órbita baja para misiones a Marte usando el método EOR. Como respuesta al desafío estadounidense se decidió emplear el N1 en vuelos lunares usando la técnica LOR de modo similar a la NASA. Como consecuencia fue necesario rediseñar el vector para aumentar su capacidad de carga hasta las 95 toneladas. Una cifra imponente, pero que estaba lejos del Saturno V. El N1 contaba con un presupuesto irrisorio en comparación con el Saturno V, lo que sumado a las limitaciones de la tecnología soviética de la época, obligó a que el equipo de Koroliov tomase la decisión de usar kerolox en todas las etapas del N1.
La menor eficiencia de estos propergoles, combinada con la elevada latitud del cosmódromo de Baikonur, provocó que, pese a su diferencia en capacidad de carga, el N1 generase más potencia al despegue que su homólogo estadounidense. En el primer vuelo del N1 en 1969 —dos años más tarde que el Apolo 4— también se debían probar todas las etapas de golpe, pero, a diferencia del Saturno, la OKB-1 (TsKBEM por entonces) no tenía ni tiempo ni dinero para realizar las numerosas pruebas de los componentes del lanzador por separado que había hecho la NASA con el Saturno (aunque parezca increíble, nunca se realizó una prueba de los treinta motores NK-15 de la primera etapa funcionando al mismo tiempo). Como era de esperar, las cosas no salieron bien. Tras el fracaso de los cuatro primeros vuelos se decidió usar etapas superiores criogénicas y un esquema EOR para poner un cosmonauta en la Luna, pero ya era demasiado tarde y el programa N1 fue cancelado.
Pero volvamos al Apolo 4. Después de un despegue que hizo templar el suelo de Cabo Cañaveral, las tres etapas del Saturno V se comportaron perfectamente, incluyendo la crítica maniobra de separación de la S-IC que prácticamente implicaba ‘partir’ el cohete en dos. Con el objetivo de simplificar una misión de por sí muy difícil, el Apolo 4 no llevaría un módulo lunar, sino que su lugar lo ocuparía un simulador de masa e inercia denominado LTA-10R de 13,4 toneladas. La tercera etapa con el CSM se situó en una órbita baja de 190 kilómetros de altura, una órbita que sería elevada posteriormente gracias a un segundo encendido de la S-IVB hasta lograr una órbita elíptica con un apogeo de 17.209 kilómetros. A continuación el CSM, de 30,4 toneladas, se separó de la S-IVB. En su interior los sillones y paneles de mando para la tripulación habían sido sustituidos por instrumentos de medida.
El CSM-017 realizó dos maniobras usando su poderoso motor SPS. La primera transcurrió sin incidentes y elevó el apogeo hasta 18.092 kilómetros, pero la segunda ignición duró trece segundos más de lo previsto. Como resultado el módulo de mando entró en la atmósfera a una velocidad de 11,14 km/s en vez de los 11,07 km/s previstos, lo que a su vez se tradujo en una carga térmica un 22% superior a la esperada. Durante su órbita, el CSM-017 había permanecido orientado de tal forma que las temperaturas en la base de la cápsula fuesen las más bajas posibles para crear un contraste más fuerte con las temperaturas de la reentrada y, de esta manera, poner a prueba el escudo térmico de ablación. La entrada atmosférica tuvo lugar 8 horas y 19 minutos después del despegue y la cápsula ejecutó la maniobra en dos partes, una técnica conocida como skip reentry. La nave entró en la atmósfera y salió antes de volver a descender definitivamente como si fuera una piedra rebotando en un estanque.
Así se lograba reducir la aceleración al mismo tiempo que aumentaba la precisión en el descenso. No había otra forma de regresar de la Luna en una cápsula y mantener las fuerzas g por debajo de un límite aceptable. En la primera parte de la reentrada la cápsula experimentó 7,3 g, mientras que en la segunda alcanzó 4 g (curiosamente, valores inferiores a las aceleraciones previstas). Nada que no pudiera aguantar un astronauta bien entrenado. El amerizaje tuvo lugar en el océano Pacífico y la cápsula fue recogida por el buque USS Bennington. Después de esta misión exitosa la Luna estaba mucho más cerca para la NASA. Si el Apolo 4 hubiera fallado —bien el cohete, bien la nave CSM— todo el programa habría sufrido un retraso considerable y, probablemente, el Apolo 8 no hubiera podido viajar a la Luna en diciembre de 1968.
Paradójicamente, el primer vuelo del Saturno V coincidió con la decisión política de restringir su cadena de montaje. Ese mismo año la NASA decidió que solamente se construirían quince cohetes Saturno IB y otros quince Saturno V. Si posteriormente el gobierno optaba por seguir adelante con las misiones lunares debería aportar fondos necesarios para resucitar las partes de la línea de producción que iban a ser ‘congeladas’. A raíz de esta decisión la NASA se vio forzada a realizar una única misión de prueba adicional del Saturno V sin tripulación en vez de las dos previstas para ahorrarse uno de estos costosos lanzadores y acelerar el programa. En esta ocasión la prueba, que sería la misión Apolo 6, no salió tan bien. Pese a que el lanzador no reunía los requisitos de seguridad actuales para un vuelo tripulado, la NASA optó por lanzar el siguiente Saturno V con astronautas a bordo. No solo eso, sino que decidió cambiar de planes y lanzarlo a la Luna de forma totalmente imprevista para así cortar de raíz cualquier posible intento soviético de circunnavegar nuestro satélite. Afortunadamente la apuesta salió bien. Eran otros tiempos y se consideraba que el riesgo merecía la pena.
Sin embargo, finalmente dos de los Saturno V no se usarían en misiones lunares y hoy en día permanecen expuestos en distintos puntos de EEUU como si fueran fósiles de un pasado casi olvidado. Medio siglo después la NASA lleva casi siete años desarrollando el cohete SLS, capaz de colocar 70 toneladas en órbita baja en su versión Block 1 y 130 toneladas en la versión Block 2. Siete años para crear un lanzador que inicialmente tendrá casi la mitad de capacidad de carga que el Saturno V. ¿Qué habría pasado si la línea de montaje de este gigante no se hubiera cerrado?
El científico mexicano René Raúl Drucker Colín falleció anoche a los 80 años.
Se especializó en fisiología y neurobiología, era colaborador de La Jornada y diversos periódicos.
Desde 2012 se desempeñaba de secretario de Ciencia, Tecnología e Innovación de la Ciudad México. Originario de la Ciudad de México, Drucker Colín nació el 15 de mayo de 1937. Realizó sus estudios de licenciatura en la Universidad Nacional Autónoma de México (UNAM), y posteriormente obtuvo la maestría en ciencias en la Universidad de Illinois, Estados Unidos. Drucker Colín inició sus estudios de neurofisiología con Raúl Hernández-Peón en el Instituto de Investigaciones Cerebrales, AC. Tras la muerte de Hernández-Peón, en 1968, Drucker aceptó una plaza de asistente de investigación en el Departamento de Fisiología en la Escuela de Medicina de Saskatchewan, Canadá, donde obtuvo el grado de doctor en fisiología en junio de 1971.
Retornó a México, y fue contratado como investigador asociado al Instituto Miles de Terapéutica Experimental, y como profesor de asignatura en la Facultad de Fisiología de la UNAM, donde además fungió de jefe del Departamento de Sicobiología de 1972 a 1973. A principios de los años 90, Drucker Colín fue pionero a escala mundial en aplicar las técnicas de inmunoquímica de la proteína c-Fos como una herramienta para estudiar la actividad del cerebro durante el sueño.
Con esa técnica se establecieron cuáles grupos neuronales se activan en el sistema nervioso central durante el sueño. En 1984 publicó la primera evidencia de que se podía quitar y poner el reloj biológico del cerebro mediante trasplantes.
De ahí derivó su interés por el Parkinson y en 1987 publicó el primer trabajo en el orbe que muestra la posibilidad de trasplante celular en pacientes con este padecimiento para mejorar sus síntomas. En mayo pasado recibió el doctorado honoris causa por sus relevantes aportaciones en el ámbito de las neurociencias y la divulgación científica, por parte de la Universidad de Córdoba, de España
Pd: Leyendo un poco mas parece que el Dr tenía una larga cola que le pisaran: http://wikiversum.blogspot.mx/2011/01/iniciando.html
La civilización terrestre se ha desarrollado con sólo una especie humana. Pero podía haber sido de otro modo. Hasta hace unos 40.000 años, un parpadeo en tiempo geológico, al menos otro pariente próximo compartía este planeta con nosotros. Eran los neandertales, nativos euroasiáticos hoy resarcidos de su imagen de brutos gracias a los hallazgos científicos, que los han redescubierto como una especie muy parecida a la nuestra en múltiples aspectos. Pero hay algo que seguimos sin saber sobre ellos, y es por qué ya no están con nosotros.
Conocemos a los neandertales desde el siglo XIX, pero durante décadas pasaron por ser una especie primitiva, justamente extinguida frente a la superioridad intelectual de los sapiens. Los signos de canibalismo hallados en 1899 en Krapina (Croacia) afianzaron su imagen de bárbaros salvajes. Desde entonces ha transcurrido mucho tiempo y se han desenterrado muchas pruebas que han lavado la cara al pueblo neandertal. Como nosotros, fabricaban herramientas, se vestían, controlaban el fuego y enterraban a sus muertos. Poseían la misma variante que nosotros del genFOXP2, esencial para el lenguaje, por lo que probablemente hablaban. Tal vezpintaban y grababan en las paredes de las cuevas. Y en cuanto al canibalismo, no sólo los sapiens también lo hemos practicado, sino que incluso es posible que algunos neandertales fueran devorados por nuestros antepasados.
Dos reconstrucciones del hombre neandertal. Crédito: Biblioteca del Congreso / Wikimedia Commons.
Todo lo cual refuerza la pregunta: si eran tan semejantes a nosotros, ¿por qué desaparecieron? Dado que neandertales y sapiens sólo coincidieron en Europa durante unos 5.000 años tras la llegada de los segundos desde África, la hipótesis tradicional asumía que en la competencia por los recursos sólo pudo quedar una especie humana; los neandertales resultaron perdedores, bien por conflicto directo o quizá por un cambio climático que les afectó en mayor medida por su dieta más restringida y sus mayores necesidades energéticas.
La capacidad de organización pudo ser clave
En años recientes ha venido a sumarse una nueva teoría. Varios indicios, tanto anatómicoscomo arqueológicos, apuntan a la posibilidad de que los neandertales tuvieran menor capacidad de organización social que los sapiens, lo que los habría hecho más vulnerables en tiempos de escasez. En 2014, un análisis de genomas neandertales dirigido por el Instituto Max Planck de Antropología Evolutiva (Alemania) y publicado en la revista PNASreveló que nuestros parientes tenían una baja diversidad genética y que vivían en grupos pequeños y aislados. En comparación con los sapiens, los neandertales poseían menor variedad en ciertos genes relacionados con el comportamiento, en concreto con rasgos como la hiperactividad y la agresividad.
¿Podrían estas diferencias genéticas explicar un distinto comportamiento que hubiera perjudicado la supervivencia de los neandertales? El coautor principal del estudio, Sergi Castellano, se muestra rotundamente cauto: “Desconocemos el efecto fenotípico de estas variantes genéticas, así que no apoyan ninguna teoría ligada al comportamiento”, dice a OpenMind. La dificultad, agrega, estriba en inferir rasgos de conducta a partir de los genes. Según el investigador, actualmente se trabaja en esta línea introduciendo las variantes de neandertales y sapiens por separado en ratones, “pero se necesitan años de experimentos” para llegar a alguna conclusión, subraya.
Una reconstrucción de un hombre neandertal en el Museo de Historia Natural de Londres. Crédito: Paul Hudson.
Sin embargo, hay alguien que trata de avanzar en esta vía utilizando otro enfoque, el de la psicología evolutiva. Glenn Geher, de la Universidad Estatal de Nueva York en New Paltz, se basa en el hecho establecido de que la mayoría de los humanos actuales, exceptuando a los subsaharianos, conservamos en nuestro genoma en torno a un 2% de ADN neandertal, fruto de los antiguos cruces entre ambas especies. Geher recluta a voluntarios dispuestos a aportar un análisis genético de su “neandertalidad” y los somete a un amplio test de comportamiento y personalidad. Utilizando la metodología clásica en psicología, el investigador correlaciona después la mayor o menor presencia de variantes neandertales con rasgos de conducta.
Utilizando este enfoque, Geher ha encontrado una correlación “pequeña pero estadísticamente significativa” entre porcentaje de genes neandertales y facetas de la personalidad, según expone a OpenMind. Y curiosamente, los resultados son “consistentes con este tema básico sobre la sociabilidad de los neandertales”. En concreto, el psicólogo ha observado que los individuos con mayor grado de “neandertalidad” genómica sienten aversión hacia los extraños y tienen mayor tendencia al nerviosismo y a la ansiedad, rasgos posiblemente relacionados con una menor sociabilidad. Geher considera que su estudio puede abrir “una nueva vía para explorar la naturaleza de nuestros primos ancestrales, así como las razones de su desaparición”.
Sin pruebas concluyentes
A la hipótesis de la socialización aún le queda mucho camino por recorrer, si es que antes no llegan nuevas pruebas que la invaliden. El pasado mayo, investigadores franceses y belgas publicaban en la revista Nature el hallazgo en la cueva de Bruniquel, al suroeste de Francia, de un conjunto de grandes círculos construidos con pedazos de estalagmitas. Con unos 176.000 años de edad, estos anillos de piedra atribuidos a los neandertales se cuentan entre los ejemplos más antiguos de construcción humana. Los autores del estudio escribían: “Nuestros resultados sugieren que el grupo neandertal responsable de estas construcciones tenía un nivel de organización social más complejo que lo asumido hasta ahora para esta especie”.
El coautor principal del estudio, Jacques Jaubert, de la Universidad de Burdeos (Francia), señala a OpenMind que en su opinión no hay motivo para imaginar grandes diferencias en el modo de vida entre los neandertales y los humanos modernos que vivieron en el mismo período, aunque ambos grupos cambiaran a lo largo del tiempo. En cualquier caso, Jaubert subraya que los círculos de Bruniquel, construidos 120.000 años antes de la extinción de los neandertales, son demasiado antiguos como para arrojar alguna luz sobre la cuestión.
“Ciertamente, no hay una única razón que causó la extinción de los neandertales”, concluye Jaubert. Nada parece indicar que este misterio prehistórico vaya a resolverse pronto. Sin embargo, para Geher hay otra interpretación del asunto. Y es que, dado que miles de millones de humanos llevamos herencia neandertal latiendo en nuestros genes, en cierto modo aún están presentes, lo que lleva al psicólogo a parafrasear a Mark Twain: “Yo diría que la noticia de la extinción de los neandertales ha sido tremendamente exagerada”.
Javier Yanes para Ventana al Conocimiento @yanes68
Aquellos años de lágrimas
aquellos años de alegrías
aquellos años de desamores...
conocí a entrañables amigos
conocí a memorables amores
pero sobre todo conocí lo duro de la vida
aquellos años de diferencias
aquellos años de dolores
aquellos años de futbol
conocí lo que es volarse una clase
conocí lo que es rebelarse a un maestro
conocí lo que es llorar por amor
Pero doy gracias a la vida por aquellos recuerdos
pero doy gracias a la vida por esos aprendizajes
pero doy gracias a la vida por esos sinsabores
porque hoy soy diferente
porque hoy soy el mismo de ayer
porque hoy sigo luchando por el mañana
Gracias amigos por sus enseñanzas
gracias amigos por su apoyo
gracias amigos por su hombro
gracias mis hermanos por darme lo mejor de su vida
hoy estaré aquí para ayudarlos
hoy estaré aquí para luchar
hoy trato de ser mejor por la vida
por el futuro
y por la nostalgia....
En lo que a dietas se refiere, existe un sinfín de opciones que se ponen de moda y se recomiendan sin que tengan una base científica que compruebe el efecto que proclaman. A fin de conocer qué sustancias generan un efecto en verdad positivo en el cerebro, algunos neurólogos han realizado estudios con animales durante los últimos años.
Cuando a un grupo de ratas se les añadió en la dieta «ácidos grasos omega-3» se encontró que aprendían con mayor facilidad la forma de salir de un laberinto respecto de aquellas que consumían una dieta normal. Los ácidos omega-3 son abundantes en el aceite de pescados, como el salmón o el bacalao.
A otros ratones se les indujo de modo artificial el mal de Alzheimer. En este padecimiento se depositan en el cerebro unas placas formadas por una proteína llamada «beta amiloidea».
La cantidad de las placas nocivas fue menor en las ratas sometidas a una dieta adicionada con ácidos omega-3 y los síntomas de la degeneración se atenuaron en grado notorio. Se cree que esto se debe a que los ácidos omega-3 favorecen la formación de un factor neurotrófico que estimula las conexiones entre neuronas, lo cual mejora la capacidad cognitiva y de memoria.
Varios lectores me hicieron notar que últimamente he abordado en este espacio temas que parecen más quejas que “ciencia por gusto”, en particular cuando combato las tonterías seudocientíficas que muchos charlatanes difunden como si fueran hechos.
Tienen razón, en parte. El título de esta columna promete compartir el gozo de la ciencia, la “experiencia científica”, afín a la experiencia estética que nos producen las obras de arte, pero que antes pasa necesariamente por la razón. El asombro que nos produce la imagen que la ciencia nos da del mundo que nos rodea es siempre el asombro de entender… y luego maravillarse por lo que se ha entendido.
Pero en el mundo no todo es gozo, y la ciencia también tiene sus aspectos odiosos… sobre todo la falsa ciencia. Basta con ver la cantidad de productos milagro que se ofrecen por televisión para darse una idea de cuántos charlatanes se hacen ricos aprovechándose de la credulidad y buena fe de un público que está en una posición desventajosa para darse cuenta siquiera de que se está insultando su inteligencia.
Mis dos anti-favoritos actuales son las pulseras con holograma (Power Balance y demás) que ofrecen aumentar la fuerza física, mejorar el equilibrio e incrementar el bienestar general (además de feas y de que la misma idea es tonta, son un fraude descarado) y la nueva crema “Teatrical células madre”®, de Genomma Labs (empresa que se caracteriza por prometer cosas inverosímiles), que supuestamente “contribuye a la protección del ADN y retrasa el envejecimiento anticipado de la piel favoreciendo los mecanismos naturales para su regeneración” (si uno revisa la letra chiquita de la etiqueta, la crema dice contener, efectivamente, células madre… ¡de manzana! A menos que quiera uno tener cutis de fruta, la simple idea resulta absurda).
Pero más allá de la falta de respeto y el engaño burdo, los charlatanes tienen un efecto nocivo en la sociedad: fomentan la credulidad, la tendencia a creer cosas sin fundamento. Y una vez abierta la puerta de la creencia acrítica, pueden colarse por ella ideas realmente peligrosas, como la de el VIH-sida no es contagioso o la de que un aparatito con una antena puede “detectar” moléculas de droga o explosivos. Es cuestión de tiempo para que el fraudulento "detector molecular" GT-200, usado por las fuerzas armadas de México en el combate al narco, produzca un accidente grave. Por el momento, al señalar azarosamente, han provocado numerosas violaciones a los derechos humanos de ciudadanos inocentes, que son registrados y hostigados inútilmente.
Sí: las charlatanerías dañan. Vale la pena combatirlas, aunque no siempre sea agradable.