28 dic 2012

El problema que impide erradicar la poliomielitis

La semana pasada los medios se hacían eco de la noticia de que en Pakistán habían sido asesinados ocho trabajadores sanitarios que estaban llevando a cabo una campaña de vacunación contra la polio. Este triste suceso nos hace dirigir la atención hacia una enfermedad que, a pesar de poder haber sido erradicada mundialmente hace tiempo, aún hace estragos en algunos países. La campaña de erradicación de la OMS se inició en 1988 y desde entonces la incidencia de esta infección se ha reducido desde 350.000 casos a 650 casos en 2011. La poliomielitis es una infección endémica en 4 países: Nigeria, Pakistán, Afganistán e India, aunque este último país hace más de un año que no ha registrado ningún caso, por lo que está a punto de salir de la lista. 

Hay que remontarse algunos años para entender qué ha impedido que África erradique la polio y que se haya creado un importante reservorio en Nigeria; particularmente son dos hechos los que han fomentado el recelo de la población hacia las campañas de vacunación. En 1996, la empresa farmacéutica Pfizer llevó a cabo en este país unos ensayos clínicos para probar una nueva terapia en niños con meningitis, que resultó en la muerte de algunos de esos chicos sin que las familias hubieran sido informadas del tratamiento que se iba a practicar a sus hijos. Ese hecho llevó a la desconfianza, en general, sobre los productos farmacéuticos, pero hubo otro acontecimiento que hizo que la mala fama se cebara con la vacuna de la polio. En 2003, la OMS diseñó una campaña masiva de erradicación en toda África, que tuvo mucho éxito, excepto en Nigeria. En este caso, no se trató de ningún error médico, sino de logística; en una de las ciudades nigerianas se instaló la campaña en un centro de planificación familiar, de modo que se generó el rumor de que la vacuna de polio servía en realidad para esterilizar a la población, rumor que fue alimentado y magnificado por grupos extremistas. En Pakistán y Afganistán, los grupos talibanes han utilizado rumores muy similares y los conflictos bélicos en estas zonas tampoco fomentan que las ayudas exteriores sean aceptadas. Con estos argumentos no quiero justificar ni dejar de denunciar las muertes de esos trabajadores, pero sí dar a entender que las cosas no son tan simples como se nos explican.

¿Cómo es la vacuna de la poliomielitis?

La poliomielitis es una infección vírica que afecta principalmente al sistema nervioso, provocando parálisis de extremidades, y que se adquiere por vía digestiva (fecal-oral). Actualmente, disponemos de dos vacunas, una que se da por vía oral (Sabin) y otra intramuscular (Salk).

La vacuna Sabin consiste en una dosis de virus vivos atenuados con mutaciones que hacen posible que el virus replique de manera normal en los intestinos, pero no en las neuronas. Pero cuenta con el riesgo de que la atenuación se revierta y se enferme de polio (un efecto muy poco frecuente por otro lado, 1 de cada 750.000 vacunados). La vacuna Salk se compone de virus muertos y se da inyectada. Si bien que el virus esté muerto hace que sea imposible que se pueda generar la enfermedad accidentalmente, este tipo de vacuna es menos efectiva que la Sabin y no genera protección a nivel intestinal, por lo que alguien vacunado puede convertirse en portador y contagiar a personas que no estén vacunadas.

Niño recibiendo la vacuna Sabin (Fuente: http://www.polioeradication.org)

Por estos motivos, en zonas endémicas de polio se administra la vacuna Sabin, puesto que al ser oral (dos gotas) genera menos desconfianza entre la población y también por ser más efectiva que la Salk, aunque requiere más cuidados en su transporte y almacenamiento. En cambio, en los países con la polio erradicada utilizamos la Salk porque al estar muerto el virus no hay riesgo de que se reactive y genere la enfermedad. Hay quien, a raíz de lo que acabo de comentar, podría pensar que es una injusticia que demos la vacuna Sabin a los países pobres, ya que les exponemos al riesgo de que contraigan la enfermedad al vacunarlos, pero pensémoslo bien. En los países con casos de poliomielitis es muchísimo más frecuente que un niño contraiga la enfermedad por contagio natural que por vacunación, de modo que se prefiere usar una vacuna más potente; en los países con la polio erradicada no hay riesgo de infección por vía oral-fecal y por ello preferimos sacrificar algo la potencia de la vacuna y tener una vacuna más segura. De hecho, la OMS está estudiando extender la vacuna de virus muertos a la India, ya que está a punto de convertirse en un país sin polio; y esperemos que esto se cumpla dentro de no muchos años en el resto de países.

22 dic 2012

¿Qué es eso? Las amígdalas crípticas

Las amígdalas, como el resto de nuestro cuerpo, pueden tener un aspecto muy variable; las hay enormes, las hay que apenas se aprecian y también algunas personas tienen unas amígdalas muy características, con grandes agujeros, como si fuera un queso de Gruyère, parecidas a las que os muestro a continuación.



Por extraño que parezca, el aspecto de estas amígdalas es una variante de la normalidad. Las amígdalas de todo el mundo tienen criptas, pequeñas invaginaciones que están conectadas formando un sistema ramificado que es necesario para la función inmunológica de la amígdala. Lo que sucede es que, generalmente, son lo bastante pequeñas para pasar desapercibidas. Si bien antiguamente se pensaba que esta era una consecuencia de infecciones amigdalares repetitivas, hoy tendemos a considerar que se trata de una marcada actividad inmune por parte de la glándula.

Por si mismas, las amígdalas crípticas no son una enfermedad, pero el hecho de tener unas criptas tan grandes puede ayudar a que restos de alimentos se queden depositados en su interior, generando mal aliento, faringitis o incluso piedras (formadas por una mezcla de restos de comida, células muertas, bacterias y calcio). Por estos motivos, quienes tienen estas amígdalas deben cuidar con especial atención su higiene bucal.

Antiguamente, las amígdalas crípticas eran motivo suficiente para entrar a quirófano para eliminarlas. Por suerte, cada vez se perfilan mejor las indicaciones para esta intervención y muchos os habréis dado cuenta que las pasadas generaciones eran operadas con mayor frecuencia que ahora; actualmente solo se sacan este tipo de amígdalas cuando provocan infecciones o piedras de manera repetitiva y casi nunca antes se realiza antes de los 3-5 años (salvo que sea un caso tan complicado que no quede otro remedio). Y recordemos que extirpar la amígdalas no hace que bajen las defensas, ya que la faringe tiene otros focos de tejido linfoide que pueden suplir las funciones de las amígdalas.

Frikidato

Tras una amigdalectomía, el aspecto de la herida puede espantar un poco al paciente y también al médico novato que no la haya visto antes. La fibrina que la recubre le da un aspecto un tanto sucio, pero que desaparece con los meses.

Fuente: http://en.wikipedia.org/wiki/File:Tonsillectomy09.jpg

19 dic 2012

¿Y si pudiéramos ser inmunes a la radiación?

Como muchos sabréis, los efectos de las radiaciones ionizantes son acumulativos a lo largo de la vida de una persona, y además no hay un nivel que pueda considerarse seguro y sin efectos por bajo que sea. No podemos reducir nuestra exposición una vez establecida; hasta el momento sabíamos que el yoduro de potasio podía reducir el riesgo de cáncer de tiroides en el caso de una exposición accidental, pero este remedio no nos ayuda con otros tipos de tumores u otros problemas derivados de la radiación. Sin embargo, parece que ahora hay un fármaco que podría reducir los efectos de la radiación recibida.


El Ex-Rad, desarrollado por el Departamento de Defensa de los EEUU, es un fármaco que ha demostrado aumentar la supervivencia en caso de una exposición a dosis potencialmente letales de radiación, ya sea habiéndola administrado antes o después del incidente.  Los estudios con ratones expuestos a dosis letales de radiación gamma así lo demuestran, aunque esto no podemos comprobarlo en personas, por los problemas éticos que implica, de modo que en humanos solo se ha comprobado su seguridad y la ausencia de efectos secundarios importantes.

Para simular los estudios con humanos se han utilizado cultivos celulares para intentar entender cómo actúa este nuevo fármaco. Parece ser que el Ex-Rad, que es una sal sódica derivada de la 4-carboxistiril-4-clorobenzilsulfona, altera el comportamiento de las células cuando hay lesiones en el ADN y reduce la actividad de p53, que en caso de daño genético irreparable empuja a la célula a autodestruirse, es decir, que lo que el Ex-Rad evita es la apoptosis celular generada por la radiación. 

El Ex-Rad podría ser un buen remedio para el síndrome agudo por radiación, que afecta a tipos celulares que se dividen rápidamente (ya que son más vulnerables al daño radiactivo), incluyendo la médula ósea o el tejido gastrointestinal; y es que una exposición a radiaciones entre 1 y 8 Gy llevan a un descenso precoz de las células sanguíneas, que es una de las principales causas de morbimortalidad, por hemorragias e infecciones, tras una exposición importante. Además los efectos sobre las paredes del intestino llevan a síndromes de malabsorción difíciles de controlar a partir de exposiciones a 10 Gy.

Este mecanismo de acción nos lleva a pensar que, si bien podemos reducir el riesgo de toxicidad en médula ósea y el consiguiente déficit de células madre sanguíneas, que es uno de los principales problemas a los que se enfrenta a corto plazo la población superviviente a un accidente con radiación, ¿qué sucede a largo plazo? Parece extraño que nadie se haya pronunciado sobre las consecuencias que tendría a largo plazo el hecho de inhibir las vías de suicidio celular que evitan que células con errores genéticos no reparables progresen. No creo que sea la única que piense que, a la larga, el riesgo de tumores podría aumentar.

Frikidato
Si hay por aquí algún lector aficionado a los videojuegos, se habrá dado cuenta que este fármaco recuerda mucho al Rad-X, que es el antídoto que se utiliza en el juego Fallout para evitar los daños por radiación.

Fuentes:

14 dic 2012

¡Bromuro en las lentejas!

Siempre se ha dicho que para evitar "incidentes desafortunados" entre los reclutas del servicio militar que, faltos de cariño femenino, pudieran interesarse por sus compañeros, se ponía bromuro en la comida, sobre todo en las lentejas (no me preguntéis el porqué de la fijación con las lentejas), ya que así se bajaba la libido. Más allá de si en la Mili se echaba mano al bromuro o no, ¿realmente funciona este remedio?

Los bromuros son compuestos formados por un metal alcalino (como el litio) y un halógeno (en este caso, el bromo). Este tipo de uniones generan compuestos que tienen mucha facilidad para interaccionar en las conexiones neuronales, de modo que es fácil que intervengan en acciones como la sedación, el estrés u otros funciones neurológicas.

Existen muchos bromuros. El más conocido en el tema que hoy nos concierne es el bromuro de potasio, una sal de color blanco, soluble en agua y en etanol. Se usaron con frecuencia como sedantes durante los siglos XIX y XX. Vamos, que lo que se dice matar, sí que mataba el deseo sexual, pero también cualquier otro interés en la vida... Sin embargo, tal acción es común a todos los sedantes y no se sabe que sea especialmente específica del bromuro de potasio. De hecho, uno de los usos más extendidos del bromuro durante el s. XIX en Gran Bretaña era administrárselo a los niños de clase alta en las comidas, ya que todo a niño de bien se le regalaba un salero personal como signo de status social, aunque luego se le mezclara algo de bromuro con la sal para que la criatura se portase bien... Además, los bromuros de sodio y potasio eran muy usados para tratar la epilepsia, pues en aquella época se creía que era una enfermedad provocada por la masturbación.

Por otro lado, la mayoría de bromuros que continúan en el mercado se utilizan hoy en día por sus efectos anticolinérgicos, es decir, que inhiben las acciones del sistema nervioso parasimpático, por lo que más que reducir la libido, dificultan la erección, que es generada por el sistema parasimpático.

La toxicidad de los bromuros puede desencadenar el bromismo, un síndrome con múltiples síntomas neurológicos (cefalea, somnolencia, sensación de frío, lenguaje incoherente, disminución de la fuerza muscular), así como vómitos y diarreas. Tampoco son infrecuentes las erupciones cutáneos por el uso de bromuro. Como podemos ver, los bromuros distan mucho de ser fármacos inocuos y, aunque sean fáciles de disimular en la comida o en la bebida, estos síntomas pueden acabar delatando su uso.

Los bromuros son bastante fáciles de encontrar en la naturaleza, sobre todo en el agua de mar (son el 0'2% de todas sus sales) y en los productos marinos, dando lugar a la paradoja de que uno de los afrodisiacos por excelencia, el marisco, es una de las fuentes más ricas de bromuro de las que disponemos.

Sin embargo, hay otro producto muy consumido que sí sabemos que afecta a la libido, el regaliz. El regaliz contiene ácido glicirrético, que actúa a nivel de la glándula suprarrenal inhibiendo algunas enzimas, como la 17-b-hidroxi-deshidrogenasa (HSD-17b). Si nos fijamos en el esquema, la inhibición de HSD-17b impide la formación de testosterona, generando un acúmulo de los metabolitos anteriores, que buscarán llegar a modificarse por el resto de vías. Por este motivo, además observamos un aumento de cortisol y aldosterona.

Fuente: http://www.scielo.cl/scielo.php?script=sci_arttext

Tanto el cortisol como la aldosterona (encargada de retener sodio y agua) son hormonas que elevan la tensión arterial. Por estos motivos se recomienda no exceder los 100 mg de consumo diario por seguridad o tomar un regaliz modificado que no contiene ácido glicirrético.

7 dic 2012

¿Qué hay de nuevo en el mundo de la psiquiatría? DSM-V

Hace unos días la American Psychiatric Association ha renovado el DSM (Diagnostic and Statistical Manual of Mental Disorders), que es la biblia de los psiquiatras, y se estrena la nueva y flamante quinta edición. El DSM es un manual que recoge los criterios que debe cumplir un paciente para ser diagnosticado de las enfermedades psiquiátricas que estén validadas oficialmente. En psiquiatría se carecen de marcadores analíticos (aunque seguramente acabaremos viéndolos algún día, tiempo al tiempo...) y de imagen para poder corroborar trastornos, así que los criterios son todo clínicos y, no pocas veces, subjetivos. 

Pinel liberando a los alienados de la Salpêtrière de Tony Robert-Fleury (Fuente: http://fr.wikipedia.org/wiki/Philippe_Pinel)

Entre los cambios más destacados se incluyen la aceptación oficial de nuevos trastornos, algunos bien conocidos, como el síndrome de Diógenes, el trastorno alimentario por atracones (que, a diferencia de la bulimia, no vienen acompañados de conductas purgativas tras el atracón), el trastorno por excoriación (gente que se araña y arranca fragmentos de piel compulsivamente) y el trastorno de la afectividad disruptiva (niños con alta irritabilidad y explosiones de ira frecuentes).

Además se amplia el rango de los trastorno del aspectro autista, incluyendo el síndrome de Asperger, que hasta ahora quedaba en tierra de nadie y el trastorno desintegrativo infantil (niños que tienen un desarrollo normal hasta los 3-4 años y luego involucionan en las áreas previamente adquiridas sin que haya una explicación orgánica a lo sucedido). También se describe con mayor precisión el área de trastornos por estrés postraumático.

Por otro lado, se han rechazado algunos trastornos descritos, como la psicosis atenuada o el síndrome depresivo-ansioso, por tener criterios tan laxos que podrían incluir a una buena parte de la población. Tampoco se han incluido los trastornos por hipersexualidad ni el síndrome de alienación parental (que no es más que uno de los padres, durante un proceso de separación, pone a los hijos en contra de la otra figura parental).

Se estima que el 25% de la población general va a cumplir los criterios de alguna de las enfermedades que incluye el DSM en algún momento de su vida. ¿Somos una sociedad mentalmente maltrecha, estamos sobrediagnosticando a nuestros pacientes, o ambas cosas a la vez?

28 nov 2012

¿Te puede salvar la vida toser si sufres un infarto?

Hace algunos años me llegó la noticia de que lo mejor para salvar la vida a alguien con síntomas de infarto es animarle a toser mientras se espera a que llegue la ambulancia. Según los "expertos", la acción de bombeo al toser vigorosamente podría impulsarla sangre a través del cuerpo e irrigar el cerebro hasta que llegase la ayuda necesaria. Vamos, como si se tratase de una autorreanimación cardíaca. En 2003, la noticia tuvo calado y fue difundida por algunos medios importantes y yo, que ni siquiera sabía para qué servía un bazo, me lo creí, como mucha gente, porque lo decía la prensa seria.

Esta técnica no es nada nuevo en el mundo de la cardiología; algunos trastornos del ritmo cardíaco (arritmias) son tratadas de este modo. Toser de forma vigorosa a intervalos de uno o dos segundos permite mantener una tensión arterial similar a la de un latido normal, a pesar de que por culpa de la arritmia el corazón no sea capaz de bombear la sangre de manera eficiente. El problema es que esta solución puede servirnos durante un minuto o menos; por lo que solo sería útil para ganar algo de tiempo hasta que traigan el carro de parada cardíaca si estamos en un hospital o si la arritmia es paroxística, es decir, que empieza y acaba bruscamente y es de corta duración.

No sabemos muy bien cuál es el fundamento de RCP mediante la tos; hay quien afirma que el aumento de presión en el tórax generado por los pulmones al toser potencia la expulsión de la sangre a través de la aorta hacia el resto del cuerpo (similar a lo que sucede cuando hacemos un masaje cardíaco), pero otros investigadores mantienen que la tos por si misma aumenta la presión en las arterias, sin que ello implique la movilización del flujo sanguíneo (cosa que explicaría porque se pierde el conocimiento a pesar de realizar la maniobra, ya que aunque se mantenga la presión alta, la sangre no circula y la presión de oxígeno va disminuyendo).

El problema de la susodicha noticia es dar por sentado que, si esto sirve para las arritmias, también servirá para los infartos. Recordemos que un infarto se produce porque una arteria coronaria se ha ocluido repentinamente y el corazón tiene una carencia de aporte sanguíneo que provoca que sus células vayan muriendo si no le ponemos remedio a tiempo. Si bien es cierto que este déficit de riego sanguíneo puede provocar una arritmia secundaria al infarto, que es la causa más frecuente de muerte antes de llegar al hospital en un infartado, la persona que tiene síntomas propios de un infarto no sabe si va a tener una arritmia ni cuando la va a tener, ya que el primer síntoma de estas arritmias suele ser el desvanecimiento (la arritmia no avisa, no hay los síntomas previos y claros de un mareo). Y claro, si alguien pierde la consciencia, animarle a toser es un poco absurdo... aquí lo que hace falta es un buen masaje cardíaco y un desfibrilador si puede ser. De hecho, incluso podría ser contraproducente animar a alguien que se está infartando a toser, puesto que una tos vigorosa y repetitiva implica una peor inspiración por parte de nuestros pulmones y, por lo tanto, peor oxigenación de la sangre. 

Fuentes: 
  • American Heart Association
  • Girsky MJ, Criley JM. Images in cardiovascular medicine. Cough cardiopulmonary resuscitation revisited. Circulation. 2006 Oct 10;114(15):e530-1.
  • Spencer BK. If You Have a Herat Attack, Just Cough. JACC. Cardiovascular Interventions. Volume 2, Issue 10, October 2009, Pages 1032–1033.

23 nov 2012

¡Vaya un trasplante de mierda!

Perdón por el título, pero es que es precisamente ese el tema del que hablaré hoy. Todo se remonta a una tarde de estudio en que, harta de darle vueltas al manual de cardiología del MIR, me puse a hacer zapping y apareció un capítulo de Anatomía de Grey. En mi defensa diré que no he visto nunca un capítulo de esa serie (lo juro), pero en ese momento me quedé hipnotizada mirándola; será que tengo nostalgia de no haber pisado un hospital desde marzo... El caso es que relataban la historia de una chica muy hipocondríaca que había tomado tantos antibióticos por su cuenta que había acabado con una sobreinfección por Clostridium difficile, a causa de que ella misma había fusilado a su flora intestinal a base de pastillas. Hasta aquí todo normal, supuse que le darían una tanda de metronidazol y a correr. Pero qué cara se me debió quedar cuando vi que la solución a su problema era ¡un trasplante de heces! ¿Eso se aplica en la vida real?

El trasplante fecal consiste en la aplicación de materia fecal de una persona sana, generalmente un familiar o alguien del entorno del paciente, que es diluida en agua para introducirla en el intestino mediante un enema o una colonoscopia. Este proceso permite restablecer la flora intestinal normal, que había sido eliminada por los antibióticos, y limitar el nicho biológico del C. difficile (lo que llamamos competencia entre especies) para que la infección remita. Las donaciones deben ser rigurosamente estudiadas para evitar la presencia de bacterias o parásitos nocivos y cumplir unas condiciones de higiene muy similares a las de una donación de sangre.

Esta terapia podría aplicarse a muchas otras infecciones, aunque la atención está fijada en C. difficile porque esta bacteria, que suele colonizar el intestino grueso tras la toma de antibióticos o tras pasar otras infecciones intestinales, está desarrollando tales mecanismos de defensa frente a los antibióticos disponibles que cualquier alternativa que se demuestre eficaz podría ser bien recibida por parte de la comunidad médica. De hecho, las nuevas cepas de la bacteria solo pueden ser tratadas como metronidazol o vancomicina, dos antibióticos que, de hecho, también pueden provocar la aparición de la susodicha infección, ya que al ser de amplio espectro, eliminan gran parte de la flora intestinal. Actualmente, con estos tratamientos hay un 20% de recidivas tras un primer brote y aquellos que padecen la recidiva tienen un 40% de posibilidades de hacer un tercer brote.

Los resultados de esta técnica son bastante esperanzadores y, aunque no hay muchos estudios al respecto, los presentes apuntan a una curación de hasta el 90% de los pacientes. Canadá está llevando a cabo los tres primeros ensayos clínicos, cuyos resultados nos darán la base de la evidencia científica necesaria para poder aplicar este tratamiento de forma normalizada; y la FDA (Food and Drugs Administration) ya ha recibido el primer borrador para dar el visto bueno al proyecto.

Parece que aún nos quedan muchos años para que esta terapia llegue a nuestro entorno y probablemente no se convierta en una terapia de primera línea debido a las connotaciones que tienen las heces y la invasividad del tratamiento, comparado con la comodidad de los antibióticos. De todos modos, algunos pacientes con infecciones graves y persistentes podrían ver en esta nueva alternativa una esperanza para su problema.


Fuentes: 
  • Bakken JS, Borody TJ, Brandt LJ et al. Treating Clostridium difficile infection with Fecal Microbiota Transplantation. Clin Gastroenterol & Hepatol 2011; 9(12): 1044-1049
  • Persky SE, Brandt LJ. Treatment of recurrent Clostridium-difficile-associated diarrhea by administration of donated stool directly through a colonoscope. Am J Gastroenterol 2000; 95: 3283-3285
  • McKenna M. Swapping Germs: Should Fecal Transplant Bacome Routine for Debilitating Diarrhea? Scientific American. December 2011

18 nov 2012

Tengo un mareo, ergo ¿tengo una bajada de azúcar?


Los mareos son un fenómeno muy frecuente entre la población, a pesar de que no se padezca ninguna enfermedad. Y siempre hay alguien que en ese momento se acuerda del azúcar. Quizás no le faltará razón en el caso de un diabético, ya que al administrarse la insulina de manera artificial puede que esta sea excesiva con respecto a los niveles de glucosa consumidos y en este colectivo las hipoglucemias son el pan nuestro de cada día. Pero, ¿es normal que una persona sana padezca hipoglucemias?

Lo cierto es que una persona sana no debería padecer hipoglucemias. Pensemos que, al comer, se eleva la glucosa en sangre y nuestro páncreas reacciona con un aumento en la producción de insulina, cuya función es facilitar la entrada de la glucosa en los tejidos corporales y almacenar el excedente de glucosa en forma de glucógeno tanto en el hígado como en los músculos para poder aprovecharlo durante el ayuno. A medida que pasamos horas sin comer, diferentes hormonas como el glucagón, que también es sintetizado por el páncreas, se encargan de ir liberando la glucosa almacenada. Y, por otra parte, también existe la posibilidad de sintetizar glucosa a partir de precursores no glucídicos (aminoácidos), cuando el aporte de la dieta y el glucógeno almacenado no son suficientes para suplir las necesidades. De modo que el páncreas “detecta” cambios en la concentración de glucosa y otros nutrientes en la circulación y a través de la secreción de insulina o glucagón regula el uso de estos combustibles por los distintos tejidos del organismo, consiguiendo mantener los niveles sanguíneos de glucosa en un rango de 60-110 mg/dL. Si el ayuno se prolonga lo suficiente, aparecen en escena otras hormonas con funciones similares al glucagón, como la adrenalina, la noradrenalina, el cortisol o la hormona del crecimiento, para poder sostener niveles de glucosa aceptables.

Cualquier enfermedad que afecte al páncreas o que modifique los niveles de las hormonas antes mencionadas puede acarrear la aparición de hipoglucemias, entre otros síntomas. Muchas de estas patologías son descubiertas con el test del ayuno, en el que el sujeto se somete a un ayuno durante el que se realizan determinaciones de glucosa antes de empezar la prueba y a las 12, 24, 36, 48, 60 y 72 horas. Una persona sana no debería presentar hipoglucemias con este test, ya que sus mecanismos de regulación de la glucosa funcionan correctamente.

Entonces, ¿cuáles son las causas que hacen que alguien sienta sensación de mareo o incluso le lleve a perder la consciencia? La mayoría de cuadros de síncope (pérdida súbita de consciencia de breve duración) se deben a una alteración de la tensión arterial, sobre todo en gente joven, ya sea por permanecer mucho tiempo de pie, un ambiente muy caluroso o la visión de algo desagradable. También la sensación de hambre, que no está vinculada a los niveles de glucosa, es una de las causas más frecuentes de esa sensación de cansancio y pesadez a ciertas horas de la mañana.

Sin embargo, esto que hemos explicado no es aplicable a los niños. La hipoglucemia cetósica es la causa más frecuente de hipoglucemia en los niños. Se produce en niños sanos entre 18 meses y 5 años, generalmente varones, que se encuentran en situaciones de ayuno prolongado en el contexto de enfermedades banales en las que disminuye la ingesta o por una dieta cetogénica. La etiología no es bien conocida aunque se barajan diversos trastornos, como un posible déficit de adrenalina o un defecto muscular. Se produce la remisión espontánea a los 8-9 años de edad, quizás por el aumento de la masa muscular, con lo que aumentan los sustratos endógenos y porque, según aumenta la edad, las necesidades de glucosa son menores.

10 nov 2012

¿Qué es eso? La prueba del agujero estenopeico

Si vais al oftalmólogo regularmente, posiblemente habréis visto unas gafas extrañas llenas de agujeritos como las que os muestro aquí abajo. Podrían pasar por parte de la indumentaria de Lady Gaga, pero son un elemento útil en la consulta de un médico.

Fuente: http://www.wdoptical.com
La prueba del agujero estenopeico consiste en hacer ver al paciente por un disco opaco con varios agujeros que permite testar de manera rápida si la pérdida de agudeza visual de una persona se debe a un defecto de refracción (como son la miopía o la hipermetropía) o si, por el contrario, hay alguna enfermedad ocular que deba preocuparnos. Su funcionamiento es bastante simple, si partimos de la base de que para ver correctamente necesitamos que los rayos de luz que parten de un objeto deben concentrarse en la retina, gracias a la acción de la córnea y el cristalino, que son los principales responsables de corregir la dirección de los rayos. Si tenemos un defecto en este sistema, hay un error de refracción (o de enfoque).

En la imagen superior, tenemos un ojo miope, ya que hace converger los rayos con demasiada potencia y el punto en que coinciden, que es donde se vería la imagen nítida, se sitúa antes de llegar a la retina. Después de la coincidencia, los rayos llegan dispersos a la retina, formando una imagen más o menos borrosa. A mayor miopía, antes coinciden los rayos y más dispersa es su situación en la retina.

Ojo miope antes y después de aplicar un agujero estenopeico.

La gracia de este tipo de instrumentos es que permiten eliminar gran parte de los rayos más periféricos que entrarían por la pupila (que son los rayos más dispersos en la retina y los que más distorsionan la imagen) y de este modo la visión se vuelve más nítida. En un hipermétrope, los rayos que más distorsionan la visión también son los más periféricos, ya que el ojo no tiene la suficiente potencia para hacer que coincidan en la retina, como vemos en la imagen inferior. Así que si logramos eliminar los rayos más oblicuos y dejamos pasar tan solo los rayos de luz que inciden de manera más perpendicular a la córnea, haciendo que el área donde se focalizan los rayos en la retina sea menor, también obtendremos una imagen mejor definida.



Y ahora que sabemos esto, seguro que más de uno ya os habéis dado cuenta de que este mecanismo es el mismo que usan los miopes para ver mejor cuando guiñan los ojos, y es que al entrecerrar los párpados también eliminamos esos molestos rayos periféricos. De hecho, miopía viene del griego y significa "guiñar los ojos". Los hipermétropes no suelen presentar este signo, ya que sus ojos tienen otros mecanismos para mejorar la visión (básicamente, contraer el cristalino para aumentar la potencia del ojo).

En base a este fenómeno se inventaron las gafas estenopeicas, que hace algún tiempo se pusieron de moda, como si fueran el súmmum de la modernez... Los principales "atractivos" de estas gafas son su precio, mucho más bajo que las lentes tradicionales, y el hecho de que se pueden utilizar se tenga miopía o hipermetropía, sin necesidad de graduar la agudeza visual. De todos modos, para un defecto de refracción relativamente importante no son muy útiles, puesto que la mejoría de la visión es bastante reducida, además de tener que sacrificar gran parte de la visión periférica y de la luminosidad. 

Frikidato
  • Antes de la existencia de la prueba estenopeica, existieron otras formas de evaluar rápidamente un defecto de refracción. La más famosa fue la prueba del arquero que hacían servir los árabes para testar la visión de sus soldados. Para ello se utilizaba la constelación de la Osa Mayor, porque dos de sus estrellas, Mizar y Alcor, se encuentran muy cerca vistas desde la Tierra y solamente las personas con una buena agudeza visual son capaces de verlas de forma nítida y distinguir que hay dos, y no una estrella.

2 nov 2012

Médicos con enfermedades infecto-contagiosas

Hace unos días, algunos medios publicaron una polémica noticia sobre la posibilidad de que a los taxistas infectados con VIH, u otras enfermedades infecciosas, no se les renovaría la licencia para poder trabajar en la Comunidad de Madrid. Ante esta noticia, y como es lógico en una sociedad moderna, muchas voces se han alzado en contra de este aspecto de la ordenanza. La sociedad rechaza la discriminación laboral de los seropositivos, al menos cuando no le toca de cerca. Pero, ¿qué sucede cuando el portador del VIH o la hepatitis C es un médico?

La ley (en España) es bastante laxa en este aspecto, ya que no regula qué se debe hacer con los médicos portadores de enfermedades infecto-contagiosas. Ahora bien, los Colegios de Médicos de cada provincia marcan sus propios códigos deontológicos (éticos), de modo que si un miembro los incumple, puede ser sancionado o expulsado de dicho colegio y perder el derecho a ejercer en esa provincia, a pesar de que el Código Penal no le castigue y su título de médico siga siendo válido (esto será válido solo si en esa provincia es obligatorio estar vinculado al Colegio para poder ejercer, cosa que no sucede en todo el país).

Los diferentes códigos deontológicos son bastante homogéneos en estos aspectos y las medidas que se proponen se basan en el tipo de actividad profesional y de infección. Los trabajadores que no realicen procedimientos invasivos pueden continuar con su labor sin ningún tipo de limitación. En cambio, los que realicen procedimientos invasivos que predispongan a exposición al virus, deben tomar precauciones según la infección de la que hablemos. En el caso de las hepatitis B y C, no podrán realizar esas funciones mientras los afectados tengan resultados positivos para ADN del virus B o ARN del virus C. Respecto al VIH, todavía no se contempla que la carga viral indetectable sea motivo para quitar las limitaciones en sus funciones.

En cualquier caso, el médico afectado debe comunicar su situación al servicio de Medicina Preventiva o de Salud Laboral del centro en el que trabaja, para que se pueda adaptar la actividad laboral del médico a las nuevas circunstancias, siguiendo los pertinentes controles periódicos, ya que si la situación anterior se modifica, el médico pueda volver a retomar sus funciones normales dentro del servicio. Comunicar una infección transmisible no debe suponer el despido del médico y se debe garantizar la confidencialidad del proceso. Es más, en caso de que el propio médico no quiera que se dé a conocer su situación, el médico que lo diagnostique está obligado a romper el secreto profesional y comunicarlo al servicio indicado.

Responsabilidades éticas y legales del médico infectado

Desde un punto de vista ético, hay que diferenciar si el médico conoce que está infectado o no. A pesar de que cuando lo desconozca, no hay transgresión ética, todo médico que realice maniobras de riesgo, debería tener la responsabilidad de someterse a pruebas serológicas periódicas (si bien no se le puede obligar a ello). Si ya conoce su estado, la ética obliga a que comunique su situación y tome las medidas necesarias para evitar poner en peligro a sus pacientes.

La responsabilidad civil y penal solo aparecen cuando la conducta del médico ha generado un daño (y será civil o penal según la gravedad de la infracción cometida), siempre que se pueda demostrar que el médico y/o el centro no actuaron con suficiente diligencia para evitar las situaciones de riesgo de contagio. La responsabilidad penal aparece cuando el médico, a sabiendas de que está infectado, continúa haciendo procedimientos de riesgo y contagia a un paciente; esta acción puede implicar hasta cuatro años de prisión y una inhabilitación de hasta diez años, así como una indemnización. La responsabilidad civil viene descrita como actos de omisión, es decir, un médico tiene un contacto accidental con sangre y no se realiza pruebas ni profilaxis para este tipo de enfermedades, de modo que en caso de infección puede infectar a un paciente sin saberlo. En este caso, la pena será exclusivamente el pago de una indemnización al paciente afectado.

Fuentes: 

  • Ministerio de Sanidad y Consumo. Recomendaciones relativas a los profesionales sanitarios portadores del virus de la inmunodeficiencia humana (VIH) y otros virus transmisibles por sangre, virus de la hepatitis B (VHB) y virus de la hepatitis C (VHC).
  • Asociación Médica Mundial

24 oct 2012

Darse rayos UVA antes de ir a la playa, cosas raras que hace la gente con su piel

Son muchos los excesos que se han cometido con el objetivo de lucir un bronceado, y creo que en el debate sobre las ventajas y desventajas de ir más blanco que la escayola o de tumbarse al sol hasta la cremación poca cosa puedo aportar que los lectores no sepan ya. Simplemente revisaremos algunas prácticas que se llevan a cabo desde que la gente empezó a tomar conciencia de que el bronceado no es tan inofensivo como creíamos. No estaba segura de que finales de octubre sea el mejor tiempo para este post, pero teniendo en cuenta la proliferación de las cabinas de rayos UVA, parece que cualquier fecha vale para presumir de moreno.

Una de las prácticas que más ha adoptado la gente es ir a las cabinas de rayos UVA antes del inicio del verano para ir a la playa con algo de bronceado que les proteja del sol. Todos sabemos que hay relación entre la cantidad de melanina de una persona y la protección de esta frente a los efectos del sol; una piel oscura está más protegida frente al daño que el sol provoca en el DNA que una piel clara. El problema radica en el tipo de bronceado que conseguimos con una cabina de rayos UVA o con la exposición solar. Aunque visualmente ambos bronceados son iguales, la melanina no se comporta de la misma manera.

Los rayos ultravioleta que nos llegan están formados por un 94% de rayos UVA (con una longitud de onda de 320~400 nm) y por un 6% de UVB (290~320 nm), aunque estos datos varían según el lugar de la Tierra donde estemos. A pesar de que la mayor parte de los rayos ultravioleta sean de tipo A, los tipo B son más agresivos, ya que causan daño directo en el DNA. Sin embargo, los de tipo A causan daño oxidativo a través de la formación de radicales libres, que a su vez dañan el DNA (daño indirecto) y son los principales responsables del envejecimiento de la piel. Así que ambos tipos de UV pueden provocar cánceres cutáneos, aunque los UVA lo hagan con menor frecuencia. 

Y ahora que sabemos distinguir un tipo más los rayos UVA y los UVB, ¿qué hay del bronceado que conseguimos con cada uno de ellos? Los rayos UVA no fomentan la producción de nueva melanina; de hecho, se produce un bronceado rápido porque estos rayos potencian la redistribución de la melanina ya existente y la oxidan proporcionando más color), pero este hecho no nos protegerá del sol posteriormente. Los rayos UVB sí favorecen la creación de nuevos gránulos de melanina, con el consecuente bronceado retardado, que se inicia a los 2-3 días y es máximo a los 15 días, además de producir también un bronceado rápido.

Con lo que ahora sabemos, podemos afirmar que la susodicha práctica carece de sentido y puede ser peligrosa, sobre todo porque hay gente que, cuando se pone morena, no se pone tanta crema y pasa más rato al sol. Pero, ¿y si solo usáramos los UVA para ponernos morenos y evitáramos tomar el sol, puesto que los riesgo de cáncer cutáneo son menores? Por un lado, el bronceado de los UVA dura menos (a lo sumo un par de semanas), así que necesitamos más exposiciones a lo largo del tiempo. Además, es importante recordar que la vitamina D es sintetizada gracias a la acción de los rayos UVB, los UVA no nos ayudan a metabolizarla.

Frikidato
  • Ahora que se acerca el invierno, hay quien tiene la tentación de tomar el sol a través de la ventana. ¿Sirve de algo? Cuando tomamos el sol a través de un cristal la luz ultravioleta UVB no penetra y lo único que recibimos es UVA, porque tiene una mayor longitud de onda. Para calentarse y coger un pelín de color no está mal, pero vitamina D, nada de nada...


Fuentes:

14 oct 2012

Alicia en el país de la neurología

¿Quién podía imaginar que una de las joyas de la literatura inglesa, Alicia en el país de las maravillas, escondía un pequeño tratado de neurología? Y es que algunos de los entrañables personajes que recordamos de nuestra infancia han inspirado a neurólogos para describir curiosos síndromes.

Síndrome de Alicia en el país de las maravillas

Este fenómeno, bautizado en honor a nuestra pequeña protagonista, fue descrito como la percepción alterada en la forma, tamaño y situación espacial de los objetos, así como la distorsión de la propia imagen corporal y del transcurso del tiempo, generalmente experimentado por niños y adultos con migraña, como parte de las conocidas auras migrañosas (percepciones que pueden anticipar la aparición de migrañas). Los pacientes son conscientes de la irrealidad del fenómeno, a pesar de la intensidad y del realismo con el que lo viven. 

Lewis Carroll padeció migrañas según lo atestigua su diario personal, y con frecuencia se ha sugerido que él mismo podría haber experimentado el síndrome, que le habría inspirado para escribir la famosa escena del pastel  y la bebida que encogen y agrandan a Alicia. 




Síndrome del gato de Cheshire

El gato de Cheshire tenía la capacidad de aparecer y desaparecer a su antojo, gradualmente hasta dejar solamente su sonrisa. Alicia había visto gatos sin sonrisa, pero no una sonrisa sin gato... El síndrome del gato de Cheshire, pese a no estar muy bien descrito a causa de los poquísimos casos que hay en la literatura médica, es la descripción de algunos casos peculiares de un tipo de vasculitis (inflamación de vasos sanguíneos), la poliarteritis nodosa, que aparece en estos pacientes con sus múltiples expresiones clínicas de un modo muy claro (con afectación renal, neurológica y cutánea sobre todo), pero cuando se hace la biopsia no hay evidencias de vasculitis, solo aparece el daño a los tejidos que ha producido.




Síndrome del sombrerero loco

En el siglo XIX, los sombrereros utilizaban mucho el nitrato de mercurio, necesario para trabajar la piel de conejo en los sombreros de fieltro. Esta tarea provocó una alta incidencia de intoxicaciones por mercurio en el gremio, causando básicamente síntomas psiquiátricos (hiperactividad, desequilibrio emocional, insomnio), lesiones en nervios periféricos y temblores, motivo por el que se acuñó la expresión as mad as a hatter (más loco que un sombrerero). 

Es muy posible que la personalidad excéntrica del personaje de Carroll fuera un reflejo de la  exposición laboral a que se veían abocados estos profesionales.





La tartamudez de Dodo

Es muy posible que muchos no recuerden a este personaje, a menos que sean unos entusiastas de la obra. El tímido Dodo es uno de los animales que se baña en el Mar de Lágrimas que provoca Alicia y que propone que todos los animales mojados hagan una carrera, donde los participantes corren de cualquier forma, sin principio ni fin, de modo que todos ganan. Ese personaje poco destacado está inspirado en el propio Lewis Carroll, que sufría una importante tartamudez hasta el punto de no poder pronunciar correctamente su verdadero nombre, Charles Dodgson, (Do-Do-Dodgson), de ahí el nombre del simpático animal, como el mismo explicó.

Fuentes: 
  • Todd, J. Syndrome of Alice in Wonderland. Canadian Medical Association Journal, Ottawa, 1955, 73: 701-704.
  • Bywaters, E.G. The Cheshire cat syndromePostgraduate Medical Journal. 1968 January; 44(507):19–22
  • Murray,  TJ. The neurology of Alice in Wonderland. Can J Neurol Sci 1982;9:453-457.

5 oct 2012

¿Son los cadáveres causa de epidemias?

La idea de que los cadáveres causan epidemias en zonas afectadas por desastres naturales está bastante extendida entre la población y puede llevar a que los asistentes se apresuren a enterrar a los fallecidos, descuidando acciones más importantes, como el auxilio de los supervivientes. Este mito tan asumido, incluso entre muchos médicos, debió nacer a raíz de las epidemias de Peste Negra que asolaron Europa siglos atrás. Históricamente, las epidemias que causan un número alto de víctimas sólo han ocurrido a causa de algunas enfermedades como la peste, el cólera, la fiebre tifoidea, la tuberculosis y la viruela, haciendo necesario deshacerse rápidamente de los fallecidos. Sin embargo, es poco probable que estas infecciones estén presentes entre las víctimas de desastres naturales.

En el inicio de una catástrofe, las principales causas de muerte son traumatismos, ahogamientos o incendios, de modo que hablamos de personas que, antes de morir, no tenían porqué estar infectadas de enfermedades frecuentes en zonas damnificadas. O si lo estaban, la probabilidad era igual de alta que entre los supervivientes; de manera que el riesgo de contagio es mayor entre los vivos. Pensemos que los cadáveres pierden su temperatura interna a gran velocidad (aproximadamente a razón de un 0'75ºC por hora), por lo que las bacterias mueren rápidamente, haciendo muy difícil su paso a vectores y de los vectores a la población general. Respecto a las enfermedades víricas, como hepatitis o VIH, solo representan un riesgo si se entra contacto con los fluidos de los muertos en los primeros días, ya que estos virus no duran más de dos días en un cadáver (mientras que el VIH puede sobrevivir hasta 16 días y a temperaturas de hasta 2ºC).

Pero hay un grupo de infecciones que merecen especial atención en este tipo de situaciones: las enterobacterias, formada por parte de la flora del intestino, como E. coli, Salmonella o Yersinia, así como Vibrio cholerae, que son bacterias bastante resistentes y pueden sobrevivir durante semanas en un cuerpo sin vida. Si bien es cierto que hay un leve riesgo de contaminación de las aguas por la materia fecal de los cadáveres, este riesgo se limita en gran manera con la recogida de los cadáveres de las zonas fluviales. Las razones de la frecuencia de este tipo de epidemias después de una catástrofe se explica básicamente por la falta de medidas sanitarias, la destrucción de los sistemas de agua potable y el hacinamiento de los damnificados, con mucho más peso que la presencia de muertos en la zona.

Según las investigaciones del Water, Engineering and Development Centre (WEDC) de Reino Unido, la relación entre cadáveres y epidemias nunca se ha demostrado científicamente, ya que es muy difícil que las aguas se contaminen debido a cadáveres no enterrados y, para más inri, algunos métodos de entierro causan más daños que los propios cuerpos, como la incineración masiva, que produce grandes cantidades de humo y contaminación atmosférica.

No diremos que no es importante enterrar a los difuntos, primero por respeto hacia ellos y sus familias, así como para evitar escenas que pueden resultar muy angustiosas para los habitantes. Por estos motivos, lo recomendable es recoger los cuerpos en zonas habilitadas para su posterior identificación, puesto que un entierro precipitado, como en las fosas comunes o las incineraciones masivas, convierte a esos fallecidos en "desaparecidos", con los problemas legales que eso conlleva.


Fuentes: 

27 sept 2012

El Ig Nobel de Medicina del 2012 va de colonoscopias explosivas

Los Ig Nobel son los premios organizados por la revista científica (y humorística a la par) Annals of Improbable Research, una parodia americana de sus primos hermanos suecos. Este reconocimientos para los científicos que "primero hacen reír a la gente, y luego hacen pensar", pues ese es su lema, se entrega anualmente desde 1991. Y en este blog, que comparte algo de la filosofía de estos premios, nos unimos a la difusión de nuestra categoría favorita.

El galardón en la categoría médica ha sido otorgado a Emmanuel Ben Soussan, un gastroenterólogo francés, y su estudio que revela que el uso de electrocoagulación durante una colonoscopia puede provocar la explosión en el colon, en el caso de que no esté lo suficientemente limpio. La idea de semejante teoría vino después de que el Dr. Soussan observara este problema al practicar una colonoscopia a dos de sus pacientes y decidiera estudiar que había sucedido. Si bien las colonoscopias son un procedimiento muy frecuente y seguro dentro de la práctica médica y las explosiones colónicas rozan lo anecdótico, esta complicación requiere cirugía urgente si el colon llega a perforarse. 

Hay tres factores necesarios para que una explosión se produzca: la presencia de un gas combustible, la presencia de un gas combustivo (oxígeno) y una fuente de calor (como la electrocoagulación). Los principales gases encontrados en el intestino grueso son el nitrógeno (23-80%), oxígeno (0'1-2'3%), hidrógeno (0'06-47%),  CO2 (5'1-29%) y metano (0-26%), de los cuales solo son combustibles el hidrógeno y el metano, producto de la fermentación de carbohidratos no absorbibles, como la lactulosa y el manitol, o incompletamente absorbidos, como la lactosa, la fructosa y el sorbitol. Para que estos gases provoquen una explosión es necesario que se encuentren en unas proporciones mínimas del 4-5%. Dichas cifras se encuentran en la mitad de los pacientes que no han sido preparados para la colonoscopia, es decir, que no han llevado a cabo la limpieza intestinal antes de someterse a dicha prueba. Tanto la limpieza, como la dieta blanda y el ayuno durante las horas previas reducen la cantidad de estos gases, y por tanto, evitan la aparición de este riesgo.

De todas maneras, recordemos que el número de explosiones que recoge la literatura médica desde los años 50 no supera los 20 casos, de los cuales solamente uno fue fatal. El porqué es sencillo de explicar, ya que por norma general ya se opta por una limpieza de colon mediante preparados laxantes, puesto que un colon limpio permite una mejor exploración. 

Sin embargo, ahora tenemos de otro motivo para procurar que los pacientes cumplan con la limpieza, que quizás es más desagradable que la prueba en sí. Y tampoco está de más conocer la recomendación de evitar los preparados de limpieza que contengan manitol u otros carbohidratos de poca absorción para reducir la cantidad de gases combustibles, sustituyéndolo por otras sustancias comercializadas más seguras, como el polietilenglicol.

Fuentes: 
- Ladas S, Karamanolis G, Ben-Soussan E. Colonic gas explosion during therapeutic colonoscopy with
electrocautery. World J Gastroenterol  2007 October 28; 13(40): 5295-5298

24 sept 2012

Parálisis del sueño

The Nightmare (Henry Fuseli).
Fuente:  http://en.wikipedia.org/wiki/File:John_Henry_Fuseli_-_The_Nightmare.JPG 

Estabas durmiendo plácidamente hasta que has despertado comprobando con pavor que tu cuerpo no responde y que no puedes moverte a pesar de intentarlo repetidamente... Esta situación, conocida como parálisis del sueño, es una de las parasomnias o alteraciones del sueño más frecuentes entre la población general.

La parálisis del sueño ha sido un fenómeno neurológico al que se han intentado buscar todo tipo de explicaciones paranormales a lo largo de la historia a falta de una explicación más verosímil; de hecho, antiguamente se le conocía como Old Hag Syndrome (síndrome de la bruja vieja) en relación a la creencia de que las brujas salían por las noche a matar gente sentándose encima de su tórax hasta la asfixia. Otras teorías más modernas lo han relacionado con las abducciones alienígenas o los viajes astrales. A día de hoy, la ciencia nos ofrece una perspectiva lo suficientemente sensata como dejar estas teorías para programas con un "rigor y calidad" como el de Iker Jiménez.

La parálisis del sueño es un fenómeno caracterizado por la incapacidad de llevar a cabo movimientos voluntarios, ya sea al inicio del sueño (forma hipnagógica) o al despertar (forma hipnopómpica), y que en algunos casos puede acompañarse de alucinaciones auditivas o visuales. Para entender por qué sucede esto, primero son necesarias cuatro pinceladas sobre los patrones del sueño normales.

Cuando dormimos, nuestro organismo pasa por distintas fases de sueño, unas más profundas que otras, que se clasifican en sueño NREM (sin movimientos oculares rápidos) y sueño REM (con movimientos oculares rápidos). Al inicio del descanso nos adentramos en el sueño NREM, compuesto de fases cada vez más profundas, siendo la última y más profunda la IV fase, poco después volvemos a pasar a las fases más superficiales y entramos en el sueño REM. Este proceso, que dura entre 90 y 120 minutos, se repite 4 o 5 veces por noche. Durante el sueño REM, nuestro cerebro y nuestro metabolismo se muestran tan activos como cuando estamos despiertos y soñamos (aunque los sueños no son exclusivos de la fase REM), mientras que nuestros músculos están totalmente flácidos; este es un mecanismo de defensa que evita cualquier tipo de reacción corporal ante lo que estemos soñando.

Fuente:  http://www.luciddreamexplorers.com

La parálisis del sueño se manifiesta o bien en la transición vigilia-sueño o, más frecuentemente, en la de sueño-vigilia. Esto se debe a que la flacidez muscular propia del REM persiste unos minutos a pesar de haber despertado; podría decirse que se debe a una descoordinación puntual en los mecanismos de sueño-vigilia que es rápidamente corregida. Por este motivo, la parálisis solo se produce cuando uno se despierta durante la fase REM.

El tema de las alucinaciones no está tan claro; sabemos que, durante la parálisis, la actividad del lóbulo temporal está aumentada, pudiendo generar las alucinaciones auditivas, y del mismo modo lo hace el lóbulo occipital en el caso de las alucinaciones visuales. De hecho, si tenemos en cuenta que, en estos episodios, el cerebro no ha salido completamente de la fase REM, las alucinaciones pueden ser consideradas como percepciones oníricas durante la vigilia (literalmente, soñar despierto).

Los eventos de parálisis son autolimitados y no representan un peligro para quien los padece, aunque sea una situación altamente angustiosa. Si bien se ha relacionado trastornos como la narcolepsia, lo más frecuente es que no se vincule a otras enfermedades y simplemente sea un hecho curioso que puede tener un componente hereditario o que refleje una falta de sueño, un cambio en las horas de sueño o el uso de fármacos o drogas.

11 sept 2012

Usos y abusos de las lentillas

Quienes llevamos lentillas sabemos la comodidad visual que nos traen, y no es difícil que acabemos abusando de ellas (ya sea llevándolas un número excesivo de horas al día o durmiendo una pequeña siesta con ellas). La práctica de dormir con las lentillas puestas es algo que siempre he evitado desde que una compañera del colegio me explicó que su tía tuvo que ir a Urgencias para que se las quitaran porque se le habían quedado pegadas a la córnea. Pero hoy en día hay lentillas que se usan solamente para dormir, ¿significa eso que no hay peligro?

La córnea, esa zona que recubre el iris y sobre la que se coloca la lentilla, apenas posee vasos sanguíneos, que podrían entorpecer la función visual. El tejido corneal se nutre gracias al humor acuoso, que se encuentra en una cámara justo detrás de la córnea, y recibe el oxígeno directamente del ambiente. Este hecho singular es el responsable del bajo riesgo de rechazo en los trasplantes de córnea, ya que el sistema inmune lo tiene difícil para llegar a la zona. Pero también es el principal factor limitante para las horas de uso de las lentes de contacto, ya que son una barrera física que reduce la entrada de oxígeno. A muy largo tiempo, esta deprivación de oxígeno puede llevarnos a la aparición de nuevos vasos sanguíneos que penetren dentro de la córnea y distorsionen nuestra visión, puesto que si no llega oxígeno a través del ambiente, nuestro organismo se lo subministrara por la otra vía (que es la que mejor controla), la creación de vasos sanguíneos.

Por si este motivo no fuera suficiente, el hecho de llevar las lentillas durante las horas de sueño implica un mayor riesgo de infecciones que si solo las llevamos de día. La lentilla ofrece una excelente superficie de apoyo que las bacterias pueden colonizar y esto, unido al ambiente húmedo y cálido de un párpado cerrado durante horas, facilita la reproducción de las bacterias. Si bien las conjuntivitis son relativamente frecuentes en los portadores de lentillas, sobre todo en los primeros meses de uso, el tipo de infecciones generadas con este hábito pueden ser más graves, como las queratitis (infección de la córnea), mucho más profundas que la archiconocida conjuntivitis.

Para acabar, y volviendo a la horripilante leyenda de las lentillas que se fusionan con las córneas, es necesario recordar que las lentillas blandas deben mantenerse en un ambiente húmedo que conserve su turgencia. Durante la noche se reduce la producción de lágrimas y eso se nota cuando alguien pretende quitarse las lentillas por la mañana, ya que el hecho de que estén algo más rígidas por la falta de humedad no facilita para nada la tarea. En estos casos, que también se pueden producir al ducharse con las lentillas, lo mejor es no perder la calma, lubricar la lentilla con lágrimas artificiales durante unos minutos y sacarlas con cuidado una vez que se hayan despegado lo suficiente, ya que podemos herir las córneas si no tenemos paciencia.

Dicho esto, y para tranquilizar conciencias, estos problemas solo ocurren en periodos de varias horas de sueño, una pequeña siesta no va a generar este tipo de lesiones oculares, aunque lo ideal sería retirarlas en todos los casos.

¿Y qué sucede con las lentillas diseñadas para llevarlas durante las horas de sueño?

Las lentes de contacto más utilizadas entre los usuarios de lentillas son de hidrogel (la lentilla blanda de toda la vida), mientras que estas nuevas lentillas están fabricadas con hidrogel de silicona. En un principio fueron creadas para permitir un mayor paso de oxígeno a la superficie corneal. Además la incorporación de la silicona le confiere una estructura más rígida, en detrimento de la proporción acuosa de la lente, evitando así la sequedad nocturna. Respecto al tema de las infecciones, sabemos que el riesgo de queratitis también es bastante más bajo (aunque no tan bajo como el de los portadores de lentillas que las usan solo de día) debido posiblemente a las características del material, por lo que actualmente se está intentado desarrollar sustancias antibacterianas que puedan recubrir estas lentillas para reducir aún más el riesgo.

6 sept 2012

¿Por qué ellas siempre tienen frío?

Fuente:  futurismoglobal.com



- ¡Qué frío hace!
- ¿Quieres mi chaqueta? Yo estoy bien...
- Bueno...


Más allá del matiz romántico de que te dejen una chaqueta que te va tres tallas grande, es cierto que las mujeres tienen una percepción más sensible al frío debido a las diferencias en el funcionamiento corporal según el sexo. Y es que la medicina se encuentra hasta detrás de la guerra por el termostato...


La temperatura corporal normal fue definida en el s.XIX por el Dr. Wunderlich que, a base de mediciones axilares, determinó que la temperatura corporal media de un adulto era de 36'6ºC, con una ligera tendencia a ser mayor en las mujeres. Posteriores estudios le dieron la razón, aunque esto resultaba incongruente con la percepción de que las féminas generalmente parecían ser más frioleras que sus congéneres masculinos. Esta aparente incongruencia ya la explicamos en su día en el artículo sobre la fiebre, ya que la temperatura interna no necesariamente significa sentir más calor. No obstante, resulta interesante dar un repaso a los diferentes mecanismos que regulan la temperatura en ambos sexos.

Los hombres tienen una proporción de superficie corporal respecto al volumen menor que las mujeres. Si entendemos que un mayor volumen corporal permite crear más calor, mientras que con mayor superficie corporal se pierde más calor, es fácil ver que ellos crean más calor y no lo disipan tan fácilmente como las mujeres. Otro factor que se une a lo anterior es que los hombres poseen una mayor proporción de masa muscular, que consume más calorías, de modo que, a igual volumen, un hombre produce más calor. 

Sin embargo, la naturaleza nos tenía que dar algún mecanismo para compensar este handicap; al fin y al cabo, son las hembras quienes deben proteger los fetos en caso de unas condiciones climatológicas adversas. Aunque parezca irónico ese mecanismo adaptativo que les permite mantener la temperatura es el mismo que las hace más sensibles al frío. Básicamente consiste en que las mujeres hacen vasoconstricción a temperaturas más altas. El organismo, independientemente de su sexo, tiene la capacidad de reducir el diámetro de los vasos sanguíneos más cercanos a la piel para evitar perder calor en un ambiente frío, pero las mujeres lo suelen hacer a temperaturas más elevadas que los hombres. Así que cuando bajan las temperaturas, las mujeres hacen vasoconstricción antes, por lo que la piel se enfría más rápido y sus receptores informan de ello, generando la percepción de frío a temperaturas más altas a las que lo notaría un hombre.

¿Y la grasa corporal no ayuda a mantener la temperatura corporal? La grasa sí ayuda a mantener la temperatura interna, pero recordad que un material aislante actúa en ambos sentidos, mantiene el calor en el interior del cuerpo y reduce la cantidad del mismo que llega a la piel. Así que nos encontramos con la misma situación que en la vasoconstricción, más grasa significa una menor temperatura cutánea y, por lo tanto, tener sensación de frío antes.

Fuentes:

- Kim, H. et al. "Cold hands, warm heart.The Lancet, Volume 351, Issue 9114, Page 1492, 1998

Tikuisis P. el al. "Comparison of thermoregulatory responses between men and women immersed in cold   water.J Appl Physiol. 2000 Oct;89(4):1403-11.