jueves, 15 de febrero de 2018

498- Diabetes y dislipemias

GH Tomkin, D Owens. Diabetes y dislipidemia: caracterización del metabolismo de las lipoproteínas. Diabetes Metab Syndr Obes. 2017; 10: 333–343. Diabetes Institute of Ireland, Beacon Hospital. Trinity College, University of Dublin, Dublin, Ireland

Resumen

La aterosclerosis prematura en la diabetes explica gran parte los riesgos de vida. Nuevos tratamientos han reducido este riesgo considerablemente. Esta revisión explora la relación entre las alteraciones en las vías metabólicas de la glucosa, los lípidos y la sal biliar que ocurren en la diabetes. En particular, el exceso de ingesta de nutrientes y el ayuno tienen importantes efectos metabólicos, que nos han permitido nuevos conocimientos sobre la perturbación que se produce en la diabetes. Los reguladores metabólicos tales como los factores de transcripción forkhead, los factores de transcripción farnesyl X y los factores de crecimiento fibroblástico se han convertido en actores importantes en nuestra comprensión de la desregulación del metabolismo en la diabetes y la desnutrición. La regulación alterada del metabolismo de las lipoproteínas en el intestino y el hígado se ha definido más claramente en los últimos años, y la aterogenicidad de las lipoproteínas ricas en triglicéridos y en conjunto, niveles bajos de lipoproteínas de alta densidad, se considera ahora muy importante. Se ha obtenido nueva información sobre las apolipoproteínas que controlan la actividad de la lipoproteína lipasa. Este es un momento interesante en la batalla para vencer a la aterosclerosis diabética.

Introducción

La diabetes a menudo se considera una enfermedad relacionada con el azúcar, pero la enfermedad podría haber sido llamada “diabetes lipidus” si solo los lípidos en lugar de azúcar hubieran podido ser detectados en la orina, como lo sugieren Shafrir y Raz. Solo en los últimos años, la complicación devastadora de la aterosclerosis relacionada con los lípidos se ha vuelto más temible que la enfermedad de los vasos pequeños centrada en la glucosa.  Mientras que la enfermedad de los vasos pequeños está muy relacionada con la hiperglucemia, la enfermedad de grandes vasos ha sido difícil de atribuir a la disglucemia. 

Muchos estudios no han logrado reducir los eventos cardiovasculares al mejorar el control del azúcar en la sangre.  Por otro lado, se ha demostrado que el tratamiento para reducir el colesterol, en particular las estatinas, tiene un gran impacto en los eventos cardiovasculares de los primeros ensayos en pacientes diabéticos.  Aún se están descubriendo las vías por las cuales la insulina regula el uso de este combustible. 

Está claro que hay un cambio del metabolismo de la glucosa a la grasa durante la noche cuando, en el estado de ayuno, la deficiencia de insulina da como resultado no solo niveles altos de glucosa sérica sino también niveles elevados de triglicéridos en suero. Los triglicéridos están empaquetados en partículas de lipoproteínas que conducen la cascada a través de quilomicrones anormales, lipoproteína de muy baja densidad (VLDL), lipoproteína de densidad intermedia (IDL), lipoproteína de baja densidad (LDL) y finalmente lipoproteína de alta densidad (HDL)

La hipertrigliceridemia en ayunas se asocia significativamente con eventos cardiovasculares y muerte. Una imagen similar surge cuando se examinan los triglicéridos posprandiales. El ayuno y la cirugía bariátrica (término general utilizado para referirse a diversos procedimientos quirúrgicos de pérdida de peso) tienen un profundo efecto sobre los lípidos séricos.  El colesterol es tanto absorbido como sintetizado. La insulina regula estas dos vías y dado que la síntesis de colesterol está regulada a través de la vía del colesterol de los ácidos biliares, los ácidos biliares juegan un papel importante en la homeostasis del colesterol. 

El propósito de esta revisión es explorar la relación entre la resistencia a la insulina, la diabetes y la dislipidemia. Destacamos áreas de investigación que pueden conducir al descubrimiento de posibles tratamientos nuevos para prevenir la enfermedad cardíaca prematura en la diabetes.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina




sábado, 10 de febrero de 2018

497- Hipercolesterolemia familiar

Sang-Hak .Actualización sobre hipercolesterolemia familiar: diagnóstico, riesgo cardiovascular y nuevos terapéuticos.  Endocrinol  Metab (Seoul). 2017 Mar; 32(1): 36–40. Division of Cardiology, Department of Internal Medicine, Severance Hospital, Yonsei and  Cardiovascular Research Institute, Yonsei University College of Medicine, Seoul, Korea.

Resumen

En estudios recientes, la prevalencia informada de hipercolesterolemia familiar heterocigota (HF) ha sido más alta que en informes anteriores. Si bien el cribado genético en cascada es una buena opción para la identificación eficaz de los pacientes afectados, el diagnóstico que solo utiliza criterios clínicos es más común en la práctica clínica real. El riesgo cardiovascular es mucho más alto en pacientes con HF debido a la carga de colesterol de lipoproteínas de baja densidad (LDL-C) de larga data y también está influenciado por otros factores de riesgo. Aunque las directrices enfatizan la reducción agresiva del LDL-C, la mayoría de los pacientes no pueden alcanzar el objetivo del LDL-C mediante la farmacoterapia convencional. Nuevas terapias tales como la proproteína convertasa subtilisina / inhibidores de kexina tipo 9 han mostrado una fuerte eficacia de disminución de lípidos y se espera que mejoren los resultados del tratamiento en pacientes con HF.

Introducción

La hipercolesterolemia familiar (HF) es un trastorno genético dominante autosómico común y es un problema de salud importante.  Los pacientes con HF están expuestos a una carga vitalicia de colesterol de lipoproteínas de alta densidad (LDL-C) y tienen un riesgo cardiovascular significativamente mayor. Por lo tanto, el diagnóstico temprano y apropiado en personas afectadas y la prevención de complicaciones vasculares son críticos. En esta revisión, se discuten los estudios recientes sobre la prevalencia, el diagnóstico, el riesgo vascular y el tratamiento del paciente con HF. Particularmente, el foco está en los estudios de HF heterocigota.

Prevalencia de hipercolesterolemia familiar

La frecuencia de HF heterocigótica ha sido reportada desde hace mucho tiempo como 1/500 (0.2%), mientras que la de HH homocigota ha sido reportada como 1/1,000,000 en muchos estudios realizados en varios países alrededor del mundo. Sin embargo, aunque la HF heterocigota está influenciada por criterios diagnósticos que incluyen la positividad de la mutación, se ha informado en un estudio danés muy reciente que la prevalencia es 1/217 y 1/250 en un estudio estadounidense que utilizó los criterios holandeses.

Diagnóstico clínico y genético

Los criterios clínicos más comúnmente utilizados para el diagnóstico de la HF incluyen los criterios del Simon Broome Register Group, el Dutch Lipid Clinic Network , y el Make Early Diagnosis to Prevent Early Deaths (MEDPED) Un grupo japonés también ha desarrollado sus propios criterios para FH. Los elementos principales para estos criterios de diagnóstico son (1) hipercolesterolemia grave; (2) hallazgos físicos como xantoma en el caso índice; y (3) antecedentes familiares de enfermedad coronaria prematura  o hipercolesterolemia grave. Si bien los criterios mencionados anteriormente diseñados en diferentes países muestran similitud, también muestran diferencias con respecto a valores específicos . Para un diagnóstico rentable y eficiente, muchas pautas y grupos de expertos recomiendan la detección genética en cascada para los miembros de la familia. Sin embargo, en la práctica real, el diagnóstico que utiliza solo los hallazgos clínicos de la toma de antecedentes, el examen físico y el perfil lipídico es muy común, especialmente cuando no está disponible la detección genética.......

Ver el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


lunes, 5 de febrero de 2018

496- Lipoproteínas

Neil J. Stone. Editorial Avances en la prueba de lípidos: un práctico paso  hacia adelante.          Clin Chem 2016, 62:7905–906. Department of Medicine/Division of Cardiology, Feinberg School of Medicine, Northwestern University, Chicago

La medición de lípidos y lipoproteínas ha sido un enfoque importante tanto para la química clínica y  la medicina clínica durante más de 75 años.  Las mediciones por ultracentrifugación analítica y ultracentrifugación preparativa proporcionaron conocimientos valiosos, pero no fueron adecuados para la práctica clínica diaria. Fredrickson, Levy y Lees utilizaron electroforesis en papel para establecer el reconocimiento clínico en cinco patrones principales de exceso de lipoproteína en plasma. Conocidos como tipo I, II (IIa y IIb), III, IV y V, representaban fenotipos distintivos, no genotipos y proporcionaron información sobre el trastorno de las lipoproteínas de un paciente individual, ya sea por causas adquiridas y/o genéticas. 

Sin embargo, se necesitó una metodología no basada en ultracentrífuga para cuantificar las concentraciones de colesterol LDL (LDL-C) en la práctica clínica. La fórmula de Friedewald permitió la determinación de LDL-C mediante el uso de colesterol total en ayunas, HDL-C y triglicéridos/5 (cuando la concentración de triglicéridos se expresó en mg/dL) con la advertencia de que no podría usarse si los triglicéridos eran mayor de  400 mg/dL (4,5 mmol/L) o si anormalidad tipo III estaba presente. Esta fórmula continúa en uso generalizado hoy en día, pero se requería una muestra de lípidos en ayunas.

En este número del Clinical Chemistry, un panel internacional prominente (*) argumenta convincentemente que el ayuno NO se requiere de forma rutinaria para las determinaciones de lípidos. El comité señala que los perfiles de lípidos que no se alteran en el no-ayuno y brindan beneficios prácticos para el clínico, el paciente y el laboratorio clínico. Ello ya se han utilizado con éxito en estudios de cohortes de población, se han utilizado en Dinamarca desde 2009 y en ensayos controlados aleatorios de estatinas . Muestran datos que indican un valor pronóstico similar para los valores medios de los lípidos, ayunen o no. Brindan orientación sobre cuándo puede ser necesario un panel de lípidos en ayunas y enumeran los umbrales para interpretar los lípidos y las lipoproteínas que no están en ayunas para los informes de laboratorio para el paciente y el médico.

Ver la Editorial completa
Panel de expertos

(**) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


martes, 30 de enero de 2018

495- Marcadores gastro-intestinales

Imran Siddiqui, Hafsa Majid, Shahab Abid Actualización sobre la aplicación clínica y de investigación de biomarcadores fecales para enfermedades gastrointestinales.  World J Gastrointest Pharmacol Ther 2017; 8(1): 39-46. Section of Chemical Pathology, Department of Pathology and Laboratory Medicine, Karachi, Pakistan

Resumen

Las enfermedades gastrointestinales (GI) comprenden un amplio espectro de condiciones clínicas que van desde la indigestión a enfermedades inflamatorias del intestino (IBD) y carcinomas. La endoscopia es el método habitual empleado para diagnosticar estas afecciones. Otra forma no invasiva de evaluar y diagnosticar las condiciones gastrointestinales son los biomarcadores fecales. que  proporcionan información sobre un proceso de enfermedad específico y tal vez sean más aceptables para los médicos y los pacientes por su no invasividad en comparación con la endoscopia. El objetivo de esta revisión fue evaluar el estado actual de los biomarcadores fecales en la investigación clínica y para las enfermedades gastrointestinales. Múltiples tipos de biomarcadores fecales se discuten en esta revisión : marcadores para evaluar la IBD, que se liberan como resultado de un ataque inflamatorio al epitelio intestinal, como son los péptidos antimicrobianos (lactoferrina) o proteínas relacionadas con la inflamación (calprotectina). Mientras que los marcadores relacionados con la función de la digestión se relacionan principalmente con alimentos parcialmente digeridos o proteínas de la mucosa, como la cantidad anormal de grasa fecal, la α1-antitripsina, elastasa y secretaría de IgA. También se discuten próximos biomarcador fecal como la piruvato quinasa M2 y la lipocalina asociada a la gelatinasa de neutrófilos . Además de la mención anterior, están también los biomarcadores fecales bajo investigación para su posible uso clínico en el futuro. 

Introducción

Un biomarcador es una sustancia endógena o exógena que se mide en sangre, plasma u orina cuyos niveles se correlacionan con la aparición o severidad de la enfermedad. Los biomarcadores se utilizan para distinguir una afección patológica de un estado fisiológico y también para controlar el tratamiento y la progresión de la enfermedad. Hay una inclinación general de los médicos, así como de los patólogos, de considerar a los biomarcadores fecales, debido a su naturaleza no invasiva con una probable aceptabilidad para el paciente. Los biomarcadores fecales se pueden subdividir en los siguientes tipos según su aplicación clínica.

Marcadores de enfermedad inflamatoria intestinal:  Estos incluyen proteínas relacionadas con la inflamación, liberadas durante un proceso inflamatorio en el tracto gastrointestinal (GI) por ejemplo  calprotectina, o péptidos antimicrobianos com la lactoferrina.

Biomarcador de cáncer colorrectal:  Estos se encuentran en tejidos y células indiferenciadas con una expresión aumentada en la renovación rápida de tales células, por ejemplo , M2-piruvato quinasa.

Biomarcadores para la evaluación de la malabsorción:  Se identifican múltiples marcadores; la mayoría son partículas de alimentos no digeridos como glóbulos de grasa fecal, enzimas como α1-antitripsina y elastasa para la evaluación de la malabsorción.

Biomarcador para enfermedades alérgicas gastrointestinales:  Las proteínas relacionadas con eosinófilos son liberadas por/o relacionadas con eosinófilos y tienen aplicación para evaluar la infestación alérgica y parasitaria del tracto GI.

Biomarcadores de la salud intestinal:  Este es un grupo interesante de biomarcadores que apuntan hacia la salud general de la mucosa intestinal. Estos biomarcadores evalúan la integridad de las proteínas de barrera intestinal y los productos de fermentación microbiana que se producen, mientras que la fermentación de las partículas de la dieta por bacterias produce diversos productos químicos, algunos de los cuales como los ácidos grasos de cadena corta........ .

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



jueves, 25 de enero de 2018

494- Metabolómica y diabetes infantil

Brigitte I Frohnert , Marian J Rewers. Metabolómica en diabetes infantil. Pediatr Diabetes. 2016 February ; 17(1): 3–14. Barbara Davis Center for Childhood Diabetes, University of Colorado USA

Resumen

Los recientes aumentos en la incidencia de diabetes tipo 1 (T1D) y diabetes tipo 2 (T2D) en niños y adolescentes señalan la importancia de los factores ambientales en el desarrollo de estas enfermedades. El análisis metabolómico explora la respuesta integrada del organismo a los cambios ambientales. El perfil metabólico puede identificar biomarcadores que son predictivos de la incidencia y el desarrollo de la enfermedad, lo que puede proporcionar información sobre la patogénesis de la enfermedad. Esta revisión proporciona una visión general del papel del análisis metabolómico en la investigación de la diabetes y resume las investigaciones recientes relacionadas con el desarrollo de T1D y T2D en los niños.

Introducción

La metabolómica es la detección y cuantificación del espectro de metabolitos de moléculas pequeñas medidos en una muestra biológica. El análisis del metaboloma representa una evaluación cuantitativa de los cambios integrados producidos por factores endógenos y exógenos en un determinado estado de enfermedad o en respuesta a cambios fisiológicos específicos. 

Actualmente hay casi 42 000 metabolitos registrados en la Human Metabolome Database (HMDB; http://www.hmdb.ca). De estos, se han detectado aproximadamente 4500 en la sangre y se ha demostrado que aproximadamente 2000 de estos son mensurables. Se postula que a medida que avancen los métodos analíticos, el ámbito de los metabolitos cuantificables seguirá creciendo .

La medición del espectro de moléculas pequeñas que comprenden el metaboloma puede presentar un desafío analítico, ya que los metabolitos dentro de una muestra pueden variar en abundancia desde concentraciones sub-nanomolares a milimolares y tienen propiedades químicas variables que requieren enfoques analíticos variables. A pesar de los desafíos técnicos, sin embargo, el análisis metabolómico tiene ventajas significativas en el estudio de la patogénesis de la enfermedad.

Los metabolitos típicamente muestran fluctuaciones más rápidas en respuesta a un cambio fisiológico que el marco de tiempo requerido para detectar cambios en la expresión génica o la producción de proteínas. Además, el análisis de metabolitos permite conocer la asociación entre los genes y sus funciones y ademas tienen la capacidad de controlar la función de las proteínas.

Consideraciones experimentales

Diseño del estudio

Los estudios de perfil metabólico se pueden utilizar para obtener una instantánea en el tiempo, como para la comparación del metaboloma en un estudio de casos y controles. Este tipo de análisis generalmente busca obtener información sobre el desarrollo de la enfermedad mediante la identificación de biomarcadores asociados con el estado de la enfermedad. Si bien la simplicidad de este enfoque de punto único es atractiva, la interpretación de los marcadores asociados a la enfermedad debe abordar la cuestión de si la asociación representa una relación causal, una consecuencia del estado de la enfermedad o un resultado de algún otro factor de confusión. También se debe considerar la selección de sujetos de control. El grupo de control se elige con frecuencia para que coincida con posibles factores de confusión, como la edad y el sexo..............
  
Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


sábado, 20 de enero de 2018

493- Diagnostico de la E. de Chagas

Picado A, Angheben A, Marchiol A, Alarcón de Noya B, Flevaud L, Pinazo MJ, et al. Desarrollo de pruebas diagnósticos para la enfermedad de Chagas: ¿dónde debemos poner nuestros limitados recursos? PLoS Negl Trop Dis 11(1): Jan 2017. Editor: Alain Debrabant, US Food and Drug. Foundation for Innovative New Diagnostics (FIND), Geneva, Switzerland y otras

Según la Organización Mundial de la Salud (OMS), uno de los hitos establecidos por la Declaración de Londres para la enfermedad de Chagas (la interrupción de la transmisión de la enfermedad de Chagas a través de transfusiones de sangre en América Latina) se logró en la mayoría de los países  en 2015. Este es un paso crucial para alcanzar el objetivo de controlar la enfermedad de Chagas en 2020. Sin embargo, quedan muchos desafíos: son tratadas menos del 1% de las 6 a 7 millones de personas infectadas con Trypanosoma cruzi  y aún se producen nuevas infecciones. Entre el 20-30% de los pacientes con enfermedad crónica de Chagas desarrollarán complicaciones cardíacas y/o gastrointestinales. La OMS recomienda tratar a pacientes infectados de T.cruzi con antiparasitarios ya que son muy eficaces en pacientes en fase aguda y reducen el riesgo de progresión de la enfermedad en pacientes en etapa indeterminada que estan infectados crónicamente con T.Cruzi pero sin evidencia de enfermedad cardiaca o gastrointestinal).

El desarrollo de nuevas herramientas para diagnosticar la enfermedad de Chagas es una prioridad. debido a que el T.cruzi puede transmitirse por una variedad de rutas: por ejemplo, transmisión vectorial cuando los parásitos defecan los triatominos, en agentes que succionan sangre y  entran al cuerpo a través de la rotura de la piel causada por la picadura del insecto o a través de otra mucosa,  transmisión oral a través de alimentos contaminados ,  infección congénita,  transfusión de sangre y  trasplante de células, sangre o tejidos y debido a que la mayoría de las personas con infección crónica nunca han sido examinadas y no conocen su estado,  Esto es cierto en los países endémicos, así como en las regiones donde las personas infectadas han migrado en los últimos años (por ejemplo, Europa, Asia y América del Norte). 

Pruebas diagnósticas

A pesar de los esfuerzos concertados para utilizar las herramientas disponibles para diagnosticar la enfermedad de Chagas en diferentes grupos de pacientes, en entornos epidemiológicos y clínicos en los países de América Latina en las últimas cuatro décadas y en los países no-endémicos desde principios de la década de 2000, un gran número de pacientes son diagnosticados tardíamente o no reciben ningún tratamiento. Si bien las razones para estas tendencias de diagnóstico son diversas, varían según los países y grupos de pacientes, una de las principales limitaciones es la falta de pruebas de diagnóstico confiables adaptadas a las necesidades de los pacientes y los sistemas de salud.

Los recursos para desarrollar nuevas herramientas de diagnóstico para la enfermedad de Chagas son escasos, por lo que es importante asignarlos a las necesidades de diagnóstico que no están cubiertas adecuadamente por las herramientas existentes. Acordar prioridades de diagnóstico ayudará a garantizar que los esfuerzos y recursos se dirijan al desarrollo de pruebas que aumenten el acceso al diagnóstico y contribuyan al control de la enfermedad. 

En los últimos años, la OMS, la Organización Panamericana de la Salud (OPS) y los expertos en la enfermedad de Chagas han iniciado este importante proceso al identificar una gama de necesidades de diagnóstico. El siguiente paso es para la comunidad de la enfermedad de Chagas, incluidos los profesionales con diferentes antecedentes, experiencia y ubicaciones geográficas, para clasificar estas necesidades de diagnóstico...............................

Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



lunes, 15 de enero de 2018

492- Microbioma y su aplicación diagnóstica

Q/A (preguntas/respuestas): Moderator: James Versalovic1. Experts: Joel Dore, Francisco Guarner, Ruth Ann Luna,Yehuda Ringel. Diagnósticos basados ​​en microbiomas: ¿estan listos para su aplicaciones en el laboratorio de medicina? Clin Chem 2017; 63 (11): 1674/79.    Children’s Microbiome Center, Pathology Department,  Department of Pathology and Immunology, Baylor College of Medicine, Houston, Texas.

El laboratorio clinico es un ambiente propicio para un enfoque holístico de las enfermedades humanas que incluye la evaluación de células humanas y microbianas. Los avances en nuestra comprensión del microbioma humano están dando lugar a nuevas ideas  sobre diagnóstico y  tratamiento de las enfermedades. La secuenciación de ácidos nucleicos, la espectrometría de masas y los inmunoensayos facilitan la aplicación de la ciencia del microbioma en microbiología médica y bioquímica clínica. Los avances biomédicos en el microbioma humano ampliarán el alcance del laboratorio clinico y darán lugar a nuevas estrategias de diagnóstico y control de enfermedades.

Las aplicaciones de diagnóstico del microbioma se pueden dividir en dos categorías: diagnóstico de enfermedades infecciosas y control de componentes microbianos de enfermedades crónicas no transmisibles.  

El diagnóstico de las  infecciones humanas y la selección de agentes antimicrobianos se pueden refinar en el contexto del microbioma. En lugar de centrarse únicamente en la identificación de los agentes etiológicos de la infección, los laboratorios clínicos podrían evaluar el microbioma en un sitio específico del cuerpo de interés.  Por ejemplo, la detección rápida del Clostridium difficile en muestras de heces en casos de C. difficile recurrente, se puede analizar en paralelo con la secuenciación del gen del ARNr 16S en heces para evaluar el grado de disbiosis o la concurrencia de otros patógenos entéricos. Los metabolitos microbianos pueden proporcionar biomarcadores microbianos útiles para monitorear el tratamiento efectivo en infecciones crónicas como la enfermedad asociada recurrente por C. difficile. Estas evaluaciones paralelas podrían ayudar en la toma de decisiones médicas con respecto a la selección de agentes antimicrobianos o el trasplante de microbiota fecal . 

Los avances en el descubrimiento de microbiomas también están modificando el campo de la microbiología humana para las enfermedades crónicas no transmisibles con un componente microbiano. Por ejemplo, cambios específicos en la composición microbiana y los patrones de disbiosis intestinal están llevando a consideraciones novedosas de aplicaciones basadas en microbiomas para la estratificación de la enfermedad y el tratamiento en la enfermedad inflamatoria intestinal. También se han identificado microbios intestinales específicos que pueden contribuir a la progresión neoplásica en el cáncer colorrectal y pueden proporcionar un nuevo ángulo diagnóstico y terapéutico en la prevención del cáncer y el tratamiento temprano de la enfermedad. Tales hallazgos pueden cambiar la naturaleza del cribado del cáncer colon-rectal y su detección temprana. 

Preguntas a considerar

1) ¿Puede identificar o describir la emocionante frontera en los próximos 5-10 años en la ciencia del microbioma humano?
2) ¿Puedes describir un ejemplo de aplicaciones de diagnóstico del microbioma en enfermedades humanas?
3) A medida que consideramos nuevas terapias basadas en el microbioma, ¿se pueden establecer nuevos objetivos farmacológicos en las enfermedades humanas?
4) ¿Puede explicar su perspectiva sobre la importancia relativa de la composición microbiana frente a la función en la enfermedad humana?

Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


miércoles, 10 de enero de 2018

491- Ascitis cirrotica

Julie Steen Pedersen, Flemming Bendtsen, Søren Møller. Control de la ascitis cirrótica. Ther Adv Chronic Dis. 2015 May; 6(3): 124–137. Centre of Functional Imaging and Research, Department of Clinical Physiology and Nuclear Medicine, and Gastro Unit, Medical Division, Hvidovre Hospital, Faculty of Health Sciences, University of Copenhagen, Denmark.

Resumen

La complicación más común para la insuficiencia hepática crónica es la ascitis. La formación de ascitis en el paciente cirrótico es causada por una cadena compleja de eventos fisiopatológicos que involucran hipertensión portal y disfunción vascular progresiva. Dado que la formación de ascitis representa un sello distintivo en la historia natural de la insuficiencia hepática crónica, predice un mal próstico con una tasa de mortalidad del 50% en 3 años. Los pacientes con ascitis tienen un alto riesgo de desarrollar complicaciones tales como peritonitis bacteriana espontánea, hiponatremia y deterioro renal progresivo. El manejo adecuado de la ascitis cirrótica y sus complicaciones mejoran la calidad de vida del paciente y aumenta su supervivencia. Este artículo resume la fisiopatología de la ascitis cirrótica y los enfoques de diagnóstico, así como las opciones de tratamiento actuales.

Introducción

La ascitis se define como la acumulación de más de 25 ml de líquido en la cavidad peritoneal. En los países occidentales, el desarrollo de ascitis está en el 75% de los casos debido a cirrosis subyacente [European Association for the Study of the Lever, 2010], pero otras etiologías menos comunes de ascitis como malignidad, insuficiencia cardíaca congestiva, síndrome de Budd Chiari, tuberculosis y pancreatitis debe considerarse, especialmente si la ascitis es el primer síntoma de presentación.

La ascitis es una de las complicaciones más frecuentes de la cirrosis en aproximadamente el 60% de los pacientes dentro de los 10 años posteriores al diagnóstico. El desarrollo de ascitis en el contexto de la cirrosis representa un hito en la historia natural de la misma y predice un mal pronóstico con un 50% de mortalidad en 3 años  En consecuencia, la aparición de ascitis significa la necesidad de considerar la derivación para el trasplante de hígado, que sigue siendo la última opción de tratamiento de la cirrosis.

La formación de ascitis a menudo se desarrolla en pacientes cirróticos que presentan insuficiencia hepática aguda crónica , que es un empeoramiento agudo de la función hepática debido a un evento precipitante, por ejemplo, infección, hemorragia gastrointestinal superior, alteraciones electrolíticas.  La hipertensión portal es un pre-requisito para el desarrollo de ascitis cirrótica. La supervivencia de la cirrosis depende principalmente del grado de hipertensión portal, el grado de insuficiencia hepática y el grado de disfunción circulatoria.


Los principios detrás del tratamiento de la ascitis incluyen diuréticos, paracentesis, inserción de un shunt porto-sistémico intrahepático transyugular, así como el manejo de las complicaciones de la ascitis como la peritonitis bacteriana espontánea (PBE).  La  PBE ocurre en aproximadamente el 25% de los pacientes debido a una translocación bacteriana, que es el cruce de bacterias intestinales o productos bacterianos desde la luz intestinal hasta la sangre y el líquido ascítico. La translocación bacteriana ocurre como resultado de la alteración de la motilidad intestinal, el sobre-crecimiento bacteriano intestinal, el aumento de la permeabilidad intestinal y la alteración de los mecanismos de defensa inmunitaria en el paciente cirrótico......................................

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. 

Cordiales saludos.  
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


viernes, 5 de enero de 2018

490- Etica en investigación clinica

Mancini Rueda R.*. Normas éticas para la Investigación Clínica. Universidad de Chile.  *Consultor Programa Regional de Bioética, OPS/OMS- 

Primero me referiré a los antecedentes históricos que han motivado una preocupación ética cada vez mayor respecto de la investigación y los ensayos clínicos en seres humanos, incluyendo Latinoamérica. Y enseguida, veremos los principios éticos generales que son aplicables en estas investigaciones.

I. Antecedentes Históricos

Desde tiempos inmemoriales la investigación y la experimentación en seres humanos han formado parte del desarrollo de la medicina. No obstante, por muchos siglos -más precisamente, desde Hipócrates hasta fines del siglo pasado- la investigación clínica se consideró sólo como "fortuita o casual", en la tesis clásica de que "todo acto médico realizado en seres humanos había de tener per se un carácter clínico (diagnóstico o terapéutico) y, por tanto, beneficente y sólo per accidens un carácter investigativo", basado en el principio del doble efecto o del voluntario indirecto (Diego Gracia). De allí que únicamente era aceptado que se realizara en cadáveres, animales y condenados a muerte (seres humanos que "ya eran cadáveres y podían ser redimidos por su colaboración con la ciencia") En esta larga etapa, primó absolutamente el principio ético de la beneficencia.

Ya a mediados del siglo pasado y con mayor claridad a comienzos de este siglo, con precursores tales como Claude Bernard y, más tempranamente aún, Williams Beaumont, se fue estableciendo una forma muy diferente de ver la investigación clínica. Hasta entonces se afirmaba que nada que no fuera clínico (diagnóstico o terapéutico) podía justificarse como experimental, desde ese momento -que coincide con la crisis del conocimiento empírico y el mayor desarrollo del aprendizaje sistematizado en las ciencias de la salud- se comienza a señalar que solamente lo experimentado, lo "validado", tiene aplicación clínica. Por lo tanto "la validación o investigación en seres humanos tiene que ser posible per se y no sólo per accidents" (Diego Gracia) En este período primó el principio de la autonomía, tanto de las personas que deben aceptar la investigación como sujetos de ella, como de los investigadores, que deben tener libertad para experimentar, ya que hasta entonces se creía cerradamente en la "pureza" de las ciencias y los científicos (lo que debían atenerse a los hechos y no a las cuestiones de valor)

Dos tremendos acontecimientos de los años 40: la detonación sobre personas de dos bombas atómicas y las atrocidades llevadas a cabo por médicos en campos de concentración nazis, fueron una exagerada demostración de la equivocación cometida. Los científicos no se autorregularían y la ciencia podía ser "impura".

Este remezón de la conciencia mundial, dio origen, en 1947, al Código de Nuremberg, el primer Código Internacional de Ética para la investigación en seres humanos. De esta forma se inicia formalmente a la ética de la investigación en seres humanos, orientada a impedir toda repetición -por parte de los médicos y los investigadores en general- de violaciones a los derechos y al bienestar de las personas.

El Código de Nuremberg es el documento básico de la ética médica de nuestra época, con un decálogo de reglas que deben cumplirse para experimentar en seres humanos y que pueden agruparse bajo tres conceptos fundamentales:

  • El sujeto de experimentación debe dar un consentimiento voluntario y debe conservar su   libertad y poder de autoconservación permanentemente.
  • El experimento debe ser necesario, preparado correctamente, con riesgos muy bajos de   producir daño, invalidez o muerte.
  • El investigador debe ser calificado, para no producir daño y poder suspender el experimento en caso de peligro.
Al año siguiente de Nuremberg, en Ginebra se estableció la Promesa del Médico, como una versión moderna del juramento hipocrático, incluyendo "el máximo de respeto por la vida humana" entre sus acápites principales. Ambos textos parecieron ser una sólida respuesta que dio la misma comunidad científica a los dramáticos sucesos vividos durante la segunda guerra mundial.


(*)   Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina






sábado, 30 de diciembre de 2017

489- Verificación de resultados de laboratorio

Sediq AM, Abdel-Azeez AG. Diseño de un sistema de autoverificación en los Laboratorios hospitalarios de la Universidad de Zagazig: Evaluación preliminar del perfil de la función tiroidea. Ann Saudi Med. 2014; 34(5):427-32. Clinical and Chemical Pathology, Faculty of Medicine, Zagazig University, Sharqia, Egypt, 

Objetivos:   La práctica actual en los laboratorios hospitalarios de la Universidad de Zagazig (ZUHL) es la verificación manual de todos los resultados para su posterior publicación de informes. Estos procesos consumen tiempo y son tediosos, con una gran variación interindividual que disminuye el tiempo de respuesta (TAT). La auto-verificación es un proceso que compara los resultados de los pacientes, generados a partir de instrumentos con interfaz, contra parámetros de aceptación definidos por el laboratorio. Este estudio describe un sistema de auto-verificación diseñado e implementado en ZUHL, Egipto.

Diseño: Estudio descriptivo realizado en ZUHL, desde enero de 2012 hasta diciembre de 2013.

Materiales y Métodos:  Se utilizó un sistema basado en reglas para diseñar un sistema de auto-verificación. El sistema se evaluó preliminarmente en un panel de función tiroidea. Un total de 563 reglas fueron escritas y probadas en 563 casos simulados y 1673 casos archivados. Las decisiones del sistema se compararon con  4 revisores expertos independientes. Se evaluó el impacto de la implementación del sistema en TAT.

Resultados:  Se logró un acuerdo entre los 4 revisores en el 55,5% de los casos, y con el sistema en el 51,5% de los casos. La tasa de auto-verificación para casos archivados fue del 63,8%. El TAT de las informaciones del laboratorio se redujo en un 34,9% y el segmento TAT desde la conclusión del análisis hasta la verificación se redujo en un 61,8%.

Conclusión :  El sistema de auto-verificación basado en reglas de desarrollado tiene una tasa de verificación comparable a la del software comercialmente disponible. Sin embargo, el desarrollo interno de este sistema había ahorrado al hospital el costo de los disponibles comercialmente. La implementación del sistema acortó el TAT y minimizó el número de muestras que necesitaban la revisión del personal, lo que permitió al mismo dedicar más tiempo y esfuerzo a manejar los resultados de las pruebas problemáticas y a mejorar la calidad del cuidado del paciente. 

Introducción

Las pruebas de laboratorio son un proceso muy complejo. Tradicionalmente, la verificación de los resultados de las pruebas ha dependido de algoritmos mentales realizados por un biquimico/ medico patólogo en un único resultado analítico o un grupo de resultados. Esta noción de la participación humana en el proceso de prueba total fue bien tratada por Lundberg, que lo describió como un " bucle cerebro-cerebro"  como un paso entre varios pasos en el ciclo que comienza y termina con el cerebro clínico.  

El propósito de la fase de verificación es identificar errores potenciales antes de que los resultados se informen a los paciente.  Cuando la verificación de resultados se realiza manualmente, es un proceso largo y tedioso con gran variación interindividual que prolonga el tiempo de respuesta del laboratorio (TAT). Como un enfoque para superar estos defectos de la verificación manual de resultados, y así cumplir con los requisitos de calidad total, el concepto de auto-verificación se ha introducido en las prácticas de laboratorio modernas.  

El College of American Phatologists, en su lista de control general de laboratorio para 2013, definió "la auto-verificación como el proceso mediante el cual los resultados de las pruebas se generan a partir de instrumentos conectados y se envían al sistema informático del laboratorio (LIS)" . Si los resultados se encuentran dentro de estos parámetros definidos, los resultados se liberan automáticamente a los registros médicos del paciente sin ninguna validación adicional por parte del personal del laboratorio. Los resultados que no cumplen con estos parámetros previamente definidos se mantienen para su revisión profesional antes de la verificación manual y la presentación del informes.  Esto significa que el software de auto-verificación no "toma decisiones"; sólo se ocupa de situaciones, datos y patrones de resultados que hayan sido predefinidos por el laboratorio.......... 

Ver el artículo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


lunes, 25 de diciembre de 2017

488- ¿Una sola prueba de hs-TnI para el IAM?

Sandoval Y, Smith SW, Love SA, Sexter A, Schulz K, Apple FS. Una sola prueba de Troponina cardiaca de alta sensibilidad para descartar infarto agudo de miocardio.  Am J Med. 2017; 130(9) :1076-1083. Division of Cardiology. Department of Emergency Medicine, Department of Laboratory Medicine and Pathology, Hennepin County Medical Center and University of Minnesota, Minneapolis.

Resumen

Motivo:  en este estudio se examinó el desempeño de una sola determinación de Troponina I (hs-cTnI) para descartar el infarto agudo de miocardio. (IAM)

Métodos:  es un  estudio prospectivo observacional y consecutivo de pacientes que se presentaron en el servicio de urgencias (n 1631) en los que se obtuvieron las mediciones de cTnI utilizando un solo ensayo hs-cTnI . Los objetivos del estudio fueron determinar:  1) valor predictivo negativo (VPN) y sensibilidad para el diagnóstico del IAM tipo 1 y tipo 2 ;  2) resultados sobre seguridad diagnostica de IAM o muerte cardiaca a los 30 días usando un  límite de detección (LoD menor de 1,9 ng/L) o en el nivel Alto-STEACS (ST-Elevation Acute Coronary Syndrome.) (menor de 5 ng/L) y en combinación con electrocardiograma  normal (ECGn).

Resultados;   El IAM ocurrió en 170 pacientes (10,4%), incluyendo 68 (4,2%) IAM  tipo 1 y 102 (6,3%) tipo 2 . Para hs-cTnI, el menor LoD (27%), el VPN y la sensibilidad  fueron del 99,6% (95% intervalo de confianza 98,9% -100%) y 98,8 (97,2% -100%). Para hs-cTnI menor de 5 ng/L (50%), el VPN y la sensibilidad fueron 98,9% (98,2% -99,6%) y 94,7% (91,3% -98,1%). En combinación con un ECG normal,  1)  el LoD tuvo un VPN de 99,6% (98,9% -100%) y sensibilidad de 99,4% (98,3% -100%); y  2) el limite de 5 ng/L tuvo un VPN de 99,5% (98,8% -100%) y sensibilidad de 98,8% (97,2% -100%).  El VPN y la sensibilidad fueron excelentes para hs-cTnI menor LoD solo o en combinación con un ECG normal, y para hs-cTnI menor 5 ng/L en combinación con un ECGn.

Conclusión:  las estrategias que usan un único hs-cTnI solo o en combinación con un ECGn permiten la identificación inmediata de pacientes poco probables de tener un IAM y que tienen un riesgo muy bajo de eventos adversos a los 30 días.

Introducción

Los ensayos I y T de troponina cardíaca (cTn) de alta sensibilidad son ensayos analíticamente superiores comparados con los ensayos contemporáneos de cTn y son capaces de medir cTn a concentraciones muy bajas con una precisión excelente.  Ambas hs-cTnI y ensayos hs-cTnT están disponibles y se utilizan clínicamente en todo el mundo, pero sólo el ensayo de hs-cTnT fue recientemente autorizado por la FDA para su uso en los USA. La capacidad de medir concentraciones muy bajas de hs-cTn con imprecisión clínicamente aceptable ha permitido el desarrollo de nuevas estrategias de exclusión, que han sugerido que tanto el IAM como la lesión miocárdica pueden ser excluidos con seguridad con una sola medición  …………..

Otras opiniones
Paginas relacionadas N° 23- 26421

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina

miércoles, 20 de diciembre de 2017

487- Estudio caso clínico: protrombina- vitamina K

Mark W.M. Schellings, Moniek P.M. de Maat, Sacha de Lathouder,  Floor Weerkamp. Clinical Prolongación del tiempo de protrombina después de la interrupción del antagonista de la vitamina K. Clin.Chem, 2017; 63:9;  1442–1446. Department of Clinical Chemistry, Maasstad Hospital, Rotterdam, the Netherlands.   

Descripción del caso

Un hombre de 65 años  ingreso en nuestro hospital para una colonoscopia. En 1989 tuvo dos episodios de trombosis venosa profunda de miembros inferiores y comenzó a tomar un antagonista de la vitamina K (acenocumarol). Con el tiempo, su tiempo de protrombina  (PT-INR) fueron estables y se revisaron regularmente en una clínica de anticoagulación. La clínica de anticoagulación le aconsejó detener la ingesta de antagonistas de la vitamina K, 3 días antes de la colonoscopia. Para pacientes sometidos a una colonoscopia, se acepta un INR máximo de 1.7 el día del procedimiento. En nuestro hospital, el día del procedimiento de colonoscopia programada, nuestro paciente tenía un INR de 2,5. Basándose en este valor, la colonoscopia fue cancelada y reprogramada. Además del INR, se realizó un tiempo de tromboplastina parcial activada (APTT), que se prolongó en gran medida (mayor de 125 s).  El paciente aceptó la cancelación del procedimiento pero cuestionó su resultado de INR de 2.5. Por lo tanto, pocas horas después de visitar nuestro hospital, los valores fueron verificados de nuevo en su clínica de anticoagulación, lo que resultó en un INR de 1,2. Intrigado, llamó al laboratorio clínico del hospital y pidió hablar con el bioquímico para una explicación de estos resultados inconsistentes.

Discusión del caso

Buscando la causa de los resultados discrepantes del INR, el bioquimico consideró inicialmente errores preanaliticos. Revisando el tubo tenia un llenado de sangre nomal lo mismo que  el hematocrito del paciente fue normal, excluyendo la posibilidad de una relación de citrato a plasma incorrecta. El llenado insuficiente del tubo es probablemente el error preanáltico más importante. La proporción recomendada de sangre a anticoagulante citrato de sodio en los tubos es de 9: 1. Los tubos con menor llenado contienen proporcionalmente más citrato sódico por volumen de plasma, uniendo más calcio y potencialmente conduciendo a tiempos de coagulación más largos. Otros requisitos previos para la integridad óptima de la muestra, tales como el procesamiento dentro de las 24 h para PT-INR y 4 h para APTT, se cumplieron. La sangre se extrajo mediante punción venosa solo para pruebas de coagulación, excluyendo la posibilidad de que la heparina se traslade a partir de una línea o la contaminación cruzada con aditivos de tubo. Aunque la mayoría de los reactivos PT-INR utilizan heparina neutralizada, se han descrito casos que muestran INR prolongado como resultado de la sensibilidad a la heparina

Después de revisar el historial médico del paciente y de conocer los eventos trombóticos ocurridos a la edad de 39 años, el bioquímico sugirió la realización de pruebas para el síndrome antifosfolípido (APS). Una semana después, se extrajo sangre para anticoagulantes lúpicos (LA), anticuerpos anticardiolipina y pruebas de anticuerpos anti-β2-glicoproteína. Estas pruebas se realizaron mientras el paciente estaba usando su antagonista de la vitamina K, ya que reinició este medicamento el día de la colonoscopia cancelada.

Las pruebas para APS, INR y APTT fueron realizadas por 2 laboratorios independientes . En ambos laboratorios se encontraron una fuerte presencia de LA. Debido a que nuestro paciente estaba usando antagonistas de la vitamina K, el plasma del paciente se diluyó con plasma normal para reducir el efecto de la medicación antes de realizar ensayos de coagulación con LA.  Además, fueron encontrados anticuerpos anticardiolipina IgG y anti-β2-glicoproteína IgG fueron, mientras que los anticuerpos IgM no eran detectables. Curiosamente, se observaron grandes diferencias en los valores de INR y APTT entre los 2 laboratorios.

Preguntas a considerar

1) ¿Cuáles son las posibles causas por las que un PT-INR difiere entre los laboratorios?
2) Considerando el historial médico del paciente, ¿qué diagnóstico sugiere el APTT prolongado?
3) ¿Qué pruebas adicionales se deben hacer para confirmar el diagnóstico en este paciente?

Ver  el artículo completo


(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina





viernes, 15 de diciembre de 2017

486- Vitamina D y Tiroides

Kim D. The Role of Vitamin D in Thyroid Diseases. Int J Mol Sci. 2017 Sep 12;18(9). Division of Endocrinology, Department of Internal Medicine, Dankook University College of Medicine,  Chungnam .Korea. 

Resumen

 El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. En las últimas décadas, se ha estudiado la importancia de la vitamina D en las acciones no esqueléticas, incluyendo el papel de la vitamina D en las enfermedades autoinmunes, los síndromes metabólicos, las enfermedades cardiovasculares, los cánceres y la mortalidad por todas las causas. La evidencia reciente ha demostrado una asociación entre el bajo nivel de vitamina D y las enfermedades tiroideas autoinmunes como la tiroiditis de Hashimoto y la enfermedad de Graves, y la alteración de la señalización de la vitamina D ha sido reportada en cánceres de tiroides. Esta revisión se centrará en datos recientes sobre el posible papel de la vitamina D en las enfermedades de la tiroides, incluyendo las enfermedades tiroideas autoinmunes y los cánceres tiroideos.

1. Introducción

La vitamina D es una molécula esteroide, producida principalmente en la piel, que regula la expresión de un gran número de genes . El receptor de vitamina D (VDR) se encuentra en la mayoría de los tejidos y células del cuerpo. El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. Evidencia reciente sugiere que la deficiencia de vitamina D, que es común en todo el mundo, también podría tener acciones no esqueléticas incluyendo un papel importante en enfermedades autoinmunes, cánceres, síndromes metabólicos, enfermedades cardiovasculares e infección, así como la mortalidad por todas las causas. Los bajos niveles  de vitamina D también se han asociado con enfermedades autoinmunes de la tiroides (AITD) tales como la tiroiditis de Hashimoto (HT) y la enfermedad de Graves (GD). La alteración de la señalización de la vitamina D se ha informado que fomentar la tumorigénesis tiroidea.

El objetivo de esta revisión es resumir los datos recientes sobre la posible asociación entre la vitamina D y las enfermedades tiroideas, incluyendo AITD y cáncer de tiroides. Esta revisión se basa en una búsqueda electrónica de la literatura en la base de datos PubMed publicada desde enero de 2002 hasta mayo de 2017 utilizando combinaciones de las siguientes palabras clave: deficiencia / insuficiencia de vitamina D o vitamina D y tiroiditis autoinmune, tiroiditis de Hashimoto, enfermedad de Graves, tiroides cáncer o nódulo tiroideo. También se analizaron las referencias incluidas en los artículos de revisión publicados previamente, y se incluyeron también documentos relevantes.

2. Fuentes de vitamina D, Metabolismo y Acción

Hay dos formas de vitamina D, vitamina D 3 (o colecalciferol) y vitamina D 2 (o ergocalciferol). El primero se sintetiza principalmente en la piel mediante la 7-deshidrocolesterol reductasa tras la exposición a la radiación ultravioleta B (UVB), y puede obtenerse también de unas pocas fuentes dietéticas (principalmente los pescados grasos), mientras que el último es producido por plantas y hongos 

Ambas formas de vitamina D se transportan al hígado donde se convierten en 25-hidroxivitamina D (25(OH)D o calcidiol) por la 25-hidroxilasa (CYP27A1 y CYP2R1). La 25(OH)D es la principal forma circulante y almacenada de vitamina D, y los niveles séricos de esta forma se consideran el mejor marcador para medir el estatus dela  vitamina D. Aunque se discute, los valores vitamina D  generalmente se aceptan insuficientes los valores de  50-75 nmol/L de 25 (OH) D y como deficientes los valores menores de 50 nmol/L. ........

Ver el artículo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


domingo, 10 de diciembre de 2017

485- Equilibrio ácido-base

L. Lee Hamm, Nazih Nakhoul, Kathleen S. Hering-Smith. Homeostasis ácido-base. Clin J Am Soc Nephrol. 2015 Dec 7; 10(12): 2232–2242. Department of Medicine, Section of Nephrology, Hypertension and Renal Center of Excellence, Tulane University School of Medicine,  Medicine Service, Southeast Louisiana Veterans Health Care System, New Orleans, Louisiana

Resumen

La homeostasis ácido-base y la regulación del pH son fundamentales tanto para la fisiología normal como para el metabolismo y la función celular. La importancia de esta regulación se evidencia por una variedad de trastornos fisiológicos que se producen cuando el pH del plasma es alto o bajo. Los riñones tienen el papel predominante en la regulación de la concentración sistémica de bicarbonato y por lo tanto, el componente metabólico del equilibrio ácido-base. La función de los riñones tiene dos componentes: la reabsorción de virtualmente todo el HCO3- filtrado  y la producción de nuevo bicarbonato para reemplazar el consumido por los ácidos normales o patológicos. Esta producción o generación de nuevos HCO 3- se realiza mediante la excreción neta de ácido. En condiciones normales, aproximadamente de un tercio a la mitad de la excreción neta de ácido por los riñones está en forma de ácido titulable. La otra mitad a dos tercios es la excreción de amonio. La capacidad de excretar amonio en condiciones de carga ácida es cuantitativamente mucho mayor que la capacidad de incrementar el ácido titulable. Varias vías y procesos a menudo redundantes existen para regular estas funciones renales. Los trastornos en la homeostasis ácido-base, sin embargo, son comunes en la medicina clínica y a menudo pueden estar relacionados con los sistemas implicados en el transporte ácido-base en los riñones.

Introducción

Normalmente, el equilibrio ácido-base sistémico está bien regulado con un pH arterial comprendido entre 7,36 y 7,44; el pH intracelular suele ser de aproximadamente 7,2. Por ejemplo, la acidosis metabólica crónica puede estar asociada con una disminución de la densidad ósea, nefrolitiasis, pérdida muscular y progresión de la enfermedad renal crónica . A nivel celular, muchos procesos celulares esenciales, enzimas metabólicas y procesos de transporte transmembrana son altamente sensibles al pH. Aunque esta revisión tratará la regulación sistémica del pH y el papel de los riñones, las células individuales también tienen una variedad de mecanismos para regular su pH intracelular. Se enfatizarán los conceptos generales más que las vías o procesos específicos, que están bien cubiertos en otros lugares; las referencias son selectivas.

Conceptos básicos

Los buffers intracelulares y extracelulares son el mecanismo más inmediato de defensa contra los cambios en el pH sistémico. El hueso y las proteínas constituyen una proporción sustancial de estos buffers. Sin embargo, el sistema tampón más importante es el sistema buffer HCO 3-/CO2. La  Ecuación de Henderson-Hasselbach describe la relación de pH, y (HCO 3-)/CO2 ...........

Ver el articulo completo

Pagina relacionada: N° 359

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina