Análisis Estadísticos para Ensayos Clínicos y Estudios Epidemiológicos. Asesoría estadística para investigación, en general, incluyendo Tesis. Asesoría Metodológica. Diseño de Posters para Congresos y Eventos Científicos.

jueves, 20 de diciembre de 2012

¿Por qué necesitas cálculos estadísticos?

Cuando analizamos datos, la meta es simple: queremos hacer la conclusión más fuerte posible a partir de una cantidad limitada de datos. Para hacerlo, necesitamos resolver dos problemas:

* Importantes diferencias comúnmente ocutas tras variabilidad biológica y/o imprecisión experimental, hecho que dificulta distinguir diferencias reales de diferencias al azar.

* El cerebro humano destaca en la búsqueda de patrones, pero tiende a sobreanalizar. Por ejemplo, una niña de 3 años recientemente le dijo a un amigo: "Tú no puedes convertirte en doctor, sólo las chicas se convierten en doctores". Para ella tenía sentido, porque las tres doctoras que ella conocía eran mujeres. Esta inclinación a sobreanalizar no desaparece cuando nos hacemos mayores, y los científicos tenemos la misma urgencia. El rigor estadístico previene que cometamos esos errores.

Muchos tipos de datos pueden ser analizados sin análisis estadísticos. Los cálculos estadísticos son más útiles cuando se buscan diferencias estadísticamente pequeñas ante una considerable variación biológica y mediciones imprecisas.

Científicos básicamente hacen preguntas fundamentales que frecuentemente pueden reducir la variabilidad biológica utilizando animales endorgánicos o células clonadas en ambientes controlados. Aún así, todavía podría haber dispersión entre los datos replicados. 

Fuente: Traducción propia de Motulsky H. Intuitive Biostatistics. 


domingo, 9 de diciembre de 2012

La Curva Normal

Cuando realizamos investigación y tomamos una muestra, hay muchos análisis que requieren que la muestra sea "normal".

La curva normal es una curva en forma de "campana" invertida, perfectamente simétrica, de tal manera que una recta perpendicular que pase por el vértice la divide en dos mitades exactas. Esa perpendicular representa el promedio aritmético, tan utilizado en muchos estudios.

Los matemáticos ya han demostrado que aproximadamente un 68% de toda el área de la curva se encuentra comprendida entre las 2 verticales que pasan por los puntos de inflexión (el punto de inflexión es aquel en que la curva cambia de dirección).

Esto equivale a decir que el 68% del área se encuentra entre el promedio más una desviación estándar y el promedio menos una desviación estándar.


Igualmente se ha visto que entre el promedio mas o menos 2 desviaciones estándar se encuentra aproximadamente el 95%  del área de la curva.


Esto se puede observar en la figura.



En investigación es muy importante que la muestra sea homogenea, intentamos trabajar con muestra "normales" porque nos ayuda a realizar inferencias.

Cuando realizamos un estudio, queremos saber, no sólo los resultados de cualquiera que sea nuestra hipótesis en el análisis clínico específico. Lo hacemos porque intentamos comprender o proyectar, como será el comportamiento de dicho fenómeno en la población general.

Las estimaciones que se realizan a partir de una muestra normal, utilizando los intervalos de confianza, son sumamente útiles a la hora de realizar alguna afirmación en cuestiones de investigación.

Mientras más precisos queramos o necesitemos ser, mayor área abarcaremos. Sin olvidar que generalmente los "picos, es decir, los extremos de la campana, suelen ser valores relativamente atípicos, y por ello suele dejarse aparte. Y, de ser necesario, podrían investigarse como casos individuales, o considerarse una aberración de la muestra.

Confio que la informacion pueda ser de utilidad.



"Lo importante en ciencia no es tanto obtener nuevos hechos como descubrir nuevas formas de pensar sobre ellos." 
(William Lawrence Bragg(1890-1971))



Estadística Médica. Fayad Camel, Universidad de los Andes. Venezuela.

martes, 6 de noviembre de 2012

Precisión de los resultados de una muestra

Lo más importante es que nos tomemos el tiempo y el interés de seleccionar una muestra adecuada al estudio que se realiza para minimizar el riesgo de error,  y maximizar las inferencias que podremos hacer con  los resultados en la población o universo general.

Debe tenerse presente que cada vez que se haga una generalización a partir de una muestra, se corre el riesgo de que los valores dados por ella no correspondan exactamente a los del universo. 

Aunque tal riesgo no puede eliminarse por ningún procedimiento, puede reducirse y estimarse convenientemente con  bastante exactitud a partir de los propios resultados de la muestra, siempre y cuando sea una muestra probabilística y su tamaño sea adecuado.




ERRORES: En los diccionarios la palabra error se define como la
diferencia entre el valor aproximado que resulta de una observación, una medida o un cálculo, y el valor verdadero. El problema surge cuando se ha de conocer el “valor verdadero”, que generalmente se obtiene como resultado de una medida o de un cálculo. Por este motivo se debe encontrar un método para estimar la “fiabilidad” del resultado obtenido.  Los errores pueden ser:

1) Equivocación o error en la medida o en el cálculo; que se detectan repitiendo la medida o el cálculo.
2) Errores sistemáticos, que son más difíciles de
detectar.
3) Errores aleatorios, que son los más comunes.


INCERTIDUMBRES
Existen dos tipos de incertidumbres.
1) Incertidumbres instrumentales, debido a fluctuaciones en el resultado de cualquier observación
instrumental, independientemente si se mide la temperatura del exterior o se pesa una carta en
una balanza de cartas, o si se aplica un equipo de medida más sofisticado para medir el tiempo en
el laboratorio. A partir de una “conjetura razonable” o mediante la repetición de la medida
observando posteriormente la distribución de los resultados se puede estimar la dimensión de la
incertidumbre.
2) Incertidumbres estadísticas, debido a que ciertos procesos, incluso teóricamente, muestran fluctuaciones.
Un ejemplo adecuado sería la desintegración radioactiva. Incluso un equipo ideal (no
real) que la medida de la actividad fluctúa, o sea que hay una “dispersión estadística” de los resultados.
En casos como estos existen procedimiento para determinar la incertidumbre más allá de la duda.



ALGUNOS AJUSTES VÁLIDOS:


PRECISIÓN DE LOS DATOS
Resulta obvio que si los errores aleatorios son pequeños, los valores de la desviación (xi -`x) serán pequeños y la distribución de los resultados alrededor de la media será más estrecha. La desviación media es una medida de la dispersión de los datos alrededor de la media. Sin embargo, por razones matemáticas no resulta apropiado utilizar valores absolutos. Por este motivo, si se pretende caracterizar la distribución se deberán considerar los cuadrados de las desviaciones. El valor que resulta recibe el nombre de varianza.

Por lo tanto la varianza es la media de los cuadrados menos el cuadrado de las medias.

PRECISIÓN DE LA MEDIA
Es igualmente de importante determinar la incertidumbre del resultado final de un número de
medidas. Por este motivo se ha de calcular la precisión de la media o, más concretamente, la desviación
estándar de la media. A continuación se discute brevemente la propagación de los errores; es decir, la incertidumbre media obtenida a partir de un determinado número de resultados. Como conclusión, la varianza de la media es la varianza del conjunto de datos multiplicado por el número de medidas.


AJUSTE POR MÍNIMOS CUADRADOS
Por lo general, cualquier medida se relaciona con otras variables, por ejemplo y = f(x). Esta función
podría tener cualquier forma: lineal, cuadrática, armónica, etc. El objetivo de este apartado es discutir
brevemente algunos métodos que se utilizan para obtener el ajuste más probable de una función respecto
a una serie de datos, tanto gráfico como algebraico. El ajuste más utilizado es la línea recta, ya
que normalmente se considera que los datos siguen una relación lineal.

AJUSTE LINEAL
El principio fundamental del ajuste por mínimos cuadrados consiste en minimizar la suma de los cuadrados
de las desviaciones de la variable dependiente (y) (se considera que la incertidumbre en x es despreciable)
de la línea recta definida con los coeficientes a y b.




Agradecimientos:
CAMEL Fayad. Estadística Médica. Universidad de los Andes. Mérida. Venezuela.
https://www.google.co.ve/search?hl=es&q=incertidumbre+estadística

jueves, 1 de noviembre de 2012

Estudios Comparativos Dudosos

A veces, cuando un especialista desea desarrollar una tesis o un trabajo de investigación, se dan cuenta demasiado tarde que la recolección de datos no fue la adecuada para la comparación que deseaban hacer.

En un intento de lograr los objetivos propuestos, tratan de dividir arbitrariamente la muestra, por ejemplo, por sexo, cuando el sexo no es una variable determinante dentro del estudio. 

O hacen divisiones por grupos etarios que no se corresponden con los estándares, o donde 1 grupo queda con 3 personas, otro con 25, y otro con 5, lo que hace el estudio poco viable, dada la disparidad del tamaño de los grupos.

A veces también confunden los estudios de casos y controles.

En otros casos tratan de comparar dos grupos que padecen de la misma patología, sin que haya entre ellos una diferencia lógica, más allá del momento en que se tomó la muestra, o algo parecido.

Es muy importante que los investigadores y los residentes sean orientados debidamente para comprender las diferencias entre un verdadero estudio comparativo, y un estudio descriptivo, o de otra índole.

Esto puede ser la difrencia entre un trabajo brillante y exitoso, y un trabajo irrelevante y realizado en forma inadecuada.


viernes, 3 de agosto de 2012

Pronósticos en Estadística (Parte (II)


Serie de Tiempo Estadística

Es una secuencia ordenada de valores numéricos que toma una variable aleatoria observados a intervalos iguales a lo largo de un determinado periodo. Existen dos procedimientos generales para realizar el ajuste estacional de una serie de tiempo, éstos son: el método de regresión y el método de promedios móviles.

Principales aspectos conceptuales de series de tiempo.
Clasificación de los Modelos Cuantitativos Los modelos cuantitativos se pueden clasificar, de acuerdo con la información que utilizan en multivariantes o econométricos, y en univariantes o de series de tiempo. 

Modelos Multivariantes o Econométricos
Los modelos econométricos tratan de explicar el comportamiento de una o más variables en función de la evolución de otras variables que se consideran explicativas. Las variables explicadas por el modelo se denominan endógenas, mientras que las variables explicativas del modelo, pero no explicadas por él, se denominan predeterminadas. Entre las variables predeterminadas se distinguen dos grupos: exógenas y endógenas retardadas, estas últimas no son explicadas por el modelo en el momento t, pero han sido explicadas por él en un momento anterior, por su parte, las exógenas son variables que no son explicadas por el modelo en ningún momento.

Modelos Univariantes
En este enfoque no se necesita conocer ninguna relación de causalidad, explicativa del comportamiento de la variable endógena, ni en su defecto, ninguna información relativa al comportamiento de otras variable explicativas, ya que en este caso no existe este tipo de variables. Es suficiente con conocer una serie temporal de la variable en estudio, para estimar el modelo que se utilizará para predecir.


Modelos de Descomposición
Un modelo clásico para una serie de tiempo, supone que una serie x(1), ..., x(n) puede ser expresada como suma o producto de tres componentes: tendencia, estacionalidad y un término de error aleatorio.
 Existen tres modelos de series de tiempos, que generalmente se aceptan como buenas aproximaciones a las verdaderas relaciones, entre los componentes de los datos observados.  Estos son:
  1. Aditivo: X(t) = T(t) + E(t) + A(t)
  2. Multiplicativo: X(t) = T(t) · E(t) · A(t)
  3. Mixto: X(t) = T(t) · E(t) + A(t)
Donde:
       X(t)  serie observada en instante t
       T(t)  componente de tendencia
       E(t)  componente estacional
       A(t)  componente aleatoria (accidental)


Estimación de Tendencias
Supondremos aquí que la componente estacional E(t) no está presente y que el modelo aditivo es adecuado, esto es:
X(t) = T(t) + A(t),  donde A(t) es ruido blanco.
Hay varios métodos para estimar T(t).  Los más utilizados consisten en:
  1. Ajustar una función del tiempo, como un polinomio, una exponencial u otra función suave de t.
  2. Suavizar (o filtrar) los valores de la serie.
  3. Utilizar diferencias.
Estimación de la Estacionalidad
La estimación de la estacionalidad no sólo se realiza con el fin de incorporarla al modelo para obtener predicciones, sino también con el fin de eliminarla de la serie para visualizar otras componentes como tendencia y componente irregular que se pueden confundir en las fluctuaciones estacionales.

-----------------------------------------------
Gracias a las Fuentes

viernes, 27 de julio de 2012

Pronósticos en Estadística (Parte I)


Pronósticos Estadísticos

Por pronóstico se entiende el conjunto de actividades a través de las cuales, a partir de datos históricos relevados del entorno (series cronológicas, experiencia cualitativa), se obtienen escenarios y proyecciones de los valores futuros de las variables bajo análisis. Para ello se utilizan modelos econométricos y modelos de series cronológicas. En la práctica se plantean varios escenarios alternativos. Para la toma de decisiones es importante el análisis y la medición de la incertidumbre asociada con los pronósticos generados. 

Si los clasificamos respecto al tiempo que abarcan, se puede clasificar en:
1. Pronósticos a corto plazo: En las empresas modernas, este tipo de pronóstico se efectúa cada mes o menos, y su tiempo de planeación tiene vigencia de un año. Se utiliza para programas de abastecimiento, producción, asignación de mano de obra a las plantillas de trabajadores, y planificación de los departamentos de fabricación.
2. Pronósticos a mediano plazo: Abarca un lapso de seis meses a tres años. Este se utilizan para estimar planes de ventas, producción, flujos de efectivo y elaboración de presupuestos.
3. Pronósticos a largo plazo: Este tipo de pronóstico se utiliza en la planificación de nuevas inversiones, lanzamiento de nuevos productos y tendencias tecnológicas de materiales, procesos y productos, así como en la preparación de proyectos. El tiempo de duración es de tres años o más.

Técnicas Estadísticas para la Obtención de Pronósticos

Estas técnicas se basan en la existencia de patrones, en el estudio de los mismos, las transformaciones que sufren, y la influencia del ruido o perturbación causado por factores de naturaleza aleatoria.
Dentro de estas técnicas se utilizan dos enfoques. En el primero se obtiene el pronóstico basado en el razonamiento de que los datos de la serie de tiempo se pueden dividir o descomponer en componentes identificables que pueden presentarse o no en una determinada serie, estos componentes pueden ser la tendencia, la estacionalidad, la ciclisidad y la aleatoriedad de los datos. El pronóstico se realiza combinando la proyección de los componentes que se presentan dentro de la serie de tiempo. En el segundo el pronóstico se obtiene a partir del análisis estadístico de los datos que integran la serie de tiempo.

Técnicas Determinísticas o Causales para la Obtención de Pronósticos

Se basan en identificar y determinar cuáles son las relaciones existentes entre la variable dependiente de interés a pronosticar y las variables independientes que la determinan al ejercer su influencia sobre ella.

Continuará...

viernes, 20 de julio de 2012

Síndrome de Capgras: amigos extraños!

El síndrome de Capgras o Mal de Capgras es un trastorno mental que afecta a la capacidad de identificación del paciente. Este cree que una persona, generalmente un familiar, es reemplazada por un impostor idéntico a esa persona.

Es un reconocimiento sin sensación de familiaridad. Es típico de este síndrome que el cónyuge o el hijo del enfermo induzca un reconocimiento parcial (“se parece a…”) pero insuficiente para estar convencido de su identidad real.

El síndrome de Capgras es un angustiante espejismo que puede elaborar una mente dañada. Una psiquiatra contaba en The New York Times cómo una de sus pacientes llegó un día a casa y se encontró con un extraño sentado en el salón de su casa. De algún modo, el tipo le resultaba familiar, pero no sabía decir por qué. Él tenía una voz parecida a la de su marido y sabía muchas cosas sobre su vida, pero no era él. Para ella estaba claro: un impostor le había reemplazado.

En esta enfermedad, se disocia la percepción del reconocimiento, un problema que algunos neurólogos atribuyen a una causa orgánica aún desconocida. Los psicoanalistas, por su parte, consideran que el mal aparece cuando algún tipo de carácter negativo se debe asociar a un ser querido. Por un sentido de culpa, estos sentimientos se atribuyen a un doble que puede ser rechazado sin ningún problema. Este trastorno esquizoafectivo, similar a la esquizofrenia, puede tratarse con fármacos.

El síndrome lleva el nombre del psiquiatra francés Jean M.J. Capgras que bautizó la enfermedad como l'illusion des sosies (ilusión de los dobles) y la definió en 1923 como “el resultado del sentimiento de extrañeza combinados con una tendencia paranoide a desconfiar, así como una ambivalencia del paciente con su entorno más cercano”

Ocurre más frecuentemente en personas esquizofrénicas o con algún tipo de delirio paranoico.  Para el tratamiento de este extraño trastorno se recurre a los medicamentos antipsicóticos combinados con psicoterapia.

Gracias a las diferentes fuentes.

martes, 10 de julio de 2012

Enfermedad de Kawasaki

Mi hermana tiene un amigo cuya hija tiene la enfermedad de Kawasaki. Dicha enfermedad, o sindrome, no es común. Es me motivó a escribir este post.
-----------------
¿Qué es el síndrome o enfermedad de Kawasaki?
 
El síndrome de Kawasaki es una vasculitis multisistémica aguda, autolimitada, febril, que afecta casi exclusivamente a niños pequeños. Fue descrito por primera vez por el doctor Tomisaku Kawasaki, de Tokio, Japón, en el año 1967. Inicialmente se pensó que solo se presentaba en niños asiáticos, pero se está diagnosticando con mayor frecuencia en niños Europeos y Americanos, debido probablemente a su mejor conocimiento y diagnostico que a la diseminación de su agente causal, aún no identificado. En un principio se pensó que era un exantema benigno, pero se determinó qué la fiebre podía ser prolongada y que era común el compromiso cardíaco significativo, en especial la formación de aneurismas coronarios, con posibilidad de infarto de miocardio y muerte súbita.

¿Cuales son los signos de sospecha?

Principales manifestaciones clínicas:
1- La manifestación temprana es la fiebre es de inicio brusco y dura más de 5 días (habitualmente entre 7 y 14 días), es elevada (38º a 40º C) y sin tratamiento con inmunoglobulina intravenosa (IGIV) puede superar los 10 días.
2- Inflamación de la conjuntiva ocular, sin secreciones ni hinchazón de conjuntiva o párpados. Los hallazgos son igualmente intensos en ambos ojos y limitados a la primera semana o primeros 10 días.
3- Cambios en la boca: Enrojecimiento y costras de los labios, es lo más llamativo, pero también lengua de frambuesa, inflamación de faringe como único hallazgo. Estos cambios pueden ser sucesivos y no coincidir entre sí.
4- Manchas de color rojo intenso en la piel que se acentúa con la fiebre o agitación del paciente. Estas lesiones pueden ser abundantes o escasas, de distribución irregular, de preferencia en el tronco y fluctuantes en el tiempo. Son similares y se confunden con la escarlatina.
5- Cambios de manos y pies: Coloración de palmas y plantas e hinchazón que difunde a los dedos confiriéndoles un aspecto huso. Esto se presenta precozmente en los primeros días de la enfermedad junto al inicio de la fiebre. Habitualmente los niños denotan dolor de manos y pies evitando usarlos o llorando cuando se moviliza los dedos. Estan hinchadas, enrojecidas y descamadas.
6- Inflamación de ganglios: Es el menos constante de los signos clásicos (50 a 75% de los pacientes, en tanto que los otros se presentan en un 90%). Su ubicación más frecuente es en el cuello, de consistencia firme y sensibles al tacto.


-------------------------------------
Agradecida a las Fuentes:
http://bit.ly/eR1QrE
http://bit.ly/4PdOPE  
   

domingo, 8 de julio de 2012

Modelos Farmacodinámicos



La farmacodinámica debe considerarse hoy en día como una disciplina científica, con bases que pueden estudiarse desde el punto de vista matemático. Este estudio facilita el desarrollo de nuevos fármacos y debe basarse en la comprensión de las modificaciones causadas por los fármacos sobre los mecanismos fisiológicos.

Uniendo este estudio al de farmacocinética, se genera no solo la posibilidad de determinar con mayor certeza aspectos del mecanismo de acción de las drogas, sino también la de predecir respuestas ante condiciones variables y deducir la existencia de determinantes de cada efecto farmacológico aún desconocidos.

La conjunción de los estudios farmacocinéticos y farmacodinámicos lleva a la disciplina conocida como Modelaje FC/FD (PK/PD Modeling), que es vital en prácticamente todas las fases del desarrollo moderno de nuevos fármacos.

Un modelo FC/FD debe incluir datos farmacocinéticos, que suelen obtenerse con cierta facilidad a partir de principios sencillos, como por ejemplo los principios de difusión de Fick o la ecuación de Michaelis - Menten; los parámetros farmacodinámicos son mucho más difíciles de obtener, dada la extraordinaria complejidad y variedad de los posibles mecanismos de acción de los fármacos.

Los modelos FC/FD abarcan desde la descripción de procesos sencillos, como los “efectos directos” (correlación lineal del efecto con el logaritmo de la dosis) hasta la evaluación de fenómenos mucho más complicados, como la transducción de señales a través de segundos y terceros mensajeros.

Gracias por la imagen a: http://bit.ly/LAliR8

miércoles, 4 de julio de 2012

Algunos Análisis Recientes

Entre otros, últimamente he realizado el análisis estadístico de las siguientes investigaciones clínicas:

  • Efectividad de la quimioablación con etanol en el manejo de la hiperplasia prostática. Hospital Central Universitario ¨Dr. Antonio María Pineda¨.  Barquisimeto. Estado Lara.  Venezuela. –  Especialidad: Urología Dr. Montilla M.
  • Resultados en Pacientes Sometidos a Implantes de Anillos Intracorneales de Segmentos de 210 Grados de Arco. Venezuela. –  Especialidad: Oftalmología –  Dr. González, I.  
  • Variables incidentes en el queratocono precoz. Caracas. Venezuela.  –  Especialidad: Oftalmología –  Dr. Rodríguez L.
  • Study of Endothelial Keratoplasty. Hospital Médico Docente La Trinidad. Caracas, Venezuela.    –  Especialidad: Oftalmología –  Dr. Rodríguez L. (Análisis y Resultados redactados en Inglés)
  • Hipertensión Arterial en Paciente con Depresión e Insomnio Crónicos: Estudio de un Caso. Caracas. Venezuela.  –  Especialidad: Epidemiología –  Lic. Pascuzzo-Lima M.
  • Estudio prospectivo de pacientes sometidos a LASIK con Implante de Lentes Intraoculares para Corrección de Cataratas a los 10 años de la 1ra Intervenmción. Caracas. Venezuela.  –  Especialidad: Oftalmología –  Dr. Rodríguez L. / Dra. Silva M.

Todos muy interesantes. Algunos de ellos Tesis, otros presentados éxitosamente en congresos nacionales e internacionales.

Mis servicios siguen a la orden.




 

domingo, 17 de junio de 2012

AsoVAC 2012

Prórroga para la inscripción de trabajos libre en la Convención de AsoVAC
Junio 15, 2012 por Yajaira Freites 

Las inscripciones para los trabajos en la LXII Convención Anual de AsoVAC se cerraban el dia 15 de junio del año en curso. Se extiende el plazo hasta el dia 15 de julio.
Les recordamos las distintas modalidades para inscribirse:
  1. Trabajos libres en sesiones orales
  2. Trabajos libres en poster
  3. Sesiones de poster por internet
Inscripción de asistencia
Para cualquiera de los eventos antes mencionados, uds. deben previamente pagar en el Banco Mercantil, el monto variara de acuerdo a si se es miembro de AsoVAC y el número de ponencias a presentar.
Inscribir eventos especiales, inscripción totalmente gratuita.
Revisen la website de la convención en el siguiente link LXII Convencion Anual


domingo, 27 de mayo de 2012

Básicos de Epidemiología

Definición de Epidemiología

La epidemiología es, en la acepción más común, el "estudio de las epidemias" es decir, de las "enfermedades que afectan transitoriamente a muchas personas en un sitio determinado". (Real Academia de la Lengua)

Existen otras definiciones aceptadas por la medicina como: "el estudio de la ocurrencia de los procesos patológicos", y también "el estudio de la distribución de la enfermedad y de los determinantes de su prevalencia".

O sea que es notorio que basa principalmente en investigaciones científicas; por lo que es de esperarse que se haga énfasis en realizar gran número de investigaciones, dentro de este campo.

Objetivos de la epidemiología

Hay 3 objetivos principales, básicos.
  1. Estudiar la aparición, distribución y desarrollo de las enfermedades y describir el estado de salud  de las poblaciones como base para el planeamiento, evaluación y administración de los sistemas de proporción y recuperación de la salud.
  2. Proporcionar los datos necesarios para la comprensión de la etiología de la salud y la enfermedad.
  3. Promover la utilización de los conceptos epidemiológicos en la administración de los servicios.
Morris afirma que en un entorno clínico la epidemiología ayuda a completar el cuadro y contribuye a clasificar los síndromes clínicos. Según la Asociación Epidemiológica Internacional, en las disciplinas clínicas, el conocimiento de la prevalencia, etiología y prognosis, derivados de investigación epidemiológica, tiene obvias implicaciones en el diagnostico y manejo tanto de los individuaos como de sus familias.



Diferencia entre la medicina clínica y la epidemiología

La medicina clínica enfoca en el paciente individual. Su objeto de trabajo es la enfermedad de una persona y los factores o  circunstancias relacionados con tal  estado. La medicina clínica se orienta a las peculiaridades de la enfermedad y su curso en el individuo, a identificar las posibles causas, considerar el tratamiento y evaluar los efectos del tratamiento así como su adecuación a las necesidades de un paciente.

La epidemiología tiene por objeto de trabajo  los grupos humanos.  El epidemiólogo usa el método científico de descripción y análisis epidemiológico en el diagnóstico de salud, para planear como llevar a cabo el control y la prevención de la enfermedad en una comunidad.

La epidemiología descriptiva, organiza y resume la información de los casos de acuerdo con tiempo, lugar y persona; estas tres características son llamadas variables epidemiológicas. 

La epidemiología analítica busca las causas y los efectos, el por qué y el cómo de una enfermedad. Se utiliza la epidemiología analítica para cuantificar la asociación entre exposiciones y resultados y para probar las hipótesis sobre las relaciones causales. Aunque la epidemiología no puede demostrar definitivamente que una exposición particular causó una enfermedad particular, si puede proporcionar evidencia suficiente para estimular actividades de prevención y control.

Principales usos de la epidemiología

  1. Medición del nivel de salud de las poblaciones. para establecer la frecuencia y distribución de los eventos relacionados con la salud y la enfermedad.
  2. Descripción de la enfermedad. para  identificar las asociaciones con otras variables, que pueden ser de factores de riesgo o protectores.
  3. Identificación de los determinantes de las enfermedades. 
  4. Control y prevención de la enfermedad. 
  5. Selección de métodos de control y prevención. 
  6. Planificación y evaluación de servicios de salud. 

lunes, 9 de abril de 2012

Pronósticos en Investigación Clínica


La actividad clínica diaria está fundamentada en tres elementos: el juicio diagnóstico, el pronóstico y el tratamiento. Estas tres actividades están basadas en estudios probabilísticos. Tras el diagnóstico de una enfermedad se precisa conocer el pronóstico de la misma. La determinación de un pronóstico es estimar las probabilidades de los diversos modos de evolución; es predecir la evolución de una enfermedad en un paciente determinado. El conocimiento del pronóstico es una variable fundamental ya que en muchos casos decidirá el tratamiento. Por otra parte las actividades terapéuticas y preventivas pueden modificar él pronostico de una enfermedad.


Pronosticar es el arte y la ciencia de predecir los eventos futuros. Puede involucrar el manejo de datos históricos para proyectarlos en el futuro, mediante algún  tipo de modelo matemático. Generalmente los pronósticos son tanto intuitivos como subjetivos, esto es debido a que la toma de decisiones se lleva a cabo con un buen modelo matemático y el buen juicio del administrador.
En investigación clínica, el pronóstico depende por tanto de la historia natural de la enfermedad y de su curso clínico. Dicho pronóstico no siempre cambia con la intervención médica.
De acuerdo a Hanke y Reitsch (1996) los pronósticos se pueden clasificar en tres principales criterios.
  • El primer criterio es el tiempo, es decir, existen pronósticos a corto y a largo plazo. Estos últimos ayudan a establecer el curso general de la organización en un plazo largo de tiempo, mientras que los primeros se utilizan para diseñar las estrategias que se utilizarán inmediatamente y serán ejecutadas por niveles medios en la organización.
  • El siguiente tipo de criterio se relaciona directamente con la posición en cuanto al entorno micro y macro, y cómo es que aquí se generan diferente tipos de detalles en una organización. Estos tipos de detalles son el micro pronóstico y el macro pronóstico. Un ejemplo de micro pronóstico es que el gerente de producción sepa cuanto se necesitará para la producción anual de un producto determinado, mientras que un macro detalle sería conocer el incremento en la carga tributaria (impuestos) que el gobierno aplicará en el siguiente año fiscal.
  •  El tercer tipo de criterio clasifica los pronósticos en cualitativos y cuantitativos, el primero se aplica cuando se emite el juicio de una persona, mientras que los cuantitativos se refieren a procesos mecánicos que dan como resultado datos matemáticos.
Chase, Aquilano y Jacobs (2001) hacen una clasificación de los pronósticos en base a lo que consideran importante de analizar. Para ellos, hay cuatro tipos de pronósticos, los cuales son: cualitativos, de análisis de series de tiempo, causales y modelos de simulación.
1.                  Los pronósticos cualitativos se forman mediante:
         Composición de fuerza de ventas
         Investigación de mercados
         Panel
         Analogía histórica
         Método Delphi
2.                  Los pronósticos basados en el análisis de series de tiempo incluyen:
         Promedios móviles
         Promedio móvil ponderado
         Suavización exponencial
         Análisis de regresión
         Box Jenkins
         Series de tiempo de Shiskin
         Proyecciones de tendencia
3.                  Los pronósticos basados en modelos causales se componen de:
         Análisis de regresión
         Modelos econométricos
         Modelos de entrada / salida
         Indicadores guía
4.                  Pronósticos basados en modelos de simulación
Ahora bien, para Makridakis y Wheelwright (1992) los diferentes métodos se pueden dividir en tres clases:
         El subjetivo: en el cual las opiniones individuales se procesan quizá de una manera complicada.
         El extrapolativo: en el cual se efectúan pronósticos para una variable en particular, usando únicamente la historia previa de esa variable. Se supone que los patrones identificados en el pasado se extienden hacia el futuro.
         El causal (o estructural): en el cual se interna identificar las relaciones entre variables que existieron en el pasado, por ejemplo, el volumen de ventas de una marca y su precio relativo. Luego, se supone que las relaciones continúan siendo válidas en el futuro.
Con respecto a la clasificación de los métodos “Subjetivos” se desarrollan pronósticos de manera individual, de igual forma se llevan a cabo pronósticos basados en comités de investigación y utilizando el método Delphi.
Diferencia entre riesgo y pronóstico
Debemos tener en cuenta la diferencia entre factores de riesgo y factores pronósticos. Los factores de riesgo son los que condicionan la probabilidad de presentar una enfermedad determinada. Dichos factores pueden estar presentes en población sana y aumentan el riesgo de tener la enfermedad. La identificación de los factores de riesgo son imprescindibles para la prevención primaria.
Los factores pronósticos son aquellos que predicen el curso clínico de un padecimiento una vez que la enfermedad esta presente. La identificación de estos factores son de gran interés para la prevención secundaria y terciaria.
Para la estimación del riesgo el suceso final que se busca es la presencia de una enfermedad específica. Para la estimación del pronóstico la variable final como elemento de interés para estudio puede ser: la muerte, la recurrencia del proceso, la invalidez, las complicaciones.
Existen a su vez marcadores de riesgo que son características de las personas que no son modificables (edad, sexo, estado socio-económico, etc) y que determinan la probabilidad de presentar una enfermedad. Los marcadores de pronóstico son a su vez características no modificables del sujeto que tienen una probabilidad determinada de afectar el curso clínico de la enfermedad.

Fuentes: