jueves, 24 de septiembre de 2020

STATISTICAL PARAMETRIC MAPPING

 




El mapeo paramétrico estadístico se refiere a la construcción y evaluación de procesos estadísticos extendidos espacialmente utilizados para probar hipótesis sobre datos de imágenes funcionales. Estas ideas se han creado en un software gratuito y de código abierto que se llama SPM .

 

El paquete de software SPM ha sido diseñado para el análisis de secuencias de datos de imágenes cerebrales . Las secuencias pueden ser una serie de imágenes de diferentes cohortes o series de tiempo del mismo tema. La versión actual está diseñada para el análisis de fMRI , PET , SPECT , EEG y MEG .

 Entrar AQUÍ

miércoles, 23 de septiembre de 2020

 




El proyecto TractoR (Tractography with R) incluye paquetes R para leer, escribir y visualizar imágenes de resonancia magnética almacenadas en formatos de archivo Analyze, NIfTI y DICOM (el soporte DICOM es de solo lectura). También contiene funciones diseñadas específicamente para trabajar con MRI de difusión y tractografía, incluida una implementación estándar del enfoque de tractografía de vecindario para la segmentación del tracto de materia blanca. También se proporciona un script de shell para ejecutar experimentos con TractoR sin interactuar con R. Con TractoR puede

  • Convierta archivos DICOM de su escáner MR al formato Analyze / NIfTI.
  • Aplique operaciones de procesamiento de imágenes de muchos tipos a datos de imágenes médicas.
  • Realice un registro de imágenes lineal y no lineal .
  • Procese previamente los datos de difusión por resonancia magnética y calcule métricas de tensor, incluida la anisotropía fraccionada (FA), la difusividad media (DM) y las direcciones principales (consulte procesamiento de difusión ).
  • Ejecute la tractografía probabilística utilizando puntos semilla únicos o una o más máscaras.
  • Segmente áreas específicas en grupos automáticamente usando tractografía de vecindario (vea el tutorial de PNT ).
  • Elimine los tractos falsos positivos utilizando un modelo de variabilidad de la forma del tracto.
  • Importe y manipule parcelas anatómicas de datos estructurales .
  • Cree, manipule, visualice y descomponga gráficos abstractos que representen la conectividad cerebral , ya sea estructural o funcional.
  • Cree gráficos para visualizar cortes de imagen o proyecciones de máxima intensidad.

 

 Entrar AQUI

miércoles, 22 de mayo de 2019

LA INTELIGENCIA ARTIFICIAL DETECTA EL CÁNCER DE PULMÓN ANTES QUE LOS RADIÓLOGOS MÁS EXPERTOS





Con un estimado de 160,000 muertes en 2018, el cáncer de pulmón es la causa más común de muerte por cáncer en los Estados Unidos. Se ha demostrado que el cribado del cáncer de pulmón con tomografía computarizada de baja dosis reduce la mortalidad en un 20 a 43% y ahora se incluye en las pautas de cribado de EE. UU. Los desafíos existentes incluyen la variabilidad entre evaluador y altas tasas de falsos positivos y falsos negativos. Proponemos un algoritmo de aprendizaje profundo que utiliza los volúmenes de tomografía computada actuales y anteriores de un paciente para predecir el riesgo de cáncer de pulmón. Nuestro modelo logra un rendimiento de vanguardia (94,4%) en 6,716 casos del Estudio Nacional de Evaluación del Cáncer de Pulmón, y se comporta de manera similar en un conjunto de validación clínica independiente de 1,139 casos. Realizamos dos estudios de lectura: cuando no se disponía de imágenes de tomografía computarizada anteriores, nuestro modelo superó a los seis radiólogos con reducciones absolutas del 11% en falsos positivos y del 5% en falsos negativos. Cuando se disponía de imágenes de tomografía computarizada anteriores, el rendimiento del modelo estaba a la par con los mismos radiólogos. Esto crea una oportunidad para optimizar el proceso de selección a través de la asistencia informática y la automatización. Si bien la gran mayoría de los pacientes no son evaluados, mostramos el potencial de los modelos de aprendizaje profundo para aumentar la precisión, la consistencia y la adopción de pruebas de detección de cáncer de pulmón en todo el mundo.

Descarga el artículo AQUÍ 


sábado, 27 de abril de 2019

STATISTICAL CONCEPTS SERIES



GROUP OF DATA SCIENTISTS IN RADIOLOGY que actualmente trabaja para el Instituto de Estudios Avanzados en Radiología científica. Presenta al público interesado en el análisis de datos e investigación en Radiología la mítica y extraordinaria STATISTICAL CONCEPTS SERIES publicada allá por la primera mitad de la década pasada en la prestigiosa revista RADIOLOGY.

Haciendo honor a esta serie de publicaciones que consta de más de una decena de artículos, damos inicio a nuestros  POST científicos  en vista del interés actual del análisis de datos aplicado al mundo de las imágenes médicas. Los artículos serán comentados concienzudamente pero con sencillez rescatando ideas y conceptos que podemos aplicar en nuestras investigaciones ya sean proyectos o en el reporte final de investigación.




Veamos con un poco de más detalle de lo que trata este apasionante trabajo: 


En noviembre de 2002 se empezó a publicar una serie extraordinaria de artículos: SERIE DE CONCEPTOS ESTADÍSTICOS que revisan los conceptos fundamentales de la estadística aplicada a la radiología, los errores más habituales en el empleo de los procedimientos estadísticos y consejos muy útiles en el proceso de planificación de una investigación.
Los expertos observaron que los autores utilizan pruebas equivocadas y recomiendan la consulta a los especialistas en análisis de datos. La recopilación de datos debe ser adecuada para solventar a hipótesis de investigación, por ello la consulta realizada al analista de datos es importante durante la planificación.

Para realizar este esfuerzo de revisión bibliográfica con un criterio estrictamente técnico del análisis estadístico los Dr. Applegate y Dr. Crewson han invertido una considerable cantidad de tiempo y han demostrado una alta capacidad de organización al trabajar en equipo con todos los autores que intervinieron en la realización de esta serie de artículos.

Esperamos que los autores, revisores y lectores encuentren útil esta serie de artículos: autores con respecto al diseño de sus estudios y el análisis de sus datos, revisores con respecto a su evaluación y crítica de manuscritos durante el proceso de revisión por pares, y lectores con respecto a una mejor comprensión e interpretación de los artículos publicados en radiología.
💓💓💓💪

viernes, 26 de abril de 2019

STATISTICAL CONCEPTS SERIES


QUÉ SON LAS MUESTRAS ALEATORIAS Y EL TEOREMA DE LÍMITE CENTRAL

La obtención de una muestra que sea representativa de una población es clave en cualquier diseño de estudio. La única manera de estar seguros de obtener una muestra representativa es seleccionar a los sujetos al azar, de modo que el hecho de que se elija o no a cada sujeto de la población para la muestra es pura casualidad y no se basa en las características del sujeto.

Gracias a que la muestra se selecciona al azar, los métodos de la teoría de la probabilidad se pueden aplicar a los datos obtenidos.  Esto permite al clínico tener conciencia de la magnitud de los errores que pueden ocurrir a medida que aumenta el tamaño de la muestra,.

El teorema del limite central nos dice que los promedios de todas las muestras de una población de cualquier distribución se aproximarán a la distribución normal (gaussiana).  Esta es una propiedad importante porque permite a los médicos usar la distribución normal para formular inferencias a partir de los datos sobre las poblaciones aunque la muestra de la que disponga no tenga distribución normal. Sin embargo, el tamaño de muestra requerido para utilizar el teorema del límite central depende de la distribución subyacente de la población, y las poblaciones con gran variabilidad requieren muestras más grandes. A medida que aumenta el tamaño de la muestra, la media y la desviación estándar de la muestra se acercan más a la media a la media y la desviación estándar de la población. 


En esta figura observamos como a medida que la muestra es mayor la desviación estándar disminuye y por lo tanto también el intervalo de confianza al 95%. A medida que la muestra se hace mayor la media y la S.D de la muestra se parecen más a sus respectivos parámetros.



CUÁL ES LA DIFERENCIA ENTRE EL DESVIACIÓN ESTANDAR(DE) Y EL ERROR ESTANDAR DE LA MEDIA (EEM)

La D.E y la E.E.M miden dos entidades muy diferentes, pero los clínicos a menudo las confunden.  Algunos investigadores médicos resumen sus datos con el EEM porque siempre es más pequeño que el DE.  Debido a que el EEM es más pequeño, a menudo se usa de manera inadecuada para hacer que la variabilidad de los datos se vea más ajustada.  

El siguiente ejemplo se proporciona para ilustrar la diferencia entre la SD y la SEM y por qué se debe resumir los datos utilizando la SD.  Supongamos que, en una muestra de estudio de pacientes con enfermedad aterosclerótica, un investigador informó que el pico de velocidad sistólica (PSV) en la arteria carótida fue en promedio 220 cm / seg y el SD fue de 10. Este investigador sabe además por lo indicado en la literatura especializada que el PSV en aproximadamente el 95% de todos los miembros de la población se encuentra aproximadamente en 2 DE  de la media. Los resultados nos dirían que, suponiendo que la distribución sea aproximadamente normal, sería inusual observar una PSV menor a 200 cm / seg o superior a 240 cm / seg (una DE es 10 unidades) en la enfermedad aterosclerótica. Lo que se está indicando en el artículo es un resumen de la población y un rango con el cual comparar pacientes específicos que son examinados por el médico. Por lo general el investigador puede decir que el PSV de la arteria carótida común fue de 220 cm / s +-1.6 EEM (suponiendo que este sea el EEM encontrado a partir del tamaño de su muestra).  Si uno confundiera el SEM con el SD, se podría creer que el rango de la mayoría de la población era estrecho es tan estrecho como 216.8 y 223.2 cm / s lo cual es un error. Debemos entender que  estos valores describen el rango en el que aproximadamente el 95% de las veces incluye la media de TODA la población de la cual se eligió la muestra de pacientes.  El EEM es simplemente una medida de cuán lejos es probable que esté la media de la muestra de la media real de la población.  Sin embargo, en la práctica, generalmente se quiere comparar el PSV de un paciente individual con la distribución de la población en su totalidad y no con la media de la población.  Esta información es proporcionada por el DE y no por el EEM. Por ejemplo uno de los sujetos que pertenece a la muestra podría presentar un PSV de 235 lo cual está dentro de lo posible ya que la media es 220 dos dos DE es decir con valores de 200 y 240, sabiendo que la DE de la población es de 10 unidades. Si hubiéramos realizado la comparación con la EEM entonces caeríamos en la cuenta  de que 235 es demasiado alto para considerarse dentro de lo esperado, lo cual es un error porque la comparación debió hacerse con la DE.


QUÉ SON LOS INTERVALOS DE CONFIANZA (IC)

La mayoría de las investigaciones biomédicas se basan en la premisa de que lo que es cierto para una muestra seleccionada al azar de una población será cierto, más o menos, para la población a partir de la cual se eligió la muestra. Por lo tanto, las mediciones en la muestra se utilizan para estimar las características de la población incluida en el estudio. La confianza de los resultados obtenidos de una muestra se aborda mediante la construcción de IC en torno a las estadísticas de la muestra.  La cantidad de variación asociada con una estimación determinada a partir de una muestra puede expresarse mediante un IC. Los CI más amplios indican una menor precisión, mientras que los más estrechos indican una mayor precisión.  Los IC proporcionan límites a las estimaciones.




CÓMO SE CALCULAN LOS CI Y LA SIGNIFICANCIA ESTADISTICA

Si la muestra es grande con poca dispersión, la media de la muestra probablemente estará muy cerca de la media de la población.  Los cálculos estadísticos combinan el tamaño de la muestra y la variabilidad (es decir, SD) para generar un IC para la media poblacional. Se puede calcular un intervalo para cualquier grado de confianza deseado, aunque los IC del 95% es el más utilizado. Los IC se pueden construir para cualquier nivel de confianza deseado.  No hay nada mágico en el 95%, aunque se usa tradicionalmente.  Si se necesita mayor confianza, entonces los IC deben ser más amplios.  En consecuencia, los 99% de los IC son más amplios que los 95% de los IC, y los 90% de los IC son más estrechos que los 95% de los IC.  Los IC más amplios se asocian con mayor confianza, pero menos precisión. 

Si se supone que una muestra se seleccionó al azar de una determinada población (que sigue una distribución normal), se puede estar seguro al 95% de que el IC incluye la media de la población.  Más precisamente, si se generan muchos IC del 95% a partir de muchos conjuntos de datos, se puede esperar que el IC incluya la verdadera media de la población en el 95% de los casos y que el IC no incluya el valor medio verdadero en el otro 5%.  Por lo tanto, el IC del 95% se relaciona con la significación estadística en el nivel de 0.05, lo que significa que el propio IC se puede usar para determinar si un cambio estimado es estadísticamente significativo en el nivel de 0.05.

Mientras que el valor de "p" a menudo se interpreta como una indicación de una diferencia estadísticamente significativa, el CI, al proporcionar un rango de valores, permite al lector interpretar las implicaciones de los resultados o valores en cualquiera de los extremos del intervalo.  Por ejemplo, si un extremo del intervalo incluye resultados clínicamente importantes pero el otro no, los resultados pueden considerarse como no concluyentes, no simplemente como una indicación de una diferencia estadísticamente significativa o no.  Además, mientras que los valores de "p" no se presentan en unidades, los IC se presentan en las unidades de la variable de interés, y esta última presentación ayuda a los lectores a interpretar los resultados.  En general, se prefieren los IC a los valores del p valué porque los IC cambian la interpretación de un juicio cualitativo sobre el papel del azar a una estimación cuantitativa de la medida biológica del efecto.  Más importante aún, la IC cuantifica la precisión de la media

POR QUÉ ES IMPORTANTE EL IC PARA LA SENSIBILIDAD Y LA ESPECIFICIDAD

La mayoría de los radiólogos están familiarizados con los conceptos básicos de especificidad y sensibilidad y los utilizan para evaluar la precisión o rendimiento diagnóstico de las pruebas de diagnóstico en la práctica clínica.  Dado que la sensibilidad y la especificidad son proporciones, los IC pueden calcularse y deben informarse en todos los artículos de investigación. Los IC son necesarios para ayudar a uno a estar más seguros sobre el valor clínico de cualquier prueba de detección o diagnóstico y para decidir en qué grado se puede confiar en los resultados.

La prueba diagnóstica más simple es dicotómica, en la que los resultados se utilizan para clasificar a los pacientes en dos grupos según la presencia o ausencia de enfermedad (sigue un proceso de Bernoulli).  




La resonancia magnética (RM) y los hallazgos artroscópicos puede ser un ejemplo que nos sirva (ver la tabla más arriba). En este estudio hipotético, la artroscopia se considera el estándar de referencia.  La pregunta que surge en el entorno clínico es: "¿Qué tan buenas son las imágenes de RM de rodilla para ayudar a distinguir ligamento cruzado anterior ( ACL) desgarrados e intactos?" En otras palabras, "¿Hasta qué punto se puede confiar en la interpretación de las imágenes de RM para emitir juicios sobre el estado?  ¿De la rodilla de un paciente? Un método para medir el valor de la RM en la detección de desgarros de ACL es calcular la proporción de ACL desgarradas y la proporción de ACL intactas que se clasificaron correctamente utilizando imágenes de RM.  Estas proporciones se conocen como sensibilidad y especificidad de una prueba, respectivamente.

La sensibilidad se calcula como la proporción de ACL desgarradas que se clasificaron correctamente utilizando imágenes de RM.  En este ejemplo, de las 421 rodillas con desgarros de LCA, 394 se evaluaron correctamente con imágenes de RM (ver tabla más abajo).  La sensibilidad de la RM en la detección de desgarros de LCA es, por lo tanto, del 94% (es decir, sensibilidad = 394/421 = 0,94).  En otras palabras, el 94% de los desgarros de ACL se clasificaron correctamente como desgarrados utilizando imágenes de RM.  El IC del 95% para una proporción se puede determinar mediante la ecuación que se muestra aquí:




Al usar  esta ecuación, el IC del 95% para la sensibilidad es de 0,94 +- 0,02, o de 0,92 a 0,96.  Por lo tanto, se espera que la RM tenga una sensibilidad entre 92% y 96%.

La especificidad se calcula como la proporción de ACL intactas que se clasificaron correctamente utilizando imágenes de RM.  De las 133 rodillas con una LCA intacta, 101 se clasificaron correctamente.  La especificidad de la RM es, por lo tanto, del 76% (es decir, especificidad = 101/133 = 0,76).  Esto significa que el 76% de las ACL intactas se clasificaron correctamente como intactas utilizando imágenes de RM.  Al usar la Ecuación, el IC del 95% para la especificidad es de 0.76 +- 0.07 o 0.69 a 0.83.  Por lo tanto, se espera que la RM tenga una especificidad entre el 69% y el 83%.  También es importante tener en cuenta que el IC fue más amplio para la especificidad que para la sensibilidad porque los grupos de la muestra fueron 133 (más pequeños) y 421 (más grandes), respectivamente.

NOTA:

Se pueden calcular los IC para las proporciones de ODDS
Los IC también se pueden calcular en función de las medidas de riesgo, como el riesgo relativo(RR) o el odds ratio (OR).


Los IC pueden calcularse tanto para medias como para proporciones.  Las proporciones comúnmente utilizadas en medicina incluyen sensibilidad, especificidad y OR.  Las proporciones siempre deben ir acompañadas de un 95% de IC.  La correcta comprensión y el uso de estadísticas fundamentales, como la DE, la EEM y la IC, y sus cálculos permitirán un análisis, interpretación y comunicación más fiables de los datos clínicos a los pacientes y a los médicos remitentes.

PUEDES DESCARGAR EL ARTICULO AQUÍ

lunes, 8 de abril de 2019

MINITAB VERSIÓN 18



Minitab es un programa de computadora diseñado para ejecutar funciones estadísticas básicas y avanzadas. Combina lo amigable del uso de Microsoft Excel con la capacidad de ejecución de análisis estadísticos. En 1972, instructores del programa de análisis estadísticos de la Universidad Estatal de Pensilvania (Pennsylvania State University) desarrollaron MINITAB como una versión ligera de OMNITAB, un programa de análisis estadístico del Instituto Nacional de Estándares y Tecnología (NIST) de los Estados Unidos.


DESCARGAR AQUÍ

lunes, 25 de marzo de 2019

SMART_STATS_TOOLS



El  sitio web de smart-stats-tools  contiene software para el análisis  de imágenes de resonancia magnética estructural (MRI) desarrollado por miembros del grupo SMART. Actualmente el sitio web es el hogar del software SuBLIME.



SuBLIME es un método automatizado para segmentar voxels de lesiones de esclerosis múltiple (EM) incidentes entre los  estudios de IRM de referencia y de seguimiento. Los usuarios del software cargan volúmenes preprocesados con T1, ponderados en T2, densidad de protones (PD) y recuperación de inversión con atenuación de fluidos (FLAIR) de un estudio de referencia y seguimiento a la interfaz web de SuBLIME en el sitio web. En 3 segundos, el software SuBLIME produce un mapa de probabilidad de voxels de lesiones incidentes y de ampliación para que el usuario los descargue. El software SuBLIME es, a nuestro entender, el único software totalmente automatizado para la segmentación de incidentes y la ampliación de las lesiones de la EM.

INGRESAR AQUÍ