miércoles, 22 de mayo de 2019

LA INTELIGENCIA ARTIFICIAL DETECTA EL CÁNCER DE PULMÓN ANTES QUE LOS RADIÓLOGOS MÁS EXPERTOS





Con un estimado de 160,000 muertes en 2018, el cáncer de pulmón es la causa más común de muerte por cáncer en los Estados Unidos. Se ha demostrado que el cribado del cáncer de pulmón con tomografía computarizada de baja dosis reduce la mortalidad en un 20 a 43% y ahora se incluye en las pautas de cribado de EE. UU. Los desafíos existentes incluyen la variabilidad entre evaluador y altas tasas de falsos positivos y falsos negativos. Proponemos un algoritmo de aprendizaje profundo que utiliza los volúmenes de tomografía computada actuales y anteriores de un paciente para predecir el riesgo de cáncer de pulmón. Nuestro modelo logra un rendimiento de vanguardia (94,4%) en 6,716 casos del Estudio Nacional de Evaluación del Cáncer de Pulmón, y se comporta de manera similar en un conjunto de validación clínica independiente de 1,139 casos. Realizamos dos estudios de lectura: cuando no se disponía de imágenes de tomografía computarizada anteriores, nuestro modelo superó a los seis radiólogos con reducciones absolutas del 11% en falsos positivos y del 5% en falsos negativos. Cuando se disponía de imágenes de tomografía computarizada anteriores, el rendimiento del modelo estaba a la par con los mismos radiólogos. Esto crea una oportunidad para optimizar el proceso de selección a través de la asistencia informática y la automatización. Si bien la gran mayoría de los pacientes no son evaluados, mostramos el potencial de los modelos de aprendizaje profundo para aumentar la precisión, la consistencia y la adopción de pruebas de detección de cáncer de pulmón en todo el mundo.

Descarga el artículo AQUÍ 


sábado, 27 de abril de 2019

STATISTICAL CONCEPTS SERIES



GROUP OF DATA SCIENTISTS IN RADIOLOGY que actualmente trabaja para el Instituto de Estudios Avanzados en Radiología científica. Presenta al público interesado en el análisis de datos e investigación en Radiología la mítica y extraordinaria STATISTICAL CONCEPTS SERIES publicada allá por la primera mitad de la década pasada en la prestigiosa revista RADIOLOGY.

Haciendo honor a esta serie de publicaciones que consta de más de una decena de artículos, damos inicio a nuestros  POST científicos  en vista del interés actual del análisis de datos aplicado al mundo de las imágenes médicas. Los artículos serán comentados concienzudamente pero con sencillez rescatando ideas y conceptos que podemos aplicar en nuestras investigaciones ya sean proyectos o en el reporte final de investigación.




Veamos con un poco de más detalle de lo que trata este apasionante trabajo: 


En noviembre de 2002 se empezó a publicar una serie extraordinaria de artículos: SERIE DE CONCEPTOS ESTADÍSTICOS que revisan los conceptos fundamentales de la estadística aplicada a la radiología, los errores más habituales en el empleo de los procedimientos estadísticos y consejos muy útiles en el proceso de planificación de una investigación.
Los expertos observaron que los autores utilizan pruebas equivocadas y recomiendan la consulta a los especialistas en análisis de datos. La recopilación de datos debe ser adecuada para solventar a hipótesis de investigación, por ello la consulta realizada al analista de datos es importante durante la planificación.

Para realizar este esfuerzo de revisión bibliográfica con un criterio estrictamente técnico del análisis estadístico los Dr. Applegate y Dr. Crewson han invertido una considerable cantidad de tiempo y han demostrado una alta capacidad de organización al trabajar en equipo con todos los autores que intervinieron en la realización de esta serie de artículos.

Esperamos que los autores, revisores y lectores encuentren útil esta serie de artículos: autores con respecto al diseño de sus estudios y el análisis de sus datos, revisores con respecto a su evaluación y crítica de manuscritos durante el proceso de revisión por pares, y lectores con respecto a una mejor comprensión e interpretación de los artículos publicados en radiología.
💓💓💓💪

viernes, 26 de abril de 2019

STATISTICAL CONCEPTS SERIES


QUÉ SON LAS MUESTRAS ALEATORIAS Y EL TEOREMA DE LÍMITE CENTRAL

La obtención de una muestra que sea representativa de una población más grande es clave en cualquier diseño de estudio. La única manera de estar seguro de una muestra representativa es seleccionar a los sujetos al azar, de modo que el hecho de que se elija o no a cada sujeto de la población para la muestra es pura casualidad y no se basa en las características del sujeto.

Debido a que la muestra se selecciona al azar, los métodos de la teoría de la probabilidad se pueden aplicar a los datos obtenidos.  Esto permite al clínico estimar el tamaño probable de los errores que pueden ocurrirá medida que aumenta el tamaño de la muestra, las medias de las muestras de una población de cualquier distribución se aproximarán a la distribución normal (gaussiana).  Esta es una propiedad importante porque permite a los médicos usar la distribución normal para formular inferencias a partir de los datos sobre los medios de las poblaciones. Sin embargo, el tamaño de muestra requerido para utilizar el teorema del límite central depende de la distribución subyacente de la población, y las poblaciones sesgadas requieren muestras más grandes. A medida que aumenta el tamaño de la muestra, la media y la desviación estándar se acercan más a la media de la población y la desviación estándar



CUÁL ES LA DIFERENCIA ENTRE EL DESVIACIÓN ESTANDAR(SD) Y EL ERROR ESTANDAR DE LA MEDIA (SEM)

La SD y la SEM miden dos entidades muy diferentes, pero los clínicos a menudo las confunden.  Algunos investigadores médicos resumen sus datos con el SEM porque siempre es más pequeño que el SD.  Debido a que el SEM es más pequeño, a menudo se usa de manera inadecuada para hacer que la variabilidad de los datos se vea más ajustada.  Este tipo de reporte de estadísticas debe ser desalentado.

El siguiente ejemplo se proporciona para ilustrar la diferencia entre la SD y la SEM y por qué se debe resumir los datos utilizando la SD.  Supongamos que, en una muestra de estudio de pacientes con enfermedad aterosclerótica, un investigador informó que el pico de velocidad sistólica (PSV) en la arteria carótida fue de 220 cm / seg y el SD fue de 10. Dado que el PSV en aproximadamente el 95% de todos los miembros de la población se encuentra aproximadamente en 2 DE  de la media, los resultados nos dirían que, suponiendo que la distribución sea aproximadamente normal, sería inusual observar una PSV menor a 200 cm / seg o superior a 240 cm / seg en la enfermedad aterosclerótica moderada de la arteria carótida. Por lo tanto, en el artículo se describe un resumen de la población y un rango con el cual comparar pacientes específicos que son examinados por el médico. Desafortunadamente, es probable que el investigador diga que el PSV de la arteria carótida común fue de 220 cm / s +-1.6 (SEM).  Si uno confundiera el SEM con el SD, uno creería que el rango de la mayoría de la población era estrecho, entre 216.8 y 223.2 cm / s.  Estos valores describen el rango en el que aproximadamente el 95% de las veces incluye la media de toda la población de la cual se eligió la muestra de pacientes.  El SEM es simplemente una medida de cuán lejos es probable que esté la media de la muestra de la media real de la población.  Sin embargo, en la práctica, generalmente se quiere comparar el PSV de un paciente individual con la distribución de la población en su totalidad y no con la media de la población.  Esta información es proporcionada por el SD y no por el SEM.


QUÉ SON LOS INTERVALOS DE CONFIANZA (IC)

La mayoría de las investigaciones biomédicas se basan en la premisa de que lo que es cierto para una muestra seleccionada al azar de una población será cierto, más o menos, para la población a partir de la cual se eligió la muestra. Por lo tanto, las mediciones en la muestra se utilizan para estimar las características de la población incluida en el estudio. La confiabilidad de los resultados obtenidos de una muestra se aborda mediante la construcción de IC en torno a las estadísticas de la muestra.  La cantidad de variación asociada con una estimación determinada a partir de una muestra puede expresarse mediante un IC. Los CI más amplios indican una menor precisión, mientras que los más estrechos indican una mayor precisión.  Los IC proporcionan límites a las estimaciones.




CÓMO SE CALCULAN LOS CI Y LA SIGNIFICANCIA ESTADISTICA

Si la muestra es grande con poca dispersión, la media de la muestra probablemente estará muy cerca de la media de la población.  Los cálculos estadísticos combinan el tamaño de la muestra y la variabilidad (es decir, SD) para generar un IC para la media poblacional. Se puede calcular un intervalo para cualquier grado de confianza deseado, aunque los IC del 95% son, con mucho, los más utilizados. Los IC se pueden construir para cualquier nivel de confianza deseado.  No hay nada mágico en el 95%, aunque se usa tradicionalmente.  Si se necesita mayor confianza, entonces los IC deben ser más amplios.  En consecuencia, los 99% de los IC son más amplios que los 95% de los IC, y los 90% de los IC son más estrechos que los 95% de los IC.  Los IC más amplios se asocian con mayor confianza, pero menos precisión. Esta es la compensación.

Si se supone que una muestra se seleccionó al azar de una determinada población (que sigue una distribución normal), se puede estar seguro al 95% de que el IC incluye la media de la población.  Más precisamente, si se generan muchos IC del 95% a partir de muchos conjuntos de datos, se puede esperar que el IC incluya la verdadera media de la población en el 95% de los casos y que el IC no incluya el valor medio verdadero en el otro 5%.  Por lo tanto, el IC del 95% se relaciona con la significación estadística en el nivel de 0.05, lo que significa que el propio IC se puede usar para determinar si un cambio estimado es estadísticamente significativo en el nivel de 0.05.

Mientras que el valor de P a menudo se interpreta como una indicación de una diferencia estadísticamente significativa, el CI, al proporcionar un rango de valores, permite al lector interpretar las implicaciones de los resultados en cualquiera de los extremos del intervalo.  Por ejemplo, si un extremo del intervalo incluye resultados clínicamente importantes pero el otro no, los resultados pueden considerarse como no concluyentes, no simplemente como una indicación de una diferencia estadísticamente significativa o no.  Además, mientras que los valores de P no se presentan en unidades, los IC se presentan en las unidades de la variable de interés, y esta última presentación ayuda a los lectores a interpretar los resultados.  En general, se prefieren los IC a los valores de P porque los IC cambian la interpretación de un juicio cualitativo sobre el papel del azar a una estimación cuantitativa de la medida biológica del efecto.  Más importante aún, la IC cuantifica la precisión de la media

POR QUÉ ES IMPORTANTE EL IC PARA LA SENSIBILIDAD Y LA ESPECIFICIDAD

La mayoría de los radiólogos están familiarizados con los conceptos básicos de especificidad y sensibilidad y los utilizan para evaluar la precisión diagnóstica de las pruebas de diagnóstico en la práctica clínica.  Dado que la sensibilidad y la especificidad son proporciones, los IC pueden calcularse y deben informarse en todos los artículos de investigación. Los IC son necesarios para ayudar a uno a estar más seguros sobre el valor clínico de cualquier prueba de detección o diagnóstico y para decidir en qué grado se puede confiar en los resultados.

La prueba diagnóstica más simple es dicotómica, en la que los resultados se utilizan para clasificar a los pacientes en dos grupos según la presencia o ausencia de enfermedad.  La resonancia magnética (RM) y los hallazgos artroscópicos de un ejemplo hipotético se resumen en la (ver la tabla más abajo). En este estudio hipotético, la artroscopia se considera el estándar de referencia.  La pregunta que surge en el entorno clínico es: "¿Qué tan buenas son las imágenes de RM de rodilla para ayudar a distinguir ligamento cruzado anterior ( ACL) desgarrados e intactos?" En otras palabras, "¿Hasta qué punto se puede confiar en la interpretación de las imágenes de RM para emitir juicios sobre el estado?  ¿De la rodilla de un paciente? Un método para medir el valor de la RM en la detección de desgarros de ACL es calcular la proporción de ACL desgarradas y la proporción de ACL intactas que se clasificaron correctamente utilizando imágenes de RM.  Estas proporciones se conocen como sensibilidad y especificidad de una prueba, respectivamente.



La sensibilidad se calcula como la proporción de ACL desgarradas que se clasificaron correctamente utilizando imágenes de RM.  En este ejemplo, de las 421 rodillas con desgarros de LCA, 394 se evaluaron correctamente con imágenes de RM (ver tabla más abajo).  La sensibilidad de la RM en la detección de desgarros de LCA es, por lo tanto, del 94% (es decir, sensibilidad = 394/421 = 0,94).  En otras palabras, el 94% de los desgarros de ACL se clasificaron correctamente como desgarrados utilizando imágenes de RM.  El IC del 95% para una proporción se puede determinar mediante la ecuación que se muestra aquí:


Al usar la Ecuación (2), el IC del 95% para la sensibilidad es de 0,94 +- 0,02, o de 0,92 a 0,96.  Por lo tanto, se espera que la RM tenga una sensibilidad entre 92% y 96%.

La especificidad se calcula como la proporción de ACL intactas que se clasificaron correctamente utilizando imágenes de RM.  De las 133 rodillas con una LCA intacta, 101 se clasificaron correctamente.  La especificidad de la RM es, por lo tanto, del 76% (es decir, especificidad = 101/133 = 0,76).  Esto significa que el 76% de las ACL intactas se clasificaron correctamente como intactas utilizando imágenes de RM.  Al usar la Ecuación, el IC del 95% para la especificidad es de 0.76 +- 0.07 o 0.69 a 0.83.  Por lo tanto, se espera que la RM tenga una especificidad entre el 69% y el 83%.  También es importante tener en cuenta que el IC fue más amplio para la especificidad que para la sensibilidad porque los grupos de la muestra fueron 133 (más pequeños) y 421 (más grandes), respectivamente.

NOTA:

Se pueden calcular los IC para las proporciones de ODDS
Los IC también se pueden calcular en función de las medidas de riesgo, como el riesgo relativo(RR) o el odds ratio (OR).


Los IC pueden calcularse tanto para medias como para proporciones.  Las proporciones comúnmente utilizadas en medicina incluyen sensibilidad, especificidad y OR.  Las proporciones siempre deben ir acompañadas de un 95% de IC.  La correcta comprensión y el uso de estadísticas fundamentales, como la SD, la SEM y la IC, y sus cálculos permitirán un análisis, interpretación y comunicación más fiables de los datos clínicos a los pacientes y a los médicos remitentes.

PUEDES DESCARGAR EL ARTICULO AQUÍ

lunes, 8 de abril de 2019

MINITAB VERSIÓN 18



Minitab es un programa de computadora diseñado para ejecutar funciones estadísticas básicas y avanzadas. Combina lo amigable del uso de Microsoft Excel con la capacidad de ejecución de análisis estadísticos. En 1972, instructores del programa de análisis estadísticos de la Universidad Estatal de Pensilvania (Pennsylvania State University) desarrollaron MINITAB como una versión ligera de OMNITAB, un programa de análisis estadístico del Instituto Nacional de Estándares y Tecnología (NIST) de los Estados Unidos.


DESCARGAR AQUÍ

lunes, 25 de marzo de 2019

SMART_STATS_TOOLS



El  sitio web de smart-stats-tools  contiene software para el análisis  de imágenes de resonancia magnética estructural (MRI) desarrollado por miembros del grupo SMART. Actualmente el sitio web es el hogar del software SuBLIME.



SuBLIME es un método automatizado para segmentar voxels de lesiones de esclerosis múltiple (EM) incidentes entre los  estudios de IRM de referencia y de seguimiento. Los usuarios del software cargan volúmenes preprocesados con T1, ponderados en T2, densidad de protones (PD) y recuperación de inversión con atenuación de fluidos (FLAIR) de un estudio de referencia y seguimiento a la interfaz web de SuBLIME en el sitio web. En 3 segundos, el software SuBLIME produce un mapa de probabilidad de voxels de lesiones incidentes y de ampliación para que el usuario los descargue. El software SuBLIME es, a nuestro entender, el único software totalmente automatizado para la segmentación de incidentes y la ampliación de las lesiones de la EM.

INGRESAR AQUÍ

lunes, 18 de marzo de 2019

NEUROCONDUCTOR


Neuroconductor es una plataforma de código abierto para pruebas y diseminación rápidas de software de imágenes computacionales reproducibles. Los objetivos del proyecto son:

  • proporcionar un repositorio centralizado de software R dedicado al análisis de imágenes.
  • difundir rápidamente las actualizaciones de software.
  • educar a una comunidad grande y diversa de científicos usando tutoriales detallados y cursos cortos.
  • garantizar la calidad a través de controles de calidad automáticos y manuales.
  • Promover la reproducibilidad del análisis de datos de imagen.

Basado en el lenguaje de programación R , Neuroconductor comenzó con 51 paquetes interoperables que cubren múltiples áreas de imágenes, incluyendo visualización, procesamiento y almacenamiento de datos e inferencia estadística. Neuroconductor acepta nuevos envíos de paquetes R, que están sujetos a una revisión formal y pruebas automáticas continuas.

ENTRAR AQUÍ