Seleccionar página

A continuación, se describen las actividades relativas a las actividades en los que participan UC3M y FIBHGM.

APR automático

Investigación y desarrollo de una herramienta basada en IA que permita la identificación de la posición radiológica para hacer la selección automática de la técnica radiográfica (APR) a partir de fotografía del paciente. Los datos de entrada a la red serán imagen de luz visible e información de espesor del paciente, y la salida serán los parámetros radiológicos: kilovoltaje, mAs y distancia fuente detector (SID).

Colimación automática

Investigación y desarrollo de una herramienta que permita la selección del área de colimación de forma automática a partir de los fotográficos de paciente que permitan identificar la posición radiológica y la morfología particularizada del paciente. Los datos de entrada a la red serán los mismos indicados en la actividad 4.2 y 4.4 y la salida las coordenadas de las cuatro esquinas del campo de visión.

Control de calidad automático

Investigación y desarrollo de software de IA que permita el control de calidad de la radiografía adquirida, identificando errores en la posición del paciente, truncamiento del área de interés, y otros parámetros como SNR y/o contraste. La entrada a la red para entrenamiento será la radiografía simulada con errores y la salida será la probabilidad de que haya un error que implique la repetición de la adquisición.

Realce de imagen

Desarrollo de métodos de preprocesamiento de imagen para aumentar la resolución y recuperar la relación señal/ruido deterioradas por una adquisición de baja dosis. Esta actividad también incluye el desarrollo de un algoritmo de corrección de la radiación dispersa, que permita eliminar la necesidad de utilizar una parrilla antidifusora, reduciendo aún más la dosis de radiación.

Reducción de la superposición de tejidos

Implementación de estrategías basadas en energía dual o tomosíntesis que permitan la eliminación de masas óseas para diagnosticar mejor zonas con superposición.
Se investigarán nuevas técnicas de reconstrucción mediante IA que alcancen mayor calidad de imagen que las tomosíntesis convencionales, ya sea como paso de posprocesamiento tras la reconstrucción o dentro de un algoritmo de reconstrucción iterativa (métodos unrolled). También se investigará una herramienta basada en IA para la generación de información de energía dual, que permitir separar las contribuciones de tejidos duros (hueso) y tejidos blandos, de gran utilidad en estudios torácicos donde la superposición de imagen ósea puede dificultar la interpretación de lesiones pulmonares. La entrada a la red será la radiografía simulada con radiación dispersa y como salida se obtendrán las imágenes separadas de hueso y tejido blando.

Ayuda al diagnóstico

En esta actividad se definirán biomarcadores de imagen que permitan una valoración automática del grado de afectación pulmonar que facilite el diagnóstico y reduzca el número de falsos negativos. Se desarrollará una herramienta automática que estimará la probabilidad de que el paciente sufra alguna afectación pulmonar a partir de las imágenes adquiridas (radiografías y tomosíntesis). Para proporcionar explicabilidad a la salida, se visualizarán las zonas de las proyecciones y los hallazgos de mayor peso en el resultado, todo ello enfocado primariamente al screening de cáncer pulmón.

Resource optimization

This activity will evaluate and implement different techniques that can reduce memory consumption during the training phase of neural network models without precision loss. This will make it possible to use higher resolution images and avoid reducing image quality or using patches, as well as their problems of loss of detail or spatial context.

Results were presented at HeteroPar 2024 on the work «Strategies for memory management improvement in deep learning algorithms for contrast enhancement of high-resolution radiological images», Rodriguez, D.A., Sanderson, D., García-Blas, J., Desco, M. and Abella, M.

Several techniques available in the most popular frameworks such as PyTorch or Tensorflow have been evaluated. Some of them are: Gradient checkpointing, Automatic mixed precision, Data parallelism and Model parallelism. Evaluation was performed using both, a single GPU and multiple GPUs. Empirical testing proved that combining different techniques a memory reduction up to 20% using a single GPU and up to 70% using multiple GPUs can be achieved.

Using a single GPU
Train Loss Validation Loss Memory (MB) Time (s)
Baseline 4.0504 6.0083 1198.08 35.63
Checkpointing (Chkp) 4.0482 6.0592 942.08 35.15
AMP 4.8612 6.2515 583.68 34.02
AMP + Chkp 4.8612 6.2761 460.80 34.30
 Using multiple GPUs

When using multiple GPUs there two different scenarios: Data parallelism, wherethe model is replicated among the different devices and the training data is splitted. And Model parallelism, where in contrast to Data parallelism, the model is divided and each part is sent to a different device, while the data is processed sequentially.

Data Parallelism
Train Loss Validation Loss Memory (MB) Time (s)
Baseline 4.0504 6.0083 1198.08 35.63
Data Parallelism (DP) 2.2267 6.1418 1290.24 12.97
DP + AMP 2.4507 6.2196 636.00 13.46
DP + Checkpointing 2.1602 5.8934 798.72 15.24
DP + AMP + Chkp 2.1586 6.2355 430.08 12.98

In Data parallelism, training loss is smaller as we are training each model with a subset from the original dataset. Therefore, we also reduce execution time.

Model Parallelism
Train Loss Validation Loss Memory (MB) Time (s)
Baseline 4.0504 6.0083 1198.08 35.63
Model Parallelism (MP) 4.5295 5.9778 732.16 53.29
MP + AMP 4.6431 5.7533 399.36 40.69
MP + Checkpointing 4.4820 5.6649 614.40 57.32
MP + AMP + Chkp 4.6431 5.7533 394.24 57,26

Unlike Data parallelism, execution time is increased due to communication overhead, however, memory consumption is highly reduced as the model is devided among the different devices.