La reutilización de datos clínicos procedentes de la Historia Clínica Electrónica (HCE) para usos secundarios como Sistemas de Ayuda a la Toma de Decisión (CDSS), Monitorización de procesos clínicos e Investigación sanitaria, implica asegurar la calidad de sus datos1,2.
A nivel conceptual, múltiples estudios coinciden en definir un conjunto aspectos o dimensiones de calidad de datos que deben ser evaluadas2-6. Además, los problemas de calidad de datos pueden estructurarse en distintos niveles de granularidad sobre los que medir las dimensiones utilizando diferentes ejes6.
El Hospital Virgen del Castillo, perteneciente a la Gerencia del Área V de Salud del Servicio Murciano de Salud, mantiene abierta desde 2008 una línea de trabajo en calidad de datos biomédicos liderada por el servicio de pediatría y la sección de tecnologías de la información. Esta línea se consolidó como línea de investigación en colaboración con el Grupo de Investigación en Informática Biomédica (IBIME) de la Universidad Politécnica de Valencia a partir de 2012 en el ámbito perinatal y de alimentación del lactante hasta los dos años.
Fruto de esta colaboración, han definido un proceso de generación de repositorios de datos clínicos con calidad asegurada8 basado en el framework propuesto por Saez et all6 que define 9 dimensiones de calidad de datos. Dicho proceso está formado por una serie de 13 procedimientos donde podemos diferenciar dos bloques en el proceso de generación de repositorios: El primero consiste en el aseguramiento de la integridad de la estructura de datos; debido a que las organizaciones sanitarias son entornos cambiantes donde se producen continuos cambios en la forma de registrar la información clínica, es preciso homogeneizar y estabilizar estos datos antes de realizar el segundo bloque de análisis de calidad de datos relacionado con la semántica clínica de los mismos, para obtener finalmente el repositorio con calidad asegurada.
El objetivo del presente trabajo es generar un software que cubra el bloque estructural del proceso de aseguramiento de calidad de datos definido por García-de-León-Chocano R et all8. El software cubrirá la carga de información procedente de la HCE (Raw Data) y la generación de un repositorio homogéneo y estable (correspondiente al repositorio intermedio del proceso completo de aseguramiento, origen de datos para las fases relacionadas con el aseguramiento semántico). Durante la generación del repositorio homogéneo y estable, la evaluación de calidad de datos se realiza sobre 3 de las dimensiones del modelo de Saez et all6: Validez Predictiva, Contextualización y Estabilidad temporal.
El aseguramiento de la estructura se realizará mediante 6 procedimientos a partir del Raw Data procedente de la HCE:
- Parametrización del sistema (parámetros estructurales)
- Selección de variables informativas
- Armonización de formularios y variables multicódigo
- Detección y corrección de formularios mal asignados
- Estandarización del contexto
- Recodificación y armonización de categorías de variables
El trabajo será desarrollado en las siguientes fases:
- Revisión de la literatura
- Definición de las estructuras de datos
- Generación de interfaces clínicos
- Desarrollo de los procedimientos
- Prueba del software.
El trabajo en el hospital será coordinado por Ricardo García de León Chocano, jefe de sección de tecnologías de la información.