Liderazgo técnico en laboratorios: por qué ya no alcanza con cumplir
Hoy la diferencia entre un laboratorio ordenado y uno realmente confiable ya no está solo en la documentación o en la acreditación. Está en la solidez con que sostiene técnicamente sus resultados.
Durante bastante tiempo, muchos laboratorios pudieron sostenerse con una combinación bastante conocida: sistema documental ordenado, equipos calibrados, métodos validados y auditorías razonablemente controladas. Ese esquema todavía importa. Sería absurdo negarlo. Pero ya no alcanza.
El contexto cambió. Los resultados hoy circulan en entornos mucho más exigentes: clientes que comparan, organismos que revisan con mayor profundidad, decisiones de conformidad más sensibles, plataformas digitales que dejan nuevas huellas y, al mismo tiempo, nuevas vulnerabilidades. En ese escenario, la vieja tranquilidad del “cumplimos con todo” empezó a perder fuerza.
La pregunta importante ya no es solo si el laboratorio cumple. La pregunta realmente incómoda, y por eso mismo más valiosa, es otra: si el laboratorio puede explicar con solidez por qué sus resultados merecen confianza.
A mi juicio, ahí empieza a verse una diferencia que en los próximos años será cada vez más evidente: la diferencia entre laboratorios prolijos y laboratorios técnicamente sólidos.
La apariencia de orden ya no basta
En los últimos años hubo avances reales. Más digitalización, más discusión sobre integridad de datos, más lenguaje de riesgo, más atención a la incertidumbre, más exigencia sobre trazabilidad y sobre decisiones de conformidad. Todo eso, bien trabajado, mejora al laboratorio.
El problema aparece cuando se confunde actualización con madurez.
Se rediseñan formatos, se revisan procedimientos, se agregan matrices de riesgo, se compran sistemas, se reordena la documentación. Pero nada de eso garantiza, por sí mismo, una mejor arquitectura técnica. A veces solo mejora la superficie.
Y eso se nota rápido cuando uno empieza a hacer preguntas un poco más serias. Qué entienden realmente por trazabilidad. Cómo justifican la incertidumbre que reportan. Qué criterio aplican cuando un resultado cae cerca de un límite. Cómo sostienen la aptitud actual de un método más allá del informe histórico de validación. Qué tan robusto es su flujo de datos cuando alguien lo revisa de verdad.
Ahí se termina la comodidad del sistema prolijo. Y ahí empieza la discusión importante.
La metrología volvió al centro
Durante años, en muchos laboratorios, la metrología fue tratada como un soporte técnico bastante acotado: calibraciones, certificados, patrones, verificaciones. Era necesaria, pero no siempre ocupaba un lugar central en la discusión de calidad.
Eso cambió. Y tenía que cambiar.
La metrología volvió al centro porque la confianza en un resultado depende, en gran medida, de su trazabilidad, de la claridad del mensurando, del modelo de medición que lo sostiene y de la forma en que se expresa la duda asociada a ese valor. Cuando eso no está bien construido, el dato puede parecer correcto, pero queda intelectualmente débil.
Todavía se escucha con demasiada frecuencia que un resultado “es trazable” simplemente porque se usó un equipo calibrado. Esa simplificación ya no resiste mucho análisis. La trazabilidad metrológica no es un eslogan ni una consecuencia automática del certificado. Es una construcción técnica. Y como toda construcción seria, puede ser sólida o puede ser apenas decorativa.
Un laboratorio confiable no es el que menciona la trazabilidad. Es el que la puede defender sin vaguedades.
La incertidumbre sigue siendo un punto débil
Si hay un tema donde todavía se ve mucha fragilidad conceptual, es este. En demasiados lugares, la incertidumbre de medición sigue tratándose como una formalidad de cierre. Se calcula, se documenta y se guarda. Pero no siempre se comprende de verdad.
Eso tiene consecuencias.
La incertidumbre no está para completar una planilla ni para adornar un informe. Está para expresar el grado de duda asociado al resultado. Está, en definitiva, para poner honestidad donde antes muchos querían poner certeza excesiva.
Por eso me sigue pareciendo problemático ver laboratorios que “tienen incertidumbre estimada”, pero no saben cómo usarla al interpretar el dato, al comunicarlo o al decidir una conformidad. En esos casos no hay incorporación real del concepto. Hay, apenas, cumplimiento formal.
Y eso se vuelve más delicado cuando el resultado está cerca de especificación. Porque ahí ya no alcanza con mirar el valor observado. También hay que pensar qué significa ese valor dentro de su incertidumbre y qué riesgo está asumiendo el laboratorio al aceptarlo o rechazarlo.
La regla de decisión ya no puede quedar en la sombra
Este es uno de los puntos donde más claramente se distingue un laboratorio que piensa de uno que simplemente repite prácticas heredadas.
Emitir una conformidad no puede seguir siendo, sin más, comparar un número con un límite y avanzar. Cuando la incertidumbre importa, la lógica de decisión también importa. Y debe ser explícita.
Eso obliga a definir criterios. Obliga a hablar de riesgo. Obliga a dejar de actuar como si la decisión técnica fuera una consecuencia automática del dato.
Mi impresión es que varios laboratorios todavía no terminan de asumir la profundidad de este cambio. Hablan de confiabilidad, pero no siempre pueden explicar con precisión bajo qué regla deciden en los casos limítrofes. Y cuando una organización no puede explicar su propia lógica de decisión, lo que tiene no es un criterio técnico consolidado, sino una costumbre.
Las costumbres ayudan a operar. No siempre ayudan a decidir bien.
Validar una vez ya no resuelve el problema
Algo parecido ocurre con la validación de métodos. Todavía persiste la idea de que, una vez realizado el estudio y aprobado el informe, el método queda legitimado de manera bastante estable. Esa visión me parece cada vez menos sostenible.
Un método puede haber sido correctamente validado y, sin embargo, perder robustez con el tiempo, tensionarse frente a nuevas matrices, cambiar de comportamiento con otros insumos o depender demasiado de condiciones que ya no son exactamente las mismas. Por eso, más que hablar de validación como acto único, hoy conviene hablar de vigilancia del desempeño.
Lo relevante no es solo que el método haya sido apto. Lo relevante es que siga siéndolo en la práctica real del laboratorio.
Ese cambio de enfoque no es menor. Exige leer tendencias, interpretar control de calidad, revisar cambios, observar sesgos, mirar robustez y abandonar la idea tranquilizadora de que un informe histórico basta para siempre.
No basta.
La estadística sigue subutilizada
También creo que el laboratorio promedio todavía usa una estadística demasiado básica para la complejidad que pretende controlar. Promedios, desvíos estándar, regresiones y algunos gráficos clásicos son herramientas útiles, desde luego. Pero muchas veces quedan cortas para leer con sensibilidad lo que está pasando en el proceso.
A veces la estadística se usa más para justificar a posteriori que para detectar temprano. Y eso empobrece mucho la capacidad de aprendizaje del sistema.
Un laboratorio genera datos de manera continua. La cuestión es si esos datos se convierten en conocimiento operativo o si terminan acumulándose como registro sin verdadera lectura crítica. Cuando ocurre lo segundo, el sistema se entera tarde de sus propias derivas.
Y enterarse tarde casi siempre cuesta más.
La integridad de datos ya es un problema técnico
Durante un tiempo se trató la integridad de datos como si fuera un asunto más regulatorio que técnico, más informático que metrológico. Esa separación hoy resulta artificial.
Un resultado puede estar bien medido y, sin embargo, mal sostenido. Puede ser analíticamente correcto, pero documental o digitalmente frágil. Y si eso ocurre, la defensa del resultado se debilita.
Por eso ya no alcanza con afirmar que existe control. Hay que poder mostrar quién generó el dato, cuándo, con qué sistema, si hubo transcripción, si hubo cambios, cómo se controlaron, qué versión quedó vigente y si el recorrido completo del resultado puede reconstruirse sin zonas oscuras.
En este terreno sigo viendo mucha confianza excesiva en planillas, archivos compartidos, fórmulas heredadas y flujos manuales que “siempre funcionaron”. Ese argumento nunca me resultó convincente. Que algo no haya fallado de manera visible no significa que sea robusto. A veces solo significa que todavía no fue examinado con suficiente dureza.
El liderazgo técnico no consiste solo en administrar cumplimiento
A esta altura, para mí el punto más importante es este: el verdadero liderazgo técnico no se limita a sostener la conformidad del sistema. Consiste en fijar el nivel de exigencia intelectual con el que opera el laboratorio.
Se nota cuando una organización no acepta trazabilidad enunciativa, sino trazabilidad defendible. Se nota cuando la incertidumbre no se calcula por rutina, sino que se interpreta con criterio. Se nota cuando la validación no se congela en un informe. Se nota cuando la regla de decisión está pensada y no apenas heredada. Se nota cuando la estadística sirve para comprender el proceso y no solo para cerrar reportes. Y se nota cuando la integridad de datos se toma como condición de legitimidad del resultado.
Ahí está, a mi juicio, el núcleo del asunto.
Porque cumplir puede ordenar. Pero pensar bien es lo que realmente protege al laboratorio.
Cierre
Creo que en los próximos años se va a ver con más claridad qué laboratorios hicieron un trabajo serio sobre su solidez técnica y cuáles se limitaron a mantener una estructura formal razonablemente ordenada.
La diferencia no va a estar solo en la acreditación, ni en el software, ni en la cantidad de procedimientos. Va a estar en algo más difícil de construir y también más fácil de detectar cuando falta: la capacidad de sostener un resultado con criterio, con evidencia y con coherencia técnica.
Ahí, para mí, está el verdadero desafío del laboratorio actual.