Más allá del G-Code: Integrando Redes Neuronales Convolucionales (CNN) para la detección de fallos en manufactura aditiva FDM

Por equipo PrintaLot · Tiempo estimado de lectura: 6–8 min

En la industria de la impresión 3D, el monitoreo de procesos sigue dependiendo en gran medida del factor humano. Ya sea en una granja de impresión o en prototipado rápido, el “ojo” del operador funciona como estándar de calidad. El problema es obvio: no escala 24/7.

Recientemente, el Lic. Pablo Moreira (Data Scientist y especialista en Business Intelligence en PrintaLot) presentó un desarrollo orientado a automatizar este control de calidad mediante Computer Vision. A diferencia de la IA generativa, aquí se trabaja con un modelo clasificador basado en una Red Neuronal Convolucional (CNN) diseñada para detener impresiones fallidas antes de que produzcan desperdicio crítico.

Objetivo del sistema: clasificación binaria en tiempo real

La hipótesis operativa es directa: si el sistema puede identificar tempranamente patrones visuales asociados a fallos (desplazamientos, colapsos de soporte, sub-extrusión, rugosidad anómala, etc.), entonces puede disparar una acción: notificar o pausar la impresión para minimizar pérdida de material, tiempo y energía.

En términos de salida, el modelo se define como un clasificador binario: 0 = defectuosa / 1 = no defectuosa, en función de un umbral de decisión.

Nota: en ambientes industriales, además del score binario suele ser valioso exponer una métrica continua (p. ej. probabilidad de fallo) para ajustar umbrales según tolerancia a falsos positivos vs. falsos negativos.

1) Arquitectura del modelo: de la extracción de bordes a la decisión binaria

La CNN no “interpreta” imágenes como un operador. Recibe un tensor (p. ej. imagen RGB) y lo transforma mediante capas que aprenden filtros convolucionales. Simplificando, el pipeline se comporta como una sucesión de “estaciones”:

Extracción de características (features)

  • Etapa inicial: ~32 filtros aprenden detectores de bordes/contornos y rasgos de baja complejidad. Esta etapa suele ser sensible a ruido, iluminación y contraste.
  • Etapas profundas: el aumento de filtros (64 y 128) habilita la detección de patrones de mayor granularidad: grumos, discontinuidades, cambios sutiles en textura, indicios de sub-extrusión o errores de Z.

Regularización: “olvido estratégico” (Dropout)

Para mitigar overfitting (memorizar en lugar de generalizar), se implementó dropout apagando aleatoriamente el 25% de las neuronas durante entrenamiento. Esta estrategia fuerza al modelo a aprender representaciones más robustas y menos dependientes de un único rasgo espurio.

Capa de salida

El head final utiliza una neurona con función de activación (típicamente sigmoide) para producir un valor en [0,1] y aplicar un umbral para la decisión binaria.

2) El desafío del “Sesgo del Amarillo” y Data Augmentation

Un hallazgo clave fue el desbalance cromático del dataset: de ~1.500 imágenes iniciales, la mayoría correspondía a impresiones en filamento amarillo. El riesgo: que el modelo aprenda una correlación espuria color → calidad, en vez de geometría/textura → calidad.

La mitigación se implementó con un pipeline de data augmentation en Python:

  • Transformaciones geométricas: rotaciones / flips para aumentar variabilidad espacial.
  • Transformaciones cromáticas controladas: segmentación del espacio RGB para alterar artificialmente el color del filamento preservando sombras (más cercano a una re-iluminación consistente que a un simple “tinte”).

Resultado: escalado del dataset a > 9.300 imágenes, reduciendo el sesgo cromático y aumentando capacidad de generalización.

3) Integración con hardware open source: de la detección a la intervención

El objetivo final no es solo “ver” el fallo, sino intervenir. El enfoque se apoya en impresoras con conectividad y control expuesto (p. ej. marcas con firmware y APIs accesibles, como por ejemplo QiDi o Sovol) que permiten comunicación directa por IP/puerto.

Flujo propuesto

  1. Captura del frame desde cámara (stream).
  2. Inferencia del modelo en Python sobre el frame.
  3. Confirmación temporal para reducir falsos positivos: 3 detecciones consecutivas (ejemplo) antes de accionar.
  4. Envío de comando de pausa/stop a la impresora vía red.

Este tipo de cierre de lazo (visión → decisión → comando) convierte el sistema en un módulo de control de calidad activo, no solo en un “monitor”.

Desafíos prácticos: iluminación, entorno y robustez

En visión por computadora, el gap entre laboratorio y planta suele estar en el dominio físico: iluminación, reflejos, variaciones de exposición, vibraciones, fondos dinámicos (personas pasando), polvo, etc.

  • Iluminación: cambios de luz pueden modificar histograma y texturas aparentes.
  • Oclusiones: movimiento detrás de la impresora puede introducir patrones ajenos a la pieza.
  • Consistencia óptica: lentes, enfoque, distancia y ángulo afectan el “dominio” del dataset.

A nivel de mitigación, un camino típico incluye: entorno cerrado, iluminación estable (difusa), fondo neutro, calibración de cámara y, si se busca robustez industrial, entrenamiento con variaciones reales (domain randomization).

Impacto en manufactura aditiva: eficiencia energética y reducción de tiempos muertos

Más allá del ahorro de material, estos sistemas apuntan a mejorar métricas operativas:

  • Menos tiempo muerto: fallos detectados temprano reducen horas improductivas.
  • Mejor eficiencia energética: menos impresiones que consumen energía para terminar en descarte.
  • Escalabilidad: granjas con decenas de máquinas requieren automatización de supervisión.
  • Trazabilidad: registro de eventos de fallo para mejora continua (process mining / BI).

En síntesis, es un caso claro de cómo la Ciencia de Datos aplicada puede transformar un proceso físico (impresión FDM) en un sistema más inteligente, con capacidad de reacción.

Créditos: desarrollo presentado por Pablo Moreira (PrintaLot, Business Intelligence / Data Science).

Te dejamos el video completo de la presentación de Pablo en el VIII Congreso de Impresión 3D

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

1
Hola 👋
¿En qué podemos ayudarte?