Prozessentwicklung für das flussmittelfreie Weichlöten (Teil 4)

In der Artikelreihe Prozessentwicklung für das flussmittelfreie Löten gehen wir im 4. Teil auf die Prozessfenster bzw. Prozesskontrolle ein.

Prozessfenster

Nachdem alle Anforderungen erfolgreich abgetestet wurden, muss noch das Prozessfenster definiert werden. Dies ist notwendig, um Spezifikationsgrenzen bzw. Eingriffsgrenzen für die Produktion zu definieren. Schwankungen zwischen Materialchargen, den Löthilfen aber auch eine Alterung des Lötofens verändert das Lötprofil über die Zeit. Gerade für die statistische Prozesskontrolle, sowie Big Data-Lösungen sind die Grenzen wichtig, in denen der Lötprozess noch ohne Einschränkungen funktioniert. Speziell die folgenden Parameter sind wichtig:

  • Restsauerstoffgehalt über den gesamten Prozess
  • Temperaturverteilung über den gesamten Prozess
  • Einbringzeit und Konzentration Reduktionsmittel
  • Einwirktemperatur und Zeit Reduktionsmittel
  • Löttemperatur und Haltezeit
  • Vakuum-Schrittzeit und Enddruck
  • Abkühlgradient und Temperaturverteilung über Liquidus
  • Abkühlgradient und Temperaturverteilung unter Liquidus

Mittels eines statistischen Versuchsplans (DOE) werden die Parameter nach oben bzw. unten variiert und anschließend die Qualität überprüft.

Prozesskontrolle und Big-Data

Mit den ermittelten Prozessgrenzen kann eine statistische Prozesskontrolle (SPC) eingeführt werden. Über Regelkarten werden diese geprüft. Je nach Produkt und Kunden können die Datenloggerfahrten in täglichen, bis hin zu monatlichen Intervallen durchgeführt werden.

Nicht nur die Temperaturmessung der Lötanlage spielt für Big Data-Konzepte eine Rolle. Vielmehr werden die Daten des gesamten Fertigungsprozesses bzw. Produktlebenszyklus beginnend beim Zulieferer bis hin zum fertigen Produkt beim Kunden verwertet. Big Data kann dabei einerseits verwendet werden, um kurzfriste Produktionsprobleme zu lösen, aber auch um bei einem stabilen Prozess weitere Optimierungen vorzunehmen (Predictive Analysis). Eine lückenlose Rückverfolgbarkeit bzw. eine kontextbezogene Datenablage sind dabei entscheidend, um aus dem „Daten-See“ erfolgreich Schätze heben zu können. Hierzu zählt die intelligente Vernetzung verschiedener Speicherorte, wie beispielsweise das Zusammenführen von Daten aus einem Enterprise Resource Planning (ERP) System, einem Manufacturing Execution System (MES) und einer Customer-Relationship-Management (CRM) Software. Dies kann mit dem CRISP-DM-Prozess-Diagramm (CRoss-Industry Standard Process for Data Mining) in Zeilen und in einer technisch relevanten Geschwindigkeit erfolgen. Ziel ist eine konsistente Datenstruktur, bei der alle Parameter in Spalten und die entsprechenden Ergebnisse in Zeilen angeordnet sind. Das Data-Mining aus dem Big Data-Pool stellt dabei eine Ergänzung zu klassischen, statistischen Verfahren dar. Je komplexer die Daten, desto wahrscheinlicher werden Data-Mining Tools benötigt. Dies ist in Abbildung 2 gezeigt.

Abbildung 2: Unterschied zwischen klassischer Statistik und Data-Mining, Quelle: BNB Qualitätsstatistik und Training

Zusammenfassung

Die Entwicklung eines pastenfreien Lotprozesses mit Preforms und Ameisensäure bzw. Wasserstoff bedarf eines sehr systematischen Vorgehens, um einen stabilen Prozess zu gewährleisten. Wird bei den einzelnen Schritten an Aufwand bzw. Zeit gespart, wird diese erfahrungsgemäß hinterher bei Kundenreklamationen doppelt und dreifach benötigt. Dies gilt auch für spätere Datenauswertungen zur Prozesskontrolle. Die Reihenfolge und die genaue Durchführung bleiben jedoch in der Hand des Entwicklers.

Haben Sie weitere Fragen zum Vakuumlöten? Dann kontaktieren Sie uns gerne.

Keine Kommentare vorhanden

Schreiben Sie einen Kommentar