Muster verlängerung probezeit ausbildung

Prinzip der vorgeschlagenen Testzeit-Augmentationstechniken. Mehrere erweiterte Instanzen derselben Testbilder werden vorhergesagt, und die Ergebnisse werden zurücktransformiert und zusammengeführt. Im Falle von U-Net wurde eine pixelweise Mehrheitsabstimmung angewendet, während für Maske R-CNN eine Kombination aus Objektabgleich und Mehrheitsabstimmung angewendet wurde. Durchschnittliche Leistung von TTA für U-Net mit unterschiedlichen Trainings- und Testerweiterungen. (A) Durchschnittliche TTA-Leistung, die ohne Erweiterungen über Epochen trainiert wird. (B) Durchschnittliche TTA-Leistung, die mit Erweiterungen über Epochen trainiert wird. (C) Durchschnittliche Leistung ohne TTA ohne Erweiterungen während des Trainings. (D) Durchschnittliche Leistung ohne TTA mit Erweiterungen während des Trainings. Tissue15 und Fluorescent15 stehen für die erste Kreuzvalidierungsteilung. Sowohl U-Net als auch Mask R-CNN-Implementierungen basieren auf dem Deep Learning Framework Keras mit Tensorflow-Backend. Die Trainingsberechnungen wurden auf einem PC mit NVIDIA Titan Xp GPU, 32 GB RAM und Core-i7 CPU durchgeführt.

TTA-Performance für Maske R-CNN. TTA-Leistung (Delta = zusammengeführt – Original). Jeder Punkt stellt ein Bild dar. Gestrichelte Linie – mittlere, durchgezogene Linie – Median. (A) Fluoreszierendes Set 5. (B) Fluoreszenzsatz 15 (Kreuzvalidierungssplit 1). (C) Fluoreszenzsatz 30. (D) Gewebesatz 5. (E) Gewebesatz 15 (Kreuzvalidierungssplit 1). (F) Gewebesatz 30. Orange boxplot – das endgültige Modell (Epoche 3), grünes Boxplot – Modell für 1 Epoche trainiert, rote Boxplot – Modell für 2 Epochen trainiert.

Unsere Auswahl der beiden beliebten Deep Learning-Architekturen Mask R-CNN (Ertragsinstanzen) und U-Net (semantische Segmentierung) diente auch dem Zweck, Robustheit zu testen, da die Aufgaben der semantischen und Instanzsegmentierung unterschiedlich sind und unterschiedliche Ansätze erfordern, um die gleiche Methode auf sie anzuwenden. Für jedes Dataset/Split haben wir separate U-Net- und Mask R-CNN-Modelle trainiert. Dann haben wir die Leistung von TTA für jeden Checkpoint jedes Modells bewertet (Checkpoints wurden für jede Epoche des Trainings gemacht: im Falle von U-Net wurden insgesamt 15`-Sets, d.h. jede 10. Epoche als Checkpoint für Kreuzvalidierungssplits 2–6) bezeichnet, wie im Unterabschnitt “Testzeit-Augmentation”- beschrieben. Als nächstes haben wir statistische Tests durchgeführt, um zu beurteilen, ob die Verbesserung der Leistung signifikant ist. Wir verwendeten die gleichen Augmentationen (horizontales und vertikales Flip, 90°, 180° und 270° Rotationen) für das Training beider Architekturen. Die Bilder wurden auf die Größe von 512 x 512 Pixeln zugeschnitten.

Kulturen aus demselben Bild wurden nur im Zug oder im Testsatz verwendet. Die Größe von Bildern mit einer Auflösung von weniger als 512 x 512 wurde auf diese bestimmte Größe geändert. Beispielbilder sind in Abb. 2 dargestellt. Im Anschluss an die von Hollandi et al.5 beschriebene Strategie Das Netzwerk wurde für 3 Epochen für verschiedene Schichtgruppen trainiert: zuerst wurden alle Netzwerkschichten mit einer Lernrate von 10-3 trainiert, dann wurde das Training auf ResNet Stufe 5 beschränkt (ResNet besteht aus 5 Stufen, jede mit Faltungs- und Identitätsblöcken, einschließlich 3 Faltschichten pro Block) und Kopfschichten mit einer Lernrate von 5 x 10-4, und schließlich wurden nur die Kopfschichten mit einer Lernrate von 10 bis 4 trainiert. Das Modell wurde mit vortrainierten Gewichtungen (github.com/matterport/Mask_RCNN/releases/download/v1.0/mask_rcnn_coco.h5) im COCO-Dataset initialisiert.