KI-Tool erstellt „synthetische“ Bilder von Zellen für eine verbesserte mikroskopische Analyse

Die Beobachtung einzelner Zellen durch Mikroskope kann eine Reihe wichtiger zellbiologischer Phänomene aufdecken, die häufig bei Erkrankungen des Menschen eine Rolle spielen. Der Prozess, einzelne Zellen voneinander und ihren Hintergrund zu unterscheiden, ist jedoch äußerst zeitaufwändig – und eine gut geeignete Aufgabe für KI-Unterstützung.

KI-Modelle lernen, solche Aufgaben auszuführen, indem sie einen Satz von Daten verwenden, die von Menschen kommentiert werden. Der Prozess der Unterscheidung von Zellen von ihrem Hintergrund, der als „Einzelzellsegmentierung“ bezeichnet wird, ist jedoch sowohl zeitaufwändig als auch mühsam. Daher gibt es nur eine begrenzte Menge an kommentierten Daten, die in KI-Trainingssätzen verwendet werden können. Forscher der UC Santa Cruz haben eine Methode entwickelt, um dieses Problem zu lösen, indem sie ein KI-Modell zur Mikroskopiebilderzeugung erstellen, um realistische Bilder einzelner Zellen zu erstellen, die dann als „synthetische Daten“ verwendet werden, um ein KI-Modell zu trainieren, um die Segmentierung einzelner Zellen besser durchzuführen.

Die neue Software ist in beschrieben ein neues Papier in der Zeitschrift veröffentlicht iScience. Das Projekt wurde vom Assistenzprofessor für Biomolekulartechnik Ali Shariati und seinem Doktoranden Abolfazl Zargari geleitet. Das Modell, genannt cGAN-Seg ist auf GitHub frei verfügbar.

„Die Bilder, die aus unserem Modell stammen, können zum Trainieren von Segmentierungsmodellen verwendet werden“, sagte Shariati. „In gewisser Weise machen wir Mikroskopie ohne Mikroskop, indem wir in der Lage sind, Bilder zu erzeugen, die den realen Bildern von Zellen in Bezug auf die morphologischen Details der einzelnen Zelle sehr nahe kommen. Das Schöne daran ist, dass sie dann herauskommen.“ des Modells sind sie bereits mit Anmerkungen und Beschriftungen versehen. Die Bilder weisen eine Menge Ähnlichkeiten mit echten Bildern auf, was uns dann ermöglicht, neue Szenarien zu generieren, die unser Modell während des Trainings nicht gesehen hat.

Bilder einzelner Zellen, die durch ein Mikroskop betrachtet werden, können Wissenschaftlern dabei helfen, mehr über das Verhalten und die Dynamik von Zellen im Laufe der Zeit zu erfahren, die Erkennung von Krankheiten zu verbessern und neue Medikamente zu finden. Subzelluläre Details wie die Textur können Forschern bei der Beantwortung wichtiger Fragen helfen, etwa ob eine Zelle krebsartig ist oder nicht.

Das manuelle Auffinden und Markieren der Grenzen von Zellen gegenüber ihrem Hintergrund ist jedoch äußerst schwierig, insbesondere bei Gewebeproben, bei denen ein Bild viele Zellen enthält. Es könnte mehrere Tage dauern, bis Forscher die Zellsegmentierung an nur 100 Mikroskopiebildern manuell durchführen.

Deep Learning kann diesen Prozess beschleunigen, aber zum Trainieren der Modelle ist ein erster Datensatz mit annotierten Bildern erforderlich – mindestens Tausende von Bildern sind als Grundlage für das Training eines genauen Deep-Learning-Modells erforderlich. Selbst wenn die Forscher 1.000 Bilder finden und mit Anmerkungen versehen können, enthalten diese Bilder möglicherweise nicht die Variation von Merkmalen, die unter verschiedenen experimentellen Bedingungen auftreten.

„Sie möchten zeigen, dass Ihr Deep-Learning-Modell in verschiedenen Proben mit unterschiedlichen Zelltypen und unterschiedlichen Bildqualitäten funktioniert“, sagte Zargari. „Wenn Sie Ihr Modell beispielsweise mit qualitativ hochwertigen Bildern trainieren, wird es nicht in der Lage sein, die Zellbilder mit geringer Qualität zu segmentieren. Im Mikroskopiebereich können wir selten einen so guten Datensatz finden.“

Um dieses Problem anzugehen, haben die Forscher ein generatives Bild-zu-Bild-KI-Modell erstellt, das aus einem begrenzten Satz annotierter, beschrifteter Zellbilder weitere generiert und dabei komplexere und vielfältigere subzelluläre Merkmale und Strukturen einführt, um einen vielfältigen Satz „synthetischer“ Bilder. Insbesondere können sie annotierte Bilder mit einer hohen Zelldichte erzeugen, die von Hand besonders schwer zu kommentieren sind und für die Untersuchung von Geweben besonders relevant sind. Mit dieser Technik können Bilder verschiedener Zelltypen sowie unterschiedliche Bildgebungsmodalitäten verarbeitet und generiert werden, beispielsweise solche, die mithilfe von Fluoreszenz oder histologischer Färbung aufgenommen wurden.

Zargari, der die Entwicklung des generativen Modells leitete, verwendete zur Erstellung realistischer Bilder einen häufig verwendeten KI-Algorithmus namens „Cycle Generative Adversarial Network“. Das generative Modell wird um sogenannte „Augmentationsfunktionen“ und ein „Style-Injecting-Netzwerk“ erweitert, das dem Generator hilft, eine Vielzahl hochwertiger synthetischer Bilder zu erstellen, die verschiedene Möglichkeiten zeigen, wie die Zellen aussehen könnten. Nach Kenntnis der Forscher handelt es sich hierbei um das erste Mal, dass Stilinjektionstechniken in diesem Zusammenhang eingesetzt wurden.

Anschließend wird dieser vom Generator erstellte vielfältige Satz synthetischer Bilder verwendet, um ein Modell zu trainieren, um die Zellsegmentierung an neuen, realen Bildern, die während Experimenten aufgenommen wurden, genau durchzuführen.

„Anhand eines begrenzten Datensatzes können wir ein gutes generatives Modell trainieren. Mithilfe dieses generativen Modells können wir einen vielfältigeren und größeren Satz annotierter, synthetischer Bilder generieren. Mithilfe der generierten synthetischen Bilder können wir ein gutes Segmentierungsmodell trainieren – Das ist die Grundidee“, sagte Zagari.

Die Forscher verglichen die Ergebnisse ihres Modells mithilfe synthetischer Trainingsdaten mit traditionelleren Methoden zum Trainieren von KI, um die Zellsegmentierung über verschiedene Zelltypen hinweg durchzuführen. Sie fanden heraus, dass ihr Modell im Vergleich zu Modellen, die mit herkömmlichen, begrenzten Trainingsdaten trainiert wurden, eine deutlich verbesserte Segmentierung erzeugt. Dies bestätigt den Forschern, dass die Bereitstellung eines vielfältigeren Datensatzes während des Trainings des Segmentierungsmodells die Leistung verbessert.

Durch diese verbesserten Segmentierungsfähigkeiten werden die Forscher in der Lage sein, Zellen besser zu erkennen und die Variabilität zwischen einzelnen Zellen, insbesondere zwischen Stammzellen, zu untersuchen. In Zukunft hoffen die Forscher, mit der von ihnen entwickelten Technologie über Standbilder hinaus Videos zu erstellen, die ihnen dabei helfen können, herauszufinden, welche Faktoren das Schicksal einer Zelle zu Beginn ihres Lebens beeinflussen, und ihre Zukunft vorherzusagen.

„Wir erzeugen synthetische Bilder, die auch in einen Zeitrafferfilm umgewandelt werden können, in dem wir die unsichtbare Zukunft der Zellen erzeugen können“, sagte Shariati. „Damit wollen wir sehen, ob wir in der Lage sind, die zukünftigen Zustände einer Zelle vorherzusagen, etwa ob die Zelle wachsen, wandern, sich differenzieren oder sich teilen wird.“

Mehr Informationen:
Abolfazl Zargari et al., Verbesserte Zellsegmentierung mit begrenzten Trainingsdatensätzen unter Verwendung von Cycle Generative Adversarial Networks, iScience (2024). DOI: 10.1016/j.isci.2024.109740

Bereitgestellt von der University of California – Santa Cruz

ph-tech