banner
Nachrichtenzentrum
Erstklassige After-Sales-Unterstützung

Maschinelles Lernen am Rande für KI

Feb 09, 2024

Scientific Reports Band 13, Artikelnummer: 4744 (2023) Diesen Artikel zitieren

2069 Zugriffe

1 Zitate

110 Altmetrisch

Details zu den Metriken

Die Multiplex-Erkennung von Biomarkern in Echtzeit ist entscheidend für eine empfindliche und genaue Diagnose am Einsatzort. Dieses Szenario stellt enorme Herausforderungen für die Erkennung und Identifizierung von Signalen unterschiedlicher Form und Qualität am Rande der Signal-Rausch-Grenze dar. Hier demonstrieren wir ein robustes Zielidentifizierungsschema, das ein Deep Neural Network (DNN) zur Multiplex-Erkennung einzelner Partikel und molekularer Biomarker nutzt. Das Modell kombiniert eine schnelle Wavelet-Partikelerkennung mit einer Kurzzeit-Fourier-Transformationsanalyse, gefolgt von einer DNN-Identifizierung auf einem KI-spezifischen Edge-Gerät (Google Coral Dev Board). Der Ansatz wird mithilfe der optischen Mehrpunktanregung von Klebsiella Pneumoniae-Bakterien-Nukleinsäuren validiert, die durch einen optofluidischen Wellenleiterchip fließen, der Fluoreszenzsignale unterschiedlicher Amplitude, Dauer und Qualität erzeugt. Amplifikationsfreies 3-fach-Multiplexing in Echtzeit wird mit hervorragender Spezifität, Sensitivität und einer Klassifizierungsgenauigkeit von 99,8 % demonstriert. Diese Ergebnisse zeigen, dass ein minimalistisches DNN-Design, das für mobile Geräte optimiert ist, einen robusten Rahmen für die genaue Erkennung von Krankheitserregern mithilfe kompakter, kostengünstiger Diagnosegeräte bietet.

Der Nachweis und die Identifizierung von Biomolekülen sind wesentliche Bestandteile diagnostischer Geräte im Bereich der Krankheitsbekämpfung. Die COVID-19-Pandemie hat den Einsatz von Heimtests zur Früherkennung und wiederholten Überwachung beschleunigt, und es ist zu erwarten, dass der Umfang und die Möglichkeiten der Point-of-Care-Analyse zunehmen werden. Zu den Herausforderungen zählen hier die Probenvorbereitung und Flüssigkeitshandhabung, Sensitivität und Spezifität, Datenerfassung und -verarbeitung, Portabilität und Konnektivität1,2. Verschiedene Mikro- und Nanotechnologien haben zu Sensoren geführt, die für die molekulare On-Chip-Diagnostik anwendbar sind. Beispielsweise wurde ein auf komplementären Metalloxid-Halbleitern (CMOS) basierender Biosensor mit einem nanomechanischen Membranbrückendesign3 eingeführt, um die Konzentration eines Phenytoin-Arzneimittels in einer flüssigen Probe mit einem mikroelektromechanischen (MEMS) Ansatz zu messen. Ein weiteres gutes Beispiel für die Point-of-Care-Diagnostik sind papierbasierte Analysegeräte (PADs). Sie haben sich im letzten Jahrzehnt aufgrund von Eigenschaften wie niedrigen Kosten, Biokompatibilität, einfachem Design und einfacher Verwendung sowie der Flexibilität bei der Suche nach erschwinglichen Einweg-Testeinheiten weiterentwickelt4,5,6. Während die Probenanalyse in wenigen Minuten durchgeführt werden kann, weisen diese Geräte eine relativ hohe Nachweisgrenze (LOD > µM) auf, was für die hochempfindliche Nukleinsäureanalyse eine Amplifikations- und Kultivierungszeit (normalerweise mehrere Stunden) erfordert. Unter den amplifikationsbasierten Techniken ist die quantitative Polymerasekettenreaktion (qPCR) aufgrund ihrer sehr hohen Empfindlichkeit (~ 100 Kopien/ml) und Vielseitigkeit immer noch die Goldstandardmethode in den meisten Labortestinstrumenten7,8,9. Eine neuere Einröhrentechnik mit einem relativ kostengünstigen und einfachen Verstärkungsprozess namens Loop-mediated-isothermal-amplification (LAMP) hat im letzten Jahrzehnt an Popularität gewonnen10,11. Bei einigen Anwendungen kann eine weitere Vereinfachung des Assays durch Eliminierung von Amplifikationsschritten und Integration im Chip-Maßstab wünschenswert sein. Im Einzelmolekül-Empfindlichkeitsbereich haben sich Nanoporengeräte als elektrische Biosensoren als markierungsfreie und amplifikationsfreie Diagnosewerkzeuge mit ultrahoher Empfindlichkeit als vielversprechend erwiesen12,13. Die fluoreszenzbasierte Einzelmolekül-Detektionsempfindlichkeit wurde in optofluidischen Wellenleitergeräten demonstriert und ermöglichte den amplifikationsfreien Nachweis von Ebola-Virus (EBOV)-RNAs mit niedrigen Nachweisgrenzen (LoD) bis hinunter zu 90 aM14,15. Die Multiplexanalyse wurde auf diesen optofluidischen ARROW-Einzelmolekülsensoren implementiert, indem spektral und/oder räumlich abhängige Mehrpunkt-Anregungsmuster am Ausgang von Multimode-Interferenzwellenleitern (MMI) erzeugt wurden16,17. Das räumliche Multi-Spot-Muster führt zu einem zeitlichen Multi-Peak-Signal (siehe Abb. 1c), das leicht durch Signalverarbeitungsalgorithmen identifiziert werden kann, die den charakteristischen Zeitunterschied ∆t zwischen Fluoreszenzpeaks eines einzelnen Ziels erkennen. Der bis zu 7-fache Multiplex-Nachweis von Nukleinsäuren wurde mithilfe der spektralen, räumlichen und geschwindigkeitsabhängigen Übersetzung des Anregungsmusters in zeitabhängige Multi-Peak-Fluoreszenzsignale nachgewiesen17,18. Die Verwendung bewusst strukturierter Signale wurde auch in anderen Zusammenhängen verwendet. Beispielsweise wurde eine telekommunikationsähnliche Signalkodierung in der Zellzytometrie mithilfe der elektrischen Widerstandsimpulsmessung implementiert, bei der das Muster der von fließenden Zellen erzeugten Ereignisse von der Anordnung der Elektroden abhängt und digitale Signale von verschiedenen Kanälen mit sehr hoher Genauigkeit dekodiert19,20. 21. Ein elektrischer Biosensor mit mehreren Fingerelektroden wurde untersucht, um die Auswirkung einer erhöhten Elektrodenanzahl auf das Impedanz-Signal-Rausch-Verhältnis (SNR)22,23,24,25 zu demonstrieren. Bei der Kodierung von Signalen in Biosensoranwendungen können kompliziertere Informationskodierungstechniken wie Multiplexing, Fehlerkorrektur und Identifizierung23,26,27 genutzt werden, wobei in jüngster Zeit ein Trend zu maschinellen Lerntechniken besteht28. Die Optimierung der gewählten Signalanalysemethode ist von entscheidender Bedeutung, da reale Gerätemängel dazu neigen, die Signalqualität und damit die Zuverlässigkeit der Signalanalyse zu beeinträchtigen. Im Fall eines optofluidischen MMI-Wellenleitergeräts können dies herstellungsbedingte Variationen in MMI-Anregungsmustern, Geschwindigkeitsvariationen aufgrund der Fluiddynamik fließender Ziele und Signal-Rausch-Verhältnis-Variationen sein, die durch eine Reihe von Fluoreszenzsignalintensitäten verursacht werden. Diese Arten von Nichtidealitäten kommen zu den Einschränkungen der Signalqualität bei Point-of-Care-Geräten hinzu, bei denen die Komponenten kostengünstig hergestellt werden sollten und Umweltfaktoren häufig die Signalqualität beeinträchtigen. Diese intrinsischen Herausforderungen können durch einen leistungsstarken Signalanalyseansatz gemildert werden, der in Echtzeit arbeiten kann.

Versuchsaufbau und Datensatzvorbereitung. (a) Fluoreszenzsignale werden von markierten Klebsiella Pneumoniae-Bakterien gesammelt, die durch einen zielspezifischen Sandwich-Assay auf Mikrokügelchen eingefangen wurden. Der Einschub zeigt das Sandwich-Design der Fluoreszenzsonden, das sowohl aus grünen als auch roten Farbstoffen besteht. Die Probe wird außerhalb des Chips vorbereitet und fließt mithilfe eines durch Unterdruck angetriebenen Flusses in den ARROW-Chip. Das am Schnittpunkt des MMI-WG-Analytkanals gebildete Multimode-Interferenzmuster (MMI) ist wellenlängenabhängig und definiert die Signaturen verschiedener Signale. Das Experiment erfolgt in drei Schritten, je nachdem, ob die Perlen durch den roten Laser, den grünen Laser oder beide Farben angeregt werden. Zur Erstellung der drei genannten Stufen werden Kombinationen mechanischer Verschlüsse (MS1 und MS2) verwendet. Fluoreszenzsignale werden außerhalb des Chips durch einen Pentabandpassfilter (PBPF) gesammelt, um Anregungsphotonen zu entfernen. Emissionsphotonen werden dann von einem Einzelphotonen-Zählmodul erfasst und auf einem PC aufgezeichnet. (b) Die aufgezeichnete Datenspur (Trainingssignal) wird vom PCWA-Programm analysiert, um Ereignisse zu erkennen. Ereignisse werden zugeschnitten und zur Datensatzvorbereitung gespeichert. Orte erkannter Ereignisse werden mit blauen Markierungen angezeigt. Die Ereigniserkennung und das Zuschneiden erfolgen automatisch. c Beispielveranstaltungen aus drei Veranstaltungsgruppen.

Kürzlich haben wir einen neuen Ansatz zur parallelen Cluster-Wavelet-Analyse (PCWA) eingeführt, der Ereignisse in einer Zeitreihe, wie z. B. Fluoreszenz einzelner Moleküle, mit hoher Genauigkeit und Geschwindigkeit identifizieren kann29. Allerdings sinken die Analysegeschwindigkeit und -genauigkeit bei der Multiplex-Detektion aufgrund der Notwendigkeit, die benutzerdefinierten Wavelet-Funktionen vor der Analyse für verschiedene Ziele abzustimmen, was zusätzlichen Aufwand für die Variation der Fluoreszenzsignaleigenschaften von Chip zu Chip verursacht. Die Erweiterung von PCWA durch maschinelles Lernen (ML) kann dieses Problem lösen und zu robusten Multiplex-Diagnosen führen.

Ideen und Theorien zu maschinellem Lernen und künstlicher Intelligenz (KI) gibt es schon seit vielen Jahrzehnten, wenn nicht sogar einem Jahrhundert, wobei das Modell nichtlinearer Neuronen bereits Mitte der 1990er Jahre ein Netzwerk bildete30 und mit besseren Lerntheorien zu einem funktionalen Werkzeug bei der Mustererkennung wurde wird Ende der 1990er Jahre entwickelt31,32,33. Auch wenn das ML-Konzept nicht neu ist, ist das Gebiet in den letzten zwei Jahrzehnten explodiert, als groß angelegte Hochleistungsberechnungen möglich wurden, um immer größere Datenmengen zu verarbeiten. KI ist zu einem Teil unseres täglichen Lebens geworden und wird in zahlreichen Bereichen eingesetzt, darunter Landwirtschaft, Umweltstudien, autonome Fahrzeuge, Wirtschaft, Marketing, Arzneimittelentwicklung, Unterhaltung und medizinische Diagnose34,35,36,37,38,39,40, 41,42,43. In der biomedizinischen Diagnostik wurden auf verschiedenen Ebenen, von groß angelegten Bevölkerungsdaten bis hin zur sensorischen Datenanalyse, durch künstliche Intelligenz unterstützte Methoden entwickelt, die die Vorteile des neuartigen maschinellen Lernens gegenüber klassischen Techniken unterstreichen44,45,46.

Hier stellen wir ein Full-Stack-KI-gestütztes Framework vor, das in eine Multiplex-Erkennungsplattform integriert ist, um Biomoleküle zu erkennen und zu identifizieren. Seine Fähigkeiten werden an einem optofluidischen MMI-Wellenleitergerät zur Multiplex-Detektion von fluoreszenzmarkierten Biomolekülen demonstriert16. Das System wird durch Analyse von drei kombinatorischen Mehrfarbensignalen von repräsentativen Plasmiden arzneimittelresistenter Klebsiella Pneumoniae-Bakterien evaluiert. Im Vergleich zu früher verwendeten Techniken werden hervorragende Erinnerung und Genauigkeit beobachtet. Das in Echtzeit ausgeführte Erkennungsframework konnte 93,8 % der Ereignisse mit einer Klassifizierungsgenauigkeit von 99,8 % erkennen. Anschließend wurde ein erschwingliches tragbares KI-spezifisches Entwicklungsboard (Google Coral Dev Board) ausgewählt, um die Kompatibilität des optofluidischen Diagnosesystems mit den modernsten Verarbeitungsschemata zu demonstrieren47. Die in diesem Entwicklungsboard verfügbare Edge-TPU (Tensor Processing Unit) ist ein Coprozessor, der vier Tera-Operationen pro Sekunde (TOPS) mit einem Stromverbrauch von 500 mW/TOPS48 ausführen kann. Abschließend haben wir die Timing-Leistung und die Echtzeit-Probenanalysefähigkeit des Frameworks bewertet. Dieses System eröffnet neue Möglichkeiten für ultraschnelle Point-of-Care-Geräte für diagnostische und andere Anwendungen.

Unser Framework kann auf jedes Zeitreihensignal angewendet werden, das unterschiedliche Zeitsignaturen für unterschiedliche Ziele aufweist. Wir führen es mithilfe eines Fluoreszenzdetektionsassays für Klebsiella Pneumoniae-Bakterien-Nukleinsäure-Biomarker ein. Ein Sandwich-Design-Assay bindet Ziel-DNA-Stränge an eine Pulldown-Sequenz auf einem mit Streptavidin beschichteten Mikrokügelchen, woraufhin sie mit fluoreszierenden Sonden in zwei Farben markiert werden (Abb. 1a). Der Assay ist daher sowohl gegenüber roten als auch grünen Anregungswellenlängen empfindlich und ermöglicht je nach verwendeten Anregungswellenlängen drei mögliche Fluoreszenzsignale (nur Rot, nur Grün und Rot + Grün). Ziele werden durchströmt und auf einem ARROW-basierten Optofluidiksystem erfasst, wie in Abb. 1a dargestellt. Die Empfindlichkeit (Nachweisgrenze) dieses flussbasierten optofluidischen Fluoreszenzassays beträgt 90 aM15. Zwei Laser mit 738 nm und 556 nm sind in eine Singlemode-Glasfaser eingekoppelt, und zwei mechanische Verschlüsse, MS1 und MS2, sind in den Lichtwegen platziert, um Farben unabhängig voneinander ein- und auszuschalten. Das Experiment wird in drei Stufen durchgeführt: erstens mit nur 738-nm-Anregung (MS1 = Offen, MS2 = geschlossen), zweitens mit nur 556 nm (MS1 = geschlossen, MS2 = offen) und drittens mit aktiven Anregungen bei 738 nm und 556 nm gleichzeitig (MS1 = Offen, MS2 = Offen). Die Probe mit den fluoreszierenden Zielmolekülen wird in den Chip eingebracht, indem an einem der Behälter Unterdruck angelegt und die Probe anschließend mit einer Pipette in den anderen Behälter eingeführt wird. Die vom Chip aufgezeichnete Fluoreszenzzeitspur wird auf einem Desktop-Computer gespeichert (Abb. 1b). Der Multimode-Interferenzanregungswellenleiter erzeugt unterschiedliche Punktmuster für die beiden Wellenlängen im sich kreuzenden Fluidkanal, wobei die Anzahl der Punkte N durch Gleichung (1) bestimmt wird. (1)

Dabei ist λ die jeweilige Eingangswellenlänge, w die effektive Wellenleiterbreite, nC der Brechungsindex nC und L die Länge des MMI-Wellenleiters49. Diese räumlichen Anregungsmuster werden in den Zeitbereich umgewandelt, wenn Partikel mit einer bestimmten Geschwindigkeit und Fluoreszenz durch den Kanal fließen. Ereignisse der ersten Stufe haben sechs Spitzen, Ereignisse der zweiten Stufe haben acht Spitzen und Ereignisse der dritten Stufe enthalten sowohl 6 als auch 8 Spitzen. Wir haben diese Ereignisse benannt, indem wir das Wort KPneu in zwei Teile geteilt haben (KPn für sechs Peaks und eu für acht Peaks), um darzustellen, welche Sonde bei dem erkannten Ereignis angeregt wurde, und werden diese Bezeichnungen im gesamten Artikel verwenden. Dieser Ansatz erzeugt effektiv einen 3-fach-Multiplex-Assay mit drei unterschiedlichen Signalformen, die der Auswahl der Anregungswellenlänge entsprechen. Abbildung 1c zeigt Beispielereignisse für jede Stufe, die die unterschiedlichen Fluoreszenzmuster und die in dieser Konfiguration vorhandenen Nichtidealitäten veranschaulichen. Dazu gehören endliche Hintergrundsignale, Schwankungen der Spitze-zu-Spitze-Amplitude aufgrund von Herstellungsmängeln und unterschiedliche Spitze-zu-Spitze-Abstände Δt aufgrund von Geschwindigkeitsschwankungen aufgrund von Druckschwankungen und Position im Kanal. In der Geschwindigkeitsverteilung von 1544 detektierten Partikeln wird ein Variationskoeffizient von 44,85 % beobachtet. Um diese Nichtidealitäten zu minimieren, müssten die Produktionskosten erhöht werden, um die Präzision der Mikrofabrikationsprozesse zu erhöhen. Einige Nichtidealitäten, wie z. B. Schwankungen der Strömungsgeschwindigkeit des Fluids im Querschnitt, sind einfach auf die Art der verwendeten Mikrofluidikkanäle zurückzuführen. Point-of-Care-Geräte, die kostengünstig und kompakt sein sollen, müssen immer mit Signalmängeln umgehen. Eine natürliche Strategie besteht daher darin, sich an diese Unzulänglichkeiten anzupassen, indem man maschinelles Lernen einsetzt, um das Signalmuster für ein bestimmtes Gerät zu erkennen und Fluoreszenzereignisse mit guter Empfindlichkeit und Genauigkeit zu erkennen und zu identifizieren.

Der erste Schritt in unserem Signalerkennungsprozess besteht darin, Ereignisse aus dem aufgezeichneten Fluoreszenzsignal mithilfe einer schnellen, auf Multiskalen basierenden kontinuierlichen Wavelet-Technik namens PCWA29 mit Multi-Spot-Gaussian (MSG)-Basisfunktionen zu erkennen, um die charakteristischen Signale für Ereignisse in abzugleichen jede Stufe (siehe ergänzende Abbildung S1a). Nach der Lokalisierung von Ereignissen in der Zeitspur wird eine Sammlung zugeschnittener Fenster mit 1024 Datenpunkten, die sich auf den Zeitort eines einzelnen Ereignisses konzentrieren, verwendet, um den Datensatz für die Analyse und Klassifizierung neuronaler Netzwerke zu erstellen. Falsch identifizierte oder überlappende Ereignisse werden mithilfe einer mehrstufigen Signalqualitätsprüfung aus dem Datensatz entfernt, um das Training des neuronalen Netzwerkmodells zu verbessern (siehe ergänzende Abbildung S2). Die gesamte Ereigniserkennung, das Zuschneiden, Filtern und Kommentieren erfolgt automatisiert und erfordert keine Benutzerbeteiligung.

Die Hauptkomponenten des tiefen neuronalen Netzwerks sind in (Abb. 2a, rechts) dargestellt. Fluoreszenzereignisse mit zeitlichen Signaturen, die das MMI-Muster darstellen, weisen für jede Ereignisklasse einzigartige Zeit-Frequenz-Merkmale auf, die auch von der Geschwindigkeit der fließenden Partikel abhängen. Daher nutzen wir eine Kurzzeit-Fourier-Transformation (STFT), die in Sprach-, EEG- und EKG-Daten verwendet wurde, um Zeit-Frequenz-Merkmale zu extrahieren50,51,52,53. Das Eingangssignal wird zunächst in ein 128 × 128 Pixel großes Bild umgewandelt, das die Größe der STFT des Ereignisses ausdrückt (Abb. 2a, links). Für diese Anwendung wird ein DNN-Modell von Grund auf entworfen, erstellt und getestet, mit dem Ziel minimaler Komplexität und hoher Kompatibilität mit der Ziel-Inferenz-Edge-Plattform. Zunächst wird das Eingabebild in ein 64 × 64 Pixel großes Bild heruntergesampelt. Zwei kaskadierte Faltungsschichten werden eingesetzt, um einen Funktionspool zu extrahieren. Schließlich wird eine dichte Schicht mit einer Softmax-Aktivierungsfunktion verwendet, um Eingabebilder in drei Ausgabeklassen zu klassifizieren, die der roten, grünen und rot-grünen Fluoreszenz entsprechen. Das Modell enthält nur 6454 Parameter (6436 trainierbar), was um Größenordnungen niedriger ist als bei gängigen Bildklassifizierungsmodellen54. Bei dem Modell handelt es sich um ein kleines anwendungsspezifisches Modell, das an das LeNet CNN-Modell angelehnt ist, das zur Erkennung handgeschriebener Ziffern verwendet wurde55. Das DNN-Modell wird mithilfe einer überwachten Lerntechnik anhand eines Datensatzes von Spektrogrammen trainiert, die für Ereignisse berechnet werden, die aus der Trainingszeitspur erkannt wurden (siehe Abb. 2c). Da die Beschriftung einfach und automatisch auf der Grundlage der „Ein“- und „Aus“-Zustände der Laser erfolgen kann, war überwachtes Lernen hier die am besten geeignete Lerntechnik.

Tiefes neuronales Netzwerk und Datensatz. (a) Das DNN-Modell besteht aus zwei conv2d-Schichten, gefolgt von einem max_pooling2d und einer Batch-Normalisierung dazwischen. Ein Klassifikationslayer (dicht) ordnet extrahierte Features aus vorherigen Layern den Ausgabeklassen zu. Das Diagramm auf der linken Seite zeigt, wie das Eingangssignal zunächst mithilfe von STFT in ein 128 × 128 Pixel großes Spektrogramm umgewandelt wird. (b) Der Fortschritt des Trainings mit Genauigkeits- und Verlustmetriken entwickelt sich über 100 Epochen. Das Training wird in der 100. Epoche gestoppt, um eine Überanpassung zu verhindern. Nach 90 Epochen bleibt der Verlustwert unter 0,1. c Beispiele für Ereignisse aus dem Trainingsdatensatz. Spektrogramme und die entsprechenden beschnittenen Zeitereignisse werden zusammen angezeigt, aber nur die Spektrogramme und Beschriftungen der Ereignisse werden während des Trainings in das DNN-Modell eingespeist.

Das Training erfolgte durch Minimierung der kategorialen Kreuzentropieverlustfunktion L, definiert durch Gl. (2). Um den Verlust zu minimieren, wurde eine Methode des stochastischen Gradientenabstiegs (SGD) unter Verwendung des Adam-Optimierers56 mit den von TensorFlow festgelegten Standard-Lernparametern (Lernrate = 0,001, β1 = 0,9, β2 = 0,999, ε = 10−7) angewendet.

Dabei ist pi,c der Wahrscheinlichkeitswert der Klasse c für Stichprobe i, der von einer Softmax-Schicht des Klassifikators zurückgegeben wird. yi,c ist die wahre (One-Hot)-Beschriftung jeder Klasse für Probe i und N = 90 ist die Größe des während des Trainings verwendeten Minibatchs. Die Softmax-Funktion wird durch Gleichung definiert. (3):

Nach 90 Epochen fällt der Verlustwert unter 0,1 und wir haben bei 100 Epochen angehalten, um eine Überanpassung zu verhindern (Abb. 2b). Wir haben festgestellt, dass ein Probenvolumen von ca. 250 nL (ungefähre Konzentration 106 Perlen/ml) genügend Ereignisse (ca. 300 Ereignisse/Klasse) enthält, um das Modell zu trainieren, und dass der gesamte Trainingsschritt auf einem einzelnen Desktop-Computer weniger als 15 Minuten dauert.

Als KI-Beschleuniger-Hardware für das System wird ein Google Coral Dev Board57 ausgewählt. Es enthält einen System-on-Module (SoM)-Tensor-Processing-Unit-Chip (Edge-TPU) sowie einen ARM-basierten Mikrocomputer mit Raspberry-Pi-Formfaktor und wichtigen Konnektivitätsmodulen58. Derzeit ist dieses Gerät nur auf die Inferenzierung beschränkt, was bedeutet, dass der Trainingsschritt auf anderen Plattformen (z. B. Desktop, Cloud) durchgeführt werden muss. Das Modell ist in TensorFlow59 implementiert, das die beste Kompatibilität mit dem Coral-Board aufweist. Das trainierte DNN-Modell (2D-DNN) auf einem Desktop-Computer (32-Gleitkomma) wird über ein Transfer-Learning-Verfahren60 in ein quantisiertes 8-Bit-Ganzzahlmodell kompatibel mit Edge-TPU (2D-DNN-EdgeTPU) umgewandelt. Ein Testdatensatz aus einem Testexperiment wird auf die gleiche Weise wie der Trainingsdatensatz erstellt, um sicherzustellen, dass keiner der Klassifikatoren Testereignissen ausgesetzt war. Die Leistungsbewertung (Abb. 3a) zeigt die Betriebskennlinie (ROC) des Empfängers für das 2D-DNN sowie den herkömmlich verwendeten Klassifikator für die Multiplex-Fluoreszenzdetektion, Shift-and-Multiply (SaM). Die ROC-Kurve visualisiert die Richtig-Positiv- und Falsch-Positiv-Raten, d. h. Sensitivität und Spezifität, für einen bestimmten Auswahlschwellenwert. Das 2D-DNN-Modell übertrifft SaM mit einer nahezu perfekten Fläche unter der Kurve (AUC ≅ 1) und nur wenigen falsch identifizierten Ereignissen, die in den Verwirrungsmatrizen visualisiert werden (Abb. 3b). Dies zeigt, dass unser Ansatz in der Lage ist, Fluoreszenzsignale einzelner Partikel korrekt zu finden und zu klassifizieren. Dies ist das erste Hauptergebnis dieses Artikels.

Leistungsvergleich. (a) ROC-Diagramm für die untersuchten Klassifikatoren. Das DNN-Modell auf einem PC (2D-DNN) oder Coral (2D-DNN-EdgeTPU) übertrifft den zuvor verwendeten unbeaufsichtigten Klassifikator SaM. (b) Verwirrungsmatrizen für verschiedene Klassifikatoren heben nur 3 bzw. 4 Ereignisse hervor, die für die Modelle 2D-DNN bzw. 2D-DNN-EdgeTPU falsch klassifiziert wurden. SaM kann eu- und KPneu-Ereignisse aufgrund ihres geringen Signal-Rausch-Verhältnisses (SNR) nicht klassifizieren. (c) Die auf Eingaben und Ausgaben verschiedener Klassifikatoren angewendete Dimensionsreduzierung erfolgt mithilfe von PCA und t-SNE. Eingabedaten bilden bei linearen (PCA) und nichtlinearen (t-SNE) Methoden keine Cluster. SaM, das üblicherweise für die MMI-Ereignisklassifizierung verwendet wird, klassifiziert Ereignisse aus verschiedenen Klassen schwach. Das vorgeschlagene 2D-DNN-Modell zeigt eine robuste Klassifizierungsleistung, die sich sowohl in PCA- als auch in t-SNE-Streudiagrammen mit klar getrennten Clustern bemerkbar macht. Das übertragene 2D-DNN-Modell, das auf dem Edge-Gerät mit 8-Bit-Integer-Quantisierung läuft, ist vergleichbar mit dem 32-Bit-Float-Modell von 2D-DNN.

Die Dimensionsreduktion als weit verbreitetes Werkzeug zur Datenvisualisierung, insbesondere bei hochdimensionalen Daten, hilft bei der Suche nach einer Beziehung oder aussagekräftigen Strukturinformationen in einem verständlichen niedrigerdimensionalen Raum61. Die Hauptkomponentenanalyse (PCA) als die gebräuchlichste lineare und t-verteilte stochastische Nachbareinbettung (t-SNE) als andere beliebte nichtlineare Dimensionsreduktionstechniken werden hier verwendet, um zu vergleichen, wie jedes Klassifikatormodell Ereignisse in Cluster gruppieren kann61,62, 63,64,65. Sowohl PCA als auch t-SNE finden keine Strukturinformationen und bilden Cluster, wenn sie auf die Roheingangssignale angewendet werden (Abb. 3c, linke Spalte). Gleichzeitig kann SaM einige der Ereignisse trennen, wenn es durch nichtlineare t-SNE-Einbettung visualisiert wird. 2D-DNN (beide Versionen) bildet hochdimensionale Eingangssignale in einen linear und nichtlinear trennbaren dreidimensionalen Raum ab (Abb. 3c). Es gibt einen vernachlässigbaren Rückgang der Leistung des 2D-DNN-EdgeTPU-Klassifikators im Zusammenhang mit dem Präzisionsabfall durch den Transfer-Lernschritt. Die durchschnittliche Inferenzzeit auf dem Coral-Board mit ARMx64-CPU beträgt 4,14 ms, während durch die Verwendung des Edge-TPU-Beschleunigers eine 2-fache Beschleunigung beobachtet wird, was zu einer durchschnittlichen Inferenzzeit von 2,07 ms führt. Die Schlussfolgerung erfolgt auf Ereignissen mit einer Fenstergröße von 10,24 ms, was die Klassifizierungsleistung in Echtzeit anzeigt.

Um ein vollständiges Echtzeit-Signalanalysesystem zu erstellen, haben wir ein Framework zur Ereigniserkennung und -klassifizierung entwickelt (Abb. 4b), das sensorische Datenerfassung (DAQ), Ereigniserkennung, Vorverarbeitung, DNN-Inferenz, Datenbankverwaltung und Visualisierungsprozesse in einem einzigen System integriert tragbares Gerät mit geringem Stromverbrauch. Die einzelnen Blöcke werden in unabhängige Prozesse und Threads verteilt, um parallel zu laufen, was notwendig ist, um mit begrenzten Ressourcen Echtzeitleistung zu erreichen. Das Zählen einzelner Biomarker-Ziele in Echtzeit kann die diagnostische Genauigkeit verbessern, indem es direkt nach dem Start einen besseren Einblick in den Test bietet als bei der herkömmlichen Wartezeit und dem endgültigen Testergebnis.

Erkennung am Rand. (a) Echtzeitleistung des Modells, das auf Edge-TPU (Coral Dev Board) läuft. Durch die Verwendung einer in (b) gezeigten Pipeline-Architektur gibt es nur eine Verzögerung für den ersten Stapel, und der Rest wird ohne zusätzliche Verzögerung verarbeitet. Die 45-Grad-Steigung zeigt die Echtzeitberechnung der Ergebnisse an. Die Eingabedaten werden in Blöcken verarbeitet, die in einer Warteschlange zwischengespeichert werden. Dies ist in der Nebendarstellung sichtbar, in der mehrere Ereignisse gleichzeitig aufgedeckt werden. (b) Ein vereinfachtes Blockdiagramm, das die wesentlichen Blöcke des Pipeline-Datenverarbeitungsrahmens zeigt. Einige Blöcke, z. B. DAQ, PCWA und STFT, werden mithilfe des Multiprocessing-Pakets von Python parallel ausgeführt. Von 489 erkannten Ereignissen auf der Edge-TPU werden 485 Ereignisse durch manuelle Inspektion bestätigt. Von 488 Ground-Truth-Ereignissen wurden 485 korrekt lokalisiert und 484 klassifiziert, was einer Genauigkeit von 99 % entspricht. (c) Entwickelte Dash-App, die auf dem Coral Dev Board läuft. Daten des Sensors mit identifizierten Ereignissen werden auf unterschiedliche Weise visualisiert. Das Dashboard bietet einen guten Einblick in die analysierte Probe in Echtzeit.

Die Eingabedatenspur wird zunächst in einer Warteschlange mit Blöcken fester Länge gepuffert und dann mit einem einzelnen generischen rechteckigen Wavelet an den PCWA-Ereignisdetektorprozess66 übergeben (ergänzende Abbildung S1b). Standorte erkannter Ereignisse werden verwendet, um zugeschnittene Fenster aus der Rohdatenspur zuzuschneiden und an den STFT-Block zu senden, der dann an eine andere Warteschlange gesendet wird, um vom DNN-Modell klassifiziert zu werden. Wie in Abb. 4a dargestellt, ist das Coral Dev Board in der Lage, Ereignisse anhand der Fluoreszenzdatenspur in Echtzeit zu identifizieren. Dies ist das zweite Hauptergebnis dieser Arbeit.

Die Verarbeitung des ersten Ereignisstapels dauert mehrere zehn Millisekunden, und aufgrund der Pipeline-Architektur werden die verbleibenden Stapel ohne weitere Verzögerung verarbeitet (Steigung von 45° für Laufzeit im Vergleich zum Ort der Ereigniszeit). Verarbeitete Stapel sind im (Einschub von Abb. 4a) als Gruppe von Ereignissen sichtbar, die gleichzeitig mit demselben Laufzeit-Tag zurückgegeben werden. Tabelle 1 fasst die Erkennungsrate und Genauigkeitsmessungen des Frameworks zusammen. Die Erkennungsrate wird auf der Grundlage einer manuellen Inspektion von Ereignissen berechnet, und die Klassifizierung wird anhand des Ereignisorts in der Fluoreszenzdatenverfolgungsphase überprüft. Die eingegebene Datenspur und der Ort erkannter Ereignisse mit zusätzlichen Informationen, z. B. Zieltyp, Geschwindigkeit und Klassifizierungswert, werden auf einem minimalen Live-Dashboard angezeigt. Ein Balkendiagramm wird verwendet, um die Anzahl der erkannten Ereignisse für jeden Zieltyp im Verlauf des Experiments anzuzeigen (Abb. 4c). Das Dashboard läuft in einem lokalen Netzwerk, ohne dass Cloud-Ressourcen erforderlich sind. Dieses Schema ist eine hervorragende Praxis, um aktuelle Datenschutzbedenken im Zusammenhang mit Cloud-basierten Datenverarbeitungsdiensten auszuräumen47.

Wir haben ein Framework für die amplifikationsfreie, multiplexierte, KI-gestützte Erkennung von Krankheitserregern im laufenden Betrieb eingeführt. Der Einsatz eines auf einem neuronalen Netzwerk basierenden maschinellen Lernalgorithmus ermöglicht die Identifizierung und Klassifizierung von Fluoreszenzsignalen unter realistischen, nicht idealen Bedingungen. Im Vergleich zur herkömmlich verwendeten Multiplex-Einzelmolekül-Identifizierungstechnik (Shift-and-Multiply, SaM) weist die Klassifizierungsgenauigkeit unseres DNN-Modells eine um über 40 % bessere ROC-AUC-Metrik auf und läuft gleichzeitig schnell genug, um eine Klassifizierung in Echtzeit durchzuführen. Wir haben gezeigt, dass herkömmlich anspruchsvolle Datenverarbeitungsaufgaben wie die Ereigniserkennung und -klassifizierung mit sehr hoher Auflösung und mehreren Maßstäben jetzt auf viel kleineren Geräten mit einem sehr effizienten neuronalen Netzwerkmodell durchgeführt werden können, das nur wenige tausend Parameter enthält. Die Analyse sensornaher Endpunktdaten hat sich im Hinblick auf den Energie- und Netzwerklastaufwand für die Endpunkt-Cloud-Kommunikation sowie Datenschutz- und Sicherheitsbedenken als vorteilhaft erwiesen47,67. Unser Framework löst ähnliche Probleme, indem es die Vorteile eines KI-spezifischen Edge-Geräts mit einer On-Demand-Inferenzstrategie nutzt. Das effiziente neuronale Netzwerkmodell führt die Inferenz nur aus, wenn über den PCWA-Ereigniserkennungsprozess ein Ereignis in der Zeitspur erkannt wird. Derzeit ist das Coral Dev-Board nicht in der Lage, das Modell zu trainieren und erfordert für Trainings- und Modellübertragungsschritte einen Desktop-Computer. Wir glauben, dass diese Einschränkung durch zukünftige Updates der Hardware und Bibliotheken oder durch die Nutzung eines Cloud-basierten Servers für diese spezielle Aufgabe behoben werden kann. Eine weitere aktuelle Einschränkung ist die Obergrenze des Konzentrationsbereichs; Genauer gesagt müssen die Ereignisse auf der Zeitachse voneinander beabstandet sein. Hochkonzentrierte Lösungen können leicht mit dem Puffer verdünnt werden, allerdings mit der Einschränkung, dass die Verdünnung das Probenvolumen und die Testzeiten erhöht. Zukünftige Arbeiten werden dieses Problem im Zusammenhang mit der Multiplex-Detektion mit einer Empfindlichkeit bis hin zu einzelnen molekularen Biomarkern angehen14,68,69,70.

Der ARROW-basierte Fluoreszenz-Einzelmolekül-Detektionsaufbau ist in (Abb. 1a) dargestellt. Zwei Laser mit 738 nm (Ti:Sapphire, Del Mar Photonics) und 556 nm (SSD Nd:YAG, Shanghai Dream Laser Technology Co.) werden mithilfe eines 60-mm-Lasers in eine Singlemode-Glasfaser (F-SA, Newport) eingekoppelt × Mikroskopobjektiv (Newport). Ein Paar modifizierter PC-Kühlventilatoren werden als mechanische Verschlüsse (MS1, MS2) verwendet, um die optischen Pfade für jede Farbe zu schließen/zu öffnen. Der optofluidische Chip wird mit doppelseitigem Klebeband auf einer 3D-gedruckten, maßgeschneiderten Bühne montiert, und die beiden zylindrischen Flüssigkeitsreservoirs aus Messing werden mit Wachs an die Flüssigkeitskanalenden geklebt. Die Vakuumleitung ist mit dem Auslassreservoir verbunden, um einen Unterdruck für den Probenfluss im ARROW-Chip bereitzustellen. Das Fluoreszenzsignal der markierten Ziele wird durch den Sammelwellenleiter geleitet und von der Seitenfläche durch ein 60-fach-Objektiv (Newport) erfasst. Das Anregungslicht wird dann durch einen optischen Pentabandpassfilter (FF01-440/521/607/694/809-25, Semrock) entfernt, bevor das gesammelte Licht mit einem Multimode-Glasfaser-Patchkabel mit FC-Stecker gekoppelt wird. Ein Einzelphotonen-Zählmodul (SPCM-AQRH, Excelitas Technologies) wandelt Fluoreszenzphotonen in elektrische Impulse um, und eine zeitkorrelierte Einzelphotonen-Zählplatine (TCSPC) (TimeHarp 260 nano, PicoQuant) zeichnet zeitmarkierte Photonenereignisse auf dem Computer auf Speicherplatte.

10 µL von 3 µM synthetischen Nukleinsäuresträngen (entsprechend antibiotikaresistentem bakteriellem Ziel) werden mit 10 µL von 10 µM zielspezifischen Fluoreszenzsonden-Oligomeren [IDT DNA Inc.] gemischt (siehe Ergänzungstabelle S1). Das Endvolumen der Ziel-Sonden-Mischung wird durch Zugabe von 1XT50-Puffer auf 30 µL gebracht. Die Ziel-Sonden-Mischung wird 5 Minuten lang auf 95 °C erhitzt und 3 Stunden lang inkubiert. Mit Streptavidin beschichtete Magnetkügelchen [DynabeadsTM] mit 1 µm Durchmesser werden mit zielspezifischen biotinylierten Einfangoligomeren funktionalisiert. Nach der Inkubation wird die hybridisierte Ziel-Sonden-Struktur 1 Stunde lang mit dem funktionalisierten Magnetkügelchen in einem Rotatormischer gemischt. Ein unter dem Fläschchen gehaltener Magnet wird verwendet, um die Magnetkügelchen mit dem eingefangenen Ziel-Sonden-Komplex nach unten zu ziehen. Alle ungebundenen Nukleinsäurestränge werden abgewaschen und die Perlen werden resuspendiert. Abbildung 1a (Einschub) veranschaulicht die endgültige Assay-Struktur. Es wurde zuvor gezeigt, dass diese Markierungstechnik sehr spezifisch für die Zielsequenz ist14.

Der Trainingsdatensatz wird aus der in Abb. 1b gezeigten Zeitspur erstellt. Ereignisse werden erkannt, indem der PCWA-Algorithmus mit drei Wavelet-Funktionen (MSG-6, MSG-8 und MSG-6&8) ausgeführt wird, um drei mögliche Ereignisklassen aus der Zeitspur auszuwählen. PCWA-Parameter werden wie folgt eingestellt: Skalierung von 0,1 bis 1,0 ms mit 50 logarithmischen Schritten, Spreizkoeffizienten, h = 1, w = 1 und Selektivität = 0,3. PCWA gibt den Zeitort, den Skalenwert, den CWT-Koeffizienten und die entsprechende am besten angepasste Wavelet-Funktion in Form eines strukturierten Arrays zurück, das dann verwendet wird, um ein Fenster mit 1024 Datenpunkten aus der 0,01-ms-gruppierten Zeitspur zuzuschneiden, die am Ort des Ereignisses zentriert ist, um das zu bilden Trainingsdatensatz. Der am besten passende Wavelet-Funktionsindex wird als Beschriftungswert im Datensatz verwendet. Ein zusätzlicher Schritt der Ereignisqualitätsprüfung (siehe ergänzende Abbildung S2) eliminiert überlappende und schlecht erkannte Ereignisse aus dem Trainingssatz.

Das Eingangssignal wird mithilfe der Kurzzeit-Fourier-Transformation (STFT) mit einem 128 Datenpunkte langen Hanning-Fenster und 120 Datenpunkten überlappenden Segmenten in ein Zeit-Frequenz-Spektrogramm umgewandelt, um eine ausgewogene Zeit-Frequenz-Auflösung sicherzustellen. Ein tiefes neuronales Netzwerk mit zwei Sätzen von 2D-Faltungsschichten mit ReLU-Aktivierungsfunktionen und 2D-Max-Pooling-Schichten wird nach einer 2D-Average-Pooling-Schicht auf dem Eingabebild (Spektrogramm) kaskadiert. Die Average-Pooling-Ebene mit einer Poolgröße von 2 skaliert das Eingabebild mit einer Größe von 128 × 128 Pixeln in ein 64 × 64 Pixel großes Bild herunter. Wir haben die Ergebnisse des ursprünglichen Spektrogramms mit der heruntergerechneten Version verglichen und während des Trainings und der Inferenz eine Beschleunigung und eine geringere Speichernutzung beobachtet, es gab jedoch keine spürbaren Leistungseinbußen. Die erste Faltungsschicht besteht aus 9 Filtern mit einer Kernel- und Schrittgröße von 3 × 3 bzw. 1 × 1 Pixel. Vor der Max-Pooling-Schicht wird eine zusätzliche Batch-Normalisierungsschicht verwendet, um die Trainingsgeschwindigkeit und Robustheit zu verbessern71. Die zweite Faltungsschicht ist ein Stapel von 25 5 × 5-Pixel-Filtern mit derselben Schrittgröße wie die erste Faltungsschicht. Max-Pooling-Schichten haben Poolgrößen, die den Kernelgrößen entsprechen, die in der entsprechenden führenden Faltungsschicht verwendet werden. Die extrahierten Merkmale mit der Dimensionalität (3, 3, 25) werden dann abgeflacht und in eine dichte Schicht mit einer Softmax-Aktivierungsfunktion eingespeist, die als Klassifikator fungiert. Die Ausgabe der dichten Schicht hat drei Dimensionen, die drei möglichen Ausgabeklassen (KPn, eu und KPneu) entsprechen. Als adaptive Regularisierung wird an jede Faltungsschicht eine Schicht mit 0,2 Aussetzern angehängt72. Das ergänzende Material präsentiert eine detaillierte DNN-Modellzusammensetzung (ergänzende Abbildung S3a, b). Das DNN-Modell ist in Python-3.8.10 und TensorFlow-2.8.0 auf einem 64-Bit-Desktop-Computer mit Ubuntu 20.04.4 LTS implementiert.

Das trainierte DNN-Modell wird in ein 8-Bit-Ganzzahlmodell quantisiert und in ein Edge-TPU-kompatibles Binärmodell kompiliert. Ein Feintrainingsschritt umfasst einige Epochen (hier 20), in denen das quantisierte Modell dem Trainingsdatensatz erneut ausgesetzt wird, um die Genauigkeit aus Parameterquantisierungsfehlern wiederherzustellen. Der Edges-Compiler kann neun von elf Operationen der Edge-TPU zuordnen, was bedeutet, dass nur Eingabe- und Ausgabe-Float-Integer-Konvertierungen auf der CPU ausgeführt werden und der Rest der DNN-Modelloperationen Edge-TPU-Ressourcen nutzen (siehe ergänzende Abbildung). S3c). Das kompilierte Modell wird dann in das Coral Dev-Board übertragen. Ein Python-Skript mit den in (Abb. 4b) gezeigten Blöcken dient zum schnellen Abrufen, Analysieren und Visualisieren der eingehenden sensorischen Rohdaten. Die Benutzeroberfläche und der Dashboard-Server werden mithilfe der Dash Python-Bibliothek73 von Plotly implementiert.

Alle Daten, die die Ergebnisse und Schlussfolgerungen stützen, sind im Papier und in den ergänzenden Materialien enthalten. Weitere Daten sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Vashist, SK, Luppa, PB, Yeo, LY, Ozcan, A. & Luong, JHT Neue Technologien für Point-of-Care-Tests der nächsten Generation. Trends Biotechnologie. 33, 692–705 (2015).

Artikel CAS PubMed Google Scholar

Wang, C. et al. Point-of-Care-Diagnostik für Infektionskrankheiten: Von Methoden zu Geräten. Nano Today 37, 101092 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Yen, Y.-K. & Chiu, C.-Y. Ein nanomechanischer CMOS-MEMS-basierter Membranbrückensensor zur Erkennung kleiner Moleküle. Wissenschaft. Rep. 10, 2931 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Bamshad, A. & Cho, HJ Laserjet gedruckte Mikro-/Nanosensoren und Mikrofluidiksysteme: Eine einfache und einfache digitale Plattform für kostengünstige, flexible und kleinvolumige Geräte. Adv. Matte. Technol. 6, 2100401 (2021).

Artikel Google Scholar

Noviana, E. et al. Mikrofluidische Analysegeräte auf Papierbasis: Vom Design bis zur Anwendung. Chem. Rev. 121, 11835–11885 (2021).

Artikel CAS PubMed Google Scholar

Kugimiya, A., Wakimoto, S., Kohda, J., Nakano, Y. & Takano, Y. Entwicklung einer einstufigen Analysemethode für mehrere Aminosäuren unter Verwendung eines mikrofluidischen Analysegeräts auf Papierbasis. Wissenschaft. Rep. 12, 3427 (2022).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Yang, S. & Rothman, RE PCR-basierte Diagnostik für Infektionskrankheiten: Einsatzmöglichkeiten, Einschränkungen und zukünftige Anwendungen in der Akutversorgung. Lanzetteninfektion. Dis. 4, 337–348 (2004).

Artikel CAS PubMed PubMed Central Google Scholar

Kibirige, CN et al. Entwicklung eines empfindlichen, quantitativen Assays mit breiter Subtypspezifität zum Nachweis der gesamten HIV-1-Nukleinsäuren in Plasma und PBMC. Wissenschaft. Rep. 12, 1550 (2022).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Carvalho-Correia, E. et al. OmniSARS2: Eine hochempfindliche und spezifische RT-qPCR-basierte COVID-19-Diagnosemethode, die entwickelt wurde, um der Entwicklung der SARS-CoV-2-Linie standzuhalten. Biomedizin 9, 1314 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Notomi, T., Mori, Y., Tomita, N. & Kanda, H. Schleifenvermittelte isotherme Verstärkung (LAMP): Prinzip, Merkmale und Zukunftsaussichten. J. Mikrobiol. 53, 1–5 (2015).

Artikel CAS PubMed Google Scholar

Garg, N., Ahmad, FJ & Kar, S. Jüngste Fortschritte bei der schleifenvermittelten isothermen Amplifikation (LAMP) für den schnellen und effizienten Nachweis von Krankheitserregern. Curr. Res. Mikrob. Wissenschaft. 3, 100120 (2022).

CAS PubMed PubMed Central Google Scholar

Sampad, MJN et al. Optisches Einfangen unterstützte den markierungs- und amplifikationsfreien Nachweis von SARS-CoV-2-RNAs mit einem optofluidischen Nanoporensensor. Biosens. Bioelektron. 194, 113588 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Chien, C.-C., Shekar, S., Niedzwiecki, DJ, Shepard, KL & Drndić, M. Einzelsträngige DNA-Translokationsaufzeichnungen durch Festkörpernanoporen auf Glaschips bei einer Messbandbreite von 10 MHz. ACS Nano 13, 10545–10554 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Cai, H. et al. Optofluidisches Analysesystem zur verstärkungsfreien, direkten Erkennung einer Ebola-Infektion. Wissenschaft. Rep. 5, 14494 (2015).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Du, K. et al. Effiziente Probenvorbereitung auf dem Chip und empfindlicher, amplifikationsfreier Nachweis des Ebola-Virus. Biosens. Bioelektron. 91, 489–496 (2017).

Artikel CAS PubMed PubMed Central Google Scholar

Ozcelik, D. et al. Optofluidisches Wellenlängenmultiplex zur Erkennung einzelner Viren. PNAS 112, 12933–12937 (2015).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Meena, GG et al. 7-fach gemultiplexter, optofluidischer Nachweis von Nukleinsäuren für das Antibiotikaresistenz-Screening von Bakterien. Opt. Exp 28, 33019–33027 (2020).

Artikel CAS Google Scholar

Black, JA, Ganjalizadeh, V., Parks, JW & Schmidt, H. Mehrkanal-Geschwindigkeitsmultiplexing der Einzelviruserkennung auf einem optofluidischen Chip. Opt. Lette. 43, 4425–4428 (2018).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Liu, R., Wang, N., Kamili, F. & Sarioglu, AF Mikrofluidische CODES: Ein skalierbarer multiplexierter elektronischer Sensor zur orthogonalen Erkennung von Partikeln in mikrofluidischen Kanälen. Lab Chip 16, 1350–1357 (2016).

Artikel CAS PubMed Google Scholar

Liu, R. et al. Entwurf und Modellierung von Elektrodennetzwerken für die Codemultiplex-Widerstandsimpulserfassung in mikrofluidischen Geräten. Lab Chip 17, 2650–2666 (2017).

Artikel CAS PubMed Google Scholar

Liu, R., Wang, N., Asmare, N. & Sarioglu, AF Skalierung von Code-Multiplex-Elektrodennetzwerken für die verteilte Coulter-Detektion in der Mikrofluidik. Biosens. Bioelektron. 120, 30–39 (2018).

Artikel CAS PubMed Google Scholar

Ahuja, K. et al. Auf dem Weg zur Point-of-Care-Bewertung der Patientenreaktion: Ein tragbares Tool zur schnellen Beurteilung der Wirksamkeit von Krebsmedikamenten mithilfe von Multifrequenz-Impedanzzytometrie und überwachtem maschinellem Lernen. Mikrosystem. Nanoeng. 5, 1–11 (2019).

Artikel CAS Google Scholar

Sui, J., Xie, P., Lin, Z. & Javanmard, M. Elektronische Klassifizierung von Barcode-Partikeln zur Multiplex-Erkennung mithilfe überwachter maschineller Lernanalyse. Talanta 215, 120791 (2020).

Artikel CAS PubMed Google Scholar

Xie, P., Cao, Lab Chip 17, 1939–1947 (2017).

Artikel CAS PubMed Google Scholar

Xie, P. et al. Verarbeitung von Verstärkung und Rauschen in Mehrelektroden-Impedanzzytometern: Umfassende Methodik und Charakterisierung des elektrischen Designs. Sens. Aktoren, B Chem. 241, 672–680 (2017).

Artikel CAS Google Scholar

Wang, N., Liu, R., Asmare, N., Chu, C.-H. & Sarioglu, AF Integrierte Sensornetzwerke mit Fehlerkorrektur für die Multiplex-Partikelverfolgung in Mikrofluidik-Chips. Biosens. Bioelektron. 174, 112818 (2021).

Artikel CAS PubMed Google Scholar

Li, Y. et al. Tiefenzytometrie: Deep Learning mit Echtzeit-Inferenz bei der Zellsortierung und Durchflusszytometrie. Wissenschaft. Rep. 9, 11088 (2019).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Raji, H., Tayyab, M., Sui, J., Mahmoodi, SR & Javanmard, M. Biosensoren und maschinelles Lernen für eine verbesserte Erkennung, Schichtung und Klassifizierung von Zellen: eine Übersicht. Biomed. Mikrodev. 24, 26 (2022).

Artikel Google Scholar

Ganjalizadeh, V. et al. Schnelle, benutzerdefinierte Wavelet-Analysetechnik zur Erkennung und Identifizierung einzelner Moleküle. Nat. Komm. 13, 1–9 (2022).

Artikel Google Scholar

McCulloch, WS & Pitts, W. Eine logische Berechnung der Ideen, die der Nervenaktivität immanent sind. Stier. Mathematik. Biophys. 5, 115–133 (1943).

Artikel MathSciNet MATH Google Scholar

Valiant, LG Eine Theorie des Lernbaren. Komm. ACM 27, 1134–1142 (1984).

Artikel MATH Google Scholar

Duda, RO & Hart, PE Pattern Classification and Scene Analysis Vol. 3 (Wiley, 1973).

MATH Google Scholar

Fukushima, K. Neocognitron: Ein selbstorganisierendes neuronales Netzwerkmodell für einen Mechanismus der Mustererkennung, der von Positionsverschiebungen nicht beeinflusst wird. Biol. Cybern. 36, 193–202 (1980).

Artikel CAS PubMed MATH Google Scholar

Talaviya, T., Shah, D., Patel, N., Yagnik, H. & Shah, M. Implementierung künstlicher Intelligenz in der Landwirtschaft zur Optimierung der Bewässerung und des Einsatzes von Pestiziden und Herbiziden. Artif. Intel. Landwirtschaft. 4, 58–73 (2020).

Google Scholar

Xiang, X., Li, Q., Khan, S. & Khalaf, OI Städtisches Wasserressourcenmanagement für eine nachhaltige Umweltplanung unter Verwendung von Techniken der künstlichen Intelligenz. Umgebung. Folgenabschätzung. Rev. 86, 106515 (2021).

Artikel Google Scholar

Ma, Y., Wang, Z., Yang, H. & Yang, L. Anwendungen künstlicher Intelligenz bei der Entwicklung autonomer Fahrzeuge: Eine Umfrage. IEEE/CAA J. Autom. Sünde. 7, 315–329 (2020).

Artikel Google Scholar

Sterne, J. Künstliche Intelligenz für Marketing: Praktische Anwendungen (Wiley, 2017).

Buchen Sie Google Scholar

Mak, K.-K. & Pichika, MR Künstliche Intelligenz in der Arzneimittelentwicklung: Aktueller Stand und Zukunftsaussichten. Arzneimittelentdeckung. Heute 24, 773–780 (2019).

Artikel PubMed Google Scholar

Riedl, MO & Young, RM Erzählplanung: Handlung und Charakter in Einklang bringen. Jair 39, 217–268 (2010).

Artikel MATH Google Scholar

Moloi, T. & Marwala, T. Künstliche Intelligenz in Wirtschafts- und Finanztheorien (Springer, 2020).

Buchen Sie Google Scholar

Amato, F. et al. Künstliche neuronale Netze in der medizinischen Diagnostik. J. Appl. Biomed. 11, 47–58 (2013).

Artikel CAS Google Scholar

Sun, J., Peng, Y., Guo, Y. & Li, D. Die Segmentierung des multimodalen Hirntumorbildes nutzte die Multi-Pathway-Architekturmethode basierend auf 3D-FCN. Neurocomputing 423, 34–45 (2021).

Artikel Google Scholar

van der Lubbe, MFJA et al. Eine nicht-invasive, automatisierte Diagnose des Morbus Menière mithilfe von Radiomics und maschinellem Lernen auf konventioneller Magnetresonanztomographie: Eine multizentrische, fallkontrollierte Machbarkeitsstudie. Radiol. Med. 127, 72–82 (2022).

Artikel PubMed Google Scholar

Ström, P. et al. Künstliche Intelligenz zur Diagnose und Einstufung von Prostatakrebs in Biopsien: Eine bevölkerungsbasierte diagnostische Studie. Lancet Oncol. 21, 222–232 (2020).

Artikel PubMed Google Scholar

Tanveer, M. et al. Techniken des maschinellen Lernens zur Diagnose der Alzheimer-Krankheit: Ein Überblick. ACM Trans. Multimed. Berechnen. Komm. Appl. 16, 30:1-30:35 (2020).

Artikel Google Scholar

Cui, F., Yue, Y., Zhang, Y., Zhang, Z. & Zhou, HS Biosensoren durch maschinelles Lernen weiterentwickeln. ACS Sens. 5, 3346–3364 (2020).

Artikel CAS PubMed Google Scholar

Cao, K., Liu, Y., Meng, G. & Sun, Q. Ein Überblick über die Edge-Computing-Forschung. IEEE Access 8, 85714–85728 (2020).

Artikel Google Scholar

Edge-TPU-Leistungsbenchmarks. Koralle https://coral.ai/docs/edgetpu/benchmarks/.

Soldano, LB & Pennings, ECM Optische Multimode-Interferenzgeräte basierend auf Selbstbildgebung: Prinzipien und Anwendungen. J. Lightwave Technol. 13, 615–627 (1995).

Artikel ADS Google Scholar

Xu, Y., Du, J., Dai, L.-R. & Lee, C.-H. Ein Regressionsansatz zur Sprachverbesserung basierend auf tiefen neuronalen Netzen. IEEE/ACM-Trans. Audio Speech Lang Process 23, 7–19 (2014).

Artikel CAS Google Scholar

Yousefi, M. & Hansen, JHL Blockbasierte Hochleistungs-CNN-Architekturen für die Erkennung überlappender Sprache auf Frame-Ebene. IEEE/ACM-Trans. Audio-Sprach-Lang-Prozess. 29, 28–40 (2021).

Artikel Google Scholar

Keerthi Krishnan, K. & Soman, KP CNN-basierte Klassifizierung des motorischen Vorstellungsvermögens unter Verwendung eines im Variationsmodus zerlegten EEG-Spektrum-Bildes. Biomed. Ing. Lette. 11, 235–247 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Huang, J., Chen, B., Yao, B. & He, W. EKG-Arrhythmieklassifizierung mithilfe eines STFT-basierten Spektrogramms und eines Faltungs-Neuronalen Netzwerks. IEEE Access 7, 92871–92880 (2019).

Artikel Google Scholar

Sultana, F., Sufian, A. & Dutta, P. Fortschritte bei der Bildklassifizierung mithilfe eines Faltungs-Neuronalen Netzwerks. im Jahr 2018 Vierte internationale Konferenz zur Forschung in Computational Intelligence and Communication Networks (ICRCICN), S. 122–129 (2018). https://doi.org/10.1109/ICRCICN.2018.8718718.

Lecun, Y., Bottou, L., Bengio, Y. & Haffner, P. Gradientenbasiertes Lernen angewendet auf die Dokumentenerkennung. Proz. IEEE 86, 2278–2324 (1998).

Artikel Google Scholar

Kingma, DP & Ba, J. Adam: Eine Methode zur stochastischen Optimierung. Vorabdruck unter http://arxiv.org/abs/1412.6980 (2017).

Technologie. Koralle https://coral.ai/technology/.

Datenblatt zum Entwicklungsboard. Koralle https://coral.ai/docs/dev-board/datasheet/#certifications.

Abadi, M. et al. TensorFlow: Groß angelegtes maschinelles Lernen auf heterogenen verteilten Systemen. https://arxiv.org/abs/1603.04467 (2016).

Sarkar, D., Bali, R. & Ghosh, T. Praktisches Transferlernen mit Python: Implementieren Sie fortgeschrittene Deep Learning- und neuronale Netzwerkmodelle mit TensorFlow und Keras (Packt Publishing Ltd, 2018).

Google Scholar

Gisbrecht, A. & Hammer, B. Datenvisualisierung durch nichtlineare Dimensionsreduktion. DRÄHTE Daten Min. Wissen. Entdeckung. 5, 51–73 (2015).

Artikel Google Scholar

Wold, S., Esbensen, K. & Geladi, P. Hauptkomponentenanalyse. Chemom. Intel. Labor. Syst. 2, 37–52 (1987).

Artikel CAS Google Scholar

Ringnér, M. Was ist Hauptkomponentenanalyse?. Nat. Biotechnologie. 26, 303–304 (2008).

Artikel PubMed Google Scholar

Van der Maaten, L. & Hinton, G. Visualisieren von Daten mit t-SNE. J. Mach. Lernen. Res. 9, 2579–2605 (2008).

MATH Google Scholar

Abdi, H. & Williams, LJ Hauptkomponentenanalyse. Wiley Interdisziplinär. Rev.: Comput. Stat. 2, 433–459 (2010).

Artikel Google Scholar

Ganjalizadeh, V. & Schmidt, HPCWA Eine schnelle kundenspezifische Wavelet-Analysetechnik zur Erkennung und Identifizierung einzelner Moleküle. Nat. Komm. https://doi.org/10.5281/zenodo.5794624 (2021).

Chen, J. & Ran, X. Deep Learning mit Edge Computing: Ein Rückblick. Proz. IEEE 107, 1655–1674 (2019).

Artikel Google Scholar

Stambaugh, A. et al. Optofluidischer Multiplex-Nachweis einzelner SARS-CoV-2- und Influenza-A-Antigene mithilfe eines neuartigen Assays mit hellen Fluoreszenzsonden. PNAS 118, e2103480118 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Meena, GG et al. 3-facher Multiplex-Nachweis antibiotikaresistenter Plasmide mit Einzelmolekülsensitivität. Lab Chip 20, 3763–3771 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

Meena, G. et al. Hochempfindlicher Nachweis von SARS-CoV-2-RNA und -Antigen mithilfe eines optofluidischen Einzelmolekülchips. Apl Photon 6, 066101 (2021).

Artikel ADS CAS Google Scholar

Ioffe, S. & Szegedy, C. Batch-Normalisierung: Beschleunigung des Deep-Network-Trainings durch Reduzierung der internen Kovariatenverschiebung. http://arxiv.org/abs/1502.03167 (2015).

Wager, S., Wang, S. & Liang, PS Dropout-Training als adaptive Regularisierung. in Advances in Neural Information Processing Systems vol. 26 (Curran Associates, Inc., 2013).

Dabbas, E. Interaktive Dashboards und Daten-Apps mit Plotly und Dash: Nutzen Sie die Leistungsfähigkeit eines vollwertigen Frontend-Web-Frameworks in Python – kein JavaScript erforderlich (Packt Publishing Ltd., 2021).

Google Scholar

Referenzen herunterladen

Wir danken Thomas A. Wall für seine Hilfe bei der Herstellung des ARROW-Geräts. Diese Arbeit wurde durch eine Spende des Cisco University Research Program Fund #2020-224954 (HS) sowie der National Institutes of Health im Rahmen der Zuschüsse 1R01AI116989-01 (ARH, HS), 1R01EB028608 (HS, ARH) und National Science unterstützt Stiftung im Rahmen des Stipendiums CBET-1703058 (HS).

School of Engineering, University of California, Santa Cruz, 1156 High Street, Santa Cruz, CA, 95064, USA

Vahid Ganjalizadeh, Gopikrishnan G. Meena & Holger Schmidt

Abteilung für Elektrotechnik und Informationstechnik, Brigham Young University, Provo, UT, 84602, USA

Matthew A. Stott und Aaron R. Hawkins

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

VG und HS haben die Forschung entworfen; MAS stellte die optofluidischen Chips her; GGM führte die Experimente durch; VG hat das Framework für maschinelles Lernen entwickelt; VG und HS führten die Datenanalyse durch; VG visualisierte die Daten und Ergebnisse; VG, ARH, HS haben den Artikel geschrieben; HS betreute die Forschung.

Korrespondenz mit Holger Schmidt.

ARH und HS hatten ein konkurrierendes Interesse an Fluxus Inc, das optofluidische Technologie vermarktet. Alle anderen Autoren erklären, dass sie keine konkurrierenden Interessen haben.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Ganjalizadeh, V., Meena, GG, Stott, MA et al. Maschinelles Lernen am Rande für die KI-gestützte Multiplex-Erkennung von Krankheitserregern. Sci Rep 13, 4744 (2023). https://doi.org/10.1038/s41598-023-31694-6

Zitat herunterladen

Eingegangen: 29. Juni 2022

Angenommen: 15. März 2023

Veröffentlicht: 23. März 2023

DOI: https://doi.org/10.1038/s41598-023-31694-6

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.