banner
Heim / Blog / TinyML: Anwendungen, Einschränkungen und seine Verwendung in IoT- und Edge-Geräten
Blog

TinyML: Anwendungen, Einschränkungen und seine Verwendung in IoT- und Edge-Geräten

Dec 11, 2023Dec 11, 2023

Von

In den letzten Jahren erlebten künstliche Intelligenz (KI) und maschinelles Lernen (ML) einen rasanten Anstieg an Popularität und Anwendungen, nicht nur in der Industrie, sondern auch im akademischen Bereich. Heutige ML- und KI-Modelle haben jedoch eine große Einschränkung: Sie erfordern eine enorme Menge an Rechen- und Verarbeitungsleistung, um die gewünschten Ergebnisse und Genauigkeit zu erzielen. Dies beschränkt ihre Verwendung oft auf leistungsstarke Geräte mit erheblicher Rechenleistung.

Angesichts der Fortschritte in der eingebetteten Systemtechnologie und der erheblichen Entwicklung in der Internet-der-Dinge-Branche ist es jedoch wünschenswert, den Einsatz von ML-Techniken und -Konzepten in ein ressourcenbeschränktes eingebettetes System für allgegenwärtige Intelligenz zu integrieren. Der Wunsch, ML-Konzepte in eingebetteten und IoT-Systemen zu nutzen, ist der Hauptmotivationsfaktor für die Entwicklung von TinyML, einer eingebetteten ML-Technik, die ML-Modelle und -Anwendungen auf mehreren ressourcenbeschränkten, energiebeschränkten und kostengünstigen Geräten ermöglicht.

Die Implementierung von ML auf Geräten mit eingeschränkten Ressourcen war jedoch nicht einfach, da die Implementierung von ML-Modellen auf Geräten mit geringer Rechenleistung eigene Herausforderungen in Bezug auf Optimierung, Verarbeitungskapazität, Zuverlässigkeit, Wartung von Modellen und vieles mehr mit sich bringt.

In diesem Artikel werden wir tiefer in das TinyML-Modell eintauchen und mehr über seinen Hintergrund, die Tools, die TinyML unterstützen, und die Anwendungen von TinyML unter Verwendung fortschrittlicher Technologien erfahren. So lass uns anfangen.

Das Ziel von Internet-of-Things- oder IoT-Geräten besteht darin, Edge Computing zu nutzen, ein Computerparadigma, das sich auf eine Reihe von Geräten und Netzwerken in der Nähe des Benutzers bezieht, um eine nahtlose und Echtzeitverarbeitung von Daten von Millionen miteinander verbundener Sensoren und Geräte zu ermöglichen. Einer der Hauptvorteile von IoT-Geräten besteht darin, dass sie eine geringe Rechen- und Verarbeitungsleistung benötigen, da sie am Netzwerkrand eingesetzt werden können, und daher einen geringen Speicherbedarf haben.

Darüber hinaus sind die IoT-Geräte stark auf Edge-Plattformen angewiesen, um die Daten zu sammeln und dann zu übertragen, während diese Edge-Geräte sensorische Daten sammeln und diese dann entweder an einen nahegelegenen Standort oder an Cloud-Plattformen zur Verarbeitung übertragen. Die Edge-Computing-Technologie speichert und verarbeitet die Daten und stellt außerdem die notwendige Infrastruktur zur Unterstützung des verteilten Computings bereit.

Die Implementierung von Edge Computing in IoT-Geräten bietet

Da Edge-Geräte außerdem eine Technik der Zusammenarbeit zwischen den Sensoren und der Cloud einsetzen können, kann die Datenverarbeitung am Netzwerk-Edge statt auf der Cloud-Plattform durchgeführt werden. Dies kann zu einer effektiven Datenverwaltung, Datenpersistenz, effektiver Bereitstellung und Inhalts-Caching führen. Darüber hinaus bietet die Implementierung des IoT in Anwendungen, die sich mit H2M oder Mensch-Maschine-Interaktion und modernem Edge-Computing im Gesundheitswesen befassen, eine Möglichkeit, die Netzwerkdienste erheblich zu verbessern.

Aktuelle Forschungen im Bereich IoT-Edge-Computing haben das Potenzial für die Implementierung von Techniken des maschinellen Lernens in mehreren IoT-Anwendungsfällen gezeigt. Das Hauptproblem besteht jedoch darin, dass herkömmliche Modelle des maschinellen Lernens häufig eine starke Rechen- und Verarbeitungsleistung sowie eine hohe Speicherkapazität erfordern, was die Implementierung von ML-Modellen in IoT-Geräten und -Anwendungen einschränkt.

Darüber hinaus mangelt es der Edge-Computing-Technologie heute an hoher Übertragungskapazität und effektiven Energieeinsparungen, was zu heterogenen Systemen führt, was der Hauptgrund für den Bedarf an einer harmonischen und ganzheitlichen Infrastruktur hauptsächlich für die Aktualisierung, Schulung und Bereitstellung von ML-Modellen ist. Die für eingebettete Geräte entwickelte Architektur stellt eine weitere Herausforderung dar, da diese Architekturen von den Hardware- und Softwareanforderungen abhängen, die von Gerät zu Gerät unterschiedlich sind. Dies ist der Hauptgrund, warum es schwierig ist, eine Standard-ML-Architektur für IoT-Netzwerke zu erstellen.

Außerdem werden im aktuellen Szenario die von verschiedenen Geräten generierten Daten aufgrund der rechenintensiven Natur von Netzwerkimplementierungen zur Verarbeitung an Cloud-Plattformen gesendet. Darüber hinaus sind ML-Modelle häufig auf Deep Learning, tiefe neuronale Netze, anwendungsspezifische integrierte Schaltkreise (ASICs) und Grafikprozessoren (GPUs) zur Verarbeitung der Daten angewiesen und haben häufig einen höheren Leistungs- und Speicherbedarf. Die Bereitstellung vollwertiger ML-Modelle auf IoT-Geräten ist aufgrund des offensichtlichen Mangels an Rechen- und Verarbeitungskapazitäten und begrenzten Speicherlösungen keine praktikable Lösung.

Die Forderung, eingebettete Geräte mit geringem Stromverbrauch zu miniaturisieren, gepaart mit der Optimierung von ML-Modellen, um sie energie- und speichereffizienter zu machen, hat den Weg für TinyML geebnet, das darauf abzielt, ML-Modelle und -Praktiken auf Edge-IoT-Geräten und -Frameworks zu implementieren. TinyML ermöglicht die Signalverarbeitung auf IoT-Geräten und bietet eingebettete Intelligenz, wodurch die Notwendigkeit entfällt, Daten zur Verarbeitung an Cloud-Plattformen zu übertragen. Die erfolgreiche Implementierung von TinyML auf IoT-Geräten kann letztendlich zu mehr Privatsphäre und Effizienz führen und gleichzeitig die Betriebskosten senken. Darüber hinaus ist TinyML dadurch attraktiver, dass es bei unzureichender Konnektivität Analysen vor Ort bereitstellen kann.

TinyML ist ein maschinelles Lerntool, das geräteinterne Analysen für verschiedene Erfassungsmodalitäten wie Audio, Bild und Sprache durchführen kann. Ml-Modelle, die auf dem TinyML-Tool basieren, haben geringe Energie-, Speicher- und Rechenanforderungen, wodurch sie für eingebettete Netzwerke und Geräte geeignet sind, die mit Batteriestrom betrieben werden. Darüber hinaus eignet sich TinyML aufgrund seiner geringen Anforderungen ideal für die Bereitstellung von ML-Modellen im IoT-Framework.

Im aktuellen Szenario sind cloudbasierte ML-Systeme mit einigen Schwierigkeiten konfrontiert, darunter Sicherheits- und Datenschutzbedenken, hoher Stromverbrauch, Zuverlässigkeit und Latenzprobleme, weshalb Modelle auf Hardware-Software-Plattformen vorinstalliert sind. Sensoren sammeln die Daten, die die physische Welt simulieren, und werden dann mithilfe einer CPU oder MPU (Mikroprozessoreinheit) verarbeitet. Die MPU erfüllt die Anforderungen der ML-Analyseunterstützung, die durch Edge-fähige ML-Netzwerke und -Architekturen ermöglicht wird. Die Edge-ML-Architektur kommuniziert zur Datenübertragung mit der ML-Cloud, und die Implementierung von TinyML kann zu einem erheblichen Fortschritt der Technologie führen.

Man kann mit Sicherheit sagen, dass TinyML eine Kombination aus Software, Hardware und Algorithmen ist, die synchron arbeiten, um die gewünschte Leistung zu liefern. Um eine bessere und effektivere Lernerfahrung für Hardware- und IoT-Geräte zu bieten, die keine Hardwarebeschleuniger unterstützen, sind möglicherweise Analog- oder Speichercomputer erforderlich. Was die Software betrifft, können die mit TinyML erstellten Anwendungen über Plattformen wie Linux oder Embedded Linux sowie über Cloud-fähige Software bereitgestellt und implementiert werden. Schließlich müssen Anwendungen und Systeme, die auf dem TinyML-Algorithmus basieren, über die Unterstützung neuer Algorithmen verfügen, die Modelle mit geringer Speichergröße benötigen, um einen hohen Speicherverbrauch zu vermeiden.

Zusammenfassend lässt sich sagen, dass Anwendungen, die mit dem TinyML-Tool erstellt wurden, ML-Prinzipien und -Methoden optimieren und die Software kompakt und bei Vorhandensein hochwertiger Daten entwerfen müssen. Diese Daten müssen dann durch Binärdateien geflasht werden, die mithilfe von Modellen generiert werden, die auf Maschinen mit viel größerer Kapazität und Rechenleistung trainiert werden.

Darüber hinaus müssen Systeme und Anwendungen, die auf dem TinyML-Tool laufen, eine hohe Genauigkeit bieten, wenn sie unter strengeren Einschränkungen arbeiten, da kompakte Software für einen geringen Stromverbrauch benötigt wird, die TinyML-Implikationen unterstützt. Darüber hinaus sind die TinyML-Anwendungen oder -Module möglicherweise auf Batteriestrom angewiesen, um den Betrieb auf Edge-Embedded-Systemen zu unterstützen.

Vor diesem Hintergrund gelten für TinyML-Anwendungen zwei grundlegende Anforderungen

Einer der Hauptgründe, warum TinyML ein heißes Thema in der KI- und ML-Branche ist, sind seine potenziellen Anwendungen, darunter visuelle und sprachbasierte Anwendungen, Gesundheitsdiagnose, Datenmusterkomprimierung und -klassifizierung, Schnittstelle zur Gehirnsteuerung, Edge Computing, Phänomenologie und Selbst -Autofahren und mehr.

Typischerweise basieren sprachbasierte Anwendungen auf herkömmlichen Kommunikationsmethoden, bei denen alle Daten wichtig sind und übertragen werden. Allerdings hat sich in den letzten Jahren die semantische Kommunikation als Alternative zur konventionellen Kommunikation herausgebildet, da bei der semantischen Kommunikation nur die Bedeutung oder der Kontext der Daten übermittelt wird. Semantische Kommunikation kann mithilfe von TinyML-Methoden in sprachbasierten Anwendungen implementiert werden.

Einige der beliebtesten Anwendungen in der Sprachkommunikationsbranche sind heute Spracherkennung, Spracherkennung, Online-Lernen, Online-Lehren und zielorientierte Kommunikation. Diese Anwendungen haben typischerweise einen höheren Stromverbrauch und stellen auch hohe Datenanforderungen an das Hostgerät. Um diese Anforderungen zu überwinden, wurde eine neue TinySpeech-Bibliothek eingeführt, die es Entwicklern ermöglicht, eine Architektur mit geringem Rechenaufwand aufzubauen, die tiefe Faltungsnetzwerke zum Aufbau einer Einrichtung mit geringem Speicherbedarf nutzt.

Um TinyML zur Sprachverbesserung zu verwenden, haben sich die Entwickler zunächst mit der Dimensionierung des Sprachverbesserungsmodells befasst, da dieses Hardwarebeschränkungen und -einschränkungen unterliegt. Um das Problem anzugehen, wurden strukturiertes Bereinigen und ganzzahlige Quantisierung für das Sprachverbesserungsmodell RNN oder Recurrent Neural Networks eingesetzt. Die Ergebnisse lassen darauf schließen, dass die Größe des Modells um fast das Zwölffache und die Operationen um fast das Dreifache reduziert werden sollten. Darüber hinaus ist es von entscheidender Bedeutung, dass Ressourcen effektiv genutzt werden, insbesondere beim Einsatz in ressourcenbeschränkten Anwendungen, die Spracherkennungsanwendungen ausführen.

Um den Prozess zu unterteilen, wurde daher eine Co-Design-Methode für TinyML-basierte Sprach- und Spracherkennungsanwendungen vorgeschlagen. Die Entwickler nutzten den Fensterbetrieb, um Software und Hardware so zu partitionieren, dass die rohen Sprachdaten vorverarbeitet werden. Die Methode schien zu funktionieren, da die Ergebnisse auf einen Rückgang des Energieverbrauchs der Hardware hindeuteten. Schließlich besteht auch die Möglichkeit, in naher Zukunft eine optimierte Aufteilung zwischen Software- und Hardware-Codesign für eine bessere Leistung zu implementieren.

Darüber hinaus wurde in neueren Forschungen die Verwendung eines telefonbasierten Wandlers für Spracherkennungssysteme vorgeschlagen. Der Vorschlag zielt darauf ab, LSTM-Prädiktoren durch die Conv1D-Schicht zu ersetzen, um den Rechenbedarf auf Edge-Geräten zu reduzieren. Bei der Umsetzung lieferte der Vorschlag positive Ergebnisse, da die SVD (Singular Value Decomposition) das Modell erfolgreich komprimiert hatte, wohingegen die Verwendung von WFST (Weighted Finite State Transducers) basierender Dekodierung zu mehr Flexibilität bei der Modellverbesserungsverzerrung führte.

Viele prominente Anwendungen der Spracherkennung wie virtuelle oder Sprachassistenten, Live-Untertitel und Sprachbefehle nutzen ML-Techniken, um zu funktionieren. Derzeit beliebte Sprachassistenten wie Siri und der Google Assistant pingen jedes Mal, wenn sie Daten empfangen, einen Ping an die Cloud-Plattform, was zu erheblichen Bedenken hinsichtlich Datenschutz und Datensicherheit führt. TinyML ist eine praktikable Lösung für dieses Problem, da es darauf abzielt, Spracherkennung auf Geräten durchzuführen und die Migration von Daten auf Cloud-Plattformen überflüssig zu machen. Eine Möglichkeit, eine Spracherkennung auf dem Gerät zu erreichen, ist die Verwendung von Tiny Transducer, einem Spracherkennungsmodell, das eine DFSMN- oder Deep Feed-Forward Sequential Memory Block-Schicht in Verbindung mit einer Conv1D-Schicht anstelle der LSTM-Schichten verwendet, um den Rechenaufwand zu senken und Netzwerkparameter.

Hörverlust ist auf der ganzen Welt ein großes Gesundheitsproblem, und die Fähigkeit des Menschen, Geräusche zu hören, lässt im Allgemeinen mit zunehmendem Alter nach. In Ländern mit einer alternden Bevölkerung wie China, Japan und Südkorea stellt dies ein großes Problem dar. Heutzutage funktionieren Hörgeräte nach dem einfachen Prinzip, alle Eingangsgeräusche aus der Umgebung zu verstärken, was es für die Person schwierig macht, die gewünschten Geräusche zu unterscheiden, insbesondere in einer lauten Umgebung.

TinyML könnte die praktikable Lösung für dieses Problem sein, da die Verwendung eines TinyLSTM-Modells, das einen Spracherkennungsalgorithmus für Hörgeräte verwendet, den Benutzern helfen kann, zwischen verschiedenen Geräuschen zu unterscheiden.

TinyML hat das Potenzial, eine entscheidende Rolle bei der Verarbeitung von auf Computer Vision basierenden Datensätzen zu spielen, da diese Datensätze für schnellere Ausgaben auf der Edge-Plattform selbst verarbeitet werden müssen. Um dies zu erreichen, muss sich das TinyML-Modell den praktischen Herausforderungen stellen, die beim Training des Modells mit der OpenMV H7-Mikrocontrollerplatine auftreten. Die Entwickler schlugen außerdem eine Architektur zur Erkennung der amerikanischen Gebärdensprache mithilfe eines ARM Cortex M7-Mikrocontrollers vor, der nur mit 496 KB Frame-Buffer-RAM funktioniert.

Die Implementierung von TinyML für Computer-Vision-basierte Anwendungen auf Edge-Plattformen erforderte von den Entwicklern die Bewältigung der großen Herausforderung von CNN oder Convolutional Neural Networks mit einem hohen Generalisierungsfehler und einer hohen Trainings- und Testgenauigkeit. Die Implementierung ließ sich jedoch nicht effektiv auf Bilder in neuen Anwendungsfällen sowie auf Hintergründe mit Rauschen übertragen. Als die Entwickler die Interpolationserweiterungsmethode verwendeten, lieferte das Modell eine Genauigkeitsbewertung von über 98 % bei Testdaten und etwa 75 % bei der Verallgemeinerung.

Darüber hinaus wurde beobachtet, dass bei der Verwendung der Interpolationserweiterungsmethode durch die Entwickler die Genauigkeit des Modells während der Quantisierung abnahm, gleichzeitig aber auch die Inferenzgeschwindigkeit des Modells und die Verallgemeinerung der Klassifizierung zunahmen. Die Entwickler schlugen außerdem eine Methode vor, um die Genauigkeit des Generalisierungsmodelltrainings auf Daten aus verschiedenen Quellen weiter zu steigern und die Leistung zu testen, um die Möglichkeit der Bereitstellung auf Edge-Plattformen wie tragbaren Smartwatches zu prüfen.

Darüber hinaus haben zusätzliche Studien zu CNN gezeigt, dass es möglich ist, die CNN-Architektur auf Geräten mit begrenzten Ressourcen einzusetzen und gewünschte Ergebnisse zu erzielen. Kürzlich konnten Entwickler mit TensorFlow lite und minimalem Speicherbedarf ein Framework für die Erkennung medizinischer Gesichtsmasken auf einem ARM Cortex M7-Mikrocontroller mit begrenzten Ressourcen entwickeln. Die Modellgröße nach der Quantisierung betrug etwa 138 KB, während die Interferenzgeschwindigkeit auf der Zielplatine etwa 30 FPS betrug.

Eine weitere Anwendung von TinyML für Computer-Vision-basierte Anwendungen ist die Implementierung eines Gestenerkennungsgeräts, das an einen Gehstock geklemmt werden kann, um sehbehinderten Menschen die Navigation durch ihren Alltag zu erleichtern. Um es zu entwerfen, verwendeten die Entwickler den Gestendatensatz und nutzten den Datensatz, um das ProtoNN-Modell mit einem Klassifizierungsalgorithmus zu trainieren. Die mit dem Aufbau erzielten Ergebnisse waren genau, das Design war kostengünstig und lieferte zufriedenstellende Ergebnisse.

Eine weitere wichtige Anwendung von TinyML ist die Branche der selbstfahrenden und autonomen Fahrzeuge, da dort Ressourcen und Rechenleistung an Bord fehlen. Um das Problem anzugehen, führten die Entwickler eine Lernmethode mit geschlossenem Regelkreis ein, die auf dem TinyCNN-Modell basiert und ein Online-Prädiktormodell vorschlägt, das das Bild zur Laufzeit erfasst. Das Hauptproblem, mit dem Entwickler bei der Implementierung von TinyML für autonomes Fahren konfrontiert waren, bestand darin, dass das Entscheidungsmodell, das für die Arbeit mit Offline-Daten trainiert wurde, bei der Verarbeitung von Online-Daten möglicherweise nicht gleich gut funktioniert. Um die Einsatzmöglichkeiten autonomer Autos und selbstfahrender Autos voll auszuschöpfen, sollte das Modell idealerweise in der Lage sein, sich an die Echtzeitdaten anzupassen.

Eine der größten Herausforderungen des aktuellen TinyML-Frameworks besteht darin, die Anpassung an Online-Trainingsdaten zu erleichtern. Um das Problem anzugehen, haben Entwickler eine Methode namens TinyOL oder TinyML Online Learning vorgeschlagen, die ein Training mit inkrementellem Online-Lernen auf Mikrocontroller-Einheiten ermöglicht und so die Aktualisierung des Modells auf IoT-Edge-Geräten ermöglicht. Die Implementierung erfolgte mithilfe der Programmiersprache C++ und die TinyOL-Architektur wurde um eine zusätzliche Ebene erweitert.

Darüber hinaus führten die Entwickler auch die automatische Kodierung des Arduino Nano 33 BLE-Sensorboards durch und das trainierte Modell war in der Lage, neue Datenmuster zu klassifizieren. Darüber hinaus umfasste die Entwicklungsarbeit das Entwerfen effizienter und optimierter Algorithmen für die neuronalen Netze zur Online-Unterstützung von Gerätetrainingsmustern.

Untersuchungen in TinyOL und TinyML haben gezeigt, dass die Anzahl der Aktivierungsschichten ein großes Problem für IoT-Edge-Geräte darstellt, die über begrenzte Ressourcen verfügen. Um das Problem anzugehen, haben Entwickler das neue TinyTL- oder Tiny Transfer Learning-Modell eingeführt, um die Speichernutzung über IoT-Edge-Geräte wesentlich effektiver zu gestalten und die Verwendung von Zwischenschichten für Aktivierungszwecke zu vermeiden. Darüber hinaus haben die Entwickler ein völlig neues Bias-Modul namens „Lite-Residual-Modul“ eingeführt, um die Anpassungsfähigkeiten zu maximieren und es Feature-Extraktoren natürlich zu ermöglichen, Rest-Feature-Maps zu entdecken.

Im Vergleich zur vollständigen Feinabstimmung des Netzwerks fielen die Ergebnisse zugunsten der TinyTL-Architektur aus, da die Ergebnisse zeigten, dass TinyTL den Speicheraufwand bei moderatem Genauigkeitsverlust um etwa das 6,5-fache reduziert. Bei der Feinabstimmung der letzten Ebene hatte TinyML die Genauigkeit um 34 % verbessert, bei mäßigem Genauigkeitsverlust.

Untersuchungen zur Datenkomprimierung haben außerdem gezeigt, dass Datenkomprimierungsalgorithmen die gesammelten Daten auf einem tragbaren Gerät verwalten müssen. Um dasselbe zu erreichen, haben die Entwickler TAC oder Tiny Anomaly Compressor vorgeschlagen. Der TAC war in der Lage, die Algorithmen SDT (Swing Door Trending) und DCT (Discrete Cosine Transform) zu übertreffen. Darüber hinaus übertraf der TAC-Algorithmus sowohl den SDT- als auch den DCT-Algorithmus, indem er eine maximale Komprimierungsrate von über 98 % erreichte und das bessere Spitzen-Signal-Rausch-Verhältnis aller drei Algorithmen aufwies.

Die globale Covid-19-Pandemie eröffnete neue Möglichkeiten für die Implementierung von TinyML, da es sich mittlerweile um eine unverzichtbare Methode zur kontinuierlichen Erkennung von Atemwegssymptomen im Zusammenhang mit Husten und Erkältung handelt. Um eine unterbrechungsfreie Überwachung zu gewährleisten, haben Entwickler ein CNN-Modell Tiny RespNet vorgeschlagen, das auf einer Multi-Modell-Einstellung arbeitet. Das Modell wird über einen Xilinx Artix-7 100t FPGA bereitgestellt, der es dem Gerät ermöglicht, Informationen parallel zu verarbeiten und eine hohe Effizienz aufweist. und geringer Stromverbrauch. Darüber hinaus verwendet das TinyResp-Modell auch Sprache von Patienten, Audioaufzeichnungen und demografische Informationen als Input für die Klassifizierung, und die hustenbedingten Symptome eines Patienten werden anhand von drei unterschiedlichen Datensätzen klassifiziert.

Darüber hinaus haben Entwickler auch ein Modell vorgeschlagen, das Deep-Learning-Berechnungen auf Edge-Geräten ausführen kann, ein TinyML-Modell namens TinyDL. Das TinyDL-Modell kann auf Edge-Geräten wie Smartwatches und Wearables zur Gesundheitsdiagnose eingesetzt werden und ist auch in der Lage, Leistungsanalysen durchzuführen, um Bandbreite, Latenz und Energieverbrauch zu reduzieren. Um den Einsatz von TinyDL auf Handheld-Geräten zu erreichen, wurde ein LSTM-Modell speziell für ein tragbares Gerät entwickelt und trainiert, dem die gesammelten Daten als Eingabe zugeführt wurden. Das Modell hat eine Genauigkeit von etwa 75 bis 80 % und konnte auch mit Daten außerhalb des Geräts arbeiten. Diese Modelle, die auf Edge-Geräten laufen, zeigten das Potenzial, die aktuellen Herausforderungen zu lösen, denen sich IoT-Geräte gegenübersehen.

Schließlich haben Entwickler auch eine weitere Anwendung zur Überwachung der Gesundheit älterer Menschen durch Schätzung und Analyse ihrer Körperhaltung vorgeschlagen. Das Modell nutzt das agnostische Framework auf dem Gerät, das es dem Modell ermöglicht, eine Validierung und eine schnelle Förderung zur Durchführung von Anpassungen zu ermöglichen. Das Modell implementierte Algorithmen zur Erkennung von Körperhaltungen in Verbindung mit Gesichtsmarkierungen, um raumzeitliche Körperhaltungen in Echtzeit zu erkennen.

Eine der Hauptanwendungen von TinyML liegt im Bereich des Edge Computing, da mit der zunehmenden Verwendung von IoT-Geräten zur Verbindung von Geräten auf der ganzen Welt die Einrichtung von Edge-Geräten unerlässlich ist, da dies dazu beiträgt, die Belastung der Cloud-Architekturen zu verringern . Diese Edge-Geräte werden über individuelle Rechenzentren verfügen, die es ihnen ermöglichen, High-Level-Computing auf dem Gerät selbst durchzuführen, anstatt sich auf die Cloud-Architektur zu verlassen. Dies trägt dazu bei, die Abhängigkeit von der Cloud zu verringern, die Latenz zu reduzieren, die Benutzersicherheit und den Datenschutz zu verbessern und auch die Bandbreite zu reduzieren.

Edge-Geräte, die die TinyML-Algorithmen verwenden, helfen bei der Lösung der aktuellen Einschränkungen im Zusammenhang mit Energie-, Rechen- und Speicheranforderungen. Dies wird im Bild unten erläutert.

Darüber hinaus kann TinyML auch die Nutzung und Anwendung unbemannter Luftfahrzeuge oder UAVs verbessern, indem es die aktuellen Einschränkungen dieser Maschinen angeht. Durch den Einsatz von TinyML können Entwickler ein energieeffizientes Gerät mit geringer Latenz und hoher Rechenleistung implementieren, das als Controller für diese UAVs fungieren kann.

TinyML hat bedeutende Anwendungen in der Gesundheitsbranche und kann sich in verschiedenen Bereichen als äußerst nützlich erweisen, darunter Krebs- und Tumorerkennung, Gesundheitsvorhersagen mithilfe von EKG- und EEG-Signalen sowie emotionale Intelligenz. Der Einsatz von TinyML kann es der Adaptiven Tiefenhirnstimulation (aDBS) ermöglichen, sich erfolgreich an klinische Anpassungen anzupassen. Der Einsatz von TinyMl kann es aDBS auch ermöglichen, krankheitsbedingte Biomarkierungen und deren Symptome mithilfe invasiver Aufzeichnungen der Gehirnsignale zu identifizieren.

Darüber hinaus umfasst die Gesundheitsbranche häufig die Erfassung großer Datenmengen eines Patienten, die dann verarbeitet werden müssen, um spezifische Lösungen für die Behandlung eines Patienten im Frühstadium einer Krankheit zu finden. Daher ist es wichtig, ein System aufzubauen, das nicht nur äußerst effektiv, sondern auch äußerst sicher ist. Wenn wir IoT-Anwendungen mit dem TinyML-Modell kombinieren, entsteht ein neues Feld namens H-IoT oder Healthcare Internet of Things, und die Hauptanwendungen des H-IoT sind Diagnose, Überwachung, Logistik, Ausbreitungskontrolle und Hilfssysteme. Wenn wir Geräte entwickeln wollen, die in der Lage sind, den Gesundheitszustand eines Patienten aus der Ferne zu erkennen und zu analysieren, ist es wichtig, ein System zu entwickeln, das global zugänglich ist und eine geringe Latenzzeit aufweist.

Schließlich kann TinyML weitreichende Anwendungen in der autonomen Fahrzeugindustrie haben, da diese Fahrzeuge auf unterschiedliche Weise eingesetzt werden können, einschließlich der Personenverfolgung, für militärische Zwecke und für industrielle Anwendungen. Bei diesen Fahrzeugen besteht die primäre Anforderung, Objekte bei der Objektsuche effizient identifizieren zu können.

Derzeit sind autonome Fahrzeuge und autonomes Fahren eine ziemlich komplexe Aufgabe, insbesondere bei der Entwicklung von Mini- oder Kleinfahrzeugen. Jüngste Entwicklungen haben gezeigt, dass die Anwendung des autonomen Fahrens für Minifahrzeuge durch die Verwendung einer CNN-Architektur und die Bereitstellung des Modells über dem GAP8 MCI verbessert werden kann.

TinyML ist ein relativ neues Konzept in der KI- und ML-Branche und trotz der Fortschritte immer noch nicht so effektiv, wie wir es für den Masseneinsatz für Edge- und IoT-Geräte benötigen.

Die größte Herausforderung, vor der TinyML-Geräte derzeit stehen, ist der Stromverbrauch dieser Geräte. Im Idealfall wird von eingebetteten Edge- und IoT-Geräten eine Batterielebensdauer von über 10 Jahren erwartet. Im Idealzustand sollte beispielsweise ein IoT-Gerät, das mit einer 2-Ah-Batterie betrieben wird, eine Batterielebensdauer von über 10 Jahren haben, wenn man davon ausgeht, dass der Stromverbrauch des Geräts etwa 12 UA beträgt. Im gegebenen Zustand, einer IoT-Architektur mit einem Temperatursensor, einer MCU-Einheit und einem WiFi-Modul, liegt der Stromverbrauch jedoch bei etwa 176,4 mA, und bei diesem Stromverbrauch reicht die Batterie stattdessen nur für etwa 11 Stunden der geforderten Batterielebensdauer von 10 Jahren.

Um die Konsistenz eines Algorithmus aufrechtzuerhalten, ist es wichtig, die Stromverfügbarkeit aufrechtzuerhalten, und angesichts des aktuellen Szenarios ist die begrenzte Stromverfügbarkeit für TinyML-Geräte eine entscheidende Herausforderung. Darüber hinaus stellen auch Speicherbeschränkungen eine erhebliche Herausforderung dar, da die Bereitstellung von Modellen häufig eine große Speichermenge erfordert, um effektiv und genau zu funktionieren.

Aufgrund der Heterogenität der Hardwaregeräte erschweren Hardwareeinschränkungen die groß angelegte Bereitstellung von TinyML-Algorithmen. Es gibt Tausende von Geräten, jedes mit seinen eigenen Hardwarespezifikationen und -anforderungen. Daher muss derzeit ein TinyML-Algorithmus für jedes einzelne Gerät angepasst werden, was den Masseneinsatz zu einem großen Problem macht.

Eines der Hauptprobleme bei TinyML-Modellen besteht darin, dass sie die vorhandenen Datensätze nicht unterstützen. Dies stellt für alle Edge-Geräte eine Herausforderung dar, da sie Daten mithilfe externer Sensoren erfassen und diese Geräte häufig Leistungs- und Energiebeschränkungen unterliegen. Daher können die vorhandenen Datensätze nicht verwendet werden, um die TinyML-Modelle effektiv zu trainieren.

Die Entwicklung von ML-Techniken hat eine Revolution und einen Perspektivwechsel im IoT-Ökosystem ausgelöst. Durch die Integration von ML-Modellen in IoT-Geräte können diese Edge-Geräte selbstständig und ohne externe menschliche Eingaben intelligente Entscheidungen treffen. Herkömmliche ML-Modelle haben jedoch häufig hohe Leistungs-, Speicher- und Rechenanforderungen, weshalb sie sich für den Einsatz auf Edge-Geräten eignen, die oft nur über begrenzte Ressourcen verfügen.

Infolgedessen widmete sich ein neuer Zweig der KI der Verwendung von ML für IoT-Geräte und wurde als TinyML bezeichnet. TinyML ist ein ML-Framework, das es selbst ressourcenbeschränkten Geräten ermöglicht, die Leistungsfähigkeit von KI und ML zu nutzen, um höhere Genauigkeit, Intelligenz und Effizienz zu gewährleisten.

In diesem Artikel haben wir über die Implementierung von TinyML-Modellen auf ressourcenbeschränkten IoT-Geräten gesprochen. Diese Implementierung erfordert das Training der Modelle, die Bereitstellung der Modelle auf der Hardware und die Durchführung von Quantisierungstechniken. Angesichts des aktuellen Umfangs weisen die ML-Modelle, die für die Bereitstellung auf IoT- und Edge-Geräten bereit sind, jedoch mehrere Komplexitäten und Einschränkungen auf, einschließlich Hardware- und Framework-Kompatibilitätsproblemen.

Der Kampf um Open-Source-KI im Zuge der generativen KI

„Von Beruf Ingenieur, von Herzen Schriftsteller“. Kunal ist ein technischer Autor mit einer tiefen Liebe und einem tiefen Verständnis für KI und ML, der sich der Vereinfachung komplexer Konzepte in diesen Bereichen durch seine ansprechende und informative Dokumentation widmet.

Der Kampf um Open-Source-KI im Zuge der generativen KI

KI-generierte Inhalte: Was bedeutet das für Ersteller?

KI-Erkennung von Hassreden zur Bekämpfung von Stereotypisierung und Desinformation

Die analogen Denkfähigkeiten der KI: Eine Herausforderung für die menschliche Intelligenz?

Die Bedrohung durch Klima-Fehlinformationen, die durch generative KI-Technologie verbreitet werden

Der wesentliche Leitfaden für Prompt Engineering in ChatGPT