Einführung in das maschinelle Lernen
Maschinelles Lernen ist das Herzstück der meisten KI-Anwendungen und; dabei lernen Computer, Muster in Daten zu erkennen. Genauer gesagt geht es darum, ein trainiertes Modell zu entwickeln. Dies kann mit überwachtem Lernen geschehen, wobei dem Computer Beispiele gezeigt werden, von denen er lernen kann. Alternativ kann der Prozess unüberwacht ablaufen, wobei der Computer einfach nach interessanten Mustern in den Daten sucht. Es gibt auch Techniken, die ein kontinuierliches bzw. ständiges Lernen beinhalten, bei denen der Computer aus seinen Fehlern lernt, die jedoch nicht Gegenstand dieses Artikels sein sollen.
Ausführen Ihres ML-Modells.
Sobald das ML-Modell erstellt wurde, kann es auf die betreffende Aufgabe angewendet werden. Modelle können für die Vorhersage zukünftiger Ereignisse, die Identifizierung von Anomalien und die Bild- oder Spracherkennung verwendet werden. In nahezu allen Fällen stützen sich die Modelle auf große, tiefe Baumstrukturen und benötigen zur Ausführung erhebliche Rechenleistung. Dies gilt insbesondere für Modelle der Bild- und Spracherkennung, die in der Regel auf künstlichen neuronalen Netzen basieren. Neuronale Netzwerke erzeugen dicht vermaschte Algorithmen und müssen daher auf hochgradig parallelisierter Hardware ausgeführt werden, die häufig auf GPUs basiert. Bis vor kurzem war eine solche Rechenleistung nur von Anbietern Cloud-basierter Dienste wie AWS oder Azure erhältlich.
Um eine Vorstellung von der erforderlichen Leistung zu bekommen, zeigt die folgende Tabelle die Spezifikationen von AWS-P3-Instanzen, einer für ML-Anwendungen optimierten Verarbeitungsplattform
Typ
GPUs
vCPUs
RAM
GPU RAM
Speicher-Bandbreite
Netzwerk-Bandbreite
P3.2XL
1
8
61 GB
16 GB
1,5 Gbit/s
~10 Gbit/s
P3.8XL
4
32
244 GB
64 GB
7 Gbit/s
10 Gbit/s
P3.16XL
64
488 GB
128 GB
14 Gbit/s
25 Gbit/s
P3.24XL
96
768 GB
256 GB
19 Gbit/s
100 Gbit/s
Tabelle 1: Spezifikationen von AWS P3-Instanzen
Dabei handelt es sich um sehr starke Geräte. Sie verfügen über riesige RAM-Ressourcen und extrem schnellen Netzwerk- und Speicherzugang. Vor allem verfügen sie über eine erhebliche CPU- und GPU-Verarbeitungsleistung, eine Anforderung, die das Ausführen von ML-Modellen an der Network Edge zu einer echten Herausforderung macht.
Die Nachteile der zentralisierten KI
Bis dato haben sich die meisten bekannten KI-Anwendungen auf die Cloud verlassen, weil es so schwierig ist, ML-Modelle an der Edge auszuführen. Diese Abhängigkeit vom Cloud Computing bringt jedoch einige Einschränkungen bei der Verwendung der KI mit sich. Hier ist eine Liste mit einigen der operativen Nachteile einer zentralisierten KI.
Einige Anwendungen können nicht in der Cloud ausgeführt werden
Für den Betrieb der KI in der Cloud ist eine zuverlässige Netzwerkverbindung mit ausreichender Kapazität erforderlich. Steht diese nicht zur Verfügung, vielleicht aufgrund mangelnder Infrastruktur, müssen einige KI-Anwendungen lokal laufen. Mit anderen Worten, diese Anwendungen funktionieren nur, wenn Sie Ihre ML-Modelle an der Edge ausführen können.
Betrachten wir das Beispiel des selbstfahrenden Fahrzeugs, das einige Aufgaben erfüllen muss, die auf maschinelles Lernen angewiesen sind. Die wichtigste dieser Aufgaben ist die Objekterkennung und -vermeidung. Dies erfordert recht anspruchsvolle ML-Modelle, die ein erhebliches Maß an Rechenleistung benötigen. Allerdings haben selbst vernetzte Autos nur Verbindungen mit geringer Bandbreite, und diese Verbindungen sind unbeständig (obwohl 5G dies verbessern könnte).
Diese Einschränkung gilt auch bei der Entwicklung intelligenter IoT-Überwachungssysteme für den Bergbau und andere Schwerindustrien. Häufig gibt es lokal ein schnelles Netzwerk, aber möglicherweise ist die Internet-Konnektivität auf einen Satelliten-Uplink angewiesen.
Auf die Latenz kommt es an
Viele ML-Anwendungen müssen in Echtzeit arbeiten. Selbstfahrende Autos sind, wie oben erwähnt, eine solche Anwendung, aber es gibt auch Einsatzgebiete wie die Echtzeit-Gesichtserkennung. Diese kann für Türeingangssysteme oder zu Sicherheitszwecken verwendet werden; beispielsweise verwenden Polizeikräfte diese Technologie häufig zur Überwachung von Menschenmengen bei Sport- und anderen Veranstaltungen, um bekannte Unruhestifter zu identifizieren.
KI wird auch zunehmend zur Entwicklung intelligenter medizinischer Geräte eingesetzt. Einige von ihnen müssen in Echtzeit arbeiten, um echte Vorteile zu erzielen, aber die durchschnittliche Umlaufzeit für die Verbindung zu einem Datenzentrum liegt in der Größenordnung von 10 bis 100 ms. Echtzeitanwendungen sind daher schwierig durchzuführen, ohne Ihre ML-Modelle näher an die Network Edge zu bringen.
Sicherheit kann ein Thema sein
Viele ML-Anwendungen befassen sich mit vertraulichen oder sensiblen Daten. Es ist eindeutig möglich, diese Daten sicher über das Netzwerk zu versenden und in der Cloud zu speichern. Lokale Richtlinien verbieten dies jedoch häufig. Gesundheitsdaten sind besonders sensibel, und in vielen Ländern gibt es strenge Regeln für die Übermittlung an einen Cloud-Server. Grundsätzlich ist es immer einfacher, die Sicherheit eines Geräts zu gewährleisten, das nur an ein lokales Netzwerk angeschlossen ist.
Kosten
Abonnements für ML-optimierte Cloud-Instanzen können teuer sein – die niedrigste in Tabelle 1 gezeigte Spezifikationsinstanz kostet etwa 3 US-Dollar pro Stunde. Viele Cloud-Anbieter erheben zusätzliche Gebühren, die ebenfalls berücksichtigt werden müssen, z. B. für Speicher und Netzwerkzugang. Realistisch betrachtet könnte die Ausführung einer KI-Anwendung bis zu 3.000 US-Dollar pro Monat kosten.
Fazit
Die erfolgreiche Implementierung von maschinellem Lernen erfordert in der Regel Cloud- oder Server-basierte Ressourcen mit beträchtlicher Rechenleistung. Mit der Weiterentwicklung von Anwendungen und der Entstehung neuer Anwendungsfälle wird die Verlagerung des maschinellen Lernens an die Network Edge jedoch immer attraktiver, insbesondere wenn Latenz, Sicherheit und Implementierungskosten vorrangige Erwägungen sind.
Als Technical Marketing Manager für die EMEA-Region bei Mouser Electronics ist Mark Patrick für die Erstellung und Verbreitung von technischen Inhalten innerhalb der Region verantwortlich – Inhalte, die für Mousers Strategie zur Unterstützung, Information und Inspiration seines technisch versierten Publikums von zentraler Bedeutung sind.
Bevor er das Technical-Marketing-Team leitete, war Patrick Mitglied des EMEA-Supplier-Marketing-Teams und spielte eine wichtige Rolle beim Aufbau und der Entwicklung von Beziehungen zu wichtigen Herstellern.
Zusätzlich zu einer Vielzahl von technischen und Marketing-Positionen war Patrick acht Jahre lang bei Texas Instruments in den Bereichen Anwendungsunterstützung und technischer Vertrieb tätig.
Als praxisorientierter Ingenieur mit einer Leidenschaft für Vintage-Synthesizer und Motorräder schraubt und repariert er gerne an beidem herum. Patrick hat einen First Class Honours Degree in Electronics Engineering von der Coventry University.