Inhalt der Episode:
- Was ist Embedded KI, auch in der Abgrenzung zu anderen KI-Formen?
- Was sind typische Anwendungsbereiche von Embedded KI?
- Was zeichnet Embedded KI besonders aus? Was sind Unterschiede zu anderen KI-Formen?
- Welche Randbedingungen müssen beachtet werden?
- Welche Vor- und Nachteile kann Embedded KI haben? Welche Grenzen entstehen ggf. daraus?
- Wie sehen typische Einführungsprozesse von Embedded KI aus?
- Wie kann man in das Thema einsteigen und die Relevanz im eigenen Geschäftsmodell bzw. Produkt-/Leistungsspektrum prüfen?
Notizen zur Episode:
Mitmachen?
Wenn Sie selbst ein interessantes Thema für eine Episode im Umfeld von Geschäftsprozessen haben, können Sie mir das auf dieser Seite mit Vorbereitungsfragen vorschlagen.
Ich freue mich darauf!
Artikel teilen auf ...
(Teil)automatisiertes Transkript
Episode 347 : Embedded KI
Herzlich willkommen zu dem Podcast für Lean Interessierte, die in ihren Organisationen die kontinuierliche Verbesserung der Geschäftsprozesse und Abläufe anstreben, um Nutzen zu steigern, Ressourcen-Verbrauch zu reduzieren und damit Freiräume für echte Wertschöpfung zu schaffen. Für mehr Erfolg durch Kunden- und Mitarbeiterzufriedenheit, höhere Produktivität durch mehr Effektivität und Effizienz. An den Maschinen, im Außendienst, in den Büros bis zur Chefetage.
Götz Müller: Heute habe ich Viacheslav Gromov bei mir im Podcast-Gespräch. Er ist der Geschäftsführer der AITAD. Hallo Herr Gromov.
Viacheslav Gromov: Hallo Herr Müller, danke für die Einladung. Ich freue mich.
Götz Müller: Ja, sehr gerne. Ich habe schon ein kurzes Stichwort zu Ihnen gesagt, aber stellen Sie sich gern noch mal in zwei, drei Sätzen vor.
Viacheslav Gromov: Ja, ich bin Viacheslav Gromov. Ich habe die AITAD GmbH vor knapp 6 Jahren gegründet, wir sind rund 30 Köpfe hier in Offenburg in Baden-Württemberg, beschäftigen uns ausschließlich mit Embedded KI, also voll dezentraler KI, das machen wir sehr wertorientiert, entwickeln für Maschinenbau, Automotive und Medizintechnik und produzieren auch hier in Offenburg diese Sensoren, und ich komme aus dem Bereich der Embedded Systems, also Hardware und Software, bin viel in den Gremien unterwegs, wo es um KI Safety, wie reguliert man KI geht, vielen Familienunternehmerverbänden, lehre hier auch an der Hochschule Offenburg und berate die Bundesregierung in einem BMBF-Gremium. Ja, das sind so ein bisschen meine Hobbys und mein Haupthobby ist natürlich AITAD.
Götz Müller: Ja, jetzt haben Sie gerade schon das Stichwort genannt, auch, und das ist ja das Thema unserer Episode, eben Embedded KI für mich persönlich jetzt im Grunde kein Fremdwort, aber vielleicht für den ein oder anderen der Zuhörer, daher die Bitte, da noch mal geschwind eben auch die Abgrenzung zu anderen KI-Formen, auch wenn vielleicht auch da wieder der ein oder andere Zuhörer sich gar nicht über die Notwendigkeit von Abgrenzungen bewusst ist.
Viacheslav Gromov: Ja genau, also Embedded KI ist eigentlich der dritte Megatrend innerhalb der ganzen KI-Welt sozusagen. Also nach den zwei KI-Wintern, wo man Schwierigkeiten hatte überhaupt, ob man jedes mathematische Problem lösen kann und am Ende der zweite KI-Winter war eher, dass man nicht genug Rechenkapazitäten hatte, Richtung ab den 80er-Jahren und jetzt ab den Zweitausendern ist die KI überall da und immer sozusagen höher skaliert, aber meistens auf großen Rechensystemen, das heißt zentral auf Servern, in der Cloud wie ChatGPT ja meistens auch ist, also zentral irgendwo auf den Servern von Amazon, IBM und den wenigen Cloud-Playern. Danach, so vor gut zehn Jahren kam der Edge AI Trend, also man hat versucht an der Edge, also an der Netzwerkkante, also vor Ort schon ein Stück KI sozusagen hybrid einzupflanzen in Autos, Maschinen und Co. Bestes Beispiel ist vielleicht so eine öffentliche Kamera, die schon mal durch eine kleine lokale KI, die in der Kamera sitzt die Menschen aus dem Bild ausschneidet und diese Ausschnitte aber trotzdem an die große KI, zentral auf dem Server, im Keller oder in der Cloud schickt, wo die große KI die Gesichtsauswertung macht. Also so eine Hybridform von KI vor Ort und zentral und jetzt vor so vier, fünf Jahren richtig in die Praxis gekommen ist eben Embedded KI, also die nächste Welle, also die Möglichkeit, KI ausschließlich vor Ort auf Chips, ab 40 Cent aufwärts, mehr oder minder fast schon autark, weil es wenig Energie verbraucht, laufen zu lassen. Und das eröffnet ganz neue Möglichkeiten, was die Echtzeitfähigkeit, Datenschutz, Verarbeitung und Co betrifft und ist symbiotisch zu verstehen zu den großen KIs, die zentral und vor allem generativ sind.
Götz Müller: Also ich weiß nicht, wie es Ihnen geht, was mir oft begegnet, wenn das Stichwort Cloud fällt, dann rennen gefühlte 50% oder sogar viel mehr, speziell so im Mittelstand, die rennen dann schreiend davon, weil da halt all die Bedenken da sind: Oh, meine Daten und dann sind sie weg – und was macht dann jemand anderes damit? Deshalb da noch mal intensiver nachgefragt: Ist das so, ist das auch in dem Kontext so und wie unterscheidet sich dann eben Emedded KI, auch wenn es vielleicht eine triviale Frage ist?
Viacheslav Gromov: Ja, also die Sorgen, die Sie gerade beschreiben, sehen wir täglich, ja, vor allem in der Medizintechnik ist es sogar regulatorisch nicht möglich, viele Patientendaten oder zumindest nicht einfach sehr schwer, Patientendaten in fremde Clouds zu laden, die müssen speziell zertifiziert werden und Co und natürlich aber auch von jeder Produktherstellung oder jeder Industriehalle, wo es um Know-how geht, ist natürlich die Cloud, ja, ziemlich kritisch gesehen. Warum? Der Hintergrund ist ja eigentlich, dass wir als Europa und als Deutschland die Cloud-Welle verpasst haben, also die Cloud-Player, die man an einer Hand, die größten, abzählen kann, liegen einfach nicht in Deutschland und Europa, sondern in den USA und mittlerweile auch in China, das sind die ganzen IBM, Amazon, Huawei und Co dieser Welt und natürlich, ja, geschieht das Ganze unter anderen Werten. Man macht sich auch erpressbar tendenziell, man ist nicht sicher, wie sicher das Ganze aufgehoben ist und die großen Player können ja auch natürlich die Kosten kontinuierlich vorgeben und die Preise und, ja, das widerspricht auch unserer dezentralen Wirtschaftsform, die wir hier in Deutschland, insbesondere natürlich auch in Baden-Württemberg haben, dass wir eine sehr verteilte Mittelstandslandschaft haben und verteilte Datensilos, wenn Sie es so wollen und diese zentral überall zu speichern ist aus vielerlei Gründen, ja, nicht, nicht empfehlenswert, ja, und zum Vergleich mit Embedded KI, da wirkt ja die KI im Embedded-KI-Konzept rein lokal. Das heißt, die Daten, die in dem Gerät, in dem Auto, in der Maschine entstehen werden auch vor Ort verarbeitet, die Entscheidung wird sofort getroffen, ohne dass die Daten irgendwo rausgehen. Das kann viel schneller gehen, als wenn Sie jetzt die Daten zum Cloud-Server nach Irland oder so etwas und zurückschicken von Amazon. Und das passiert sehr viel energieeffizienter, was ein großes Problem der Zentralen Cloud ist, also ChatGPT pro Training braucht ja teilweise so viel Energie, Leistung, Strom wie Großstädte, wie München und Co, benötigen und da laufen wir schon in Energieproblemen, in Datenhoheitsprobleme, Abhängigkeits- und Kostenprobleme natürlich. Mit der Embedded KI, da hat man einmal so einen Chip oder einen Sensor eingebaut und bezahlt nicht kontinuierlich dafür. Bei Cloud ist das eben anders.
Götz Müller: Jetzt haben Sie wahnsinnig viele Nachteile von Cloud KI aufgezählt oder umgekehrt eben Vorteile von Embedded KI. Jetzt steckt für mich die Frage dahinter im Grunde und aber auch da wieder vielleicht eine triviale Frage, ja, warum hat man es nicht gleich so gemacht? Klammer auf, vermutlich liegt es an der Rechenleistung, die bisher verfügbar war, so im Kleinen, im Embedded Bereich, sagt meine eigene Historie, wenn ich zurückdenke, was Embedded Themen anging, mit dem, was wir heute in der Tasche haben, ist man ja früher nicht bloß bis zum Mond, sondern noch viel weiter im Grunde geflogen.
Viacheslav Gromov: Ja, das ist tatsächlich so und die Einschätzung ist richtig. Ja, die kleinen Halbleiter haben an Performance wahnsinnig gewonnen und werden es auch die nächsten Jahre extrem tun. Wenn wir, ich sage immer so ein Beispiel, wenn wir zum Beispiel eine Sprachsteuerung, lokal für Waschmaschine, Waschprogramm, 60 Grad Start machen, ist das ein einfacher Use Case, aber Embedded KI kann so tief in diese Daten schauen, dass wir teilweise die Emotionen erkennen können. Für eine Waschmaschine jetzt irrelevant, ob der Sprecher zufrieden ist oder aggressiv oder ähnliches, für ein Fahrzeug heutzutage schon hochrelevant. Also es gibt heute teilweise, nicht unbedingt KI-Systeme, aber andere Systeme, die versuchen einzuschätzen, wie aggressiv ist der Fahrer gerade oder akut aufgewühlt, damit die Assistenzsysteme entsprechend greifen und perspektivisch, wenn die Halbleiter noch performanter werden, wenn man wenigen Wörtern, die sie zum Auto oder zur Waschmaschine zum Beispiel sagen, wenn wir jetzt bei Anwendung, Sprachsteuerung bleiben, erkennen, wie gut es ihrer Lunge geht, ja, Raucher, Nichtraucher, Long Covid, nicht Long Covid et cetera, also so weit wird es gehen mit der Rechenleistung – nichts desto trotz, auf ihre Frage bezogen, Cloud KI wird nach wie vor Relevanz haben, ja, als wir den größten Elektronikpreis der Welt letztes Jahr gewonnen haben, hatten wir auch ein Gespräch mit Amazon AWS und die Stimmung war etwas kühl, weil man das sozusagen als konkurrierende Technologie sah zu der Cloud und das sehen wir überhaupt nicht so. Das hat uns sehr gewundert, weil das ist symbiotisch, ja, in der Cloud werden dadurch, dass die Anwendungen, die vorher in der Cloud möglich sind oder waren, jetzt sozusagen eine Ebene tiefer, auf die Geräteebene, auf die mehr materialbezogene sozusagen Ebene rutschen, werden noch abstraktere und performantere, leistungsfähigere Applikationen in der Cloud bleiben, weil die Cloud kann übergreifender, kann vernetzen, kann noch viel performanter werden, noch abstraktere Algorithmen fahren. Ja, und ich sage mal so, das Vorbild ist eigentlich immer die Natur und der Mensch, ja, nicht alles passiert zentral in unserem Kopf, sondern Dinge passieren auch dezentral, gerade weiß ich nicht, was man in meinem großen Zeh passiert, erst wenn Sie mir drauftreten, meldet sich dezentral das Rückenmark und sagt dem Kopf Bescheid. Es gibt Prozesse, die müssen vor Ort unter enorm hohen Datenmengen sofort passieren und energieeffizient und es gibt manche Dinge, die müssen zentral im Kopf sozusagen passieren, und die Symbiose ist eigentlich der Schlüssel.
Götz Müller: Ja, ich stelle mir da nur gerade vor, wenn wir drüber nachdenken müssten, wie du das mit dem Schnaufen funktioniert, dann hätten wir verdammt viel zu tun.
Viacheslav Gromov: Ja, genau, exakt.
Götz Müller: Jetzt kann man wahrscheinlich aber eben Vor- und Nachteile benennen auf beiden Seiten also, wobei der Cloud, wie bei der Embedded KI. Ich meine, ein Punkt wird mit Sicherheit sein, in dem Anblick, wo mir eine Internetverbindung ausfällt, ist halt die Cloud-KI beziehungsweise der Sensor, der dann nur noch vor Ort ist, der ist halt dumm wie ein Stück Brot. Gibt es noch andere Dinge, die relativ zentral, diese Abgrenzung, ja, im Grunde dann schon einmal auf dem Silbertablett präsentieren?
Viacheslav Gromov: Ja, also außer sozusagen der Notwendigkeit der Infrastruktur, die man bei Cloud hat und bei Embedded KI nicht hat, kann man noch zur Embedded KI sagen, dass es eben echtzeitfähig ist. Das heißt, Sie müssen nicht warten, bis die Cloud antwortet, ja, was natürlich zum Beispiel in Produktionsumgebungen oder in der Medizintechnik, wo die Entscheidung sozusagen beim Bedienen gefällt werden muss, von hohem Vorteil ist, dass Sie eben keine Latenzzeiten haben und drittens ist die Datentiefe auf jeden Fall zu nennen, weil der Übertragungsweg, ja, also das ist eigentlich der Flaschenhals, ja, also wenn wir Embedded-KI-Sensoren entwickeln und produzieren, dann sammeln diese teilweise Terabytes an Daten pro 24 Stunden, also am Tag. Wenn das jetzt zum Beispiel ein Ultraschallsensor am Antriebsstrang eines Autos ist, wo wir schon hören können, wann wird zum Beispiel eine Welle oder ein Getriebe brechen und kann tödlichen Unfall verursachen, also man kann auch Leben retten, dann produziert so ein Ultraschallmikrofon eben Terabytes an Daten in 24 Stunden, die könnten sie gar nicht übertragen zur Steuerungseinheit, zu der Großen des Autos oder gar in die Cloud, weil das sind zu hohe Datenmengen, wenn sie von jedem Sensor im Auto kämen. Das heißt, heutzutage reduziert man die Daten, indem man nur jeden tausendsten Datenpunkt rauspickt und überträgt oder anders filtert, wenn man einen Durchschnitt von 10000 Werten nimmt et cetera und dabei gehen Informationen verloren. Das heißt, bei der Cloud kommen nicht alle Informationen an. Und das ist eben bei Embedded KI anders. Sie können es sich so vorstellen, wenn wir jetzt bei Geräuschdaten bleiben, zwecks Predictive Maintenance, Verschleißerkennung zum Beispiel, dann schaut sich die KI, nimmt sich einen Schnipsel, eine Millisekunde in den Arbeitsspeicher sozusagen auf dem Tisch, in den Chip, KI schaut es sich an, sieht etwas, sieht es nicht, speichert das Ergebnis, schmeißt diesen Schnipsel weg, nächster Datenschnipsel und so kann man tatsächlich Terabytes an Daten hochaufgelöst bearbeiten und sieht auf einmal neue Zusammenhänge, die man in der Cloud gar nicht sehen konnte. Und das ist ein großer Vorteil, wenn wir zum Beispiel Verschleißüberwachung von Pumpen in Waschmaschinen eben entwickeln, merken wir teilweise, dass wir sogar das Waschpulver unterscheiden können, weil es anders klingt, wenn es durch die Pumpe fließt, das Originale versus nicht das Originale und Co. Also da ist unglaublich viel möglich bis hin zur Schlaganfallerkennung im Gesicht, das sind Nuancen, die sie unter Datenreduktion gar nicht machen könnten, und das ist, glaube ich, neben der Energieeffizienz natürlich ein ganz großer Punkt. Und, wie gesagt, ich will die KI auch nicht schlecht reden auf der Cloud, da kann man es einfach viel abstrakter, viel übergreifender, mehrere Maschinen auf einmal et cetera, da sind einfach andere Use Cases, sinnvolle Use Cases, Prozessanalysen, Wertschöpfungsketten optimieren, Dokumente erkennen, OCA und so weiter, das ist ja alles auf der Cloud auch sinnvoll und richtig und, ja, das sind einfach zwei verschiedene Anwendungsgebiete.
Götz Müller: Ja, wobei speziell bei letzteren mir dann spontan der Gedanke einfällt, dass auch da die Nerven wieder wahrscheinlich entspannter sind, wenn eine OCR-Auswertung, Schrifterkennung, praktisch lokal stattfindet und meine Daten dann auch wieder gar nicht in der Cloud sind und da so … eben dieses Vertrauensthema.
Viacheslav Gromov: Das stimmt, das stimmt, da gebe ich Ihnen recht. Ich denke, da wird auch darauf gearbeitet. Trotzdem sehe ich die Symbiose, also wissen Sie, ein Beispiel, zum Beispiel, Embedded KI könnte viel besser erkennen, das alte Scheibenwischerproblem, ja, Sie kennen es vielleicht vom eigenen Auto so richtig, die Sensoren, Regensensoren funktionieren nicht so richtig, Sie müssen immer nachjustieren, ob das jetzt Schnee, Matsch, Hagel, leichter Regen, starker Regen mit Dreck, ohne Dreck ist, so etwas könnte man vor Ort mit Kamera oder Infrarot-Sensoren oder anderen Sensoren viel robuster machen, dass die KI auch lernt, welche Stufen und welche Geschwindigkeit man bei welcher, ja, Regen-, Matsch-, Hagelart man fahren sollte. Das funktioniert sehr gut lokal und muss ziemlich schnell passieren und zuverlässig, ohne Verbindung, ja, weil Sie immer im Auto ja auch rumfahren, während auf der Cloud die Informationen über die Scheibenwischer, wenn natürlich jetzt in Offenburg alle Scheibenwischer an sind, dann kann nur eine abstrakte KI auf Cloud-Ebene, die eben alle Fahrzeugdaten bekommt von den Fahrzeugen sagen: Okay, jetzt regnet es in Offenburg. Also man kann andere Schlüsse, will ich damit sagen, zentral verarbeiten und ziehen, die man dezentral nicht kann und eben auch umgekehrt.
Götz Müller: Mhm, mhm. Jetzt ist ja KI nicht von 0 auf 100 oder von nichts auf 100, 0 auf 100 geht im Grunde ja gar nicht. Das heißt, ich habe bestimmte Einführungsprozesse. Das mag jetzt im klassischen, Sie hatten es ja ganz am Anfang angedeutet, im klassischen KI-Kontext reden wir im Grunde über Jahrzehnte, also ich entsinne mich da, in den Achtzigern habe ich in Kaiserslautern studiert, dort gab es schon einen DFKI, da hat man natürlich über ganz andere Dinge geredet, wie wir heute reden und da konkret eben: Was hat sich verändert, wenn man das so ausdrücken kann, wenn man über Einführungsprozesse von Embedded KI redet? Ich glaube eben, dass so die klassische KI, aufgrund ihres Alters zum Teil, ein viel, viel schleichenderer Vorgang gewesen ist. Und allein wenn man eben über ChatGPT, wobei da ja auch noch viel Cloud drinsteckt, nachdenken, haben wir eine ganz andere Geschwindigkeit gehabt und ich könnte mir jetzt eben vorstellen, dass wir ähnliche Effekte haben im Embedded-KI-Bereich, allein wenn man über ein Unternehmen wie NVIDIA-Grafikkarten nachdenkt, die man früher nur als Grafikkartenhersteller kannte, wenn man vielleicht Spiele-Freak war, ansonsten hat man halt gesagt „Ja, ich habe halt eine Grafikkarte.“, aber man hat sich nicht viel Gedanken drüber gemacht, was denn da drinsteckt und heute ist das Unternehmen, glaube ich, mit seiner Marktkapitalisierung vor allen Dingen eben aufgrund der KI-Fähigkeit der Hardware, möglicherweise Embedded Hardware, bekannt.
Viacheslav Gromov: Ja, also die NVIDIA stellt eher die größeren Prozessoren her, die eben auf Cloud, größtenteils in den Serverfarmen, fungieren und natürlich auf Leistungen und nicht auf Stromverbrauch natürlich optimiert sind. Es gibt auch kleinere Vertreter, aber die sind alle in sehr teurem Bereich, das schaffen Sie sie nicht, solche für kleine Anwendungen in Autos für Verschleißerkennung oder Herden des Riechen beibringen, was wir eben tun, das sind alles kleinere Chips, da sind andere ganz große Chip-Player unterwegs, aber grundsätzlich, ja, Integration von Embedded KI läuft etwas anders ab als, ja, übliche KI. Also es ist auch viel mehr, ja, eine Reise, die man begeht. Man weiß am Anfang teilweise bei einem komplexen Problem nicht, wie man dem genau begegnet, weil Embedded KI kommt da ins Spiel oder KI allgemein, wenn das Problem eben zu komplex ist, wenn man nicht einfach heuristisch, sage ich mal, den fallenden Apfel vom Baum eh physikalisch und klassisch eben abbilden kann und weiß, wie schnell man zum Ergebnis kommt, sondern wenn es viel komplizierter ist, ja, wenn der Wind noch dazu kommt und der Wurm im Apfel und dann noch der Zuckergehalt wegen Sonneneinstrahlung anders ist und den Schwerpunkt so verändert, dass der Apfel woanders landet, dass Problem so komplex wird, dass man das eigentlich nur noch empirisch durch maschinelles Lernen, was ja eben KI und letztendlich auch Embedded KI ist, in dem Stile lösen kann. Das heißt Return on Invest ist gar nicht mehr so einfach und bei Embedded KI geht man auch teilweise indirekt an Probleme ran. Ich kann zum Beispiel über die Wärmeverteilung in einem Schaltschrank etwas über die nahegelegte Maschine oder Industriehalle sagen, was da kaputt gehen wird. Also ich muss ja gar nicht auf die Maschine gucken oder beim Verschleiß an Elektromotor muss sich nicht nur auf Stromverbrauch und Rauschen achten, sondern vielleicht auf Vibrationen oder Ultraschallgeräusche oder ich kann es anlasern, wenn ich nicht drankomme. Also es gibt verschiedene, ja, Denkweisen, die auch Mut erfordern, Unternehmertum, man wird neue Dinge finden, manches wird funktionieren, manches wird nicht funktionieren, aber es heißt immer Daten sammeln am Anfang, das ist das Teuerste, ja, am Anfang mit vielen Sensoren, die eben diese Terabytes an Daten überhaupt sammeln können. Wenn man dann genug Realdaten hat, die man nie genug hat, selbst wenn man mehrere Maschinen, Autos etc. auf Prüfständen hatte, ist es sehr teuer, über Monate, halbes Jahr, wir haben Deepfake-Algorithmen, mit denen man, ja, in Ihr Gesicht etwas einsprechen kann, was sie noch nie gesagt haben. So ähnlich machen wir mit Gun-Netzwerken, zum Beispiel auf großen Servern, eben aus den Realdaten noch mal Faktor 1000 mehr virtuelle Daten, sodass die andere KI, die daraus lernt, eben mehr Stoff zum Lernen, also mehr Daten zum Lernen, hat und diese KI, die daran gelernt ist, in dem Prozess merken wir auch, mit welchem Sensor und welcher Position ist dieser Use Case, den der Kunde vorgibt, am besten zu handeln, das ist ja immer sehr maßgeschneidert, auch wenn wir im Hintergrund skalierbare Prozesse haben, also nie von Null anfangen und dann ist eigentlich das größte Know-how in Embedded KI und auch bei uns bei AITAD, ist, wie bekommt man dieses große, auf Servern trainierte Modell so klein geschrumpft, dass es eben auf den Chip passt und trotzdem performt. Und das sind eigene Skripts, da müssen wir jeden Bit drehen, da arbeiten wir ja viel mehr den Chipherstellern selber zusammen, das ist wie wenn sie einem Kind Bobbycar fahren beibringen und dann eine künstliche Demenz verordnen, also einzelne Neuronen abschalten oder Stränge abschalten und hoffen, dass es alle Fähigkeiten verliert, bloß nicht die des Bobbycar-Fahrens, ja, und dann ist das Hirn sozusagen geschrumpft, aber kann das Problem immer noch lösen und passt auf den Chip und kann eben lokal ausgeliefert werden. Das ist jetzt in Kürze so der Entwicklungsprozess, der sicherlich deutlich anders als in der Cloud ist, weil da hat man sehr viel unspezifischere Daten in der Cloud, ja, wenn es um Gesichtsauswertung, Personenerkennung und Spracherkennung geht, hat man da große Datenbanken, bei Embedded KI ist man da deutlich technischer und deutlich spezifischer oft.
Götz Müller: Zumindest so in meinem Embedded-Weltbild von früher, nenne ich es mal, habe ich auch eine viel höhere, und Sie haben es auch schon angedeutet, eine viele höhere Interaktion zwischen Hardware und Software, sonst würde man es ja von vornherein gar nicht im Embedded KI nennen.
Viacheslav Gromov: Genau.
Götz Müller: Gut, jetzt haben Sie es schon ein bisschen angedeutet, dass der Einstieg in das Thema manchmal vielleicht nur in einer Wolke, um mal bei so einem Begriff zu bleiben, in einer Wolke besteht. Das heißt, irgendwie vage deutet man da irgendwo dahin und, ja, da gibt es eine Idee und Gedanken, aber so richtig greifbar ist es noch nicht, und das ist jetzt wieder in meinem persönlichen Weltbild auch so ein bisschen Kontrast, andererseits natürlich aber wieder zu dem Embedded, zu dem Hardware-Anteil, den man halt greifen kann – wie bringt man die Themen im Einstieg vor allen Dingen unter einen Hut, ohne so metaphorisch völlig mit der Schrotflinte irgendwie ins Blaue zu schießen?
Viacheslav Gromov: Ja, Embedded KI ist immer greifbar, ja, man kann es immer in der Hand, das Platinchen oder der Sender, der da am Ende rauskommt, in der Hand halten. Unsere Empfehlung ist es eigentlich immer, dass man, ja, die, wir sprechen ja immer von den Hidden Needs, also meistens weiß der Kunde gar nicht, dass es Embedded KI gibt, was damit anders ist oder besser oder dass er es braucht et cetera. Also es ist viel Aufklärung in der KI allgemein und insbesondere in Embedded KI notwendig, weil heute wird ja KI auf alles geklebt, ob es drin ist oder nicht und man muss ja auch sagen, ganz ehrlich, die Shifting Baselines, also dieses Phänomen, dass die Standards des Minimaleinsatzes von Technologien sich ständig erhöht, ist ja auch gegeben. Also heute ist es ja nichts Besonderes, KI im Unternehmen einzusetzen, weil das ist in jeder Microsoft-Anwendung schon drin, irgendein Chat-Assistent oder in CAD-Programmen Assistenten, die schon Teil vorzeichnen an Zeichnungen et cetera, das heißt, man muss immer wieder darüber hinausschießen, wenn es um Wettbewerb geht und da ist einfach unsere Empfehlung, ja, natürlich auf den Nutzen zu achten. Wenn wir jetzt im Predictive Maintenance bleiben, was sind denn die Hauptausfallskomponenten, die man überwachen könnte, was richtig Geld kostet im Ersatz, auch im Garantiezeitraum und Co, was den Kunden auch Mehrwert bietet, das monetarisierbar ist, das ist sicherlich gerade im Predictive Maintenance, Maschinenbau-Markt sehr beliebt, weil man ja im Stückzahlwettbewerb mit Asien kaum mehr konkurrieren kann, weil Blech biegen, schweißen et cetera können die Chinesen genauso gut, aber das Servicenetz und Co zu liefern. Das ist, ja, das erfordert eine andere Mentalität und das Verständnis, das können wir in der westlichen Welt anders. Und davon können wir profitieren, also die ganzen Pay Per Use, Subscription, kontinuierliche Geschäftsmodelle, das sind eigentlich oft auch Enabler für Embedded KI oder Embedded KI ist eben Enabler dafür, dass man eben Service-Einsätze plant und den Kunden sozusagen die Verfügbarkeitszeit statt Ausweiszeit verkauft, was auch natürlich ein nachhaltiger Trend ist. Und dann gibt es viele spezifische Probleme, die man immer hatte, aber nie lösen konnte im Produkt, weil es eben zu schnell zu viele Daten waren oder auch Interaktion, Sprache, Gesten, Personen erkennen, ob sie gestresst ist, auch in der Medizintechnik oder im LKW. Das sind alles Use Cases, die erst mit Embedded KI wirklich möglich werden, die schon lange in der Schwebe waren. Das ist auch unsere Erfahrung, dass man da ansetzen sollte und natürlich beim Wissensschatz der Mitarbeitenden, der Kollegen, weil, ja, man hat oft Painpoints, die man schon länger mit sich mitschleppt, aber die man noch nie angegangen ist. Und der Wissensschatz, welchen Zusammenhang, welche Korrelation konnte, könnte man denn, wenn man folgendes misst, sozusagen rausziehen aus dem Prozess, aus der Anlage, aus der Maschine, das ist teilweise auch in den menschlichen Köpfen drin, und man muss es sozusagen in eine KI gießen. Das ist meistens sehr erfolgreich. Das heißt der Schatz ist eigentlich auch das Know-how der entsprechenden Mitarbeiter.
Götz Müller: Ja, das find ich jetzt einen spannendes Punkt und den würde ich ganz gern auch ein bisschen vertiefen im Sinne von: Wie sieht jetzt die Reaktion dieser Wissensträger aus? Ich könnte mir da vorstellen, ich erlebe es zumindest an manchen anderen stellen, dass da, ja, eine gewisse Abwehrhaltung da ist, im Sinne von, werde ich jetzt als Wissensträger überflüssig, weil dann plötzlich die KI das weiß, was ich weiß und in vielen Fällen ja die Dinge viel schneller beurteilen kann, wie ich vielleicht trotz meiner Erfahrung in der Lage bin.
Viacheslav Gromov: Genau und vor allem objektiver. Ja, also die KI steht nicht mehr im linken oder mit dem rechten Bein auf und so weiter, das muss man schon sagen, ja, also selbst Qualitätstests, es gibt ja Leute am Ende einer Produktionsstrecke, ob das jetzt Motoren sind, Pumpen sind oder ganze Maschinen, die teilweise schon hören, wie so ein erfahrener Automechaniker, wenn Sie in die Werkstatt fahren, hört er, das ist der Keilriemen, der gerade defekt ist, so hören Sie teilweise zum Beispiel auch Falscheinbauten, oder Falschkonstruktionen, Montagefehler und Co und so etwas zu objektivieren durch Sensoren in der Produktionsstrecke, da gießen sie ja sozusagen die Erfahrung, mit der sie ja die KI zuerst auch füttern, ja, zuerst muss ja auch der Mensch immer wieder zu den Geräuschen, zum Beispiel, oder den Bildern labeln, also auch einen Knopf drücken, ob Okay oder nicht Okay oder welcher Fehler da vorlag und irgendwann kann es die KI selber und, ja, da haben sie Recht, es gibt irrationale Vorbehalte, vor allem bei den Personen, die eben die Erfahrung tragen, wo man nur mit Aufklärung und natürlich auch mit einer gewissen, ja, Entwicklungszeit entgegenkommen kann und, ja, warum sage ich irrational, weil rational werden die Leute ihren Job nicht verlieren. Ja, also wir haben dermaßen Fachkräftemangel, sodass uns immer jeder Geschäftsführer sagt, also selbst wenn wir die Person in fünf Jahren ersetzen, dann ist sie schon in der Rente oder wir brauchen sie an anderen Stellen noch viel mehr und würden sie in anderen Bereiche sozusagen einsetzen. Das sind eigentlich die Punkte, die uns auch gut tun im Fachkräftemangel und übrigens, die auch die Erfahrung sozusagen konservieren, ist auch ein Teil von Wissensmanagement, ja, weil wenn die Person in Rente geht und der junge Ersatz, der braucht erstmal die Erfahrung, audiophil oder visuell, über 10 Jahre, bis der so fit ist wie die letzte Person. Also, ja, Vorbehalte sind da, die kann man auch gut adressieren, aber rational gesehen, sagen wir mal, ersetzen wir keinen Arbeitsplatz oder machen zumindest keinen arbeitslos, weil der Automatisierungsgrad ist allein durch den Fachkräftemangel notwendig.
Götz Müller: Ja, und ich werde dann eben in der Lage sein, wie Sie es auch angedeutet haben, die Menschen mit ihrem Wissen an, ja, nennen wir es mal, an besseren Stellen einzusetzen wie vielleicht ein Wissen einzusetzen, dass der Einzelne vielleicht bewusst ja schon gar nicht mehr hat, sondern er hört es halt, aber er kann es gar nicht so in der Form ausdrücken, was er denn da jetzt wirklich macht. Wenn er es aber wieder auf eine bewusste Ebene hebt, dann öffnen sich ihm möglicherweise ganz neue Türen.
Viacheslav Gromov: Ja, da stimme ich vollkommen zu. Und ich glaube, wie gesagt, das sind irrationale Ängste, und Automatisierung ist notwendig und wir sind auch in den nächsten zehn Jahren nicht so weit, dass wir irgendwie, ja, völlig menschenfreie Hallen haben et cetera. Es gibt noch viel zu komplexe Probleme, für die wir eben dieses Wissen brauchen.
Götz Müller: Ja, man könnte das fast so weit flapsig auf die Spitze treiben. Da gab es ja mal diesen etwas bösen Spruch mit dem papierlosen Büro, wo jemand meinte, das wäre dann, wenn man das, wenn das gelungen ist, dann hätte man auch das papierlose Klo erfunden in dem Augenblick, wobei wir, glaube ich, beide wissen, dass das eher Utopie bleiben wird. Prima. Ich fand das ein spannendes Thema, gerade eben jetzt für mich persönlich, weil ich in allgemein Embedded- Kontexten meine Historie habe, dass ich solche Dinge eben über das, was wir dort damals an Symbiose von Hardware und Software auf einer sehr algorithmischen Ebene, was die Software angeht, jetzt aber eben mit einer künstlichen Intelligenz, wo wir ja im Grunde manchmal uns auch schon schwertun, die Entscheidungswege, die eine KI trifft, nachzuvollziehen. Ich glaube, auch das bleibt eine spannende Herausforderung und für den Augenblick definitiv danke ich Ihnen aber für Ihre Zeit, für die interessanten Einblicke.
Viacheslav Gromov: Ja, vielen Dank auch für die Einladung. Und, ja, auf ein Wiedersehen.
Götz Müller: Das war die heutige Episode im Gespräch mit Viacheslav Gromov zum Thema Embedded KI. Notizen und Links zur Episode finden Sie auf meiner Website unter dem Stichwort 347.
Wenn Ihnen die Folge gefallen hat, freue ich mich über Ihre Bewertung bei Apple Podcasts. Sie geben damit auch anderen Lean-Interessierten die Chance, den Podcast zu entdecken.
Ich bin Götz Müller und das war Kaizen to go. Vielen Dank fürs Zuhören und Ihr Interesse. Ich wünsche Ihnen eine gute Zeit bis zur nächsten Episode. Und denken Sie immer daran, bei allem was Sie tun oder lassen, das Leben ist viel zu kurz, um es mit Verschwendung zu verbringen.
Jetzt eintragen und Artikel/Denkanstöße zukünftig per eMail erhalten.
Artikel teilen auf ...
Hinweis: Ich behalte mir vor, Kommentare zu löschen, die beleidigend sind oder nicht zum Thema gehören.