Kaizen 2 go 172 : Digitale Assistenten


 

Inhalt der Episode:

  • Was unterscheiden einen digitalen Assistenten wie den Neo von den bekannten DA von Apple, Google, Amazon?
  • Welche Funktionen im beruflichen Umfeld unterstützt Neo?
  • Wie sieht die Einbindung in eine bestehende IT-Landschaft aus?
  • Welche Rolle spielt künstliche Intelligenz?
  • Wie sieht das Geschäftsmodell hinter einem beruflichen digitalen Assistenten aus?
  • Welche Vorbehalte existieren u.U. in den Unternehmen, unter der Belegschaft (GL, FK, MA)?
  • Wie wird sich das Thema digitaler Assistenten im beruflichen Umfeld noch weiterentwickeln?
  • Welche Möglichkeiten bestehen zur Optimierung der Prozesse?
  • Wie sieht der Einstieg in die Nutzung eines digitalen Assistenten aus?

Notizen zur Episode:


Mitmachen?

Wenn Sie selbst ein interessantes Thema für eine Episode im Umfeld von Geschäftsprozessen haben, können Sie mir das auf dieser Seite mit Vorbereitungsfragen vorschlagen.

Ich freue mich darauf!

Ihnen hat der Inhalt gefallen? Dann bewerten Sie die Episode bitte bei iTunes.
Jetzt eintragen und Artikel zukünftig per eMail erhalten.

(Teil)automatisiertes Transkript

Episode Kaizen 2 go 172 – Digitale Assistenten

Herzlich willkommen zu dem Podcast für Lean Interessierte, die in ihren Organisationen die kontinuierliche Verbesserung der Geschäftsprozesse und Abläufe anstreben, um Nutzen zu steigern, Ressourcen-Verbrauch zu reduzieren und damit Freiräume für echte Wertschöpfung zu schaffen. Für mehr Erfolg durch Kunden- und Mitarbeiterzufriedenheit, höhere Produktivität durch mehr Effektivität und Effizienz. An den Maschinen, im Außendienst, in den Büros bis zur Chefetage.

Götz Müller: Heute habe ich Kiryo Abraham bei mir im Podcastgespräch. Er ist Mitgründer und Geschäftsführer der Neohelden GmbH. Hallo Kiryo.

Kiryo Abraham: Ja, hallo Götz.

Götz Müller: Wir haben heute ein spannendes Thema, digitale Assistenten, und ich denke mal, da wird jeder gleich an so Dinge wie Siri, Alexa, und wie sie alle heißen, denken und da zum Einstieg dann die Frage, okay, jetzt beschäftigt ihr euch auch mit digitalen Assistenten, dem Neo, was ist da der Unterschied?

Kiryo Abraham: Absolut. Also so beginnt auch unser Pitch mehr oder minder, wenn wir unseren digitalen Assistenten vorstellen. Also stellt euch vor, so etwas die Alex und Siri, nur im beruflichen Umfeld. Das heißt, anstatt deine Playlist abzuspielen oder den Wecker zu stellen, fragst du nach deinen Aufgaben oder nach dem nächsten Termin oder du protokollierst gewisse Sachen, wie deinen Kundenbesuch oder deine Aufgaben oder Ähnliches. Das heißt, anstatt B2C Use Cases abzubilden, bilden sie B2B Use Cases ab.

Götz Müller: Wobei ich jetzt so als Laie, und wenn ich so ein bisschen mein Umfeld betrachte, ja mir durchaus vorstellen kann, das ein oder andere kann ich auch mit den klassisch, ich nenne es jetzt mal klassisch, digitalen Assistenten machen. Das heißt, da möchte ich noch ein bisschen nach bohren, was noch mehr der Unterschied ist und auch konkret dann welche Funktionen im beruflichen Umfeld.

Kiryo Abraham: Das können wir auch sehr konkret machen. Absolut richtig. Es gibt gewisse Use Cases, da haben wir auch Überschneidungen zu den bekannten Assistenten. Man muss dazu sagen, die ganz bekannten von Apple, Siri, der Google Assistant oder Alexa von Amazon, die gehen ja ganz klar auf die Datenerhebung. Die nutzen die Daten und das ist für die ihre Vergütung. Wir gehen da einen anderen Ansatz, wir wollen die Daten gar nicht von Unternehmen, weil aus unserer Sicht die Daten die Geschäftsgeheimnisse sind von Unternehmen und die sollte man nicht unbedingt gerade rausgeben. Genau und dementsprechend versprechen wir auch Datensouveränität. Das heißt unseren Assistenten kann auch ein Unternehmen in seiner Infrastruktur aufspielen oder aufsetzen. Das heißt, die Daten bleiben wirklich in den Rechenzentren oder in der Cloud, in der privaten, des Unternehmens und die Daten gehen nicht an die besagten großen Giganten aus der USA oder nach Asien. Grundsätzlich haben wir gewisse Überschneidungen, das ist ganz klar. Was wir beispielsweise bei Kunden umsetzen, da ist ein recht großer Industriekunde, Siemens, mit dem wir zusammenarbeiten im Kraftwerksbereich, die nutzen zum Beispiel unseren Assistenten im Wartungsbereich. Die machen so eine Art Befundungsprozess in den Kraftwerken. Das heißt, der Mitarbeiter prüft gewisse Prüfpunkte und muss diese dokumentieren. Aktuell ist es relativ hands-on, das heißt der Mitarbeiter macht Fotos, dokumentiert das auf einer Checkliste und am Abend setzt er sich hin und protokolliert das in einem sauberen Bericht. Und wir machen das über unseren Assistenten, der auf der Datenbrille ist. Das heißt, der Mitarbeiter sieht, was er zu prüfen hat, Neo sagt ihm, was er zu prüfen hat und er dokumentiert während diesem Prüfprozess per Sprache und auch per Bilder, das heißt, an der Datenbrille gibt es eine Kamera, er kann zu jedem Zeitpunkt ein Bild machen und das zu diesem Prüfpunkt hinzufügen und sobald der Mitarbeiter fertig ist bei diesem Wartungs- oder Befundungsprozess ist der Bericht auch fertig.

Götz Müller: Das heißt, ich höre da auch raus, es ist eine gewisse, ja, Benutzerführung im klassischen Sinne wäre es dann ja auch, oder?

Kiryo Abraham: Genau. Also bei diesem Use-Case sagen wir … Grundsätzlich, unser Assistent ist dazu da, den Mitarbeiter zu unterstützen. Hier in diesem konkreten Use-Case haben wir eine gewisse Strukturierung und eine Standardisierung drin. Der Mitarbeiter kann auch nur gewisse Metriken aufnehmen. Das heißt, wenn Schadensfälle nur im Millimeterbereich sind, kann er gar keine Zentimeter aufnehmen. Das kann er im aktuellen Prozess schon, weil er diese Metriken gar nicht mitbekommt. dadurch, dass wir das Assistenz gestützt machen, sagen wir „Okay, normalerweise, Schäden können nur im Millimeterbereich sein.“ und man kann es sogar noch detaillierter sagen, in welchem Intervall, sodass der Mitarbeiter, falls da größere Schäden sind oder Ähnliches da auch schon gewisse Maßnahmen treffen kann.

Götz Müller: Also im Grunde, du hast auch schon genannt, eine Checkliste, klassisch vielleicht sogar eine Papiercheckliste, was man in der Vergangenheit genommen hätte, wo, wenn ich jetzt drüber nachdenken, natürlich ich immer eine Art von Systembruch da ist, weil ich das Stück Papier habe, wo ich vielleicht ein Haken setze und dann das übertragen muss und ihr kombiniert das jetzt.

Kiryo Abraham: Genau. Also unser Assistenzsystem ist systemübergreifend. Das heißt, den Mitarbeiter an sich interessiert ja nicht, in welchem System er welche Daten pflegt oder herauskriegt, sondern er hat eine gewisse Intention, das heißt, wenn ich klassisch morgens in die Arbeit gehe und sage, was heute so ansteht an Terminen, dann gucke ich natürlich in meinen Kalender nach und wenn ich schaue, welche Aufgaben ich heute habe, gucke ich in meinem Task Management Tool nach und wenn ich schaue, wie viele Stunden ich an Überstunden habe, gucke ich in meinem Zeiterfassungstool nach und diese Komplexität, die aktuell vorherrscht in diesen Unternehmen, also in Unternehmen, das heißt, die haben unterschiedliche Systeme mit unterschiedlichen Login-Masken, mit unterschiedlichen Navigationsführungen, diese Komplexität abstrahieren wir in einen Assistenten, der einerseits per Sprache die Interaktion ermöglicht, andererseits, wie man das auch bei Chatbots kennt, über so einen Chat-Interface.

Götz Müller: Okay. Da höre ich jetzt sofort ein Thema raus, nämlich die Integration in bestehende IT-Systeme, wie in ERP-Systemen oder was es sonst noch für andere Managementsysteme gibt, und da kenne ich jetzt aus anderen Szenarien immer nur durch so eine gewisse einerseits Scheu, weil dadurch klassisch ein gewisser Aufwand entsteht, wenn ich so etwas verknüpfen will. Wie geht ihr mit dem Thema um?

Kiryo Abraham: Absolut. Diese Scheu kennen wir auch beziehungsweise erleben wir auch. Bei vielen konservativen Unternehmen, mit denen wir jetzt in den letzten Monaten Kontakt hatten, kommt natürlich immer die Aussage „Ja, wir haben auch teilweise Individuallösungen im Einsatz. Es ist nicht so einfach SAP anzubinden.“ und, ja, das ist richtig. Diese Integration ist nicht gerade einfach. Wir gehen aber einen Ansatz, zu sagen, es gibt gewisse Bausteine, die man auswählen kann und diese Bausteine sind bei Standard-Software vorhanden, ob es jetzt Salesforce ist, SAP ist oder die gängigen Software-Systeme, Outlook, Microsoft Office, wie auch immer. Da gibt's Bausteine, die wir da anbieten. Die kann man auswählen und dann dockt man da an das System an. Das heißt, relativ viel Programmierung ist von Seiten des Unternehmens gar nicht von Nöten, sondern diese Bausteine stellen wir zur Verfügung und die wählen Sie nur aus. Bei Individualsoftware ist es natürlich ein bisschen anders, da muss man natürlich immer individuell fallspezifisch betrachten, was ist das für ein System, wie kriegen wir die Daten da raus beziehungsweise auch wieder rein.

Götz Müller: Wenn man jetzt über Digitalisierung spricht, kommt vielen vermutlich auch relativ schnell der Gedanke künstliche Intelligenz, der zwar im Deutschen ein bisschen irreführend ist, aber welche Rolle spielt das da für euch?

Kiryo Abraham: Genau. Also künstliche Intelligenz versteht jeder ein bisschen anders, also wenn wir mit Unternehmen reden, dann kommt auch immer so die Frage „Ah, ihr habt ja eine KI drin, das löst ja alle meine Probleme.“ So einfach ist das nicht. Man muss da schon ein bisschen trainieren, also der Herr Professor Jürgen Schmidhuber, ein ganz bekannter KI-Professor hier in Deutschland, sagt auch KI ist wie ein Baby, man muss das erstmal alles beibringen und so ist das auch ein bisschen. Man muss relativ viel trainieren, wenn man gewisse Datensätze nicht vorhanden hat und um auf Basis dieser Thematik KI-Aspekte reinzubringen. Was wir in Sachen KI drin haben, ist natürlich diese Spracherkennung, ich spreche und aus dieser Sprache mache ich Text, also speech-to-text, aber auch Text-to-Speech, das heißt ich habe so eine Art Speech-Synthesis, auch mein Assistent redet mit mir. Wir haben auch eine Bilderkennung mit drin, das heißt, wenn wir ein Foto machen, erkennt Neo, was das ist, abstrahiert daraus auch Text und Ähnliches. Wir haben eine NLU drin, das heißt dieses Sprachmodell wird auch trainiert. Genau, wir gehen sogar soweit, dass wir Robotikthemen angehen. Wir haben unseren Assistenten beispielsweise auf den Pepper Roboter drauf bekommen, das heißt dieser Pepper Humanoide war nur noch das Gerät und die Intelligenz kam von unserem Assistenzsystem. Wir haben auch schon unseren Staubsaugerroboter in der in der Arbeit angeschlossen, das heißt, ich kann jederzeit unseren Staubsaugroboter steuern, wir gehen jetzt soweit, dass wir auch Steuerungsgeräte von Maschinen angehen.

Götz Müller: Ja, das war ein Punkt, der mir dann in der Vorbereitung auch durch den Kopf schoss, weil ja mittlerweile das Thema, ich nenne es wieder klassische digitale Assistenten, Alexa, wo ich sagen kann „Mach's Radio lauter.“ oder „Schalte mir das Licht an.“, gibt dann etwas Vergleichbares, du hast es gerade schon bisschen angedeutet, Richtung Roboter im B2B, also im Business Umfeld?

Kiryo Abraham: Genau, also klassisch Industrieunternehmen hier im schwäbischen Raum, zu sagen, ich mache meine Wartung, ich habe einen Wartungsplan und dementsprechend warte ich meine Maschinen. Das ist ein gangbarer Weg. Aus unserer Sicht könnten wir das so schön verknüpfen, dass Neo sagt „Hey, die Maschine XY hat so und so viele Teile schon produziert, geh mal davon aus, dass du nächste Woche die Wartung durchführst, soll ich dir schon einen Kalendereintrag hinterlegen oder soll ich dieses schon einplanen?“ Man kann auch so weit gehen, dass wir sagen, wir haben so eine Art predictive maintenance, dass man sagt: Ok, anhand verschiedener Kriterien, die man definiert erkennt man, dass Maschinen ausfallen werden in der Zukunft, weil wir diese Daten sammeln und auswerten können in unserem Assistenten. Genau. Das sind Ansätze, die wir verfolgen, die wir auch dieses Jahr und vor allem nächstes Jahr intensivieren werden, weil wir wollen die komplette Wertschöpfungskette von Industrieunternehmen abdecken. Das heißt vom Vertrieb, über den administrativen Bereich, in die Produktion und sogar im After-Sales-Bereich. Wir haben für die Daimler AG beispielsweise auch Fahrzeuge über unsere Assistenzsysteme angedockt. Das heißt Neo erkennt, welche Fehlercodes mein Fahrzeug ausspielt und kann auf der Basis, so der Showcase, mit der Werkstatt kommunizieren und die Werkstatt kann dann sagen „Komm rein, es ist wichtig, dass du sofort reinkommst.“ oder „Lass uns einen Termin ausmachen in 1 bis 2 Wochen, um dann das im Rahmen des Services durchzuführen.“

Götz Müller: Jetzt denkt du hast es am Anfang ein bisschen angedeutet, wenn man über die klassisch digitalen Assistenten redet, dann ist ziemlich schnell klar, dass der Nutzer ein Teil des Produktes ist, nämlich mit seinen Daten, die er den Googles und Amazons gibt oder, wenn wir jetzt mal Apple angucken, dann kreiert sich daraus ja ein Ökosystem. Da bin jetzt schlichtweg neugierig, wie sieht das Geschäftsmodell hinter eurem digitalen Assistenten aus, die Daten an sich, das hast du ja schon gesagt, das ist tabu, damit kann man nicht arbeiten.

Kiryo Abraham: Absolut. Absolut tabu. Dieses Versprechen geben wir und dieses Versprechen halten wir auch ein. Was wir machen ist, aktuell setzen wir POCs ein, das sind so Proof-of-Concepts, die gehen drei bis vier Monate, um einerseits technisch aufzuzeigen, was so möglich ist, weil viele Unternehmen, das gar nicht so einschätzen können, was man mit so einem digitalen Assistenten alles umsetzen kann und andererseits wollen wir natürlich den Mitarbeiter auch abholen und gucken, würde dieser Mitarbeiter das auch nutzen. Im Rahmen dieser Proof-of-Concepts verlangen wir einen gewissen Betrag, je nach Komplexität, das heißt, wie viele Use-Cases bilden wir mit dem Unternehmen ab, wie viel Systeme binden wir an und wie viele Workshops setzen wir damit um. Diese POCs gehen drei bis vier Monate und auf Basis dieser Erkenntnisse sagen wir dann, wir pilotieren oder nicht. Aktuell ist es so, dass wir jeden POC pilotieren. Zukünftig wird das ein bisschen anders laufen, dass die Unternehmen sich das einfach runterladen können und auf Basis einer Nutzungsgebühr, diese Software, die einerseits aus dem Assistenten, das eine App ist, runterladen kann, aber auch diese ganzen Administrationsplattformen, die im Hintergrund sind. Das heißt, ich habe ja gewisse Workflows, die ich abbilde, um diesen Assistenten in einem Flow, in einem Ablauf durchzuspielen. Ich habe dieses Sprachmodell, was ich trainiere. Ich habe gewisse logs-Thematiken und und und und und. Das sind ganz viele Tools, die wir im Einsatz haben und daraus haben wir eine Plattform geschaffen, die man dann künftig beziehungsweise jetzt schon auch, also Kunden nutzen die jetzt auch schon und zahlen auch schon Nutzungsgebühr, aber künftig in einer Art Selfservice nutzen können ohne uns.

Götz Müller: Jetzt hast du gerade noch einen Punkt genannt: der Mitarbeiter, der das letzten Endes nutzt und im Grunde stelle ich die Frage allen Gesprächspartnern, wenn wir über das Thema Digitalisierung reden, weil ich es auch immer wieder wahrnehme, dass schon Vorbehalte da sind und da könnte ich mir vorstellen, dass vielleicht die Vorbehalte sogar noch, verstärkt existieren, so ein Stichwort gläserner Mitarbeiter vielleicht, weil er ja mit dem System kommuniziert und ich dann als Assistent, in Anführungszeichen, ständig sehe, was macht er eigentlich, wo ist er eigentlich. Da muss man, glaube ich, ja auch relativ schnell über so ein Thema wie Mitarbeitervertretungen nachdenken. Was erlebt ihr da?

Kiryo Abraham: Absolut. Also das kritischste oder da, wo wir am meisten drauf achten, wenn wir unsere Assistenten einsetzen bei Unternehmen, ist der Mensch, ganz klar. Viele haben Bedenken, dass sie Arbeit verlieren, dass sie gläserner werden und und und und. Da führen wir Gespräche. Wir machen Testing Workshops, wir gucken, dass die Leute qualifiziert sind beziehungsweise sensibilisiert, da geht es gar nicht um die Qualifizierung, sondern um Sensibilisierung. Da muss man natürlich viel machen, also das merken wir jedes Mal, wenn wir pilotieren, weil wenn man einen Assistenzsystem hat, implementiert hat und die ganzen Systeme angebunden, auch die Workflows abgebildet hat, heißt es noch lange nicht, dass es funktioniert, weil es immer menschelt. Das heißt, da müssen wir und auch der Kunde, das Unternehmen mit den Leuten reden. Aber diese Hemmnisse reduzieren sich, also es wird immer ein bisschen weniger, weil man immer mehr merkt, Leute befassen sich wirklich mit dem Thema … Alexa zu Hause, Siri zu Hause, also jedes Mal, wenn wir mit Unternehmen reden. Ein Drittel hat entweder so ein Assistenzsystem zu Hause mit einer Alexa oder mit einer Siri, also hat es nicht nur, sondern nutzt es auch verstärkt oder hat das Interesse, das in Zukunft zu nutzen.

Götz Müller: Okay. Was ist deine Prognose, wie wird sich das Thema in den nächsten Jahren noch weiterentwickeln?

Kiryo Abraham: Es gibt verschiedene Studien, die besagen, die ganze App-Kultur, die man jetzt so in den letzten Jahren aufgebaut hat, die verschwindet jetzt nicht, aber man interagiert nicht mehr so stark mit Apps im Vordergrund. Das heißt, diese ganzen Assistenzsysteme, Sprachassistenten werden mehr oder minder die Interaktionsformen, die Menschen nutzen und diese Apps werden nur noch im Hintergrund laufen. Das ist ganz spannend. Ich war letztes Jahr auf dem Web Summit in Lissabon, da war ein Speaker, der hat ein Video erstmal gezeigt, wie seine Tochter mit Alexa integriert. Das hat er aufgenommen gehabt, mehrere Sequenzen und für seine Tochter war Alexa ein ganz normales Individuum, also sie hat sich ganz normal unterhalten, wie mit einem Menschen auch und ich merke das auch bei meiner Tochter, für sie ist Neo jetzt kein Roboter oder keine Software, für sie ist Neo wirklich etwas, was sie jetzt dann, darauf freut sie sich, im September mit in die Schule nehmen darf. Das ist echt witzig. Da muss ich mir noch etwas überlegen.

Götz Müller: Das kann ich mir vorstellen. Ja, okay. Da könnte ich mir auch definitiv vorstellen, dass jemand …, dass eine Generation aufwächst, die noch mal ganz anders in solche Themen eingebunden ist. Ja, sehr spannend.

Kiryo Abraham: Absolut.

Götz Müller: Okay. Wenn man jetzt über digitale Assistenten im privaten Umfeld nachdenkt, dann sind ja so ein paar spannende Fälle durch die Presse gegangen, wo jetzt das kleine Mädchen, glaube ich, etwas über Alexa aus Versehen, nicht mit Absicht, aus Versehen irgendetwas bestellt hat und plötzlich waren die Eltern etwas überrascht, wo dann Dinge ankamen. Wie geht ihr mit dieser Problematik oder vielleicht auch mit den Vorbehalten, die sich daraus ergeben können, um?

Kiryo Abraham: Das Thema, genau, also wenn man privaten Umfeld mal etwas bestellt ist es nicht so schlimm. Wenn man natürlich im beruflichen Umfeld mal etwas Größeres bestellt, ist es natürlich ein bisschen schwieriger. Also was wir mit dem Assistenzsystem ja einerseits abbilden ist eine Sprachmöglichkeit, das heißt, ich kann mit ihm reden, aber auch einerseits mit ihm Chatten. Das heißt, ich sehe auch jederzeit, was ich kommuniziert habe beziehungsweise, was Neo macht. Das heißt, ich habe da eine visuelle Erkennung, von dem, was gemacht wird. Was wir teilweise auch bei Kunden umsetzen, jetzt auch im Bankbereich sind wir unterwegs, ist eine Bestätigung, von dem, was man aufgenommen hat beziehungsweise was man dem Assistenten kommuniziert hat, um nicht solche Fehler oder solche Problematiken hinzubekommen. Was wir auch umsetzen, ist natürlich, wenn du so ein Assistenzsystem im Einsatz hast, musst du dich natürlich einloggen. Da gibt's die ganz normalen, konservativen Möglichkeiten, zu sagen, ich habe halt meinen Benutzername, mein Passwort und ich melde mich bei meinem Assistenzsystem an. Was wir auch machen können ist es natürlich über eine Gesichtserkennung oder über so eine Fingerabdruckerkennung machen, so wie man das jetzt heutzutage auch schon bei den iPhones kennt. Um andere Leute da nicht mit dem Assistenten interagieren zu lassen der mir zugeordnet ist beziehungsweise über mein Konto angemeldet ist.

Götz Müller: Also es ist nicht so, höre ich jetzt ein bisschen raus, es ist nicht so eine, nennen wir es mal so, eine always-on-Funktion, das halt da mein Lautsprecher im Wohnzimmer steht und ständig was aufzeichnet oder ständig mithört.

Kiryo Abraham: Genau. Absolut richtig. Technisch kriegen wir das hin beziehungsweise ist es faktisch drin, wir haben es ausgeschalten beziehungsweise deaktiviert. Warum? Gerade im beruflichen Umfeld hat man, und das hast du ja vorhin sehr schön gesagt gehabt, mit den Daten so ein bisschen ein sensibles Thema, gläserner Mitarbeiter und Ähnliches. Da hat man wirklich ein Problem damit, dass ich ein Assistenzsystem habe, das permanent zuhört, weil da werden auch gewisse Sachen gemacht, das hat mit dem Beruflichen oder es werden gewisse Sachen kommuniziert, die haben mit dem beruflichen Prozess gar nichts zu tun und von daher haben wir uns grundsätzlich entschieden, dass der Mitarbeiter aktiv entscheidet, wann Neo zuhört und wann nicht. Da gibt es verschiedene Ansätze, die wir bereitstellen. Einerseits kann er das über einen Button aktivieren, dass man sagt: Okay, ich habe einen Button. Standardmäßig haben wir den auch drin und Neo hört dann zu, wenn ich diesen betätige, aber ich kann auch ganz normal, wie man das bei Google so kennt, sagen „Hey Neo“ und Neo wird dann auch aktiv, dann kann man da auch sprechen.

Götz Müller: Und bis dahin hört er immer nur oder wartet immer nur auf das „Hey Neo“.

Kiryo Abraham: Genau. Richtig.

Götz Müller: Okay. Jetzt geht's ja in meinem Podcast auch um das Thema Prozessoptimierung und wir haben schon bisschen andeutungsweise das Thema Prozesse geschnitten und da jetzt ein bisschen konkreter nachgefragt, wie kann ich mit digitalen Assistenten, wie auch immer, über meine Geschäftsprozesse nachdenken und über deren Optimierung nachdenken?

Kiryo Abraham: Sehr schöne, sehr spannende Frage. Das Schöne an unserer Lösung ist, also nicht nur an unserer Lösung, es haben auch andere ähnliche Ansätze, ist zu sagen, wir haben unser Assistenzsystem so konfiguriert, dass wir in Echtzeit diese Workflows beziehungsweise diese Prozessanpassung durchführen können. Das heißt, wenn ich mit meinem Assistenten interagiere und ich merke, es ändert sich etwas am Prozess, am System oder Ähnliches, dann kann ich das wirklich in Echtzeit anpassen und das per Drag-and-Drop und brauche da nicht Wochen und Monate mit der IT-Abteilung zu diskutieren, wie der Prozess jetzt implementiert wird. Das kann man sehr schön bei uns im Adminbereich über eine Drag-and-Drop-Oberfläche konfigurieren, auch anpassen, und das Schöne daran ist, wenn man so ein Assistenzsystem aufbaut … Genau. Also wenn man so ein Assistenzsystem aufbaut, nutzt man ja KI-Aspekte und das Schöne ist, dass man sagen kann, ich trainiere meinen Assistenten beim täglichen Doing, das heißt, diese KI-Komponente wird bei meinem täglichen Doing immer intelligenter, weil ich hochstrukturiere Daten hinterlege. Das heißt, jedes Mal, wenn ich um 8 Uhr morgens sag „Hey Neo, ich bin in der Arbeit“ und er macht meine Zeiterfassung und dann merkt sich das Neo und irgendwann versteht das Neo und sagt: „Es ist 8:05 Uhr, du hast gar keinen Urlaub. Was ist los? Bist du krank oder was ist los?“ Also auf der Basis lernt Neo und die Prozesse kann man dadurch semi- oder vollautomatisieren. Das heißt, ich als Mitarbeiter oder als Mensch treffe nur noch die Entscheidung „Ja, ich bin da.“

Götz Müller: Okay.

Kiryo Abraham: „Nein, ich bin nicht da.“ Also ich muss da gar nicht mehr aktiv werden, sondern Neo wird da aktiv und dadurch erleichtert ich dem Mitarbeiter natürlich in seinem täglichen Doing beziehungsweise helfe ihm dadurch, effizienter zu werden beziehungsweise sich darauf zu fokussieren, was nicht repetitiv ist, weil viele Mitarbeiter machen halt repetitive Aufgaben, die auch nicht wirklich Spaß machen und solche Aspekte kann man sehr schön mit KI beziehungsweise mit so einem Assistenzsystem unterstützen und die Mitarbeiter fokussieren sich dann auf wertschöpfende Themen. Das heißt konzeptionelle Arbeit oder Gespräche oder oder oder.

Götz Müller: Ja. jetzt geht mir dann gerade noch ein ganz anderer Aspekt durch den Kopf. Vor ganz kurzem war ja dieses Urteil vom Europäischen Gerichtshof, was Arbeitszeiterfassung angeht.

Kiryo Abraham: Absolut.

Götz Müller: Da könnte ich mir dann durchaus auch vorstellen, dass Neo da unterstützt oder von sich weiß, jetzt hat der Bursche da um halb Zehn noch mal eine halbe Stunde E-Mails gelesen.

Kiryo Abraham: Genau. Genau. Absolut. Also Götz, das Thema bringe ich auch jedes Mal in Gesprächen, das EuGH-Urteil, weil man da Transparenz schaffen muss, müssen wir jetzt dann auch als Startup, weil wir auch Mitarbeiter haben und genau das ist ein Use-Case, sind wir gerade auch dabei, das umsetzen bei uns, zu sagen „Hey Neo, ich bin in der Arbeit.“ – „Hey Neo, ich mache jetzt Feierabend.“ Dadurch kriegt man eine gewisse Transparenz. Man muss natürlich aufpassen, das hast du vorhin auch sehr schön gesagt mit dem gläsernen Mitarbeiter: wie viel Transparenz und wer hat da Einsicht? Also da muss man halt schon bisschen sensibler sein, weil wir auch schon mit mittelständischen und großen Unternehmen das Thema angesprochen haben und da kam natürlich gleich das Thema Betriebsrat hoch. Absolut. Das muss man natürlich klären.

Götz Müller: So zum Abschluss eine Frage, die ich immer wieder stelle, wenn der ein oder andere von den Zuhörern sagt „Hey, coole Sache, könnte mir vorstellen.“ Du hast es auch schon bisschen angedeutet, wie sieht der Einstieg aus, wenn ich so etwas nutzen möchte und was kann ich als einzelner Anwender da für Einfluss ausüben?

Kiryo Abraham: Also grundsätzlich, wenn eine Person oder ein Unternehmen Interesse hat, aktueller Stand macht das halt eher Sinn für mittelständische Unternehmen oder große Unternehmen, also die adressieren wir aktuell, weil das jetzt nicht gerade günstig ist. Also man ist natürlich ein bisschen verwöhnt mit Alexa und Siri, dass es nichts kostet und das ist halt bei uns ein bisschen anders, weil wir diese Daten halt nicht monetarisieren. Das heißt, so ein Assistenzsystem kostet was. Es gibt Wettbewerber, die Teilaspekte von uns, wirklich nur Teilaspekte von uns, anbieten und das ist im zweistelligen Tausenderbereich pro Monat. Muss man wirklich sagen. Da musst du mal halt mal gucken. Aber grundsätzlich, wenn einer Interesse hat, ob es jetzt ein mittelständisches Unternehmen oder ein großes Unternehmen ist, dann kommen wir gerne vorbei, machen einen Workshop mit dem Unternehmen. Da gibt's auch unterschiedliche Arten von Workshops, das heißt, wenn er sich grundsätzlich mal vorstellen könnte, irgendetwas zu digitalisieren, dann stellen wir uns vor und unseren Assistenten vor und die Möglichkeiten, die wir machen können. Und dann rattert es meist bei den Unternehmen und dann kann man dann im zweiten Step, wenn man dann schon etwas Konkreteres hat, einen Use-Case, sagen „Ok, wie könnte so ein Use-Case aussehen?“, dann kann man auch einen Workshop machen. Es gibt Unternehmen, die kommen schon konkret mit einem Use-Case zu uns und melden sich bei uns und sagen „Hey, ich kann mir vorstellen, unseren Vertrieb mit so einem Assistenzsystemen durchzuführen, das heißt Neo sagt mir, welchen Kunden ich das nächste Mal besuchen soll, zeigt mir gewisse Infos, was wir angeboten haben, Kontaktinformationen von dem Kunden, führt mich bei diesem Sales-Prozess auch durch und ich dokumentiere sogar meinen Salestermin im Nachgang im Auto über mein Assistenzsystem.“ Solche Anfragen kommen konkret an bei uns. Da kann man ganz schön aufzeigen, wie würden wir das umsetzen, welche Systeme hat das Unternehmen im Einsatz und was würde das kosten konkret. Wenn das Unternehmen es halt noch nicht konkret weiß, muss man das halt erst mal erarbeiten.

Götz Müller: Ja, da geht mir jetzt noch durch den Kopf, im Grunde ist euer Geschäftsmodell auch an der Stelle selbstlernend, optimierend, weil mit jedem weiteren Use-Case kann ich wieder einem Dritten etwas zeigen „Guck mal, das geht auch.“

Kiryo Abraham:Genau, absolut. Das heißt, wir lernen auch dazu. Nichtsdestotrotz, die Daten bleiben trotzdem bei dem Unternehmen. Wir lernen dazu und gucken welche Anbindung machen Sinn, wie machen die Anbindung Sinn, wie machen die Workflows Sinn für die Unternehmen und dadurch haben andere Unternehmen natürlich auch schon einen Mehrwert. Wenn wir unser Assistenzsystem erweitern, kriegt das auch jedes Unternehmen. Das heißt, die sind grundsätzlich immer auf dem aktuellsten Stand. Wir sind da auch relativ transparent für die Kunden beziehungsweise für die Unternehmen und versuchen da eine partnerschaftliche Zusammenarbeit hinzubekommen.

Götz Müller: Ja. Das ist im Grunde ja eine Sache, die wir schon seit Jahrzehnten haben, jeder ERP-System-Hersteller lernt mit jedem Kunden noch dazu …

Kiryo Abraham: Absolut.

Götz Müller: … baut es in sein System ein und dann profitieren unterm Strich wieder alle davon.

Kiryo Abraham: Absolut. Genau den gleichen Ansatz haben wir.

Götz Müller: Gut. Kiryo, ich danke dir für deine Zeit. Da waren viele spannende Einblicke dabei über eine Sache, die man einerseits kennt aus dem privaten Umfeld, andererseits aber eben sich da im geschäftlichen Umfeld ganz neue Gelegenheiten auftun.

Kiryo Abraham: Ich danke dir, Götz.

Götz Müller: Das war die heutige Episode im Gespräch mit Kiryo Abraham zum Thema Digitale Assistenten. Notizen und Links zur Episode finden Sie auf meiner Website unter dem Stichwort 172.

Wenn Ihnen die Folge gefallen hat, freue ich mich über Ihre Bewertung bei iTunes. Sie geben damit auch anderen Lean-Interessierten die Chance, den Podcast zu entdecken.

Ich bin Götz Müller und das war Kaizen to go. Vielen Dank fürs Zuhören und Ihr Interesse. Ich wünsche Ihnen eine gute Zeit bis zur nächsten Episode. Und denken Sie immer daran, bei allem was Sie tun oder zu lassen, das Leben ist viel zu kurz, um es mit Verschwendung zu verbringen.

Hinweis: Ich behalte mir vor, Kommentare zu löschen, die beleidigend sind oder nicht zum Thema gehören.