Philipp Descovich, CEO von Humai, im Interview

Humai Technologies arbeitet mit seinen Industriekunden und Partnern an der kontinuierlichen Erweiterung der Fähigkeiten von Menschen (Stichwort: Human Augmentation) durch künstliche Ingenieure und Assistenten.

Das Ergebnis sind industrieerprobte Anwendungen zum präzisen Erkennen von Ersatzteilen, Maschinenkomponenten und Baugruppen, die höchsten Ansprüchen und komplexesten Anforderungen gerecht werden. In vielen industriellen Prozessen geht es nach der Teileidentifikation um die Visualisierung von komplexen Informationen für Experten und weniger erfahrene Mitarbeiter.

Philipp Descovich CEO 3

Wie bist auf die Idee zu Humai Technologies gekommen?

Peter Pichler, CEO der Berndorf AG,  bat mich, ihn in der strategischen Betrachtung einer kleinen Softwarefirma, in die Berndorf investiert war, zu unterstützen. Die Firma war tatsächlich etwas ziellos, aber die wenigen Mitarbeiter waren extrem talentierte Techniker, spezialisiert in einem hochinteressanten Bereich: Computer Vision und Augmented Reality. Im Rahmen der Analyse habe ich mich in das Potential dieser erlesenen Truppe verliebt. Kurz danach habe ich Berndorf den Vorschlag gemacht, einzusteigen.

 Was ist die Vision von Humai Technologies?

Unsere Vision ist es, dass wir mit künstlicher Intelligenz und Visualisierungstechnologien Technikern helfen, in ihren täglichen Aktivitäten perfekt zu werden.

Habt ihr echte Kunden?

Die ersten Superkräfte oder Assistenzsysteme wurden gemeinsam mit der Firma Bosch entwickelt und verbessern dort die Art und Weise wie mit Ersatzteilen umgegangen wird. Ein Beispiel ist der Bosch Pocket Assistant, den können sie sich sogar auf ihr privates Handy runterladen und damit Boschzubehör im Baumarkt suchen und finden.

Weitere Superkräfte werden aktuell zusammen mit der Firma Aichelin entwickelt und getestet. Offensichtlich haben wir noch keine Tausenden von Kunden, ansonsten wären Google und Apple nicht mehr die größten Konzerne in der IT-Welt.

Was ist heute in diesem Bereich möglich?

Eine Menge. Computer Vision und Künstliche Intelligenz haben 2016 durch immer günstigere Preise für Computing Power einen Reifegrad erreicht, der es uns ermöglicht, diese Usecases in einem Umfeld einzusetzen, in dem es weniger auf Spielereien wie „Das ist ein Gesicht oder eine Flasche“ sondern auf eindeutige Erkennung ankommt. Zum Beispiel „das ist SAP-Artikelnummer AN47-S3471i“ Auch die Zeit spielt eine Rolle. In einem industriellen Umfeld warten die Ingenieure oder Techniker nicht 15 Minuten, auf ein Ergebnis einer Erkennung, sondern maximal Sekunden.

Aktuelle Superkräfte, die wir für Kunden implementieren sind „Kenne alle deine 100.000 Ersatzteile“, „kenne alle deine Dokumentationen (Bedienungsanleitungen, Wartungsinstruktionen)“, „Röntgenaugen“ und in der Entwicklung haben wir gerade „Reisen in die Vergangenheit“, um Technikern die Möglichkeit zu geben zu sehen, wie war der Zustand kurz vor einer Störung oder eines Ausfalls.

„Reisen in die Zukunft“ ist sowas wie der heilige Gral des Maschinenbaus. Auch das wird möglich sein, Predictive bzw. Prescriptive Maintenance sind hier die Schlagwörter. In einigen unserer Projekte haben wir mit diesen Themen direkt zu tun. Vieles bewegt sich da aber noch in einem stark forschungsorientierten Umfeld. Die Problematik liegt hier in der Notwendigkeit, wirklich sehr viele Daten über lange Zeiträume zu erfassen und dann auch noch ausreichend echte Ausfälle zu haben. In der menschlichen Natur liegt es leider, Ausfälle und Probleme mit anderen zu teilen. In der industriellen Praxis werden Ausfälle daher eher vertuscht und schon gar nicht im Markt übergreifend analysiert. Hier müsste es fast ein Umdenken oder clevere Kooperationen geben.

Warum ist industrielle Ersatzteilerkennung so schwer?

Das menschliche Gehirn interpretiert extrem viel Kontextinformation in ein Bild, das ihm über die Augen zur Verfügung gestellt wird. Computer haben hier einiges zu leisten, um auch nur annähernd ähnliche Ergebnisse zu erzielen. Hinzu kommt, dass viele bekannte Plattformen sich eher mit sogenannter Kategorieerkennung beschäftigen. Also zum Beispiel „ich erkenne einen Bleistift als Bleistift. Ein Kuli geht im Notfall auch noch als Schreibgerät durch“. Im industriellen Umfeld reicht das aber nicht. Hier muss die genaue Type eines Bauteils erkannt werden. Der Dämpfer 23 darf nicht bei der Ersatzteilbestellung mit dem Dämpfer 24 verwechselt werden. Das stellt ganz andere Anforderungen an die zu verwendenden Technologien. Die Präzision und die Zuverlässigkeit einer Erkennung im industriellen Umfeld muss dementsprechend viel höher sein als privaten Umfeld.

Werden diese Technologien Menschen ersetzen?

Wir sehen folgende Entwicklungen und ich verdeutliche das am Beispiel der Autopiloten im „Autonomen Fahren“, über das gerade alle reden. Ein Schulbusfahrer ist auf den ersten Blick überflüssig, wenn wir davon ausgehen, dass die Technologie irgendwann einen Schulbus von Wien nach München fährt. Allerdings stellt man dann vermutlich sehr schnell fest, dass der Busfahrer neben dem Fahren des Busses noch ganz andere Aufgaben hatte, die er die letzten 50 Jahre wie selbstverständlich mit gemacht hat. Er sorgt für Ordnung und Disziplin im Bus, er reinigt ihn, im Falle eines Notfalls organisiert er Hilfe, er passt auf, dass sich niemand ernsthaft verletzt und hält den Bus nochmal an, wenn ein Kind schreiend nebenher rennt.

Warum ist das jetzt möglich?

Wir glauben, dass sich die Dinge im Engineering Umfeld ähnlich verhalten. Durch KI sinken die Kosten für ganz bestimmte Prognosen wie „Wird dieses Bauteil in den nächsten 24 h eine Störung haben!“ In der Vergangenheit musste ein Mensch so eine Prognosen für einen Monat oder sogar ein Jahr treffen, da es schlichtweg zu teuer war, diese Prognose jeden Tag zu machen.

Auf der Basis dieser Informationslage kann dann ein Mensch seine Entscheidungen treffen und für diese Entscheidungen dann wie gehabt die Haftung oder die Verantwortung für die Entscheidung übernehmen. Der „Artificial Assistant“ übernimmt die Datensammlung und die Prognosen, der Mensch die Entscheidungen.

Was denken sie über Artificial Intelligence?

Es wird ja viel über AI gestritten, und oftmals habe ich das Gefühl, dass viele denken, dass es nur noch eine Frage der Zeit ist, bis eine Superintelligenz uns alle abschafft. Meine Meinung dazu ist: „Zeigen wir einem Menschen aus dem 16. Jahrhundert zum Beispiel ein IPhone und die Möglichkeiten, die es uns heute bietet, würde diese Person die Möglichkeiten damit als fantastisch ansehen. Es zerbricht die Physik, in dem wir mit Menschen, die an einem anderen Ort sind sprechen können, oder Bilder machen. Michelangelo würde denken, dass man damit auch Essen oder Feuer machen oder Krankheiten heilen kann, aber wir wissen, dass die Möglichkeiten eines IPhones durchaus limitiert sind. Ähnliches passiert heute im KI Umfeld. Wir philosophieren über die Möglichkeiten, aber in der Realtität ist KI ein Tool, dass ähnlich großes Potential hat, unseren Alltag zu verändern wie elektrisches Licht oder Personenverkehr, aber auch noch sehr limitiert. Was die weitere Zukunft bringt, werden wir sehen.

Wieviel kostet so ein Artificial Assistant?

Ein komplett autarker Assistant benötigt eine verantwortliche Person, die sich zu 100 % mit dem Training und der Weiterentwicklung beschäftigt. Darüber hinaus zeigt die Erfahrung, dass bis zu vier weitere Personen zu 50 % zuarbeiten. Der Betrieb eines Humai Assistenten startet bei ca. 200.000 € im Jahr. Über drei Jahre gehen wir von einem Investitionsvolumen in Höhe von € 1,5 Mio. für die Implementierung und den Betrieb aus.

In den kommenden Jahren werden die Betriebskosten, durch reduzierte Computingkosten, sinken, wenn nicht neue Usecases die Anforderungen wieder erhöhen.

Was ist aus deiner Sicht der nächste Schritt in Richtung Artificial Assistant?

Wir sind gerade dabei eine „Visionbased Search“ für einen Kunden zu implementieren, bei der man über irgendein Teil einer Maschine, einer Anlage oder Ersatzteil scannt und dann alle relevanten Unterlagen angezeigt bekommt, ohne Ordner, Kataloge oder 1000 von PDFs zu durchsuchen.

Des Weiteren sind auf unserer Roadmap „ Der Sprung in die Vergangenheit“, um im Falle von Ausfällen oder Störungen schneller zu verstehen, was passiert ist und die „Automatisierte Dokumentation“ von Wartungstätigkeiten, um die Akzeptanz der Assistenten zu stärken.

Was ist der nächste Schritt für Humai?

Im Herbst 2018 eröffnen wir ein Office in Frankfurt/Bad Homburg, um den deutschen Markt vor Ort zu erschließen und 2019 werden wir den Sprung in die USA vorbereiten.

Kommentare
0