EVEs erster Auftritt in Berlin

Auf der Digitalkonferenz Microsoft Explained in Berlin durften wir EVE das erste Mal live, unter realen Bedingungen, testen. Überraschung am Anfang: Microsoft fand das Produkt so spannend, dass unser Kollege Maxi Krause es auch gleich auf der Bühne vorstellen sollte, denn das Thema der Veranstaltung war „Künstliche Intelligenz“. Der Moderator Daniel Finger stellte ihm dazu einige Fragen:

Was ist die Idee hinter eurem Projekt?

Die vorrangige Idee hinter EVE ist Menschen mit Hörbeeinträchtigung bei Veranstaltungen aktiv mit einzubeziehen. Bisher war das sehr kostspielig. Denn für Untertitel in Echtzeit war ein Stenograph vor Ort notwendig. Der wandelte das Gesprochene in Text um.

Laut einem Bericht der Weltgesundheitsorganisation (WHO) leben auf der Welt 466 Millionen Menschen mit Hörbehinderung (Stand 2018). Viele davon sind auf Untertitel angewiesen, um überhaupt etwas zu verstehen. Im traurigen Gegensatz dazu sind im Web, TV und auf Events viel zu wenige Beiträge untertitelt.

Damit ein solcher Service bei möglichst vielen Veranstaltungen zur Verfügung stehen kann, haben wir EVE entwickelt. EVE generiert mit Hilfe von KI und den Cognitive Services von Microsoft Untertitel, die wir dann live auf einem Monitor sehen oder per Link auf dem eigenen Device. Du könntest quasi diese Ansicht auch auf deinem Handy öffnen, full responsive, direkt im Browser. Das alles in Echtzeit und deutlich günstiger.

 

Wie typisch war die Leistung der KI?

Während der Keynote habe ich die Untertitel verfolgt. Meiner Meinung nach hat EVE heute etwa 90% von dem geleistet wo wir hin möchten. Aber: EVE befindet sich immer noch in der Entstehung. Was wir hier heute sehen ist lediglich ein Entwickler-Release. Dieses ist bei weitem noch nicht perfekt und wird noch optimiert.

Zusätzlich muss man für die Beurteilung wissen: Es ist möglich einen menschlichen Korrektor dazwischen zu schalten. Dieser überprüft die erkannten Sätze und korrigiert kleinere Fehler wie etwa Fachbegriffe. Rechtschreibung und Zeichensetzung verbessert unser Dienst selbst in Echtzeit. Übrigens: Der Korrektor könnte aber auch irgendwo auf der Welt sitzen. Er braucht nur einen Browser und Internet.

 

EVE war 8 Stunden im Dauereinsatz und Maxi erklärte eine halbe Stunde dem Publikum, was alles in unserem Service steckt. (Quelle: Filmgsindl GmbH)

 

Wie schnell wird die KI besser?

Der Dienst lernt automatisch bei jeder Korrektur, die ein Korrektor an einem Wort durchführt, mit. Wird beispielsweise fünfmal das Wort „Eistee“ in „Iot“ (Internet of things) korrigiert, merkt sich das EVE. Beim nächsten Mal verwendet sie das richtige Wort. Solche Erfahrungen bleiben standardmäßig erstmal nur innerhalb des Kunden-Accounts. Der Benutzer kann jedoch EVE erlauben das Gelernte mit anderen zu teilen. Das sind sehr wichtige Datenschutz-Fragen im KI-Zeitalter.

 

Was sind die größten Schwierigkeiten für EVE?

Die größten Schwierigkeiten gibt es, wenn Menschen gleichzeitig reden. Doch auch wir hätten hier Schwierigkeiten das Gesagte zu verstehen. Auch Akzente sind nicht einfach, beispielsweise ein Amerikaner, der auf Deutsch eine Rede hält. Oder ein Münchner mit bayerischem Dialekt. Hier können wir jedoch entgegenwirken. Denn in Zukunft lässt sich EVE auch mit Sprachmodellen trainieren. Dann können Kunden ihren Redner bitten 10 Sätze mit dem Handy aufzunehmen und an EVE zu schicken. Dies steigert die Erkennungsrate der Wörter enorm. Fachbegriffe lernt sie ganz simpel über einen Wörterbuch-Upload.

 

Gehen durch EVE Arbeitsplätze verloren?

Nein, im Gegenteil! Und das war uns von Anfang an sehr wichtig! Wir lizensieren EVE zu einem Sonderpreis an Stenographen. Die können damit Events untertiteln ohne selbst vor Ort zu sein. Sie müssen weniger reisen. Das senkt die Preise. So kommen sie an Auftraggeber, die sich Untertitel sonst nicht geleistet hätten. Es gehen also keine Jobs verloren, sie werden digitaler und remote.

 

Wie wird die Zukunft von EVE aussehen?

EVE ist ein Herzensprojekt von Tom Papadhimas und mir und wir glauben daran, dass wir damit viel erreichen können. Und wir haben noch eine Menge vor! Dazu gehören zum Beispiel auch viele neue Sprachen und Live-Übersetzung. Auch die Ausgabe des Textes mit verschiedenen Farben pro Sprecher durch eine Sprechererkennung ist geplant. Langfristig ist auch an eine Unterstützung für die HoloLens zu denken. Stell dir vor, du bist in einem Fußballstadion, setzt die HoloLens auf und siehst darin die Live-Untertitel des Stadionsprechers.

 

Wann wird man es buchen können?

EVE soll im Februar 2019 live gehen. Bis dahin sammeln wir mit ausgewählten Testkunden Erfahrungen und entwickeln den Service anhand der Feedbacks weiter. Wer Lust hat EVE in seinem Umfeld zu testen oder Ideen hat kann sich gerne bei uns melden!

 

Hier war EVE das erste Mal live im Einsatz!
So sah die Event-Location kurz vor dem Einlass aus. Wir waren trotzdem schon nervös! (Quelle: Filmgsindl GmbH)