Ava ist ein Beispiel für universelle Live-Untertitelung und sammelt 10 Millionen US-Dollar, um weiter aufzubauen – TechCrunch

Ava ist ein Beispiel für universelle Live-Untertitelung und sammelt 10 Millionen US-Dollar, um weiter aufzubauen – BesteFuhrer

Als wir uns das letzte Mal beim KI-gestützten Untertitelungsdienst Ava meldeten, hatten sie gerade eine Seed-Runde gestartet, und es war sechs Monate nach Beginn einer Pandemie, die die Art und Weise, wie wir alle zusammenarbeiten, verändern würde. Achtzehn Monate später klopfen Investoren nach einem enormen Wachstum an ihre Tür und wollen der Technologiebranche weiterhin zeigen, wie gehörlose und schwerhörige Menschen in den hybriden Arbeitsplatz einbezogen werden sollten.

Die Tools des Unternehmens bieten sofortige Untertitel für jede Stimme, die der Benutzer hört, sei es in einem Videoanruf, in einem Tiktok-Video oder mit Freunden. (Natürlich gibt es für jede Plattform unterschiedliche Apps und Funktionen, aber sie arbeiten alle zusammen.)

„In den letzten anderthalb Jahren seit unserem Interview haben wir den Umsatz und den Kundenstamm um etwa das Zehnfache gesteigert, hauptsächlich weil unsere Empowerment-Produkte für Benutzer auf der Suche nach besseren Lösungen eingeführt wurden“, sagte Thibault Duchemin, CEO von Ava, gegenüber BesteFuhrer.

Besser ist sicherlich das entscheidende Wort, da wir gesehen haben, dass Barrierefreiheitsoptionen hier und da in den Produktivitätstools auftauchen, die wir häufig verwenden. Aber die Wahrheit ist, dass Dinge wie die automatische Transkription von Anrufen, so nützlich sie auch sind, nur das Nötigste an Inklusion darstellen, und Menschen mit eingeschränktem Hör- oder Sehvermögen werden ansonsten fast vollständig außen vor gelassen. (Und das, wenn es überhaupt zugängliche Optionen gibt, was auf viele beliebte Online-Plattformen nicht zutrifft.)

Der Ansatz von Ava besteht darin, ein reichhaltigeres und unabhängig konfigurierbares Untertitelungstool bereitzustellen, das für alle Inhalte funktioniert, von Podcasts über Meetings mit allen Teilnehmern bis hin zu persönlichen Chats, und zwar so, dass die Person es tatsächlich nutzen kann.

Welchen Sinn haben Untertitel, wenn Sie nicht erkennen können, wer spricht? Warum zuhören, wenn Sie nicht antworten können? Wessen Aufgabe ist es, Transkriptionen von Inhalten bereitzustellen, die im internen Netzwerk geteilt werden?

Ava bietet in all diesen Situationen zumindest Möglichkeiten, und während ein Großteil dieser Verantwortung auf die Person übertragen wird, die das Tool verwendet, bedeuten seine Fähigkeiten, dass sich der Arbeitsplatz nahtloser an sie anpassen kann. Duchemin bemerkte, dass das Unternehmen gehörlose und schwerhörige Mitarbeiter in Führungspositionen im gesamten Team hat, die echte praktische Erfahrung in das Thema einbringen.

„Mit der Finanzierung verdoppeln wir unseren Einsatz für Produkte und Technik, ermöglichen neue Erfahrungen, die Ava in die täglichen Bedürfnisse unserer gehörlosen und schwerhörigen Benutzer integrieren, und halten unsere Unterschrift in Bezug auf Selbstermächtigung und Zugänglichkeit richtig“, sagte Duchemin.

Die Finanzierung, eine 10-Millionen-Dollar-A-Runde, wurde von Khosla Ventures geleitet, die an der Seed beteiligt waren, aber zu Ava kamen, um diese zu leiten. Duchemin bemerkte auch einen neuen strategischen Investor in Jim Sorenson, Gründer eines gehörlosen und schwerhörigen Telekommunikationsunternehmens, der auf eine bevorstehende Integration der Mobilfunkbranche hinwies. Initialized Capital, Lerer Hippeau Ventures, LeFonds VC und Ring Capital nahmen alle an der Runde teil.

Zusätzlich zu den erwarteten Verbesserungen auf der Produkt- und Technikseite und einigen neuen Partnerschaften, die auf dem Weg sind, sagte Duchemin, dass sie daran arbeiten, das Netzwerk von „Scribes“, professionellen menschlichen Untertiteln, „massiv zu erweitern“, damit Inhalte transkribiert werden können von einem Profi fast sofort.

Animiertes Bild eines Transkriptors, der ein Ava-Transkript live bearbeitet.

Bildnachweis: Ava

Diese Leute sind keine vollwertigen Transkriptoren, sondern arbeiten mit den KI-Tools, um den Prozess live zu korrigieren und zu erweitern. Obwohl automatische Transkripte sehr nützlich sind, sind sie bei weitem nicht genau genug, um als endgültiges Ergebnis betrachtet zu werden, beispielsweise um ohne Bearbeitung in einem Artikel wie diesem veröffentlicht zu werden. Die menschliche Transkription ist zwangsläufig langsamer und teurer, aber Ava glaubt, dass die Verzögerung so weit reduziert werden kann, dass Sie innerhalb einer Minute, nachdem etwas passiert, eine nahezu perfekte Transkription haben können.

Übrigens waren die Themen Gehörlosigkeit und Kindsein von gehörlosen Erwachsenen in letzter Zeit ganz oben auf der Tagesordnung, als der Film CODA für seine Darstellung ein paar Oscars mit nach Hause nahm. Und Ava war am Set und wurde von Cast und Crew eingesetzt, wenn keine Dolmetscher in der Nähe waren und Gebärdensprache keine Option war.

„Dies geschah unaufgefordert, wir entdeckten dies, als wir die Funktion von Apple TV lasen, die für die Apps am Set wirbt“, sagte Duchemin. „Ich denke, gehörlose und schwerhörige Benutzer wählen letztendlich die Tools, die ihnen dienen, und ihr Umfeld profitiert davon. Das ist ein positiver Kreislauf!“

Leave a Comment

Your email address will not be published.