Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 2 Min.

Neue Funktionen für Deep Speech

Die kommende Deep-Speech-Version 0.2.0 soll die Möglichkeit enthalten, Sprache "live" in Text zu konvertieren – also noch während die Audiodaten gestreamt werden. Auf diese Weise lassen sich Vorträge, Telefongespräche, Fernseh- oder Radiosendungen und andere Live-Streams transkribieren, während sie stattfinden.
Es gibt bislang nur wenige, gut funktionierende Spracherkennungsdienste und die werden von einer kleinen Anzahl an Großunternehmen dominiert. Mit dem Projekt Deep Speech möchte das Machine Learning Team von Mozilla Research eine Open-Source-Alternative schaffen. Aktuell arbeitet das Entwicklerteam an einer Open-Source-Speech-to-Text-Engine (STT), die sich der von Nutzern erwarteten Performance annähert. Ziel des Projekts ist es, Sprachtechnologien für alle frei zugänglich zur Verfügung zu stellen – egal, ob es sich um Startups, Forschungsteams oder auch größere Unternehmen handelt, die ihre Produkte und Dienstleistungen mit Sprachaktivierung ausstatten möchten.In diesem Blog Post erklärt Reuben Morais, wie Mozilla Research die Architektur der STT-Engine geändert hat, um die Echtzeit-Transkription zu ermöglichen. Während die aktuelle Version der Engine ein bidirektionales Recurrent Neural Network (RNN) verwendet, das für das Transkribieren den kompletten Input kennen muss. Die neue Architektur setzt dagegen auf ein unidirektionales Modell, das keine Abhängigkeiten von zukünftigem Input hat.Als Performance-Vorteile gegenüber dem Vorgänger-Modell zählt Reuben Morais auf:
  • Die Größe des Modells schrumpft von 468 MByte auf 180 MByte.
  • Die Zeit für das Transkribieren einer 3-Sekunden-Datei schrumpft von 9 auf 1,5 Sekunden (auf einer Laptop-CPU).
  • Die Spitzenbelastung des Heap sinkt von 4 GByte auf 20 MByte.
  • Die Heap-Allokationen insgesamt schrumpfen von 12 GByte auf 264 MByte.
In einem kleinen Python-Programm zeigt Reuben in seinem Blog-Beitrag, wie man das Modell libSoX benutzt, um die vom Mikrophon aufgenommene Sprache in die Speech-to-Text-Engine füttert während das Audio-File noch aufgenommen wird.

Neueste Beiträge

Delphi als Turbo für die mobile Entwicklung - Mobile Apps entwickeln mit Delphi, Teil 1
Delphi ermöglicht es, effizient plattformübergreifende Anwendungen zu erstellen. In diesem ersten Teil der Serie beleuchten wir die Motivation ebenso wie das Setup eines ersten Beispielprojekts.
6 Minuten
DDC hakt nach: Wie baust Du eine Softwarearchitektur ohne Schuldenfalle auf?
Moderne Softwarearchitektur muss zukunftsfähig sein – aber auch schon heute funktionieren. David Tielke über den architektonischen Spagat zwischen Cloud, KI, Schuldenmanagement und gesundem Menschenverstand.
7 Minuten
22. Sep 2025
SSH für.NET-Applikationen mit SSH.NET - Best of NuGet, Teil 1
SSH – dahinter verbirgt sich die Abkürzung Secure Shell – ist insbesondere im Bereich der unixoiden Systeme weit verbreitet. Mit SSH.NET steht ein NuGet-Paket zur Verfügung, das die Interaktion mit der sicheren Remote Shell aus .NET-Applikationen heraus zu ermöglichen sucht.
6 Minuten
25. Sep 2025
Miscellaneous

Das könnte Dich auch interessieren

Open Source Workflow Engine in C# - Wexflow
Wexflow ist eine erweiterbare Open Source Workflow Multi-Thread-Engine, die in C# geschrieben wurde. Sie bietet einen Cross Platform Manager, der unter Windows, Mac OS, Linux und Android arbeitet.
3 Minuten
11. Okt 2017
Visual Studio Code: Entwickelt, um zu spalten - Geoffrey Huntley
VS Code hat sich schnell durchgesetzt und ist inzwischen auf den meisten Entwicklermaschinen installiert. Doch VS Code ist nicht zu einhundert Prozent Open Source. Geoffrey Huntley äußert Zweifel und Kritik!
2 Minuten
Mycroft: Die Open-Source-Alternative zu Siri und Alexa - Intel
Mycroft ist eine Software-Plattform von Intel, die sprachgesteuerte Computerleistungen für Jedermann möglich machen soll, etwa wie Amazons Alexa, Apples Siri oder Microsofts Cortana, allerdings ohne Smartphone.
3 Minuten
17. Aug 2017
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige