Audio Toolbox
Entwickeln und Analysieren von Sprach-, Akustik- und Audioverarbeitungssystemen
Haben Sie Fragen? Vertrieb kontaktieren.
Haben Sie Fragen? Vertrieb kontaktieren.
Die Audio Toolbox™ enthält Tools für die Audioverarbeitung, die Sprachanalyse und akustische Messungen. Sie umfasst Algorithmen zur Verarbeitung von Audiosignalen (Entzerrung und Zeitdehnung), Schätzung akustischer Signalmetriken (Lautstärke und Schärfe) und die Extraktion von Audiomerkmalen (MFCC und Tonhöhe). Außerdem enthält sie erweiterte Machine-Learning-Modelle, darunter i-Vektoren, und vortrainierte Deep-Learning-Netze wie VGGish und CREPE. Apps in der Toolbox unterstützen Live-Tests für Algorithmen, Messungen von Impulsantworten sowie die Kennzeichnung von Audiosignalen. Die Toolbox bietet Streaming-Schnittstellen für ASIO-, CoreAudio- und andere Soundkarten, MIDI-Geräte sowie Tools zum Generieren und Hosten von VST und Audio Unit-Plugins.
Mit der Audio Toolbox können Sie Audiodatensätze importieren, kennzeichnen und erweitern sowie Merkmale extrahieren, um Machine-Learning- und Deep-Learning-Modelle zu trainieren. Die bereitgestellten vortrainierten Modellen können auf Audioaufzeichnungen angewandt werden, um eine allgemeine Semantikanalyse durchzuführen.
Sie können in Echtzeit an Prototypen von Audioverarbeitungsalgorithmen arbeiten oder individuell erstellte akustische Messungen durchführen, indem Sie Audiodaten mit kurzen Latenzzeiten an und von Soundkarten streamen. Außerdem können Sie Ihren Algorithmus validieren, indem Sie ihn in ein Audio-Plugin umwandeln, das in externen Host-Anwendungen wie Digital Audio Workstations ausgeführt werden kann. Mithilfe des Plugin-Hostings können Sie externe Audio-Plugins wie reguläre MATLAB®-Objekte verwenden.
Lesen und schreiben Sie Audiodaten von oder auf Soundkarten (etwa über USB oder Thunderbolt™) mithilfe standardmäßiger Audiotreiber (gemäß ASIO, WASAPI, CoreAudio und ALSA) auf Windows®-, Mac®- und Linux®-Betriebssystemen.
Verarbeiten Sie Live-Audio in MATLAB mit Round-Trip-Latenzzeiten im Millisekundenbereich.
Sie können Audio- und Sprachdatensätze kennzeichnen, erweitern, erstellen und einlesen, Merkmale extrahieren sowie Zeit-Frequenz-Transformationen berechnen. Entwickeln Sie außerdem Audio- und Sprachanalysen mit der Statistics and Machine Learning Toolbox™, der Deep Learning Toolbox™ oder anderen Machine-Learning-Tools.
Verwenden Sie Deep Learning, um komplexe Signalverarbeitungsaufgaben durchzuführen und extrahieren Sie Audioeinbettungen mit einer einzelnen Codezeile. Greifen Sie auf etablierte vortrainierte Netze wie YAMNet, VGGish, CREPE und OpenL3 zu und wenden Sie sie mithilfe vorkonfigurierter Merkmalsextraktionsfunktionen an.
Transformieren Sie Signale in Zeit-Frequenz-Darstellungen wie Mel, Bark und ERB-Spektrogramme. Berechnen Sie Cepstral-Koeffizienten wie MFCC und GTCC sowie Skalarmerkmale wie Tonhöhe, Harmonik und spektrale Deskriptoren. Extrahieren Sie allgemeine Merkmale und Signaleinbettungen mithilfe vortrainierter Deep-Learning-Modelle (VGGish, OpenL3) und dem i-Vektor-System. Beschleunigen Sie die Merkmalsextraktion mit kompatiblen Grafikkarten.
Trainieren Sie hochmodernes Machine Learning mit Ihren Audiodatensätzen. Verwenden Sie etablierte Systeme von Modellen wie i-Vektoren bei Anwendungen wie beispielsweise Identifikation und Verifikation von Sprechern. Lernen Sie von funktionierenden Beispielen, wie Sie fortschrittliche neuronale Netze sowie Ebenen für Audio-, Sprach- und Akustikanwendungen entwerfen und trainieren.
Lesen Sie große Sammlungen von Audioaufnahmen ein, partitionieren Sie sie und verarbeiten Sie sie vor. Beschriften Sie Audiosignale manuell in Apps. Ermitteln und segmentieren Sie automatisch Zonen von Interesse mithilfe vortrainierter Machine-Learning-Modelle.
Richten Sie randomisierte Pipelines zur Datenverstärkung ein, indem Sie Kombinationen aus Tonhöhenverschiebung, Zeitdehnung und anderen Audioverarbeitungseffekten verwenden. Erstellen Sie synthetische Sprachaufzeichnungen aus Text mit Hilfe von Cloud-basierten Text-zu-Sprache-Diensten.
Modellieren Sie parametrische EQ-Filter, grafische EQ-Filter, Shelving-Filter und Filter mit variabler Flankensteilheit und wenden Sie diese an. Entwickeln und simulieren Sie digitale Frequenzweichen, Oktaven- und Teiloktavenfilter.
Modellieren Sie Algorithmen für die Dynamikbearbeitung, wie Compressor, Limiter, Expander und Noise-Gate, und wenden Sie diese an. Fügen Sie mit rekursiven parametrischen Modellen einen künstlichen Nachhall hinzu.
Entwickeln und simulieren Sie Systemmodelle mit Bibliotheken von Audio-Verarbeitungsblöcken für Simulink®. Optimieren Sie Parameter und visualisieren Sie das Systemverhalten mithilfe interaktiver Steuerelemente und dynamischer Diagramme.
Automatische Erstellung von Benutzeroberflächen für optimierbare Parameter von Audioverarbeitungsalgorithmen. Testen Sie einzelne Algorithmen mit der Audio Test Bench-App und optimieren Sie Parameter in laufenden Programmen mit automatisch generierten interaktiven Steuerelementen.
Ändern Sie interaktiv Parameter von MATLAB-Algorithmen mithilfe von MIDI-Steuerungsoberflächen. Steuern Sie externe Hardware, oder reagieren Sie auf Ereignisse, indem Sie MIDI-Nachrichten jeder Art senden und empfangen.
Wenden Sie Schalldruckpegel (SPL)- und Lautstärkemessungen auf aufgenommene Signale oder direkt übertragene Signale an. Analysieren Sie Signale mit Oktaven- und Teiloktavenfiltern. Wenden Sie standardkonforme A-, C- oder K-Bewertungsfilter auf Rohaufnahmen an. Messen Sie akustische Schärfe, Rauigkeit und Schwankungsstärke.
Messen Sie Impulsantworten und Frequenzgänge von Akustik- und Audiosystemen mit Maximalfolgen (Maximum-Length Sequences, MLS) und exponentiell geschwungenen Sinusoiden (ESS). Beginnen Sie mit der Impulse Response Measurer-App. Automatisieren Sie Messungen, indem Sie Anregungssignale programmatisch generieren und Systemreaktionen schätzen.
Falten Sie Signale mit langen Impulsantworten effizient, indem Sie Overlap-and-Add- oder Overlap-and-Save-Implementierungen für den Frequenzbereich nutzen. Finden Sie Kompromisse zwischen Latenzzeiten und Berechnungsgeschwindigkeit mithilfe einer automatischen Impulsantwort-Partitionierung.
Codieren und decodieren Sie unterschiedliche Ambisonic-Formate. Interpolieren Sie räumlich abgetastete Außenohrübertragungsfunktionen (Head-Related Transfer Functions, HRTF).
Generieren Sie VST-Plug-ins, AU-Plug-ins und eigenständige ausführbare Plug-ins direkt aus MATLAB-Code, ohne dass eine manuelle Gestaltung von Benutzeroberflächen erforderlich ist. Für fortgeschritteneres Plugin-Prototyping generieren Sie fertige JUCE C++ Projekte (erfordert MATLAB Coder™).
Verwenden Sie externe VST- und AU-Plugins als reguläre MATLAB-Objekte. Ändern Sie Plugin-Parameter und verarbeiten Sie MATLAB-Arrays programmatisch. Automatisieren Sie alternativ Zuordnungen von Plugin-Parametern zu Benutzeroberflächen und MIDI-Steuerelementen. Hosten Sie aus Ihrem MATLAB-Code generierte Plugins, um die Effizienz der Ausführung zu erhöhen.
Generieren Sie mit MathWorks® Coder-Produkten C und C++ Quellcode aus als Toolbox-Funktionen, -Objekte und Blöcke bereitgestellten Signalverarbeitungs- und Machine-Learning-Algorithmen. Generieren Sie CUDA-Quellcode aus ausgewählten Merkmalsextraktionsfunktionen wie mfcc
und melSpectrogram
.
Erstellen Sie Prototypen für Audioverarbeitungsdesigns auf Raspberry Pi™ mithilfe platineneigener oder externer Mehrkanal-Audioschnittstellen. Erstellen Sie interaktive Steuerbereiche als mobile Apps für Android®- oder iOS-Geräte.
Erstellen Sie Prototypen für Audioverarbeitungsdesigns mit Ein- und Ausgaben aus einer einzigen Abtastung für die adaptive Rauschunterdrückung, die Validierung von Hörgeräten oder andere Anwendungen, für die die Round-Trip-DSP-Latenzzeiten minimal sein müssen. Automatische Übertragung direkt aus Simulink Modellen auf Speedgoat Audiohardware und ST Discovery Platinen.