Lösungen

MATLAB-Schnittstelle für Databricks

Datenzugriff und Bereitstellung von MATLAB und Simulink in Databricks

Die MATLAB-Schnittstelle für Databricks® ermöglicht Ihnen den Zugriff auf Daten und Rechenressourcen in der Cloud. Sie können große Datensätze fernabfragen oder MATLAB Programmcode auf einem Databricks-Cluster ausführen.

  • Nutzen Sie SQL für die Arbeit mit Daten in Databricks
  • Arbeiten Sie interaktiv mit Spark™ in MATLAB
  • Führen Sie kompilierte MATLAB-Algorithmen auf Databricks aus
  • Teilen Sie Algorithmen für MATLAB mit anderen Databricks-Nutzern, die mit Python® arbeiten
Flussdiagramm von Ebenen der Datenverarbeitung: MATLAB und Simulink zur Analyse, Databricks Lakehouse für die Performance und Enterprise Cloud Service zur Verwaltung.

Zugriff auf Big Data mit SQL

Greifen Sie über einen Databricks-Cluster auf Cloud-Datenquellen zu, indem Sie ihn über Database Toolbox mit MATLAB verbinden. Manipulieren Sie Daten remote und verwenden Sie SQL, um auf tabellarische Daten in Databricks zuzugreifen. Verwenden Sie Apache® Spark™ SQL, um Daten in Spark-Workflows abzufragen.

Nutzung von Spark mit MATLAB und Simulink

Integrieren Sie Apache Spark API-Befehle in Algorithmen von MATLAB mithilfe von Databricks Connect. Die Spark API-Befehle werden auf einem Databricks-Cluster ausgeführt, einschließlich serverloser Cluster.

Einbetten von MATLAB in die Daten

Verwenden Sie MATLAB Compiler SDK und Simulink Compiler, um Ihre Algorithmen für die Ausführung auf einem Databricks-Cluster mithilfe von MATLAB Runtime zu paketieren. Eingesetzte Algorithmen können in Notebooks oder als geplante Jobs bzw. auf Abruf ausgeführt werden. Sie können diese Algorithmen nutzen und in Datenverarbeitungspipelines integrieren.

Programmatische Interaktion mit Databricks

Die REST-API ermöglicht es Ihnen, programmgesteuert aus MATLAB mit der Databricks-Umgebung zu interagieren, zum Beispiel um Jobs oder Cluster innerhalb von Databricks zu steuern.