Skip links

Microsoft Fabric – „All-in-One“- Plattform für Datenanalyse


Microsoft Fabric liefert alle Funktionen, die für die Bereitstellung und Analyse von beliebigen Daten benötigt werden. Das beginnt mit dem zentralen Bereitstellen von Daten über das Modellieren und Visualisieren bis hin zum datengestützten Auslösen von Prozessen. Als „Software-as-a-Service“-Lösung ist Fabric außerordentlich skalierbar und eignet sich für alle Unternehmensgrößen.

01 Was ist Microsoft Fabric 600 x 338
ANKO rund

Ihr Ansprechpartner

Andreas Koblischke,
Geschäftsführer

GESPRÄCH VEREINBAREN!
ANKO rund

Ihr Ansprechpartner

Andreas Koblischke,
Geschäftsführer

GESPRÄCH VEREINBAREN!

Was ist Microsoft Fabric?


Microsoft Fabric ist eine „Software-as-a-Service (SaaS)“-Lösung mit der Unternehmen Ihre Daten vereinheitlicht und abgesichert zur Analyse bereitstellen. Die Daten werden aus beliebigen Datenquellen zentral zusammengestellt und zur Auswertung optimal vorbereitet oder in Echtzeit an Visualisierungen ausgeliefert. Die Daten werden mit Power BI dargestellt oder mittels Machine-Learning-Verfahren untersucht. Überschrittene Schwellwerte lösen automatisierte Prozesse aus. Fabric eignet sich sowohl für relationale Daten als auch für die Analyse unstrukturierter Informationen. Der Einsatzbereich erstreckt sich von kleinen Datenmengen bis hin zu Big-Data-Szenarien.

02 Daten zentralisieren Data Factory 600 x 338

Vergrößern durch Anklicken des Videos

Daten zentralisieren – Data Factory

Kopieren oder verknüpfen Sie Ihre Rohdaten aus unterschiedlichen Quellen in einen zentralen Data Lake. Über 300 Power-Query-Transformationen oder KI-Funktionen des integrierten grafischen Dataflow-Designers stehen zur Verfügung, um perfekte Rohdaten für Ihr Datenprojekt zu schaffen. Orchestrieren Sie die Datenübertragung in Pipelines und generieren Sie daraus flexible Workflows jeder Komplexität oder Größe für Ihre individuellen Datenbedürfnisse.

  • ANWENDUNGSFÄLLE FÜR DATA FACTORY

    • Übertragen von Daten aus ERP-Systemen wie Dynamics NAV/BC oder SAP in den Data Lake
    • Übertragen von Daten aus lokalen Datenquellen in den Data Lake
    • Übertragen von Daten aus Cloud-basierten Datenquellen in den Data Lake
    • Festlegen, Prüfen und Transformieren von Datentypen
    • Zeitsteuerung von Datenübertragungen
    • Überwachung von Datenübertragungen
02 Daten zentralisieren Data Factory 600 x 338

Daten zentralisieren – Data Factory

Kopieren oder verknüpfen Sie Ihre Rohdaten aus unterschiedlichen Quellen in einen zentralen Data Lake. Über 300 Power-Query-Transformationen oder KI-Funktionen des integrierten grafischen Dataflow-Designers stehen zur Verfügung, um perfekte Rohdaten für Ihr Datenprojekt zu schaffen. Orchestrieren Sie die Datenübertragung in Pipelines und generieren Sie daraus flexible Workflows jeder Komplexität oder Größe für Ihre individuellen Datenbedürfnisse.

  • ANWENDUNGSFÄLLE FÜR DATA FACTORY

    • Übertragen von Daten aus ERP-Systemen wie Dynamics NAV/BC oder SAP in den Data Lake
    • Übertragen von Daten aus lokalen Datenquellen in den Data Lake
    • Übertragen von Daten aus Cloud-basierten Datenquellen in den Data Lake
    • Festlegen, Prüfen und Transformieren von Datentypen
    • Zeitsteuerung von Datenübertragungen
    • Überwachung von Datenübertragungen

Relationale Daten perfektionieren – Data Warehouse

Bilden Sie mit T-SQL (Transact Structured Query Language) aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse relationaler Daten. Ihre Rohdaten unterschiedlicher Quellen verbinden Sie komfortabel zu wohl definierten Tabellen. Gliedern Sie Ihre Daten in Fakten und Dimensionen und gewinnen Sie Klarheit und Übersichtlichkeit für Ihre Analysedaten. Fehlende Werte ergänzen Sie automatisch oder bilden Sie Regeln zur Transformationen Ihrer Daten für die einfache Auswertung.

  • ANWENDUNGSFÄLLE FÜR DATA WAREHOUSE

    • Optimieren von Daten zur einfachen Auswertung
    • Zusammenführen von Daten unterschiedlicher Standorte
    • Zusammenführen von Daten unterschiedlicher Datenstruktur
    • Bereitstellen von Unternehmensdaten für Self-Service-BI (SSBI)
    • Vorbereiten von Daten für Data Science (Machine Learning)
    • Beschleunigen von Auswertungen und Analysen
03 Relationale Daten perfektionieren Data Warehouse 600 x 338

Vergrößern durch Anklicken des Videos

03 Relationale Daten perfektionieren Data Warehouse 600 x 338

Relationale Daten perfektionieren – Data Warehouse

Bilden Sie mit T-SQL (Transact Structured Query Language) aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse relationaler Daten. Ihre Rohdaten unterschiedlicher Quellen verbinden Sie komfortabel zu wohl definierten Tabellen. Gliedern Sie Ihre Daten in Fakten und Dimensionen und gewinnen Sie Klarheit und Übersichtlichkeit für Ihre Analysedaten. Fehlende Werte ergänzen Sie automatisch oder bilden Sie Regeln zur Transformationen Ihrer Daten für die einfache Auswertung.

  • ANWENDUNGSFÄLLE FÜR DATA WAREHOUSE

    • Optimieren von Daten zur einfachen Auswertung
    • Zusammenführen von Daten unterschiedlicher Standorte
    • Zusammenführen von Daten unterschiedlicher Datenstruktur
    • Bereitstellen von Unternehmensdaten für Self-Service-BI (SSBI)
    • Vorbereiten von Daten für Data Science (Machine Learning)
    • Beschleunigen von Auswertungen und Analysen
04 Big Data verarbeiten Data Lakehouse 600 x 338

Vergrößern durch Anklicken des Videos

Big Data verarbeiten – Data Lakehouse

Mit PySpark bilden Sie aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse unstrukturierter Daten oder sehr großer Datenmengen. Verwenden Sie viele parallele Rechenprozesse im flüchtigen Speicher, um riesige Datenmengen mit extremer Geschwindigkeit zu verarbeiten. Python-Bibliotheken wie Pandas oder NumPy bieten sehr vielfältige Funktionen für Ihre Analysen oder Visualisierungen. Verwenden Sie MLlib, um die Machine-Learning-Funktionen von Spark auf großen Datenmengen zu verwenden.

  • ANWENDUNGSFÄLLE FÜR DATA LAKEHOUSE

    • Alles, was ein Data Warehouse leisten kann
    • Analysieren von Big Data wie Google Analytics oder Wetterdaten
    • Multi-Channel-Analysen wie Online-Handel (E-Commerce)
    • IoT-Analysen wie Maschinendaten in Produktionsanlagen
    • Analyse von Medizintechnik wie Patientenakten oder Forschungsergebnisse.
    • Risikoanalysen bei vielen Transaktionen wie Bankbewegungen
    • Analyse von Bild- oder Sprachdateien
04 Big Data verarbeiten Data Lakehouse 600 x 338

Big Data verarbeiten – Data Lakehouse

Mit PySpark bilden Sie aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse unstrukturierter Daten oder sehr großer Datenmengen. Verwenden Sie viele parallele Rechenprozesse im flüchtigen Speicher, um riesige Datenmengen mit extremer Geschwindigkeit zu verarbeiten. Python-Bibliotheken wie Pandas oder NumPy bieten sehr vielfältige Funktionen für Ihre Analysen oder Visualisierungen. Verwenden Sie MLlib, um die Machine-Learning-Funktionen von Spark auf großen Datenmengen zu verwenden.

  • ANWENDUNGSFÄLLE FÜR DATA LAKEHOUSE

    • Alles, was ein Data Warehouse leisten kann
    • Analysieren von Big Data wie Google Analytics oder Wetterdaten
    • Multi-Channel-Analysen wie Online-Handel (E-Commerce)
    • IoT-Analysen wie Maschinendaten in Produktionsanlagen
    • Analyse von Medizintechnik wie Patientenakten oder Forschungsergebnisse.
    • Risikoanalysen bei vielen Transaktionen wie Bankbewegungen
    • Analyse von Bild- oder Sprachdateien

In Echtzeit analysieren– Kusto DB

Untersuchen Sie mit KQL (Kusto Query Language) große Mengen ihrer zentralisierten Daten aus unterschiedlichen Quellen in Echtzeit. Bilden Sie einfache Datenmodelle, um unterschiedliche Datenformate besonders schnell zu analysieren. Bei dynamisch wachsenden Datenmengen nutzen Sie die automatische Skalierung. Visualisieren Sie Ihre KQL-Abfragen direkt in Power BI oder schreiben Sie die Ergebnisdaten in den zentralen Data Lake. Das Web-Portal verwenden Sie, um Abfragen und Visualisierungen zu erstellen.

  • ANWENDUNGSFÄLLE FÜR KUSTO DB

    • Analyse großer Mengen von Telemetriedaten von IoT-Geräten
    • Zeitreihenanalysen wie Wetter oder Sensordaten
    • Forensische Analyse von Sicherheitsdaten
    • Ad-Hoc-Analysen auf sehr großen Datenmengen
    • Überwachung von komplexen Softwareanwendungen
    • Risikoanalyse von Handelsdaten in Echtzeit
    • Vorhersagen von Wartungsbedarf bei Maschinen
05 In Echtzeit analysieren Kusto DB 600 x 337

Vergrößern durch Anklicken des Videos

05 In Echtzeit analysieren Kusto DB 600 x 337

In Echtzeit analysieren– Kusto DB

Untersuchen Sie mit KQL (Kusto Query Language) große Mengen ihrer zentralisierten Daten aus unterschiedlichen Quellen in Echtzeit. Bilden Sie einfache Datenmodelle, um unterschiedliche Datenformate besonders schnell zu analysieren. Bei dynamisch wachsenden Datenmengen nutzen Sie die automatische Skalierung. Visualisieren Sie Ihre KQL-Abfragen direkt in Power BI oder schreiben Sie die Ergebnisdaten in den zentralen Data Lake. Das Web-Portal verwenden Sie, um Abfragen und Visualisierungen zu erstellen.

  • ANWENDUNGSFÄLLE FÜR KUSTO DB

    • Analyse großer Mengen von Telemetriedaten von IoT-Geräten
    • Zeitreihenanalysen wie Wetter oder Sensordaten
    • Forensische Analyse von Sicherheitsdaten
    • Ad-Hoc-Analysen auf sehr großen Datenmengen
    • Überwachung von komplexen Softwareanwendungen
    • Risikoanalyse von Handelsdaten in Echtzeit
    • Vorhersagen von Wartungsbedarf bei Maschinen
06 Künstliche Intelligenz Data Science 600 x 338

Vergrößern durch Anklicken des Videos

Künstliche Intelligenz – Data Science

Bilden Sie Machine-Learning-Modelle basierend auf den Rohdaten in Ihrem Data Lake, auf Ihren Data Warehouses, auf Ihren Data Lakehouses oder auf Ihren Power-BI-Auswertungen. Mit dem grafischen Data Wrangler untersuchen Sie Ihre Daten und generieren daraus automatisch den Python-Code für Ihre Datenvorverarbeitung. Erstellen Sie ein Machine-Learning-Modell mit Python in Jupyter Notebooks. Das generierte Machine-Learning-Modell wenden Sie auf Ihren produktiven Daten an und speichern die getroffenen Vorhersagen zur weiteren Analyse in den Data Lake.

  • ANWENDUNGSFÄLLE FÜR DATA SCIENCE

    • Gesichts- oder Objekterkennung aus Bildern oder Videos
    • Vorhersagen von Finanzmärkten oder Aktienkursen
    • Nachfrage von Produkten oder Dienstleistungen prognostizieren
    • Produktempfehlungen für Onlinehändler
    • Strecken- oder Lageroptimierung für Logistikunternehmen
    • Datenanomalien finden, um Betrugsversuche zu verhindern
    • Verdächtige Aktivitäten in Netzwerken oder Sicherheitslogs erkennen
06 Künstliche Intelligenz Data Science 600 x 338

Künstliche Intelligenz – Data Science

Bilden Sie Machine-Learning-Modelle basierend auf den Rohdaten in Ihrem Data Lake, auf Ihren Data Warehouses, auf Ihren Data Lakehouses oder auf Ihren Power-BI-Auswertungen. Mit dem grafischen Data Wrangler untersuchen Sie Ihre Daten und generieren daraus automatisch den Python-Code für Ihre Datenvorverarbeitung. Erstellen Sie ein Machine-Learning-Modell mit Python in Jupyter Notebooks. Das generierte Machine-Learning-Modell wenden Sie auf Ihren produktiven Daten an und speichern die getroffenen Vorhersagen zur weiteren Analyse in den Data Lake.

  • ANWENDUNGSFÄLLE FÜR DATA SCIENCE

    • Gesichts- oder Objekterkennung aus Bildern oder Videos
    • Vorhersagen von Finanzmärkten oder Aktienkursen
    • Nachfrage von Produkten oder Dienstleistungen prognostizieren
    • Produktempfehlungen für Onlinehändler
    • Strecken- oder Lageroptimierung für Logistikunternehmen
    • Datenanomalien finden, um Betrugsversuche zu verhindern
    • Verdächtige Aktivitäten in Netzwerken oder Sicherheitslogs erkennen

Daten visualisieren - Power BI

Zeigen Sie Ihre Daten grafisch, dynamisch und interaktiv in Dashboards oder Berichten an. Mittels Power Query versorgen Sie Ihre Auswertungen mit Daten aus Ihrem Data Lake, Ihren Data Warehouses, Ihren Data Lakehouses, Ihren Echtzeitdaten oder Ihren KI-Vorhersagen. Bilden Sie mit der Formelsprache DAX (Data Analysis Expressions) dynamische Kennzahlen und Datenmodelle. Detaillierte Benutzer-Berechtigungen definieren Sie bis auf die Datensatzeben für Ihre Datenmodelle. Veröffentlichen Sie Ihre dynamischen Analysen in Ihrer Organisation im Web-Browser. Ausführliche Informationen zu Power BI finden Sie auf unserer Power-BI-Produktseite.

  • ANWENDUNGSFÄLLE FÜR POWER BI

    • Komplexe Daten intuitiv verstehen
    • Geschäftsentscheidungen durch Visualisierungen vereinfachen
    • Visuell verstehen, was zu einer Situation geführt hat
    • Handlungsoptionen für eine Situation erkennen
    • Eintauchen in Daten, um die Ursachen zu verstehen
    • Geographische Darstellung von Umsätzen oder Lagermengen
    • Analysen und Analyseergebnisse mit Kollegen teilen
Power BI Übersicht

Vergrößern durch Anklicken des Videos

Power BI Übersicht

Daten visualisieren - Power BI

Zeigen Sie Ihre Daten grafisch, dynamisch und interaktiv in Dashboards oder Berichten an. Mittels Power Query versorgen Sie Ihre Auswertungen mit Daten aus Ihrem Data Lake, Ihren Data Warehouses, Ihren Data Lakehouses, Ihren Echtzeitdaten oder Ihren KI-Vorhersagen. Bilden Sie mit der Formelsprache DAX (Data Analysis Expressions) dynamische Kennzahlen und Datenmodelle. Detaillierte Benutzer-Berechtigungen definieren Sie bis auf die Datensatzeben für Ihre Datenmodelle. Veröffentlichen Sie Ihre dynamischen Analysen in Ihrer Organisation im Web-Browser. Ausführliche Informationen zu Power BI finden Sie auf unserer Power-BI-Produktseite.

  • ANWENDUNGSFÄLLE FÜR POWER BI

    • Komplexe Daten intuitiv verstehen
    • Geschäftsentscheidungen durch Visualisierungen vereinfachen
    • Visuell verstehen, was zu einer Situation geführt hat
    • Handlungsoptionen für eine Situation erkennen
    • Eintauchen in Daten, um die Ursachen zu verstehen
    • Geographische Darstellung von Umsätzen oder Lagermengen
    • Analysen und Analyseergebnisse mit Kollegen teilen
08 Data Activator 600 x 338

Vergrößern durch Anklicken des Videos

Ereignisse auslösen – Data Activator

Mit dem Fabric Data Activator führen Sie Aktionen aus, wenn in Ihren Daten Muster erkannt oder Bedingungen erfüllt werden. Überwachen Sie dazu Eventstreams oder Power-BI-Berichte auf Überschreitungen von Schwellwerten. Verwenden Sie die No-Code-Umgebung, um Daten einzubinden oder um Aufgaben wie Email-Versand, Teams-Benachrichtigungen oder Power-Automate-Workflows anhand Ihrer Daten auszulösen. Definieren Sie nahtlos Intervalle, in denen Ihre Daten geprüft werden sollen.

  • ANWENDUNGSFÄLLE FÜR DATA ACTIVATOR

    • Service-Team informieren, wenn Maschinen Fehler aufweisen
    • Den Einkauf informieren, wenn Lagerbestände zu gering werden
    • Konten sperren, wenn riskante Benutzeranomalien auftreten
    • Preise verändern, wenn sich Suchvolumen oder Nachfrage ändert
    • Umlagerungen im ERP buchen, um andere Standorte mit Ware zu versorgen
    • Maschinen stoppen, wenn Schwellwerte überschritten werden
    • Fluttore öffnen, wenn kritische Wasserstände erreicht sind
08 Data Activator 600 x 338

Ereignisse auslösen – Data Activator

Mit dem Fabric Data Activator führen Sie Aktionen aus, wenn in Ihren Daten Muster erkannt oder Bedingungen erfüllt werden. Überwachen Sie dazu Eventstreams oder Power-BI-Berichte auf Überschreitungen von Schwellwerten. Verwenden Sie die No-Code-Umgebung, um Daten einzubinden oder um Aufgaben wie Email-Versand, Teams-Benachrichtigungen oder Power-Automate-Workflows anhand Ihrer Daten auszulösen. Definieren Sie nahtlos Intervalle, in denen Ihre Daten geprüft werden sollen.

  • ANWENDUNGSFÄLLE FÜR DATA ACTIVATOR

    • Service-Team informieren, wenn Maschinen Fehler aufweisen
    • Den Einkauf informieren, wenn Lagerbestände zu gering werden
    • Konten sperren, wenn riskante Benutzeranomalien auftreten
    • Preise verändern, wenn sich Suchvolumen oder Nachfrage ändert
    • Umlagerungen im ERP buchen, um andere Standorte mit Ware zu versorgen
    • Maschinen stoppen, wenn Schwellwerte überschritten werden
    • Fluttore öffnen, wenn kritische Wasserstände erreicht sind

Wie wird Fabric lizensiert?


Microsoft Fabric wird als Azure-Produkt bereitgestellt. Das Lizenzmodell von Microsoft Fabric besteht aus drei Komponenten.

Rechenleistung – Kapazitätseinheit (CU)

Einer Fabric-Kapazität wird mit dem Lizenzerwerb eine feste Menge an Rechenleistung zugeordnet. Die ausgeführten Aktionen teilen sich die erworbene Leistung.

Speicherplatz - OneLake

Die Kosten für Speicherplatz sind abhängig von der genutzten Menge. Data Lake Storage ist mit etwa 25 EUR* pro Terrabyte und Monat vergleichsweise preiswert.

Regionsübergreifender Datentransfer

Datenübertragungen von einer Azure Region in eine andere Region sind kostenpflichtig. Die Kosten liegen je nach Regionen zwischen 20 EUR* und 150 EUR* pro Terrabyte und Monat.

Weitere Informationen zur Lizensierung finden Sie auf unserer Preisseite. *Die angegebenen Preise für Fabric sind unverbindlich und entsprechen dem Stand vom 01.02.2024. Sie verstehen sich zzgl. gesetzlicher Mehrwertsteuer. Für ein konkretes Angebot vereinbaren Sie bitte eine professionelle Lizenzberatung.

MICROSOFT FABRIC LIZENZPREISE

Welche Dienstleistungen bieten wir Ihnen an?


Unsere Dienstleistungen umfassen die vollständige Betreuung Ihres Microsoft-Fabric-Projektes. Unser erfahrenes Team unterstützt Sie in allen Phasen des Projekts. Egal, ob Sie von Anfang an eine Rundumbetreuung wünschen oder nur Hilfe bei bestimmten Modulen benötigen. Wir passen unsere Unterstützung an Ihre individuellen Anforderungen an. Unsere Experten begleiten Sie durch die wesentlichen Projektschritte, um sicherzustellen, dass Ihr Business-Intelligence-Projekt erfolgreich umgesetzt wird.

Design

Ein Datenprojekt löst definierte Fragen. Wir helfen Ihnen die richtigen Fragen zu finden und eindeutig zu formulieren. Was ist das Ergebnis einer Analyse? Wie muss ich auf die Ergebnisse reagieren? Wie wird das Ergebnis der Analysen dargestellt?

Scoping

Welche Fabric-Komponenten sind für mein Projekt geeignet? Welche Produktversion ist die passende für unsere Anforderungen? Welche Skills prägen wir selbst aus? Welcher Mitarbeiter wird für welche Aufgabe ausgebildet? Welche Leistungen kaufen wir von Spezialisten ein?

Einrichtung

Wir helfen bei der Einrichtung und Konfiguration von Microsoft Fabric. Wir definieren Ihre Anforderungen an Zugriffsberechtigungen und entwickeln geeignete Konzepte, um diese langfristig sicherzustellen. Wir integrieren Ihre Microsoft-Fabric-Kapazität in Ihre IT-Umgebung.

Schulungen

Jede Komponente von Microsoft Fabric ist eine komplexe Anwendung und bedarf separater Schulungen. Was leistet die jeweilige Fabric Komponente? Welche Werkzeuge und Programmiersprachen gibt es? Wie wende ich die diese an?

Entwicklung

Unsere Fachleute und Spezialisten erstellen die Lösung für Sie. Wir leiten aus Ihren Anforderungen einen geeigneten Projektplan ab und realisieren die Anwendung für Sie. Wie werden die Daten bereitgestellt? Wie werden die Daten optimiert? Wie werden die Daten visualisiert?

Coaching

Unsere Fachleute begleiten Ihr Team bei der Realisierung Ihres Projektes. Wir helfen bei der Konzeption, beim Projektmanagement und bei der Realisierung. Wir vermitteln Best-Practices und helfen bei der Einhaltung dieser.

Microsoft Fabric – jetzt direkt hier informieren!

Sie möchten mehr über Fabric erfahren? Gerne stellen wir Ihnen die Funktionen und Vorteile von Microsoft Fabric in einer unverbindlichen, kostenlosen Online-Präsentation vor. Vereinbaren Sie hier einen Termin:

JETZT PRÄSENTATION VEREINBAREN!

Microsoft Fabric – jetzt direkt hier informieren!

Sie möchten mehr über Fabric erfahren? Gerne stellen wir Ihnen die Funktionen und Vorteile von Microsoft Fabric in einer unverbindlichen, kostenlosen Online-Präsentation vor. Vereinbaren Sie hier einen Termin:

JETZT PRÄSENTATION VEREINBAREN!

Häufig gestellte Fragen (FAQ)


Ist Power BI in Microsoft Fabric enthalten?

Ab einer Kapazität mit 64 Kapazitätseinheiten (F64) ist das Ausführen von Power-BI-Berichten für beliebig viele Anwender enthalten. Für Fabric-Instanzen mit weniger Kapaziätseinheiten wird dafür eine separate Power-BI-Lizenz pro Benutzer benötigt. Für das Erstellen von Power-BI-Dashboards ist generell mindestens eine Power-Pro-Lizenz erforderlich.

Wie bestimme ich, wie viel Rechenleistung (CU) für mein Projekt benötigt wird?

Je nach Datenmenge, erforderlicher Fabric-Dienste, nötiger Verarbeitungsgeschwindigkeit und Benutzeranzahl ist die benötigte Leistung sehr unterschiedlich. Datenprojekte wachsen mit der Zeit. Wir empfehlen, sich von unten heranzutasten und erst bei Bedarf mehr Leistung zu erwerben. Für eine gute Indikation empfehlen wir bei größeren Projekten einen Belastungstest als Proof-of-Concept mit Demo-Daten zur Ermittlung aufzusetzen.

Kann ich Fabric mit Apple Computern verwenden?

Microsoft Fabric ist eine SaaS (Software-as-a-Service)-Anwendung und wird im Web-Browser betrieben. Es ist damit mit jedem Betriebssystem wie beispielsweise Windows, Linux oder MacOS kompatibel. Einige Anwendungen wie z.B. Power BI haben zusätzlich Windows-Desktop-Anwendungen, die nur auf Windows-Computern installiert werden können. Die Funktionen stehen aber meistens auch in der Web-Anwendung zur Verfügung. Microsoft ist sehr aktiv dabei, alle Funktionen als SaaS-Lösung bereitzustellen.

Return to top of page
Besuchen Sie uns auf der DYNAfair:
9. April 2024, 10-17 Uhr Messe Dortmund
Halle 2, Stand 15
datenkultur auf der DYNAfair 2024
MEHR ERFAHREN
Das neue Förderprogramm „Digital Jetzt“ des Bundesministeriums für Wirtschaft und Energie (BMWi) unterstützt die Digitalisierung des Mittelstandes.
„Digital Jetzt“ fördert Business Intelligence mit bis zu 50.000 €
MEHR ERFAHREN
datenkultur auf der DYNAfair 2024