Technische Neuerungen und Erweiterungen in der BDC
Die SAP Business Data Cloud (BDC) ist eine neue, vollständig gemanagte Daten- und Analytics-Cloudlösung von SAP, die SAP Analytics Cloud, SAP Datasphere, sowie SAPs Data-Warehouse-Erbe in einem einzigen Angebot vereint. Dadurch entsteht eine einheitliche Benutzererfahrung für Datenanalyse, Planung und Datenmanagement über alle Fachbereiche hinweg. Im Vergleich zu den bisherigen Einzellösungen bringt BDC einige wichtige technische Neuerungen und strategische Veränderungen mit sich:
- Integrierte Lakehouse-Architektur mit Databricks: BDC beinhaltet zusätzlich zum SAP HANA-basierten Speicher ein objektbasiertes Data Lake Speicherlayer. Dies stellt einen Paradigmenwechsel dar – HANA ist nicht mehr die einzige Datenhaltungsoption. Statt ausschließlich auf In-Memory zu setzen, nutzt BDC die kosteneffiziente Data-Lake-Technologie (Databricks Delta Lake), um große Datenmengen und unstrukturierte Daten zu speichern und zu verarbeiten. SAP spricht von einer offenen *“Lakehouse”-*Architektur, die die Stärken von Data-Warehouse und Data-Lake kombiniert. Durch die Partnerschaft mit Databricks werden auf “Apache Spark” basierende verteilte Rechenressourcen und eine Notebook-Umgebung direkt in BDC bereitgestellt. Für die Anwender bedeutet das: leistungsfähigere Datenaufbereitung, Maschine-Learning und generative KI auf SAP-Daten, ohne eine separate externe Data-Science-Plattform einführen zu müssen.
- “Zero-Copy” Datenintegration und offene Schnittstellen: BDC ermöglicht eine nahezu kopierfreie Integration von SAP- und Drittquellsystemen. Durch Delta Sharing und Data Federation können Daten zwischen SAP BDC und externen Databricks-Lakehouse-Umgebungen geteilt werden, ohne sie mehrfach physisch replizieren zu müssen. SAP Datenmodelle werden nahtlos im Databricks Unity Catalog verfügbar sein und umgekehrt. Dieser Ansatz reduziert den Aufwand für komplexe ETL-Pipelines drastisch – viele Extraktionsprozesse, die bisher z.B. über SAP Data Intelligence realisiert wurden, werden durch die native Einbettung von Databricks-Funktionen obsolet. Die Plattform setzt verstärkt auf offene Industriestandards (z.B. offenes Tabellenformat Delta Lake, OpenSQL-Zugriff über Databricks SQL Warehouse) und Partnertechnologien (u.a. weitere Kooperationen mit Collibra für Katalog, Confluent für Streaming), was die Offenheit gegenüber Nicht-SAP-Tools verbessert.
- Kuratierte Data Products und Insight Apps: Im Gegensatz zu den reinen Plattformdiensten der bisherigen Lösungen liefert BDC von SAP vorgefertigte inhaltliche Bausteine mit. SAP spricht von „mission-critical data products“ – das sind kuratierte, voll verwaltete Datensätze aus SAP-Geschäftsprozessen, die auf einem vereinheitlichten Geschäfts-Domänenmodell basieren. Diese Data Products bewahren den ursprünglichen Geschäftskontext und die Semantik der Daten und sind qualitativ geprüft, sodass Kunden sie unmittelbar nutzen können. Damit entfallen die “versteckten Kosten” aufwendiger eigener Datenaufbereitung und Extraktion. Aufbauend auf diesen Datenprodukten bietet BDC eine wachsende Bibliothek von vorkonfigurierten analytischen Anwendungen, den sogenannten Insight Apps. Diese enthalten vordefinierte Metriken, KPIs, Dashboards, teils auch vortrainierte KI-Modelle und Planungslogik für bestimmte Geschäftsbereiche. Unternehmen können damit z.B. ein 360°-Finanzdashboard oder vordefinierte HR-Analysen praktisch auf Knopfdruck einsetzen. SAC wird hierbei als Frontend genutzt, aber die Apps sind fertige Lösungen, anstatt dass jeder Kunde bei Null anfängt. Diese inhaltliche Auslieferung von SAP ist eine neue Strategie, die an frühere Business-Content-Konzepte anknüpft, nun aber in moderner Form bereitgestellt wird. Für Partner besteht zudem die Möglichkeit, eigene Insight Apps beizusteuern.
- Einheitliche Semantik und Knowledge Graph: BDC führt einen Knowledge Graph als zentrale semantische Schicht ein. Damit werden Geschäftsobjekte und deren Beziehungen über verschiedene Datenquellen hinweg verständlich verknüpft und katalogisiert. Dieses semantische Modell (auch One Domain Model genannt) soll sicherstellen, dass alle Analytics- und KI-Anwendungen konsistente Geschäftsdefinitionen nutzen. Dies erleichtert das Auffinden und Verstehen von Daten für Endanwender und ermöglicht es KI-Modellen, die Daten im Kontext von Geschäftsbeziehungen zu interpretieren. Diese semantische Vernetzung ist enger in die Plattform integriert als in den Vorgängerprodukten.
- Eingebettete KI und „Joule“ Assistenz: SAP BDC ist von Grund auf darauf ausgerichtet, KI-gestützte Analysen und Automatisierungen bereitzustellen. SAPs generativer KI-Copilot Joule ist in BDC integriert, um Anwender bei der Analyse zu unterstützen. Joule kann z.B. in natürlicher Sprache Fragen zu den im BDC verfügbaren Unternehmensdaten beantworten, Anomalien aufzeigen oder Berichte zusammenfassen. Darüber hinaus können eigene KI-Agents erstellt und in Geschäftsprozesse integriert werden. Diese tiefe Verzahnung von KI-Funktionen und Agenten mit der Datenplattform ist neu – während SAC zuvor Predictive-Features hatte, bringt Joule nun konversationsfähige KI-Interaktionen und bereichsübergreifende Assistenzen “out-of-the-box” in die Analytics-Umgebung.
Zusammengefasst bietet BDC funktionale Verbesserungen auf breiter Front: eine vereinte Plattform statt separater Tools, erweiterte Datenmanagement-Funktionen (Datenkatalog, Governance), hohe Skalierbarkeit für Big Data/AI durch Databricks-Technologie, sowie Business Content und KI als integrierte Komponenten. Diese strategische Neuausrichtung spiegelt SAPs Fokus, die Lücke zwischen Geschäftsdaten und moderner AI-gestützter Analyse zu schließen.
Integrations- und Migrationsszenarien
- Bestehende SAC- und Datasphere-Implementierungen: Für Kunden, die bereits SAP Analytics Cloud oder SAP Datasphere nutzen, betont SAP, dass diese Investitionen geschützt sind. SAC und Datasphere bleiben zentrale Bausteine innerhalb der BDC-Strategie und können zunächst ohne Unterbrechung wie bisher weiter genutzt werden. Es besteht keine sofortige Migrationspflicht – die bisherigen SaaS-Produkte laufen zunächst parallel weiter. Über die Zeit wird SAP jedoch Optionen anbieten, die bestehenden Umgebungen in das BDC-Umfeld zu überführen. Geplant ist, dass Kunden ihre jetzige Datasphere- und SAC-Lösungen bei Bedarf schrittweise auf die vollintegrierte BDC umstellen können, z.B. durch tenant-übergreifende Integration oder durch ein Upgrade ihrer Cloud-Services. Konkrete Migrationspfade werden von SAP noch spezifiziert – Detailinformationen zu Packaging und Lizenzen der BDC sollen im ersten Halbjahr 2025 bereitgestellt werden. Wichtig: Neuabschlüsse für SAC und Datasphere wird es künftig einzeln nicht mehr geben; die BDC ersetzt die separaten Angebote perspektivisch im Vertrieb. Dies unterstreicht, dass Neukunden direkt mit BDC starten, Bestandskunden aber in Ruhe planen können, wann sie auf den neuen Service wechseln. Wie ein Migrationsschritt aussehen kann, skizziert SAP so: Bestehende Datasphere-Modelle und SAC-Analysen können weiter genutzt werden, da BDC diese Komponenten unverändert mitführt. Unternehmen können also ihre vorhandenen Datenmodelle, Stories und Planungs-Content in BDC übernehmen, ohne von vorn zu beginnen.
- Szenarien für SAP Data Intelligence: SAP Data Intelligence (DI) Cloud war bislang das zentrale Tool für komplexe Datenorchestrierung (ETL/ELT), Machine-Learning-Pipelines und Integration verteilter Datenquellen. Ein dedizierter Migrationspfad von DI zur BDC ist derzeit nicht explizit dokumentiert. Strategisch wird DI durch das BDC-Konzept weitgehend abgelöst: Viele Anwendungsfälle von DI – lassen sich in BDC nun einfacher durch die native SAP-Databricks-Integration erreichen. Statt in DI grafische Datenflüsse zu bauen, können Entwickler in BDC direkt Databricks Notebooks/Spark-Jobs nutzen oder Daten über Delta-Sharing zwischen Systemen austauschen, was den Migrationsaufwand reduziert. Für bestehende DI-Pipelines bedeutet das jedoch, dass eine Neuimplementierung oder Anbindung an BDC nötig sein kann. SAP hat hierzu noch keine speziellen Migrationstools angekündigt; Unternehmen sollten ihre DI-Workloads analysieren: Viele lassen sich evtl. mit den Bordmitteln von BDC (z.B. den Lakehouse ETL-Fähigkeiten via Spark oder weiterhin vorhandenen Datasphere-Datenflüssen) nachbilden. Manche komplexe Integrationsszenarien (besonders mit zahlreichen Non-SAP-Quellen, Streaming oder spezialisierten Transformationslogiken) könnten erfordern, DI vorerst weiter einzusetzen parallel zur BDC. Insgesamt ist aber zu erwarten, dass BDC die Rolle von Data Intelligence über kurz oder lang übernimmt und SAP die Datenintegration in der Cloud vereinfachen will, anstatt zwei getrennte Tools zu pflegen. Entsprechend sollten DI-Kunden mittelfristig eine Ablöseplanung vornehmen.
- Migration aus SAP BW (On-Premises): Nicht explizit in der Frage genannt, aber wichtig für das Verständnis von BDC: Ein zentrales Szenario ist die Modernisierung von SAP BW/BW/4HANA. BDC wird als Zielplattform für bestehende On-Premises-BW-Systeme positioniert. Dazu bietet SAP weiterhin die bereits aus Datasphere bekannten “BW Bridge” an, um BW-Daten und -Modelle in die Cloud zu bringen. Unternehmen können ein BW-System praktisch unverändert in einer Private-Cloud-Edition innerhalb der BDC weiterbetreiben, dabei aber BDC-Funktionen nutzen. So lassen sich bestehende BW-Daten als Data Products konsumieren und mit den neuen BDC-Komponenten (z.B. Delta Sharing, Databricks ML) kombinieren. Für BW-Kunden (insb. BW 7.5) wird damit eine Alternative zur BW/4HANA-Migration geschaffen, die verlängerte Nutzungszeiträume bis 2030 in der Cloud ermöglicht. Diese BW-Integration zeigt, dass BDC nicht nur die SaaS-Tools, sondern die gesamte SAP-Datenlandschaft in einer Lösung zusammenführt.
Fazit: Bestehende Investitionen in SAC, Datasphere und sogar Data Intelligence sind mit BDC nicht verloren. SAP verfolgt einen Ansatz der koexistenten Einführung: Bestehende Lösungen laufen weiter und integrieren sich mit BDC, und es wird schrittweise Migrationsangebote geben. Kunden sollten in Gesprächen mit SAP nach konkreten Transition-Optionen fragen, sobald BDC allgemein verfügbar ist (GA Q1 2025 in kontrollierter Einführung). Bis dahin kann BDC auch testweise parallel aufgebaut werden. Wichtig ist zu planen, wie laufende Projekte langfristig in die neue Plattform überführt werden, um die Vorteile der BDC nutzen zu können, ohne Doppelaufwand zu erzeugen.
Architektur und Implementierung der BDC
Die Architektur der SAP Business Data Cloud baut auf der SAP Business Technology Platform (BTP) auf und verbindet bewährte Komponenten mit neuen Technologien: Sie umfasst SAP HANA Cloud (als persistentes In-Memory- und SQL-Datenbanklayer für relationale Modelle, wie in Datasphere) und einen integrierten Databricks-Lakehouse-Service für Big Data und AI. Diese Kombination spiegelt sich in folgenden Architektur-Merkmalen:
- Hybride Datenhaltung (Warehouse + Data Lake): BDC nutzt ein zweistufiges Speicher-Konzept. Strukturierte, häufig benötigte Daten können weiterhin performant in SAP HANA abgelegt und abgerufen werden (für schnelle Analytics, ähnliche Architektur wie SAC und Datasphere heute). Gleichzeitig gibt es einen voll integrierten Objektspeicher auf Dateiebene (Data Lake Files), der auf Databricks Delta Lake basiert. Diese Objektspeicher-Schicht erlaubt es, große Datenmengen günstig zu speichern und z.B. historische oder unstrukturierte Daten vorzuhalten, ohne die Kosten der HANA In-Memory zu treiben. Technologisch kommen hier offene Formate (Parquet/Delta) und Cloud-Storage zum Einsatz. Durch Delta Lake und Unity Catalog sind Daten in diesem Lakehouse sauber versioniert, transaktional nutzbar und mit Metadaten katalogisiert. Gegenüber der bisherigen Datasphere-Architektur ist dies ein großer technologischer Sprung in Richtung Skalierbarkeit und Kostenoptimierung. Die beiden Storage-Layer sind in BDC eng verzahnt – z.B. können Abfragen zwischen HANA und dem Databricks SQL-Engine-Layer orchestriert werden, sodass der Benutzer davon wenig merkt.
- Verteilte Verarbeitungs- und KI-Schicht: In BDC ist ein Spark-basiertes Compute-Framework von Databricks nativ enthalten. SAP spricht von “SAP Databricks in Business Data Cloud”, was bedeutet: Anwender erhalten Zugriff auf Databricks-Notebooks für Pro-Code-Data Engineering, auf die Databricks ML Workbench (inkl. Mosaic MLFramework) für AI/ML-Entwicklung und auf die Databricks SQL Warehouse zum skalierbaren SQL-Processing. All dies läuft serverless gemanagt innerhalb der SAP-Umgebung. Für die Architektur bedeutet dies, dass BDC eine Kubernetes-basierte Laufzeit beinhaltet, die bei Bedarf automatisch Rechenressourcen hinzuschaltet. Diese Schicht übernimmt Aufgaben, die bisher extern erledigt werden mussten: z.B. komplexe ETL-Jobs, Data Science Pipelines, Machine-Learning-Training mit großen Daten. Die enge Integration stellt sicher, dass Sicherheitsmechanismen, Katalog und Monitoring einheitlich über die HANA- und Spark-Umgebung greifen – etwas, das zuvor beim Kombinieren von SAP Data Intelligence mit Datasphere manuell erreicht werden musste. Die Databricks-Compute-Engine ergänzt somit die SAP-Analytics-Architektur um hochskalierbare, AI-taugliche Verarbeitung, ohne dass der Kunde eine separate Plattform betreiben muss.
- Semantische und analytische Schicht: Auf den Daten liegt in BDC eine einheitliche semantische Schicht (Knowledge Graph/Catalog). Sie fungiert als Bindeglied zwischen den unterschiedlichen Datenquellen (S/4HANA, andere SAP-Apps, Drittquellen) und den Frontend-Werkzeugen. Dieser Layer enthält Geschäftsobjekte, Kennzahlen und Beziehungen (z.B. weiß das System, was ein “Kunde” ist und wie er mit Aufträgen oder Finanzposten verknüpft ist). Technisch gesehen dürfte dies eine Weiterentwicklung des SAP Data Catalog und Datasphere Business Layer sein, nun erweitert um Graph-Technologien und das One Domain Model. Die semantische Schicht speist SAC bzw. die Insight Apps mit konsistenten Inhalten. SAP Analytics Cloud selbst ist als Embedded AnalyticsKomponente integraler Bestandteil der BDC-Architektur: Sämtliche BI, Dashboarding und Planungs-Funktionalitäten von SAC werden unverändert in BDC genutzt. Praktisch wird SAC in BDC als der Nutzerzugang für Berichte, Planung und Insight Apps fungieren, jedoch mit Single-Sign-On und gemeinsamen Katalog mit dem darunterliegenden Datasphere-Teil. Die Planning-Engine von SAC läuft ebenfalls in der BDC (somit können z.B. Finanzplanungs-Inhalte der Insight Apps direkt genutzt werden). Diese enge Kopplung von Datenplattform und Analytics-Frontend in einer Architektur eliminiert früher notwendige Integrationsschritte.
- Integration mit SAP-Quellsystemen und Drittsystemen: BDC setzt auf native Konnektoren und föderierte Abfragen für operative Quellen. Wie schon Datasphere bietet BDC z.B. eine tiefe Integration zu SAP S/4HANA (Transaktionsdaten können nahezu in Echtzeit angebunden werden) und anderen SaaS-Lösungen wie SuccessFactors, Ariba, etc., nun aber verbessert durch eine einheitliche Governance. Über die SAP BW Bridge können auch ABAP-basierte Datenflüsse aus BW integriert werden. Für Non-SAP-Daten ist durch die Databricks-Allianz ebenfalls gesorgt: BDC kann Daten aus Drittquellen im Delta-Format aufnehmen oder via Delta Sharing austauschen. Streaming-Daten lassen sich vermutlich über Apache Kafka/Confluent-Anbindung integrieren (ein Ansatz, den schon Datasphere verfolgte). Damit ist die Architektur so ausgelegt, dass sowohl Cloud-to-Cloud als auch Hybrid-Szenarien unterstützt werden. Wichtig dabei: Durch den oben erwähnten Zero-Copy-Ansatz muss nicht jedes Fremddatum ins HANA gespeichert werden – es kann z.B. in einem Data Lake bleiben und trotzdem von SAC ausgewertet werden.
Zusammenfassend bietet die BDC-Architektur einen ganzheitlichen “One-Stop-Shop” für Datenmanagement, Analytics und AI: Alle notwendigen Komponenten (Datenbank, Datenintegration, Datenkatalog, Analytik-Frontends, KI-Engine) laufen innerhalb eines SaaS-Services zusammen. Gegenüber der bisherigen Situation – getrennte Services für DWH (Datasphere), BI (SAC) und ETL/ML (Data Intelligence) zu integrieren – bedeutet dies eine deutlich vereinfachte Implementierung für Kunden. Technologisch markiert BDC für SAP einen Wechsel hin zu mehr Offenheit und Skalierbarkeit, behält aber die an SAP BW/Datasphere geschätzten Stärken wie Business-Kontext und vordefinierte Modelle bei. Unternehmen erhalten mit BDC eine moderne Datenplattform mit Enterprise-Grade-Analytics, ohne selbst die komplexen Integrationsstücke zusammensetzen zu müssen.

Handlungsempfehlungen für SAP-Kunden
Für Unternehmen, die bereits eine oder mehrere der bestehenden SAP Data-&-Analytics-Cloudlösungen (SAC, Datasphere und ggf. Data Intelligence) einsetzen, ergeben sich aus der Einführung von BDC folgende Empfehlungen und Überlegungen:
- Aktuell keine überstürzten Umstellungen: Da SAP die Kontinuität der bestehenden Lösungen garantiert, sollten Kunden ihre laufenden SAC-Reports, Planungsmodelle oder Datasphere-Datenschichten zunächst weiter nutzen. Es besteht vorläufig kein Zwang, sofort auf BDC zu migrieren. Stattdessen können Sie sich mit der neuen Plattform in Ruhe vertraut machen und geeignete Zeitpunkte für eine Transition planen.
- Strategische Planung der Migration: Auch wenn keine unmittelbare Pflicht besteht, ist klar, dass SAP langfristig auf BDC als zentrale Lösung setzt. SAC und Datasphere werden nicht mehr einzeln verkauft, da diese von BDC abgelöst werden. Daher sollten Bestandskunden BDC in ihre IT-Roadmap aufnehmen. Identifizieren Sie, welche bestehenden Inhalte und Integrationen in BDC überführt werden sollten. SAP wird voraussichtlich Tools oder Services bereitstellen, um z.B. SAC Stories oder Datasphere-Modelle in BDC zu übernehmen – behalten Sie diesbezüglich die SAP-Roadmap und Ankündigungen in H1 2025 im Blick. Für **SAP BW-**Nutzer on-prem empfiehlt sich BDC als neue Option zur Modernisierung: Nutzen Sie etwa den BW Bridge Ansatz, um Ihr BW schrittweise in die Cloud zu verlängern und parallel neue BDC-Funktionen zu erproben.
- Parallelbetrieb und Integration nutzen: SAP hat klargestellt, dass bestehende Datasphere/SAC-Umgebungen sich in BDC einbinden lassen. Unternehmen können erwägen, BDC zunächst parallel aufzubauen und schrittweise Workloads zu verlagern. Beispielsweise könnten neue Analytics-Anwendungen bereits in BDC (mit Insight Apps und Databricks-ML) entwickelt werden, während Altsysteme weiterlaufen. BDC kann auf die gleichen Quellsysteme zugreifen wie Ihre aktuelle Datasphere – so können Sie nach und nach die Nutzung verschieben. Dieser Parallel-Ansatz minimiert Risiken und erlaubt Erfahrungsaufbau mit der neuen Technologie, bevor man kritische Anwendungen umstellt.
- Mehrwert der neuen Funktionen bewerten: Prüfen Sie, welche neuen BDC-Funktionen für Ihr Business besonders vorteilhaft sind. Etwa: Können die vorgefertigten Data Products und Insight Apps Ihnen Entwicklungszeit sparen oder Standardreports verbessern? Benötigen Ihre Analysten eine bessere Integration von Non-SAP-Daten? Gibt es Data-Science-Use-Cases, für die Sie bisher Data Intelligence oder separate Databricks/Spark-Cluster nutzen mussten, die Sie künftig in BDC zentral umsetzen könnten? Wenn ja, lohnt sich eine frühzeitige Migration dieser Anwendungsfälle, um von BDC zu profitieren. Auch das Kostenthema ist relevant: BDC könnte Speicher- und Lizenzkosten reduzieren, indem Daten in den günstigeren Object Store verlagert werden – vergleichen Sie Ihre aktuellen HANA-Speicherkosten mit den zu erwartenden BDC-Kostenmodellen, sobald verfügbar.
- Schulung und Change Management: BDC bringt einige neue Konzepte, wie z.B. Data Products, Knowledge Graph & Databricks-Notebooks. Data Warehouse Entwickler müssen sich ggf. mit der Databricks-Welt vertraut machen, auch wenn die klassischen Tools weiter existieren. Ebenso sollten Business-User die neuen Insight Apps und KI-Features verstehen lernen. SAP wird Schulungsmaterial (Learning Ressourcen, Communities) bereitstellen – nutzen Sie diese frühzeitig, um Know-how aufzubauen.
- Lizenz- und Kostenaspekte prüfen: Da BDC als neues Bundle-Angebot kommt, werden sich Lizenzierungen ändern. Klären Sie mit SAP, wie Ihre bestehenden Verträge überführt werden. Zum Beispiel: Wenn Sie sowohl SAC als auch Datasphere lizenziert haben, wie wird dies in BDC konsolidiert? Vermeiden Sie Doppelzahlungen – SAP muss z.B. sicherstellen, dass BW-Kunden mit vorhandenen BI-Frontends nicht „doppelt“ zahlen beim Wechsel in BDC. Erste Informationen deuten auf ein Credit- oder Capacity-basiertes Modell hin (BDC Capacity Units). Kalkulieren Sie die wirtschaftlichen Auswirkungen und planen Sie Budget für eine mögliche Umstellung ein. Nutzen Sie ggf. Testangebote oder Beta-Programme, um ein Gefühl für die Kosten vs. Nutzen zu bekommen, bevor Sie voll migrieren.
- Weiterbetrieb von Data Intelligence evaluieren: Falls Sie intensiv SAP Data Intelligence im Einsatz haben, beobachten Sie genau die Weiterentwicklung. Sollte SAP die DI-Plattform perspektivisch einstellen oder in BDC aufgehen lassen, benötigen Sie einen Plan, wie Sie kritische Datenprozesse anders abbilden. Eventuell ist es ratsam, mittelfristig auf alternative Tools zu setzen, falls BDC nicht alle DI-Funktionalitäten übernimmt. Halten Sie Rücksprache mit SAP-Ansprechpartnern, ob Ihre DI-Anwendungsfälle von BDC abgedeckt werden oder ob DI als separates Produkt weiter supported bleibt.
- Zeitplan und Bereitschaft: BDC befindet sich Anfang 2025 in einer kontrollierten GA-Phase (General Availability für ausgewählte Kunden). Ein breiter Rollout wird im Laufe von 2025 erwartet. Unternehmen sollten dieses Zeitfenster nutzen, um intern die Weichen für BDC zu stellen – von Budget, über Skills bis Datenmigrationsstrategie. Wer früh von den neuen Möglichkeiten (z.B. KI mit Joule, vorgefertigte Content) profitieren will, kann sich ggf. als Early Adopter anmelden oder an SAPs Beta-Programmen teilnehmen. Ansonsten gilt: die bestehenden Lösungen bleiben vorerst einsetzbar und erhalten Support, aber BDC ist die Zukunftsplattform, auf die man sich ausrichten sollte. Eine enge Abstimmung mit dem SAP Account Management und die Lektüre der offiziellen BDC-Roadmap/FAQ-Dokumentation wird empfohlen, um immer auf dem aktuellen Stand zu sein, was Pflichtumstellungen oder End-of-Life-Daten der Altprodukte angeht. Aktuell ist vorgesehen, dass die alten Produkte parallel bestehen bleiben, bis BDC ihre Funktionen vollständig abdecken kann – ein erzwungener Wechsel zu einem festen Datum ist nicht angekündigt. Dennoch ist die klare strategische Empfehlung: BDC frühzeitig in die eigene Datenstrategie einbeziehen, um technologisch und fachlich von SAPs neuer Generation der Daten- und Analytics-Plattform zu profitieren.
Quellen: Der obige Blogartikel basiet auf SAP-Ankündigungen (SAP Business Unleashed 2025, SAP News (SAP and Databricks: A Bold New Era of Data and AI | SAP News Center) (SAP and Databricks: A Bold New Era of Data and AI | SAP News Center)), offiziellen FAQ und Blogs von SAP, sowie Analysen unabhängiger Experten (z.B. BARC (SAP BDC (Business Data Cloud): What you need to know) (SAP BDC (Business Data Cloud): What you need to know), Nextlytics (Business Data Cloud – Was hat es damit auf sich?) (Business Data Cloud – Was hat es damit auf sich?), VentureBeat (SAP integrates Databricks to enhance AI readiness with new Business Data Cloud | VentureBeat)).
NEO Kontakt

Hauke Schaper
hauke.schaper@neomatic.io
+49 170 376 7868