^

Data Science

In den Daten, die Unternehmen automatisch erzeugen, steckt viel Potenzial. Mit den richtigen Tools können darin Muster erkannt werden, welche zu einer Optimierung von Prozessen und der Ressourcenallokation genutzt werden können. Der TCW Ansatz baut auf pragmatische Tools: Künstliche Intelligenz sowie Machine Learning auf der Basis von erprobten Algorithmen, um Wissen aus Unternehmensdaten zu extrahieren und betriebswirtschaftliche Probleme durch mathematische Modelle zu modellieren und zu optimieren.

Viele Führungskräfte stehen vor der Herausforderung, Entscheidungen in einem sehr komplexen Umfeld zu treffen.

„Wer die eigenen Daten lesen kann und die Zusammenhänge erkennt, hat hier Vorteile durch verborgene Potenziale.“

Das Ziel des Data Science Ansatzes ist es, die Daten intelligent miteinander zu verknüpfen, Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Vorhersagen zu treffen, um zukunftsfähige Geschäftsmodelle zu gestalten. Dieser analytische Ansatz lässt sich in allen Unternehmensbereichen anwenden.

Wir verknüpfen

  • „Menschliches“ Erfahrungswissen aus verschiedenen Branchen,
  • Pragmatische Tools, die auch verteilte und unvollständige Datenstämme nutzbar machen,
  • vorkonfektionierte Analyseframeworks, die sofort einsetzbar sind,
  • State-of-the-Art Analysesoftware und erprobte Algorithmen sowie
  • Lessons Learned und Benchmarks aus Referenzprojekten.

in einem ganzheitlichen Konzept.

Denn wir sind überzeugt

„Daten allein sind dumm. Werthaltig wird ein Beratungsansatz erst, wenn die Datenanalyse mit menschlichem Erfahrungswissen kombiniert wird, denn dann können daraus die richtigen Schlussfolgerungen gezogen werden“.

Der TCW “Smart Optimization” Ansatz

Das TCW wendet ein vierstufiges Verfahren an, dass messbare Ergebnisse gewährleistet:

1. Pain-Point-Check und Data-Cube-Setup

  • Analyse und Benchmarking der zu betrachtenden Unternehmensfunktion,
  • Identifikation der Pain-Points und der Werthebel in der Wertschöpfungskette,
  • Ursachen-/Wirkungsanalyse zur Ableitung der mathematischen Modelle,
  • Konsolidierung der Daten aus verschiedensten Datenquellen (keine perfekte Datenqualität notwendig) sowie
  • Daten-Mapping und Datenbereinigung.

2. Lernen aus Big Data

  • Nutzung vorgefertigter Analyseframeworks oder Entwicklung von Analysemodellen für spezifische Probleme,
  • Nutzung von Algorithmen und mathematischen Optimierungsmodellen zur Mustererkennung und Problemlösung,
  • Mathematische Modellierung und Optimierung,
  • Hypothesen-Testing und Ableiten von Schlussfolgerungen und
  • Ableitung von Maßnahmen und Erkenntnissen.

3. Business Intelligence und Management Controlling Systems

  • Die kundenspezifische Erstellung und Implementierung von Business Intelligence Systemen führt zu voller Transparenz für das Management in Bezug auf verschiedene Business Prozesse (von Zulieferung über Produktion bis hin zu Vertriebsaktivitäten) und
  • Echtzeitcontrolling über Dashboards.

4. Implementierungs-Roadmap und Change-Management

Wir erarbeiten konkrete Maßnahmenpläne für verschiedene Unternehmensfunktionen und begleiten Sie bei der Umsetzung und Implementierung der erkannten Verbesserungen und unterstützen auch bei der Entwicklung einer nachhaltigen Datenstrategie.

Das Ergebnis: Eine optimierte Ressourcenallokation und effizientere Prozesse.

Unsere interdisziplinären Teams

  • bestehend auf Wirtschaftswissenschaftlern,
  • Data Scientists und
  • Ingenieuren

verknüpfen technisches Verständnis, Branchenerfahrung und analytische Kompetenzen im Bereich Big Data Analytics.

Wir greifen auf ein breites Angebot an erprobten Algorithmen und Software-Tools aus den Bereichen mathematischer Optimierung, statistischer Verfahren, nicht linearer Modelle wie Entscheidungsbäume, bis hin zu unserem Deep Learning (tiefe neuronale Netze) zurück. Das TCW Konzept ermöglicht es Unternehmen, echten Mehrwert aus Daten zu generieren und Möglichkeiten zur Umsatzsteigerung und zur Kostenreduzierung zu identifizieren. Wir bauen dabei auf Erfahrungen aus erfolgreichen Referenzprojekten.

Video: Herr Professor Horst Wildemann und Herr Dr. Sebastian Eckert erklären Data Science und stellen Beispiele vor, wie Unternehmen das Lernen aus den eigenen Daten konkret anwenden können

Anwendungsbereiche und Use Cases

  • Remote Business Intelligence
    Die Bedeutung digitaler Kommunikations- und Arbeitsplattformen nimmt in allen Unternehmen zu – das gilt auch für die Beratung. Der TCW Ansatz Remote Business Intelligence bedeutet Hilfestellung bei strategischen Entscheidungen durch toolbasierte Datenanalysen & Benchmarks. Die gesamte Projektarbeit findet ohne physische Anwesenheit der Berater im Unternehmen statt.
  • Umsatzsteigerung durch Cross-Selling und die optimierte Nutzung von Sales- und Plattformdaten
    Die konzernweite Integration, Auswertung und Nutzung von Vertriebsdaten aus verschiedenen Business Units bietet Unternehmen weitreichende Potenziale. Sie können ihre Kundenansprache verbessern, indem sie ihre Produkt- und Leistungsbündel sowie das Pricing individualisieren. Damit wird der Vertrieb effizienter und effektiver, was zu höheren Umsätzen führt. Gleichzeitig steigt der Kundenmehrwert und damit die Kundenbindung.
  • Anlagenüberwachung und Predictive Maintenance durch Machine Learning
    Die historischen Betriebs-, Ausfall- und Sensordaten von Maschinen und Großanlagen lassen sich mit Machine Learning nutzen, um ein Echtzeitcontrolling für den Anlagenzustand aufzubauen und um Ausfallwahrscheinlichkeiten zu prognostizieren. Die technische Umsetzung ist in jedem Unternehmen möglich und die Algorithmen dazu sind seit Jahren erprobt.
  • Qualitätsoptimierung im Shopfloor durch Big Data
    In vielen Unternehmen weisen Produktionsbereiche unterschiedliche Qualitätsniveaus auf. Über algorithmengestützte Big Data Analysen lassen sich Ursache-Wirkungs-Analysen durchführen, um die Hebel zur Reduzierung von Qualitätsproblemen zu identifizieren, stellenweise mit überraschenden Ergebnissen.
  • Smartes Bestandsmanagement mit Big Data und Künstlicher Intelligenz
    Durch die Optimierung des Bestandsmanagements können Potenziale in zahlreichen Unternehmensbereichen realisiert werden, da Bestände die zentrale Schnittstelle zwischen verschiedenen Unternehmensfunktionen sind. Die Bestandsreduzierung ist ein wesentlicher Stellhebel für die Verbesserung der Liquidität und Produktivität.
  • Effizienzsteigerung im operativen Einkauf
    Big-Data Analysen erlauben es, Zusammenhänge zwischen Einkaufsentscheidungen (z.B. BANF-Freigaben) und den Merkmalskombinationen der BANF herzustellen. Durch eine Clusterung von BANFen gemäß den Kriterien, die in der Vergangenheit zu einer Freigabe geführt haben, kann die BANF ohne manuelle Prüfung freigegeben (oder eine andere Aktion ausgelöst) werden, wenn sie in die entsprechende Kategorie fällt.
  • Pricing Modelle für hybride Leistungsbündel
    Ziel ist es, markt- und regionenspezifische Pricing-Modelle zu entwickeln, die eine maximale Marktabschöpfung ermöglichen. Durch eine Clusterung der regionalen Kundenbedarfe und der Erkennung von Mustern können hybride Leistungsbündel angeboten werden und es kann eine optimale Preisstrategie entwickelt werden. Ziel ist es, kaufentscheidende Merkmale in der Pricing-Strategie optimal zu berücksichtigen.
  • Werksübergreifende Kapazitätssimulation
    Die werksübergreifende Simulation von verfügbaren Kapazitäten unter Berücksichtigung der technologischen Kompetenzen ist in Unternehmen aufgrund der komplexen Zusammenhänge häufig nur schwer möglich. Big Data Analysen erlauben es, die Vielzahl an kapazitätsrelevanten Daten in den einzelnen Werken zu standardisieren und zu vergleichen. Dadurch lässt sich eine prognosegestützte, optimiere Ressourcenplanung und ein Effizienzgewinn erreichen.
  • Optimierung der Produktivität in der Produktion durch Ursache-/Wirkungsanalysen
    Über Regressions-Big-Data-Analysen kann festgestellt werden, welche Ursachen eine hohe Produktivität (z.B. First-Pass-Yield, Durchlaufzeiten etc.) begünstigen. Ziel ist es, in einem Produktionsnetz erfolgreiche und weniger erfolgreiche Standorte zu analysieren und Muster zu erkennen, durch welche die Produktivität gesteigert werden kann.
  • Beschleunigung der Produktentwicklungszeit in der chemischen Industrie
    Neue Produkte werden in der chemischen Industrie in Labortests entwickelt. Viele Einflussfaktoren wie etwa Rezepturen oder Verfahrensparameter haben einen Einfluss auf die Produktgüte. Labortests können deutlich effizienter sein, wenn über Big Data die Muster zwischen Einflussfaktoren (Rezepturen, Verfahren etc.) und Prozessergebnissen hergestellt werden können. Dies bedeutet eine deutliche Beschleunigung gegenüber dem Trial-and-Error-Verfahren.
  • Auspreisung komplexer Produktportfolios
    Automatisierte Bepreisung der Varianten mit präziserer Berücksichtigung entsprechend der Spezifika und optimaler Abschöpfung des Marktes.
  • Optimierung der Materialanstellung
    Festlegung der Verpackungsgrößen unter Berücksichtigung aller Einflussfaktoren aus Sicht von Montage und Logistik. Auslastungsoptimierung in Vormontagebereichen unter Berücksichtigung sämtlicher Einflussgrößen.


  • Vereinbaren Sie Ihren persönlichen Beratungstermin!

    tagsüber zwischen 9-17 Uhr

    VorherigeNächste