Alle reden über Data Science. Aber was bedeutet das für mein Unternehmen?

Bringen Sie Data Science in Ihr Unternehmen


Als Data Science Consulting helfen wir Ihnen Mehrwerte aus ihren Daten zu schöpfen und dadurch mehr Effizienz, Transparenz und Struktur in ihr Unternehmen zu bringen. Dadurch können Sie sich Wettbewerbsvorteile sichern, Produktionsketten effizienter gestalten, neue Geschäftsmodelle generieren, Produktionsfehler vermeiden und die Kommunikation zu Ihrem Endkunden verbessern.

   Potenzialanalyse    Projektrealisierung
Sie haben noch keinen konkreten Anwendungsfall, sind jedoch interessiert Data Science in Ihrem Unternehmen zu etablieren? Dann starten sie mit uns gemeinsam eine Potenzialanalyse.
Sie haben bereits einen konkreten Anwendungsfall für Data Science. Ihnen fehlen jedoch die richtigen Tools für die Umsetzung? Dann starten Sie gemeinsam mit uns die Realisierung Ihres Projektes

Starten Sie mit unserer Potenzialanalyse


So viele Daten? Aber wie machen Sie Ihr Unternehmen mit Hilfe dieser Daten effizienter und generieren Werte? Wie digitalisieren Sie Ihre Geschäftsprozesse und was bringt Ihnen das? Wie finde ich den passenden Anwendungsfall für mein Unternehmen? Mit Hilfe unserer Potenzialanalyse können wir Ihnen diese uns noch weitere Fragen beantworten. Diese läuft in drei einfachen Schritten ab.

    Zu Beginn der Potenzialanalyse findet ein erstes Telefongespräch mit zweien unserer Big Data Experten statt.
    Es erfolgt ein intensives Vorgespräch, in dem die Zielsetzung mit Ihnen gemeinsam besprochen wird.

    Im Anschluss findet der eigentliche Workshop statt. Zwei unserer Data Science Spezialisten besuchen Sie für einen Tag in Ihrem Unternehmen.
    Unsere Spezialisten verschaffen sich einen Überblick über die Abläufe in Ihrem Unternehmen und finden Anwendungsfälle für Big Data Methoden.

    Im Anschluss an den eintägigen Besuch fassen wir die Ergebnisse für Sie zusammen. Es erfolgt eine Bewertung des Anwendungsfalls und es können Empfehlungen für Sie ausgesprochen werden

Schöpfen Sie Werte aus Ihren Daten


Sie Haben bereits einen vielversprechenden Anwendungsfall für Data Science in Ihrem Unternehmen? Jedoch fehlen Ihnen die richtigen Tools zur Realisierung Ihres Projektes?

Oftmals können Applikationen wie MapReduce, Spark, NoSQL, maschinelles Lernen, Modellieren oder Statistiken nicht all Ihre Probleme lösen. Deshalb verlassen wir uns nicht blind auf eine einzige Applikation sondern gestalten eine für Sie maßgeschneiderte Kombination.

Die Projektrealisierung mit uns läuft in drei Schritten ab.

    Zunächst muss geklärt werden, ob und vor allem wie Ihr Anwendungsfall von uns gelöst werden kann. Normalerweise besuchen Sie dazu zwei unserer Data Science Spezialisten für einen Tag in Ihrem Unternehmen.
    Anschließend fassen wir unsere Erkenntnisse für Sie zusammen und skizzieren die weitere Zusammenarbeit.

    Die Durchführung des Projektes selbst findet Hand in Hand mit Ihnen und Ihren Mitarbeitern statt. Uns ist es wichtig, dass wir regelmäßig Rücksprache mit Ihnen halten um das Projekt in zielführenden Bahnen zu halten.

    Ist das Projekt erfolgreich abgeschlossen, kann die ausgearbeitete Lösung nun in Ihrem Unternehmen ausgerollt werden.
    Wir unterstützen Sie dabei gerne.

Unser Team


© Uwe Bellhäuser


Prof. Dr. Verena Wolf


© Uwe Bellhäuser
Verena Wolf ist ordentliche Professorin für Informatik an der Universität des Saarlandes. Sie erhielt ihren Abschluss der Informatik inklusive des Doktortitels 2008 von der Universität Mannheim. Im Jahr 2009 wechselte sie als Nachwuchsgruppenleiterin zum Exzellenzcluster für multimodale Interaktion und Computing an der Universität des Saarlandes, bevor sie 2012 den Ruf auf eine ordentliche Professur erhielt. Sie ist Mitglied des Zentrums für Bioinformatik der Universität des Saarlandes und Associate Editor des ACM Transactions on Modeling und Computer Simulation Journal. 2013 erhielt sie den "Young Innovator under 35 Award" des Technology Review Magazine. Sie ist häufiges Mitglied in wissenschaftlichen Programmkomitees zahlreicher internationaler Konferenzen. Ihre Forschung konzentriert sich auf probabilistische Modellierung und Datenwissenschaft, insbesondere auf statistische und numerische Analysemethoden, effiziente diskrete Ereignissimulationstechniken, Parameterinferenz, Sensitivitätsanalyse und seltene Ereignissimulation. Sie designt hybride Modelle, die nicht ausschließlich auf einem deskriptiven / mechanistischen Ansatz beruhen, sondern durch Ergebnisse von maschinellen Lerntechniken ergänzt werden.

Prof. Dr. Jens Dittrich


© Uwe Bellhäuser
Jens Dittrich ist Professor für Informatik im Bereich Datenbanken, Datenmanagement und Big Data an der Universität des Saarlandes. Frühere Zugehörigkeiten umfassen die Uni Marburg, die SAP AG und die ETH Zürich. Er erhielt den Outrageous Ideas and Vision Paper Award auf der CIDR 2011 (Conference on innovative Data Systems Reseach), einen BMBF VIP Grant im Jahr 2011, einen Best Paper Award auf der VLDB 2014 (Conference on Very Large Databases) und drei CS Lehrpreise im Jahr 2011, 2013 und 2018, sowie zahlreiche Präsentationspreise, darunter eine Qualifikation für das interdisziplinäre deutsche Science-Slam-Finale 2012 und drei Präsentationspreise bei CIDR (2011, 2013 und 2015). Er war PC-Mitglied und Bereichsleiter bzw. Gruppenleiter von renommierten internationalen Big Data und Datenbankkonferenzen und -zeitschriften wie PVLDB / VLDB, SIGMOD, ICDE und VLDB Journal. Er gehört dem wissenschaftlichen Beirat der Software AG an. Er hielt Keynotes auf VLDB 2017 (International Conference on Very Large Databases): “Deep Learning (m)eats Databases“ und beim DEEM-workshop@SIGMOD 2018 (Datenmanagement für End-to-End Machine Learning). Er war/ist Vortragender der PyData Berlin und Pycon Karlsruhe. Er hat einen youtube-Kanal zum Thema Datenbanktechnologie. Seine Forschung konzentriert sich auf den schnellen Zugriff auf große Datenmengen, insbesondere auf Datenanalyse großer Daten ("Big Data"), Skalierbarkeit, Hauptspeicherdatenbanken, Datenbankindexierung, Zeitreihen, Reproduzierbarkeit und Data Science.

Thilo KrÜger


© Uwe Bellhäuser
Thilo Krüger war Doktorand der Informatik an der Universität des Saarlandes. Er arbeitet auf dem Gebiet der statistischen Modellierung und insbesondere der Simulation von (bio) chemischen Prozessen. Er hat einen Abschluss in Chemie (Nebenfach Informatik) vom Institut für Technische Chemie der Universität Hamburg. Er hat einen starken interdisziplinären Hintergrund, einschließlich Stochastik, Modellierung und Simulation, Bayes'scher Statistik, maschinellem Lernen, Datenanalyse, aber auch der Polymer- und technischen Chemie sowie der Epigenetik. Während seiner Arbeit als Doktorand veröffentlichte er mehrere Arbeiten auf internationalen Konferenzen im Bereich der statistischen Modellierung und war ein aktiver Gutachter für zahlreiche internationale Konferenzen und Fachzeitschriften. Er nutzt anspruchsvolle statistische Methoden zur Lösung von Problemen aus völlig neuen und vielfältigen Anwendungsbereichen.

Dr. Endre Palatinus


© Uwe Bellhäuser
Endre Palatinus ist Postdoktorand und Data Scientist am Lehrstuhl für Informationssysteme von Prof. Jens Dittrich am Institut für Informatik der Universität des Saarlandes, wo er seine Promotion im Jahr 2016 abschloss. Seine Forschung konzentriert sich auf Daten-Layouts, Robustheit und Code-Generierung von handgeschriebenen Abfragen zu ganzen Datenbanksystemen. Er hat Arbeiten in diesen Bereichen auf wichtigen Konferenzen und Workshops im Bereich Datenbanken und Informationssysteme veröffentlicht, darunter PVLDB / VLDB und IMDM. Darüber hinaus war er als externer Gutachter für mehrere renommierte Datenmanagementkonferenzen tätig, darunter ACM SIGMOD, VLDB, ICDE, EDBT, SOCC und BTW. Er löst datenwissenschaftliche Probleme in R und Tableau, insbesondere durch "data munging" und Visualisierung.