- Anzeige -


Sie sind hier: Startseite » Markt » Studien

CRM und Data-Mining-Werkzeuge


"Data Mining Studie 2012": Kundenbindungsmanagement durch Einsatz von Prognosemodellen
Analytisches CRM: Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics


(09.07.12) - In Marketing und Vertrieb spielt das Customer Relationship Management (CRM) eine Schlüsselrolle: Hier wird entschieden, welche bestehenden Kunden in welcher Form betreut werden, welche potenziellen Neukunden wie angesprochen und welche ehemaligen Kunden zurückgewonnen werden sollen. Die Beantwortung dieser Fragen ist von strategischer Bedeutung und entscheidet über den Erfolg des gesamten Unternehmens. Die diesjährige Data Mining Studie des BI-Analysten- und Beraterhauses mayato legt den Schwerpunkt auf die Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics.

Dazu traten vier Data-Mining-Produkte gegeneinander an: Der "SAS Enterprise Miner 7.1", der "Statistica Data Miner 10" von StatSoft, der "IBM SPSS Modeler 14.2" und das "SAP BW "7 (Data Mining Workbench). Die Studie ist kostenpflichtig bei mayato erhältlich.

Potenziale erkennen und gezielt handeln
Der Test wurde anhand eines praxisnahen Analyseszenarios durchgeführt: Ein großer Online-Versandhändler möchte Erstbesteller, die nach einer definierten Zeitspanne keine Folgebestellung tätigen, durch bestimmte Aktionen zu einem Wiederkauf anregen. Dabei sollen nur die Kunden einen Einkaufsgutschein erhalten, bei denen mit hoher Wahrscheinlichkeit davon auszugehen ist, dass sie ohne diesen Anreiz keine weitere Bestellung getätigt hätten. Diese Kunden galt es auf Basis der vorliegenden Kundenhistorie mithilfe eines Prognosemodells vorherzusagen. Dazu wurden neben etablierten Methoden wie Entscheidungsbäumen auch neuere Prognoseverfahren wie Support Vector Machines (SVM) eingesetzt und für jedes getestete Tool separat auf Praxistauglichkeit und Prognosequalität geprüft. Unter Einbezug der errechneten Prognosen sollen die abwanderungsgefährdeten Kunden gezielt zurückgewonnen werden.

Die Bewertung der Tools stützt sich auf eine breite Anzahl an Einzelkriterien. Sie decken sowohl Funktionalitätsaspekte (Funktionsumfang in den Kategorien Datenvorverarbeitung, Analyseverfahren und Parametrisierung, Ergebnisvisualisierung, Gesamteffizienz) als auch die Benutzerfreundlichkeit (Stabilität, Ausführungsgeschwindigkeit, Dokumentation, Bedienung) ab.

Im Endergebnis zeigen sich starke Unterschiede insbesondere im Bedienkomfort, bei der Funktionalität sowie bei den Möglichkeiten der Ergebnisauswertung.

Testfeld und Praxis
In der neuen Studie werden erstmals die drei marktführenden Suiten von SAS, StatSoft und IBM SPSS miteinander verglichen. Um zu beurteilen, wie sich ein klassisches BI-Werkzeug im Vergleich zu den etablierten Data-Mining-Suiten schlägt, wurde die SAP BW Data Mining Workbench mit ins Testfeld aufgenommen.

Bereits früh im Testablauf werden Stärken und Schwächen der jeweiligen Tools sichtbar: Die besondere Stärke von SAS liegt in der Einbettung des Enterprise Miner in eine leistungsfähige BI-Gesamtarchitektur, die neben der Analyse flexible Möglichkeiten der Datenhaltung oder weitreichende ETL-Funktionen bietet.

IBM SPSS ist es gelungen, hohe Funktionalität in eine moderne, intuitive Oberfläche zu verpacken: Der Modeler bietet durch sein logisches Bedienkonzept und zahlreiche praktische Detaillösungen die beste Ergonomie im Testfeld.

StatSoft punktet mit einer sehr breiten Funktionsvielfalt: Der Data Miner enthält als einziges Tool im Test zusätzlich zu den gängigen Data-Mining-Verfahren stets das vollständige StatSoft-Statistikmodul. Dies schließt z. B. mächtige Datenvorverarbeitungsmöglichkeiten, eine breite Palette an statistischen Testverfahren sowie eine große Anzahl an frei konfigurierbaren Grafiken ein. Bei komplexen Data-Mining-Szenarien erleichtern viele dieser Funktionalitäten die tägliche Arbeit oder ermöglichen überhaupt erst eine umfassende Analyse.

Mit bereits deutlichem Abstand folgt das SAP BW mit der Data Mining Workbench: Ihr merkt man vor allem an der unübersichtlichen und wenig logisch aufgebauten Oberfläche an, dass sie seit mehreren Jahren keine substanziellen Aktualisierungen mehr erfahren hat. Hinzu kommen deutliche praktische Einschränkungen in der Funktionalität.

Bedienkonzepte und Weiterentwicklung
Die hohe Funktionsmächtigkeit und die vielfältigen Parametrisierungsmöglichkeiten der Suiten führen allerdings zu vergleichsweise langen Einarbeitungszeiten. Es wird zudem immer schwieriger, ein einziges Bedienkonzept für alle denkbaren Anwendergruppen bereit zu stellen. Als Konsequenz gehen manche Hersteller dazu über, mehrere Bedienoberflächen für unterschiedliche Nutzergruppen zur Verfügung zu stellen:

SAS bietet zusätzlich zur klassischen Modellbildung mit dem Rapid Predictive Modeler eine (in der aktuellen Version nochmals überarbeitete) einfache, separate Data-Mining-Umgebung mit sinnvoll begrenzten Parametrisierungsoptionen an. Hier konnten im Test bereits mit den Standardparametern in kurzer Zeit akzeptable Ergebnisse erzielt werden, die auf Wunsch manuell weiter verfeinert werden können.

StatSofts Beitrag zur Automatisierung des Prozesses liegt in alternativ angebotenen, vorgefertigten Data-Mining-Rezepten für Standard-Prognoseaufgaben. Hier kann der Nutzer ohne viel Aufwand eine Vielzahl an Vorhersagemodellen erzeugen.

IBM SPSS stellt unter anderem mit dem automatischen Klassifizierer eine vergleichbare Funktionalität bereit: Der Anwender kann in einem Dialog mehrere Prognosemodelle mit unterschiedlichen Verfahren und Parametereinstellungen automatisch berechnen und deren Ergebnisse vergleichen.

Darüber hinaus erweitern die Tool-Hersteller insbesondere die Komponenten und Module ihrer Produkte, die für einen schnellen Einstieg in Data-Mining-Analysen besonders wichtig sind. Zu den Erweiterungen gehören Neuentwicklungen und weitere Differenzierungen ihrer Bedienkonzepte, ausführliche Dokumentationen inklusive Online-Hilfen und praxisnaher Tutorials sowie innovative Ansätze zur Automatisierung des Data-Mining-Prozesses. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Studien

  • Antwort auf den Multi-Cloud-Trend

    Der weltweite Markt für Public-Cloud-Services wird im Jahr 2018 um 21,4 Prozent wachsen und einen Umsatz von insgesamt 186,4 Milliarden US-Dollar erzielen, so eine aktuelle Prognose des IT-Research und Beratungsunternehmens Gartner. Im Vorjahr 2017 belief sich der Umsatz noch auf 153,5 Milliarden US-Dollar.

  • Thema: "Agiles Unternehmen"

    Die digitale Transformation steht auf der Prioritätenliste von Unternehmen ganz oben. Einen umfassenden Vergleich der Anbieter auf diesem Markt bietet der neue "ISG Provider Lens Germany 2018 - Digital Transformation Services & Solutions" des Beratungs- und IT-Marktforschungshauses ISG Information Services Group. Die Studie analysiert vier Marktsegmente: die Interaktion zwischen Unternehmen und Kunden (Customer Journey), Unterstützung von Fachabteilungen (Intelligent Business Solutions/Platforms-as-a-Service), Unterstützung von IT-Abteilungen (Intelligent Operations) sowie Service-Leistungen, die Innovationen fördern (Accelerated Innovation).

  • Collaboration-Services am Arbeitsplatz

    Unternehmen, die für ihre Mitarbeiter in digitale Technologien investieren, werden mit einer deutlichen Produktivitätssteigerung belohnt - das ist eines der Ergebnisse der von BT veröffentlichten Studie "People, Productivity and the Digital Workplace - 2018". Der Report basiert auf einer internationalen Befragung von 1.100 Führungskräften und 600 IT-Entscheidern in elf Ländern. Die überwiegende Mehrheit (neun von zehn) der Befragten ist Meinung, dass mobile Tools und Collaboration-Services die Produktivität am Arbeitsplatz verbessern - eine deutliche Steigerung gegenüber dem Jahr 2015, wo es noch sechs von zehn der Befragten waren. Die Studie arbeitet fünf konkrete Bausteine zur Steigerung der Produktivität der Mitarbeiter heraus: Ein besser vernetzter, Video-fähiger Arbeitsplatz; einfacheres Arbeiten und Zusammenarbeiten auch außerhalb des Büros; Unternehmens-Apps; Instant Messaging-Dienste sowie leistungsfähigere Endgeräte.

  • Einführung von Hybrid Clouds in Europa

    NTT Communications gab die Ergebnisse einer neuen Studie bekannt: Diese hat ermittelt, wie Hybrid Clouds wirklich in europäischen Unternehmen implementiert werden und gibt praktische Hinweise, wie Service Provider darauf reagieren sollten. Die paneuropäische Hybrid-Cloud-Studie wurde im Auftrag von NTT Com und Dell EMC von den Analysten von 451 Research in 14 europäischen Ländern durchgeführt. Zielgruppe waren 1.500 CIOs und IT-Leiter von Großunternehmen in den Schlüsselbranchen Finanz- und Versicherungswesen, Fertigung, Einzelhandel, Professional Services, Distribution sowie Logistik. Der Umfrage zufolge verfügen bereits zwei Drittel der Befragten über eine Strategie oder ein Pilotprogramm für die Hybrid Cloud.

  • Public Cloud differenziert sich weiter aus

    In Deutschland nutzen immer mehr Unternehmen die Public Cloud. Gemäß der Studie "ISG Provider Lens Germany 2018" geben sie in diesem Jahr rund 17 Milliarden Euro dafür aus. Sie möchten damit vor allem möglichst viele Daten analysieren, um daraus Geschäftsentscheidungen abzuleiten. Dabei sehen die Rackspace-Experten für die Weiterentwicklung der Public Cloud drei entscheidende Entwicklungen: Die großen Cloud Computing-Plattformen werden in Bezug auf Performance immer ähnlicher, doch sie unterscheiden sich in den Funktionen. Zum Beispiel zeichnet sich die Google Cloud Platform in den Bereichen Datenspeicherung und Netzwerke aus, Microsoft Azure durch seine Business-Prozesse. Die Stärken von AWS liegen bei Serverless Computing und zukunftsträchtigen Technologien wie Maschinelles Lernen und Künstliche Intelligenz.

  • Auslöser für Investitionen in die Digitalisierung

    Sind Versicherungen tatsächlich digitale Nachzügler, wie es der Branche im Zusammenhang mit der Digitalisierung oftmals unterstellt wird? Mitnichten, sagt eine aktuelle Studie des Marktforschungs- und Beratungsunternehmens Lünendonk & Hossenfelder, die unter anderem dieser Frage auf Basis einer umfangreichen neutralen Befragung nachgegangen ist. Vielmehr befindet sich die Versicherungsbranche mitten in einem fundamentalen Umbruch und setzt sich sehr intensiv mit der Digitalisierung auseinander. Neue Technologien, wie künstliche Intelligenz, Big Data, Cloud, IoT und neue Konsumgewohnheiten zwingen die Unternehmen, bestehende Strategien zu überdenken und neue Wege einzuschlagen.

  • Cloud Computing: Politische Rahmenbedingungen

    Die BSA | The Software Alliance stellte die "2018 Global Cloud Computing Scorecard" vor, eine Untersuchung der politischen Rahmenbedingungen für Cloud Computing weltweit. Deutschland liegt auf Rang 1 der 24 untersuchten Länder, nach Rang drei im Jahr 2016. Die Studie bescheinigt Deutschland effektive Gesetze zum Schutz von E-Commerce und zur Cybersecurity sowie eine gute Unterstützung von internationalen Standards und Interoperabilität. Die 2018 Global Cloud Computing Scorecard ist die Neuauflage der weltweit einzigen vergleichenden Analyse zur Eignung einzelner Länder für die erfolgreiche Verbreitung und das Wachstum von Cloud Computing-Diensten. Die aktuelle Studie zeigt durch ihre überarbeitete Methodik noch klarer auf, welche politischen Maßnahmen das exponentielle Wachstum von Cloud Computing während der vergangenen fünf Jahre unterstützt haben. Dabei wurden vor allem die Bereiche Datenschutz, Cybersecurity-Gesetzgebung und Breitband-Infrastruktur noch stärker beachtet.

  • IT-Security in der Cloud ist kosteneffizient

    Das Beratungsunternehmen McKinsey zeigt in seiner neuesten Studie "Making a secure transition to the public cloud" auf, dass heutige IT-Sicherheitsmodelle in Unternehmen schon bald durch Ansätze aus der Cloud ersetzt werden. Aufgrund hoher technischer Flexibilität, einfacher Skalierbarkeit und niedriger Betriebskosten erfreut sich die Public Cloud hoher Beliebtheit. Eine Vielzahl der weltweit befragten Experten aus rund 100 Unternehmen sieht die hohen Standards der Cloud Computing-Services als große Chance, eine bessere IT-Sicherheit zu gewährleisten. Aufbauend auf der Expertise von Google-Cloud-Sicherheitsexperten und Analysten von McKinsey gibt die Studie außerdem Empfehlungen für eine erfolgreiche Migration in die Cloud und einen möglichen Fahrplan für die Implementierung der IT-Sicherheit.

  • SAP-Cloud-Produkte und Sicherheitskonzepte

    Weltweite Angriffskampagnen und erfolgreiche Cyber-Angriffe auf Unternehmen und Institutionen verdeutlichen, wie gefährdet eine digitalisierte Wirtschaft und Gesellschaft sind. Und mit jedem neuen Vorfall steigt die Bedeutung der Cyber-Sicherheit. Eine Umfrage unter Mitgliedern der Deutschsprachigen SAP-Anwendergruppe e. V. (DSAG) von Dezember 2017 bis Januar 2018 beleuchtet interessante Trends im Umgang mit der Sicherheit im SAP-Umfeld und leitet daraus konkrete Forderungen ab.

  • Cloud-Ausfälle verstehen

    Wie sich der Ausfall der Cloud auf das eigene Geschäft auswirkt, wird von den Unternehmen nach wie vor unterschätzt. Das zeigt eine Studie von Veritas Technologies, einem Marktführer im Multi-Cloud-Management. So hat eine große Mehrheit der Befragten (60 Prozent, in Deutschland 57 Prozent) die Kosten, die ein Cloud-Ausfall verursacht, nicht untersucht. Mehr als jeder Dritte (36 Prozent, in Deutschland 40 Prozent) erwartet, dass die Cloud maximal 15 Minuten pro Monat ausfällt. Die durchschnittliche Cloud-Ausfallzeit hierzulande beträgt aber 20 Minuten, 60 Prozent der Befragten (in Deutschland 57 Prozent) haben die Kosten nach Cloud-Ausfällen noch nicht berechnet, Lösungen zur Datensicherung und Business Continuity stellen sicher, dass Unternehmen in der Cloud "always on" sind.