Sie sind hier: Startseite » Markt » Studien

CRM und Data-Mining-Werkzeuge


"Data Mining Studie 2012": Kundenbindungsmanagement durch Einsatz von Prognosemodellen
Analytisches CRM: Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics


(09.07.12) - In Marketing und Vertrieb spielt das Customer Relationship Management (CRM) eine Schlüsselrolle: Hier wird entschieden, welche bestehenden Kunden in welcher Form betreut werden, welche potenziellen Neukunden wie angesprochen und welche ehemaligen Kunden zurückgewonnen werden sollen. Die Beantwortung dieser Fragen ist von strategischer Bedeutung und entscheidet über den Erfolg des gesamten Unternehmens. Die diesjährige Data Mining Studie des BI-Analysten- und Beraterhauses mayato legt den Schwerpunkt auf die Kundenreaktivierung als wesentlichen Bestandteil von Customer Relationship Analytics.

Dazu traten vier Data-Mining-Produkte gegeneinander an: Der "SAS Enterprise Miner 7.1", der "Statistica Data Miner 10" von StatSoft, der "IBM SPSS Modeler 14.2" und das "SAP BW "7 (Data Mining Workbench). Die Studie ist kostenpflichtig bei mayato erhältlich.

Potenziale erkennen und gezielt handeln
Der Test wurde anhand eines praxisnahen Analyseszenarios durchgeführt: Ein großer Online-Versandhändler möchte Erstbesteller, die nach einer definierten Zeitspanne keine Folgebestellung tätigen, durch bestimmte Aktionen zu einem Wiederkauf anregen. Dabei sollen nur die Kunden einen Einkaufsgutschein erhalten, bei denen mit hoher Wahrscheinlichkeit davon auszugehen ist, dass sie ohne diesen Anreiz keine weitere Bestellung getätigt hätten. Diese Kunden galt es auf Basis der vorliegenden Kundenhistorie mithilfe eines Prognosemodells vorherzusagen. Dazu wurden neben etablierten Methoden wie Entscheidungsbäumen auch neuere Prognoseverfahren wie Support Vector Machines (SVM) eingesetzt und für jedes getestete Tool separat auf Praxistauglichkeit und Prognosequalität geprüft. Unter Einbezug der errechneten Prognosen sollen die abwanderungsgefährdeten Kunden gezielt zurückgewonnen werden.

Die Bewertung der Tools stützt sich auf eine breite Anzahl an Einzelkriterien. Sie decken sowohl Funktionalitätsaspekte (Funktionsumfang in den Kategorien Datenvorverarbeitung, Analyseverfahren und Parametrisierung, Ergebnisvisualisierung, Gesamteffizienz) als auch die Benutzerfreundlichkeit (Stabilität, Ausführungsgeschwindigkeit, Dokumentation, Bedienung) ab.

Im Endergebnis zeigen sich starke Unterschiede insbesondere im Bedienkomfort, bei der Funktionalität sowie bei den Möglichkeiten der Ergebnisauswertung.

Testfeld und Praxis
In der neuen Studie werden erstmals die drei marktführenden Suiten von SAS, StatSoft und IBM SPSS miteinander verglichen. Um zu beurteilen, wie sich ein klassisches BI-Werkzeug im Vergleich zu den etablierten Data-Mining-Suiten schlägt, wurde die SAP BW Data Mining Workbench mit ins Testfeld aufgenommen.

Bereits früh im Testablauf werden Stärken und Schwächen der jeweiligen Tools sichtbar: Die besondere Stärke von SAS liegt in der Einbettung des Enterprise Miner in eine leistungsfähige BI-Gesamtarchitektur, die neben der Analyse flexible Möglichkeiten der Datenhaltung oder weitreichende ETL-Funktionen bietet.

IBM SPSS ist es gelungen, hohe Funktionalität in eine moderne, intuitive Oberfläche zu verpacken: Der Modeler bietet durch sein logisches Bedienkonzept und zahlreiche praktische Detaillösungen die beste Ergonomie im Testfeld.

StatSoft punktet mit einer sehr breiten Funktionsvielfalt: Der Data Miner enthält als einziges Tool im Test zusätzlich zu den gängigen Data-Mining-Verfahren stets das vollständige StatSoft-Statistikmodul. Dies schließt z. B. mächtige Datenvorverarbeitungsmöglichkeiten, eine breite Palette an statistischen Testverfahren sowie eine große Anzahl an frei konfigurierbaren Grafiken ein. Bei komplexen Data-Mining-Szenarien erleichtern viele dieser Funktionalitäten die tägliche Arbeit oder ermöglichen überhaupt erst eine umfassende Analyse.

Mit bereits deutlichem Abstand folgt das SAP BW mit der Data Mining Workbench: Ihr merkt man vor allem an der unübersichtlichen und wenig logisch aufgebauten Oberfläche an, dass sie seit mehreren Jahren keine substanziellen Aktualisierungen mehr erfahren hat. Hinzu kommen deutliche praktische Einschränkungen in der Funktionalität.

Bedienkonzepte und Weiterentwicklung
Die hohe Funktionsmächtigkeit und die vielfältigen Parametrisierungsmöglichkeiten der Suiten führen allerdings zu vergleichsweise langen Einarbeitungszeiten. Es wird zudem immer schwieriger, ein einziges Bedienkonzept für alle denkbaren Anwendergruppen bereit zu stellen. Als Konsequenz gehen manche Hersteller dazu über, mehrere Bedienoberflächen für unterschiedliche Nutzergruppen zur Verfügung zu stellen:

SAS bietet zusätzlich zur klassischen Modellbildung mit dem Rapid Predictive Modeler eine (in der aktuellen Version nochmals überarbeitete) einfache, separate Data-Mining-Umgebung mit sinnvoll begrenzten Parametrisierungsoptionen an. Hier konnten im Test bereits mit den Standardparametern in kurzer Zeit akzeptable Ergebnisse erzielt werden, die auf Wunsch manuell weiter verfeinert werden können.

StatSofts Beitrag zur Automatisierung des Prozesses liegt in alternativ angebotenen, vorgefertigten Data-Mining-Rezepten für Standard-Prognoseaufgaben. Hier kann der Nutzer ohne viel Aufwand eine Vielzahl an Vorhersagemodellen erzeugen.

IBM SPSS stellt unter anderem mit dem automatischen Klassifizierer eine vergleichbare Funktionalität bereit: Der Anwender kann in einem Dialog mehrere Prognosemodelle mit unterschiedlichen Verfahren und Parametereinstellungen automatisch berechnen und deren Ergebnisse vergleichen.

Darüber hinaus erweitern die Tool-Hersteller insbesondere die Komponenten und Module ihrer Produkte, die für einen schnellen Einstieg in Data-Mining-Analysen besonders wichtig sind. Zu den Erweiterungen gehören Neuentwicklungen und weitere Differenzierungen ihrer Bedienkonzepte, ausführliche Dokumentationen inklusive Online-Hilfen und praxisnaher Tutorials sowie innovative Ansätze zur Automatisierung des Data-Mining-Prozesses. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Studien

  • Kritische Risiken in modernen Cloud-Umgebungen

    Tenable hat ihren "Cloud Risk Report 2024" veröffentlicht, in dem die kritischen Risiken untersucht werden, die in modernen Cloud-Umgebungen bestehen. Dabei ist besonders besorgniserregend, dass sich nahezu vier von zehn Unternehmen weltweit aufgrund der "toxischen Dreierkombination" aus öffentlich zugänglichen, kritisch gefährdeten und hoch privilegierten Cloud-Workloads auf höchster Ebene angreifbar machen.

  • Dateninfrastruktur für KI vorbereiten

    Unternehmen weltweit erkennen das Potenzial von künstlicher Intelligenz (KI) und sind bestrebt, KI im Unternehmen einzuführen. Dennoch sind die meisten weit davon entfernt, KI vollständig in ihre Geschäfte und Abläufe zu integrieren, da es große Lücken in der grundlegenden KI-Bereitschaft gibt.

  • Cloud-Sicherheit in Echtzeit

    Sysdig, Anbieterin für Cloud-Sicherheit in Echtzeit, hat die Veröffentlichung des Sysdig Threat Research Teams "2024 Global Threat Year-in-Review" bekannt gegeben. Der Bericht stützt sich auf Daten über vergangene Angriffsoperationen und Kampagnen und veranschaulicht die sich weiterentwickelnden Taktiken von Cyberkriminellen.

  • Cloud-Ausgaben effizienter erwalten

    Flexera, Anbieterin für Software-Lizenzmanagement, wurde als "Leader" im 2024 Gartner Magic Quadrant for Cloud Financial Management Tools eingestuft.

  • Wie KI Unternehmen umgestaltet

    Künstliche Intelligenz ist mittlerweile ein fester Bestandteil der Arbeitswelt, mehr als zwei Jahre nachdem OpenAI ChatGPT 3.5 vorgestellt hat. Unternehmen suchen deshalb zunehmend nach effizienteren Wegen der Zusammenarbeit. Eine aktuelle Studie prognostiziert, dass bei 80 Prozent der Arbeitnehmende mindestens 10 Prozent ihrer Arbeit von großen Sprachmodellen (LLMs) übernommen werden, während bei etwa 20 Prozent mehr als die Hälfte der Arbeit von KI erledigt werden könnte.

  • Wichtiger Treiber: Risikoarme Cloud-Migration

    Der Markt für Software Defined Networking (SDN) nimmt weiter Fahrt auf. Insbesondere steigt die Zahl der Unternehmen, die mit SASE-Technologien (Secure Access Service Edge, SASE) SD-Funktionen an den Rand ihrer Netzwerke bringen, ohne dabei Abstriche bei den Themen Sicherheit und Compliance machen zu müssen.

  • KI ist ein zentraler Wegbereiter

    Der Einsatz von Künstlicher Intelligenz (KI) ist in den nächsten Jahren für die Wettbewerbs- und Zukunftsfähigkeit des Wirtschaftsstandorts Deutschland von entscheidender Bedeutung. Neue digitale Geschäftsmodelle eröffnen in allen Branchen dynamische Wachstumschancen durch Produktivitätssteigerung und Innovationen, so eine aktuelle Studie des Instituts der deutschen Wirtschaft Consult GmbH im Auftrag der unter dem Dach des eco Verbands gegründeten Allianz zur Stärkung digitaler Infrastrukturen.

  • KI in deutschen Unternehmen

    Das unabhängige Beratungsunternehmen Strand Partners hat im Auftrag von Amazon Web Services (AWS) den Einfluss von künstlicher Intelligenz (KI) auf die deutsche und europäische Wirtschaft untersucht. Dafür wurden im Rahmen einer repräsentativen Studie insgesamt knapp 30.000 Unternehmen und Bürger befragt. Im Rahmen einer Folgestudie wurden nun zusätzlich 1.000 Führungskräfte in Deutschland repräsentativ befragt sowie weitere 300 Führungskräfte aus den drei Fokussektoren Automobilindustrie, Gesundheitswesen und Startups.

  • Bewältigung der Cloud-Komplexität

    Red Hat stellte eine neue Studie vor, die enthüllt, was die Cloud-Strategien von Unternehmen in den nächsten 18 Monaten antreibt. Zu den Prioritäten der befragten IT-Manager in Deutschland gehören die Vorbereitung auf den KI-Einsatz (82 Prozent), Cloud-native Anwendungsentwicklung und DevOps (82 Prozent), die Umstellung auf Hybrid- und Multi-Cloud, um die Anbieterabhängigkeit zu reduzieren (85 Prozent), die Weiterentwicklung der Cloud-Strategie im Einklang mit den Unternehmenszielen (87 Prozent), Kostenoptimierung (88 Prozent) sowie Sicherheit und Compliance (88 Prozent).

  • Neuer EuroCloud Pulse Check 2024

    Die digitale Transformation in Deutschland nimmt weiter Fahrt auf, angeführt von der Cloud-Native-Technologie. Dies belegt der brandneue EuroCloud Pulse Check 2024, durchgeführt von der techconsult GmbH in Zusammenarbeit mit EuroCloud Deutschland_eco e. V.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen