Sie sind hier: Startseite » Markt » Unternehmen

Datenanalyse- und Cloud-KI-Services


KI und ML mit Google Cloud einfach einsetzen
Datenanalyse und maschinelles Lernen für mehr Unternehmen


Blogpost von Rajen Sheth, Director of Product Management bei Google

Künstliche Intelligenz (KI) wird bereits von zahlreichen Unternehmen genutzt. Doch noch immer haben rund 40 Prozent keine KI-Systeme in ihre Strukturen integriert. Um Unternehmen einfachere und gleichzeitig hoch effiziente Tools anzubieten, haben wir am zweiten Tag der Google Cloud Next 2018 zahlreiche Updates unserer Datenanalyse- und Cloud-KI-Services präsentiert. So ermöglicht BigQuery ML eine noch schnellere Verbindung zwischen Daten im Unternehmen und einer intelligenten Auswertung, ohne eine aufwendige Infrastruktur aufbauen zu müssen. Das spart nicht nur Zeit und Geld, sondern vereinfacht den Aufbau

Die meisten Unternehmen erkennen bereits heute den Wert von künstlicher Intelligenz (KI). Über 60 Prozent greifen in ihren Strukturen auf KI zurück. Doch was ist mit den restlichen 40 Prozent? Was hält sie davon ab?

Durch die Zusammenarbeit mit Hunderten von Unternehmen haben wir festgestellt, dass es bei der Verwendung von KI auf Einfachheit und Zweckmäßigkeit ankommt. Unternehmen brauchen Tools, die simpel einzusetzen und vertraut sind – und sie müssen sie direkt für ihre spezifischen Herausforderungen anwenden können.

Heute nehmen wir eine Reihe von Updates an unseren Datenanalyse- und Cloud-KI-Services vor, die KI einfacher und zweckmäßiger gestalten werden. Damit machen wir KI so vielen Unternehmen und Entwicklern zugänglich, wie wir können.

Folgendes ist neu:
>> BigQuery ML, ab sofort als Beta-Version verfügbar

>> Unterstützung für die Schulung und die Online-Vorhersage durch scikit-learn und XGBoost in Cloud ML Engine

>> Kubeflow v0.2

>> Cloud TPU v3 und Cloud TPU Pod jeweils als Alpha-Version verfügbar

>> Cloud TPU v3, ab sofort als Alpha-Version verfügbar

>> Eine neue Partnerschaft mit Iron Mountain

Mit BigQuery ML Daten noch näher mit maschinellem Lernen zusammenbringen
Für viele Unternehmen gibt es hohe Hürden beim Aufbau der Analysepipeline, die für KI-Systeme notwendig ist. Allein ein Team aus eigenen Datenwissenschaftlern aufzubauen ist für einige unmöglich. Datenanalysten, die üblicherweise über SQL-Kenntnisse verfügen, sind nicht immer mit den Prozessen und Programmiersprachen vertraut, die für maschinelles Lernen benötigt werden. Außerdem kann das Verschieben von Daten aus einem Enterprise Data Warehouse zeitaufwendig und kostspielig sein.

Um diese Herausforderungen zu meistern, stellen wir BigQuery ML vor. BigQuery ML bietet Millionen von Nutzern Zugang zur prädiktiven Analyse – selbst wenn der datenwissenschaftliche Hintergrund fehlt. Durch die Bereitstellung von Machine Learning (ML) an den Datenspeicherorten hilft BigQuery ML Kunden dabei, Modelle schnell zu erstellen und zu nutzen – und damit die Zeit bis zur Markteinführung zu verkürzen. Entwickler können entsprechend skalierte Modelle für große Datensätze anwenden, alles mit einfachen SQL-Befehlen.

Einen tiefer gehenden Blick auf BigQuery ML und die vielen Möglichkeiten, die es bietet, gibt es in unserem Blog zur Datenanalyse.

Mit unserer KI-Plattform bringen wir maschinelles Lernen zu mehr Datenwissenschaftlern
Um aus Rohdaten Geschäftseinblicke zu bekommen, sind viele Dinge nötig: enorme Rechenressourcen, Tools für den Aufbau von ML-Modellen und die Fähigkeit, sie zu trainieren und zu optimieren. Das kann mitunter abschreckend wirken. Datenwissenschaftler wünschen sich eine Komplettlösung, die genau das vereinfacht. Um dieses Problem zu lösen, stellen wir mit der von uns geschaffenen KI-Plattform einen End-to-End-Stack bereit – von unserer Hochleistungsinfrastruktur über maßgeschneiderte und für maschinelles Lernen optimierte Hardware bis hin zu Fully Managed Services wie Cloud ML Engine. Und durch eine Reihe von Verbesserungen machen wir das Ganze ab sofort noch schneller und einfacher.

Unterstützung für die Schulung und Online-Vorhersage mit scikit-learn und XGBoost
Ganz gleich, ob in der Cloud, vor Ort oder durch eine Kombination aus beidem – Unternehmen brauchen häufig die Freiheit verschiedener ML Frameworks für Schulung und Nutzung der Modelle. Ab heute unterstützt Cloud ML Engine sowohl die Schulung als auch die Online-Vorhersage durch scikit-learn und XGBoost. Außerdem kündigen wir auch die Verfügbarkeit von Cloud Deep Learning VM Image an. Anhand der darin angebotenen vorkonfigurierten Images können mithilfe von TensorFlow, scikit-learn und PyTorch auf Google Cloud ML-Projekte gestartet werden.

Einführung von Kubeflow v0.2
Wir investieren auch weiterhin in Open-Source-Software und unterstützen zahlreiche Open-Source-Standards für die Datenanalyse und maschinelles Lernen. Im vergangenen Jahr haben wir Kubeflow vorgestellt, um die Nutzung von Softwarestacks wie TensorFlow und scikit-learn für maschinelles Lernen zu vereinfachen – und das alles in Kubernetes. Kubeflow v0.2, das ab sofort verfügbar ist, bietet eine verbesserte Nutzeroberfläche für die Navigation durch die Komponenten und hält darüber hinaus zahlreiche Optimierungen für Beobachtung und Berichte bereit. Mehr dazu gibt es hier.

Unser Stack für maschinelles Lernen von der Cloud zur Edge
Unsere gesamte KI-Plattform baut auf unserer Hochleistungsinfrastruktur auf. Diese reicht von unseren weltweiten Netzwerken bis zu unseren Cloud TPUs, also für Arbeitsbelastungen des maschinellen Lernens entwickelte ASICs. Jede TPU (TensorFlow Processing Unit) liefert bis zu 180 TeraFLOPS (Floating-Point-Performance) und beinhaltet ein maßgeschneidertes Hochgeschwindigkeitsnetzwerk, über das die TPUs in "TPU-Pods" zusammenarbeiten können. Heute kündigen wir das Alpha-Release von Cloud TPU Pod an, mit dem 11,5 PetaFLOPS bereitgestellt werden. Das beschleunigt die Schulung eines einzelnen großen Modells für das maschinelle Lernen erheblich.

Außerdem haben wir die Unterstützung und die Verfügbarkeit unserer bestehenden TPU-Angebote verbessert. Unsere Kunden können ab sofort die Cloud TPUs der zweiten Generation nutzen. Die TPUs der dritten Generation, die wir auf der diesjährigen I/O angekündigt haben, können als Alpha-Version getestet werden. Zudem stellen wir die Unterstützung für die Cloud TPUs in Kubernetes Engine als Beta-Version bereit. Wir erwarten, dass das rechenintensive maschinelle Lernen dadurch schneller und zweckmäßiger wird.

Durch die Erweiterung unseres ML-Stacks wissen wir, wie wichtig es ist, schnellere Interferenzen an der Edge durchführen zu können. Dafür führen wir mit Edge TPU eine maßgeschneiderte ASIC ein, die im Rahmen unserer Cloud IoT Edge-Lösung angeboten wird. Mehr dazu in unserem IoT-Blogpost.

Wir machen KI zugänglicher für Entwickler
Es gibt weltweit mehr Entwickler als Datenwissenschaftler. Wir möchten KI unabhängig vom Wissen im Bereich des maschinellen Lernens ermöglichen. Daher bieten wir von vortrainierten Modellen in unseren ML-APIs bis AutoML, womit eigene maßgeschneiderte Modelle erstellt werden können, alles an. Damit haben Entwickler das Beste aus beiden Welten: die einfache Nutzung und die hohe Modellqualität.

Seit der Einführung von AutoML im Februar dieses Jahres haben wir erkannt, dass Kunden diese Technologie für komplett neue ML-Anwendungen nutzen. Ein Beispiel dafür ist Urban Outfitters. Das Unternehmen nutzt AutoML Vision, um seinen Kunden ein noch besseres Einkaufserlebnis zu bieten. "Um einen umfassenden Datensatz an Produktattributen zu erstellen und zu pflegen, setzt unser Team auf AutoML Vision. Dadurch konnten wir nuancierte Produkteigenschaften wie Muster und Dekolleté-Stile automatisiert erkennen," sagt Alan Rosenwinkel, Datenwissenschaftler bei der Muttergesellschaft URBN. "Das ist entscheidend, um unseren Kunden relevante Produktempfehlungen, exakte Suchergebnisse und hilfreiche Produktfilter bieten zu können. Denn es ist zeitaufwändig und mühsam, Produktattribute manuell anzulegen. Wir freuen uns auf die weitere Zusammenarbeit mit Google-Cloud-KI, um für unsere Kunden weitere Innovationen zu schaffen."

Zusammenarbeit mit Iron Mountain
Eine entscheidende Herausforderung für viele Unternehmen, ist das Extrahieren von Insights aus "Dark Data", also zum Beispiel Informationen in gespeicherten Dokumenten. Daher arbeiten wir mit Iron Mountain zusammen, um mit unseren Tools branchenspezifische Lösungen zu schaffen. Wir haben bereits damit begonnen, an ML-Lösungen für Hypothekendokumente, Kunden aus dem Energiesektor, Medien- und Entertainment-Assets und mehr zu arbeiten. Dafür nutzen wir unsere Forschung und Kompetenz in den Bereichen Optische Zeichenerkennung (OCR), Entity Extraction und Verarbeitung natürlicher Sprache. Wir arbeiten eng mit Iron Mountain zusammen, um herauszufinden, was deren Kunden benötigen und wo unsere Technologie helfen kann. Mehr über unsere Partnerschaft hier.
(Google Enterprise: ra)

eingetragen: 15.08.18
Newsletterlauf: 24.08.18

Google Enterprise: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Unternehmen

  • O-Cloud robuste Basis für Open-RAN-Lösung

    Auf ihrem Weg zur führenden Anbieterin digitaler Dienste hat die Deutsche Telekom seit der Mitbegründung des xRAN-Forums im Jahr 2016 Pionierarbeit im Bereich Open RAN geleistet, die 2018 in die Gründung der O-RAN Alliance mündete. Ziel ist es, im Rahmen der europäischen Aktivitäten rund um die Netzmodernisierung ein herstellerübergreifendes O-RAN als Lösung für den Aufbau leistungsfähiger, großflächiger Makronetze zu positionieren.

  • Code-to-Cloud-Transparenz

    Checkmarx, Unternehmen im Bereich Cloud-native Application Security, wurde von Frost & Sullivan als "Competitive Strategy Leader in the Global Application Security Posture Management (ASPM) Industry" ausgezeichnet. Checkmarx erhält den Best Practices Award für das Jahr 2024 aufgrund ihrer Innovationskraft und ihres Commitments, Führungskräften lückenlose Transparenz über Anwendungsrisiken und einen proaktiven AppSec-Ansatz zu bieten.

  • 2024 erfolgreiches Jahr für Haufe X360

    Haufe X360 konnte auch im Jahr 2024 ihre Position als der Anbieterin einer Cloud-basierten Business Management Plattform für KMU wieder deutlich ausbauen. Das Unternehmen wächst weiter nachhaltig in den verschiedensten Bereichen. An die Entwicklung im kommenden Jahr hat man hohe Erwartungen - trotz der angespannten Weltwirtschaft. So konnte Haufe X360 2024 ganze 43 Prozent Mitarbeiterwachstum verzeichnen, Neueinstellungen gab es vor allem bei der Produktentwicklung und im Support. Damit will man sicherstellen, dass die Business-Management-Plattform stetig weiter optimiert und ausgebaut werden kann - sowohl bei den Funktionalitäten als auch bei branchenspezifischen Anpassungen und der Integration von anderen Softwareanbietern. "Durch seine offene Software-Architektur und das Hosting in der Cloud ist unser System extrem flexibel und anpassbar. Das waren auch Gründe dafür, dass wir uns über die Auszeichnung als ERP des Jahres freuen durften", erklärt Christian Zöhrlaut, Chief Product Officer bei Haufe X360. "Dadurch, dass wir jetzt personell noch besser aufgestellt sind, können wir den bereits hohen gewohnten Standard nicht nur halten, sondern uns kontinuierlich steigern und noch genauer auf die Bedürfnisse unserer Kunden eingehen."

  • Nutzung der SAP-Business-AI-Technologie

    HCLTech hat ihr Innovation Lab für SAP Business AI in München eröffnet. In diesem können Kunden Branchenanwendungen testen sowie KI-Programme starten und optimieren. Die Eröffnung des Innovation Labs bekräftigt die strategische Partnerschaft zwischen HCLTech und SAP.

  • Mit SaaS steuerliche Compliance ermöglichen

    Vertex, Anbieterin von Steuertechnologielösungen, wurde in drei IDC MarketScape-Reports als "Leader" eingestuft. "Wir fühlen uns geehrt, in mehreren Segmenten von IDC MarketScape für SaaS and Cloud-Enabled Tax Automation Software als Leader bezeichnet zu werden. Es bestätigt die Richtigkeit unserer Mission, Unternehmen mit unserer innovativer Steuertechnologie zu unterstützen", so David DeStefano, CEO von Vertex.

  • Datenintegration für Unternehmen jeder Größe

    Fivetran, Anbieterin für Data Movement, wird im "Gartner Magic Quadrant for Data Integration Tools 2024" als Challenger eingestuft. Damit ist Fivetran zum fünften Mal in Folge im Gartner Magic Quadrant vertreten und das zweite Jahr als Challenger. Diese Bewertung ist für Fivetran Beleg für das Engagement um kontinuierliche Innovation und für die Vereinfachung von Prozessen zur Datenintegration für Unternehmen jeder Größe.

  • Anerkennung der Cloud- und KI-Angebote

    Alibaba Cloud wird im Bericht "The Forrester Wave: Public Cloud Platforms Q4 2024" erstmals als "Leader" eingestuft. Für Alibaba Cloud bedeutet diese Auszeichnung eine Anerkennung der Tiefe ihrer Cloud- und KI-Angebote und -Strategie, ihrer bedeutenden globalen Präsenz sowie der Fähigkeit, ihren globalen Kunden eine breite Palette von Produkten und Dienstleistungen anzubieten.

  • Virtualisierte Workloads betreiben

    Red Hat hat ein Strategic Collaboration Agreement (SCA) mit Amazon Web Services (AWS) unterzeichnet. Dieses baut auf der langjährigen Partnerschaft der beiden Unternehmen auf und erweitert die Verfügbarkeit der Open-Source-Lösungen von Red Hat im AWS Marketplace.

  • Fivetran vereinfacht Datenintegration

    Fivetran, Unternehmen im Bereich modernes Data Movement, erzielte ein Wachstum von 40 Prozent gegenüber dem Vorjahr auf dem Amazon Web Services (AWS) Marketplace. Dies ist auf die steigende Nachfrage von Unternehmen nach künstlicher Intelligenz (KI) und Analysen zurückzuführen.

  • "Red Hat OpenShift Service on AWS"

    Red Hat hat ein Strategic Collaboration Agreement (SCA) mit Amazon Web Services (AWS) unterzeichnet. Dieses baut auf der langjährigen Partnerschaft der beiden Unternehmen auf und erweitert die Verfügbarkeit der Open-Source-Lösungen von Red Hat im AWS Marketplace.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen