Cover

Data & Analytics lernen

Der Daten- und Analyse-Podcast liefert aktuelle Erkenntnisse und umsetzbare Ratschläge, die Ihnen zum Erfolg verhelfen. Themen sind u. a.: Datenmodelle, künstliche Intelligenz, Management von Metadaten - alles, was Ihr Unternehmen am Laufen hält!Auch die Welt der Fakten wird in diesem Podcast behandelt: von der Verwaltung der Metadaten (was bedeutet "Metadaten"?) bis hin zur Analyse komplexer Modellierungstechniken, um Trends im Kundenverhalten zu verstehen... Diese Sendung bietet den Hörern alles, was sie brauchen, um bei der Arbeit mit Daten erfolgreich zu sein.

Alle Folgen

  • 24.05.2022
    8 MB
    09:10
    Cover

    Data & Analytics lernen - Automatische Textanalyse durch Methoden der künstlichen Intelligenz

    Die statische Textanalyse durch Methoden der künstlichen Intelligenz ist definitiv eine Möglichkeit! Viele sind jedoch der Meinung, dass diese Methoden nicht in der Lage sind, den Kontext des Textes zu berücksichtigen und somit kein optimales Ergebnis liefern könnten. Außerdem argumentieren einige, dass die Anwendung dieser Methoden vielen Menschen die Freude am Lesen nehmen würde. Ich habe zwar Verständnis für diese Argumente, bin aber auch der Meinung, dass der technische Fortschritt nicht durch unsere persönlichen Vorlieben eingeschränkt werden sollte. Schließlich haben wir Computer nicht zuletzt deshalb, um uns Menschen die Arbeit zu erleichtern! Wenn wir eine Maschine schaffen können, die etwas genauso gut (oder sogar besser) kann als wir, warum sollten wir sie dann nicht lassen?---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 23.05.2022
    7 MB
    07:45
    Cover

    Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache (Einstieg in die Verarbeitung natürlicher Sprache_ NLP, NLU, und NLG)

    Die Verarbeitung natürlicher Sprache (NLP) bezieht sich auf die Fähigkeit von Computern, mit Menschen in natürlicher Sprache zu interagieren. NLP umfasst ein breites Spektrum an Fähigkeiten, darunter maschinelle Übersetzung, Spracherkennung und -synthese sowie Text Mining. Innerhalb des NLP gibt es drei große Teilbereiche: Natural Language Understanding (NLU), Natural Language Generation (NLG) und Natural Language Interaction (NLI). Bei NLU geht es darum, die Bedeutung der Eingaben eines Benutzers zu verstehen, bei NLG geht es darum, auf der Grundlage dieser Eingaben angemessene Antworten zu generieren, und NLI bezieht sich auf die Fähigkeit, ein Gespräch mit einem Benutzer zu führen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 20.05.2022
    8 MB
    09:07
    Cover

    Data & Analytics lernen - Business Development & Big Data

    Es ist unbestreitbar, dass Big Data einen großen Einfluss auf Unternehmen aller Branchen hat. Aber was genau ist Geschäftsentwicklung, und wie können Big Data genutzt werden, um in diesem Bereich erfolgreich zu sein? Einfach ausgedrückt, geht es bei der Geschäftsentwicklung darum, neue Chancen zu erkennen und zu verfolgen, um das Wachstum zu fördern. Dies kann von der Erkundung neuer Märkte und Kundensegmente bis hin zur Einführung neuer Produkte oder Dienstleistungen reichen. Auch wenn die Einzelheiten von Unternehmen zu Unternehmen unterschiedlich sind, gibt es doch einige gemeinsame Themen und bewährte Verfahren, die alle Unternehmen im Auge behalten sollten, wenn sie die Vorteile der Big-Data-Revolution nutzen wollen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.05.2022
    9 MB
    10:05
    Cover

    Data & Analytics lernen - Data Understanding beim maschinellen Lernen

    Das Verständnis der Daten ist der Schlüssel zum maschinellen Lernen. Sie müssen sicherstellen, dass Sie den richtigen Datensatz haben, ihn richtig vorverarbeiten und ihn bereinigen, damit die Algorithmen daraus lernen können. Andernfalls vergeuden Sie nur Ihre Zeit. Nehmen Sie sich also die Zeit, Ihre Daten zu verstehen, bevor Sie mit Algorithmen für maschinelles Lernen beginnen. Vergewissern Sie sich, dass Sie wissen, was die Daten darstellen und wie Sie sie für das Training Ihrer Modelle richtig formatieren. Andernfalls werden Sie am Ende ungenaue Ergebnisse erhalten und viel Zeit und Mühe vergeuden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.05.2022
    8 MB
    08:41
    Cover

    Data & Analytics lernen - Predictive Analytics

    Predictive Analytics ist ein Teilbereich des Data Mining, der Statistiken und maschinelles Lernen nutzt, um Vorhersagen über zukünftige Ereignisse zu treffen. Damit kann man alles vorhersagen, von der Frage, welche Produkte ein Kunde wahrscheinlich kaufen wird, bis hin zur Frage, ob ein Patient eine bestimmte Krankheit entwickeln wird oder nicht. Das Schöne an der prädiktiven Analytik ist, dass sie Vorhersagen für jede Art von Ereignis treffen kann, egal wie selten oder unwahrscheinlich es auch sein mag. Dies macht sie zu einem äußerst leistungsfähigen Instrument für Unternehmen und Organisationen, die das Risiko finanzieller Verluste verringern wollen, oder für Gesundheitsdienstleister, die die Qualität der Patientenversorgung verbessern wollen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 14.05.2022
    3 MB
    03:51
    Cover

    Data & Analytics lernen - Einstieg in Azure-Quatencomputing

    Azure Quantum Computing ist ein Cloud-basierter Quantencomputing-Dienst, der den Nutzern die Möglichkeit bietet, Quantenalgorithmen und -experimente auszuführen und auf verschiedene Quanten-Hardware-Architekturen zuzugreifen. Es gibt verschiedene Möglichkeiten, mit Azure Quantum Computing zu beginnen, je nach Erfahrungsstand und Fachwissen. Wenn Sie gerade erst mit dem Quantencomputing beginnen, ist der beste Weg, das Azure Quantum Development Kit zu verwenden. Das Kit enthält einen Quantencomputer-Simulator, mit dem Sie Quantenalgorithmen auf einem klassischen Computer ausführen können. Dies ist eine großartige Möglichkeit für den Einstieg, da keine spezielle Hardware oder Kenntnisse der Quantenphysik erforderlich sind.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.05.2022
    3 MB
    03:29
    Cover

    Data & Analytics lernen - Snowflake Snowpipes

    Was kann Snowflake Snowpipes---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.05.2022
    4 MB
    04:13
    Cover

    Data & Analytics lernen - Big Data in der Cloud

    Amazon Web Services, Microsoft Azure und Google Cloud Platform sind die drei führenden Anbieter von öffentlichen Cloud-Diensten. Sie alle bieten eine breite Palette von Diensten an, darunter Rechen-, Speicher-, Datenbank-, Netzwerk-, Analyse- und Anwendungsdienste. Jeder Anbieter hat seine eigenen Stärken und Schwächen. AWS ist der Marktführer und bietet das breiteste Spektrum an Diensten. Azure liegt beim Marktanteil an zweiter Stelle und ist besonders stark bei Unternehmensanwendungen und Big Data. Google Cloud Platform liegt beim Marktanteil an dritter Stelle, bietet aber einige einzigartige Funktionen wie die Plattform für maschinelles Lernen TensorFlow. Die Wahl des richtigen Anbieters kann schwierig sein. Der beste Weg, eine Entscheidung zu treffen, besteht darin, Ihre Bedürfnisse zu ermitteln und dann die Angebote der Anbieter mit diesen Bedürfnissen zu vergleichen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 11.05.2022
    8 MB
    08:16
    Cover

    Data & Analytics lernen - Cloud Computing Grundlagen

    Cloud Computing kann definiert werden als die Bereitstellung von Rechendiensten - einschließlich Servern, Speicherplatz, Datenbanken, Netzwerken, Software, Analysen und Intelligenz - über das Internet ("die Wolke"), um schnellere Innovationen, flexible Ressourcen und Größenvorteile zu bieten. Einst eine aufstrebende Technologie oder Geschäftspraxis, hat sich Cloud Computing inzwischen durchgesetzt: 90 % der Unternehmen nutzen mindestens einen öffentlichen Cloud-Service. Und diese Zahl wird voraussichtlich noch steigen: Gartner prognostiziert, dass bis zum Jahr 2020 eine "No-Cloud"-Politik in Unternehmen so selten sein wird wie heute eine "No-Internet"-Politik.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 10.05.2022
    4 MB
    04:46
    Cover

    Data & Analytics lernen - Data Warehouse-Automatisierung Vorteile und Auswirkungen auf Unternehmen

    Zu den Vorteilen der Data-Warehouse-Automatisierung gehören eine beschleunigte Datenverarbeitung, eine verbesserte Genauigkeit und Vollständigkeit der Daten sowie eine optimierte Leistung. Die Auswirkungen der Data-Warehouse-Automatisierung auf das Unternehmen können erheblich sein und zu einer verbesserten Entscheidungsfindung, geringeren Kosten und einer höheren Wettbewerbsfähigkeit führen. Eine aktuelle Studie der Aberdeen Group hat beispielsweise ergeben, dass Unternehmen, die ihre Data-Warehousing-Prozesse automatisieren, die Zeit für das Laden von Daten um 63 Prozent reduzieren und die Genauigkeit ihrer Daten um 55 Prozent verbessern können. Darüber hinaus können diese Unternehmen auch die Abfrageleistung um 38 Prozent verbessern. All diese Vorteile können zu einer erheblichen Verbesserung des Endergebnisses eines Unternehmens führen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 10.05.2022
    4 MB
    04:52
    Cover

    Data & Analytics lernen - Data Vault

    Data Vault ist ein neuer Ansatz für das Data Warehousing, der mehrere Vorteile gegenüber herkömmlichen Ansätzen bietet. Data Vault bietet eine einheitliche Sicht auf die Daten, die einfach zu verstehen und zu pflegen ist und gleichzeitig die Flexibilität bietet, zukünftige Änderungen zu unterstützen. Darüber hinaus verwendet Data Vault wiederverwendbare Komponenten, die problemlos in verschiedenen Data-Warehouse-Implementierungen eingesetzt werden können. Dadurch kann Data Vault erhebliche Kosteneinsparungen ermöglichen und die Effizienz der Data-Warehousing-Abläufe verbessern.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 10.05.2022
    35 MB
    36:12
    Cover

    Data & Analytics lernen - Einstieg in Hadoop

    Hadoop ist ein Open-Source-Framework, mit dem Sie große Datensätze auf verteilte Weise verarbeiten und analysieren können. Es ist so konzipiert, dass es von einem einzelnen Server bis zu Tausenden von Rechnern skaliert werden kann, die jeweils lokale Berechnungen und Speicherplatz anbieten. Hadoop ist das Herzstück der Big-Data-Revolution und bietet eine kostengünstige, skalierbare Möglichkeit zur Speicherung und Verarbeitung großer Datenmengen Wenn Sie neu bei Hadoop sind, fragen Sie sich wahrscheinlich, wie Sie anfangen sollen. In dieser Podcastfolge geben wir Ihnen einen Überblick darüber, was Hadoop ist und wie es funktioniert, sowie einige Tipps für den Einstieg in die Nutzung von Hadoop.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 10.05.2022
    9 MB
    10:08
    Cover

    Data & Analytics lernen - KI für KMUs

    Es besteht kein Zweifel, dass künstliche Intelligenz (KI) die Unternehmenslandschaft verändert. Viele kleine und mittlere Unternehmen (KMU) sind jedoch noch unsicher, wie sie KI nutzen können, um Wachstum und Wettbewerbsvorteile zu erzielen. KI kann ein leistungsfähiges Werkzeug für KMU sein, das es ihnen ermöglicht, sich wiederholende Aufgaben zu automatisieren, den Kundenservice zu verbessern und bessere Entscheidungen zu treffen. Die erfolgreiche Implementierung von KI erfordert jedoch eine sorgfältige Planung und ein solides Verständnis der Technologie. In dieser Podcastfolge werden wir uns einige Möglichkeiten ansehen, wie KMU KI zu ihrem Vorteil nutzen können. Außerdem gehen wir auf einige der Herausforderungen ein, die mit der Implementierung von KI-Lösungen verbunden sind, und geben Tipps, wie diese Herausforderungen gemeistert werden können.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    2 MB
    02:48
    Cover

    Data & Analytics lernen - Databricks vs. Snowflake

    Sie fragen sich, ob Sie Databricks oder Snowflake für Ihr Data Warehouse verwenden sollten? In dieser Folge des Data & Analytics lernen Podcasts vergleichen wir diese beiden Big-Data-Lösungen und stellen sie einander gegenüber. Hören Sie rein, um herauszufinden, welche Lösung für Ihr Unternehmen besser geeignet ist. Keine der beiden Lösungen ist perfekt für jeden, aber nach dem Hören dieser Folge werden Sie eine viel bessere Vorstellung davon haben, welche Lösung für Sie die richtige ist. Warten Sie also nicht - laden Sie jetzt herunter und lernen Sie die Welt der Big Data-Analytik kennen! Klicken Sie hier, um den Podcast jetzt anzuhören!---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:42
    Cover

    Data & Analytics lernen - Snowflake-Cloud-Plattform Was ist sie und wie funktioniert

    Snowflake ist ein Data Warehouse as a Service (DWaaS), mit dem Sie Daten in der Cloud erstellen, verwalten und abfragen können. Snowflake wurde entwickelt, um Ihnen die Nutzung der Cloud und ihrer Skalierbarkeit, Elastizität und Pay-as-you-go-Preise zu erleichtern. Snowflake unterteilt Ihre Daten in "Schneeflocken", die dann zur parallelen Verarbeitung auf mehrere Knoten verteilt werden. Auf diese Weise können Sie Ihr Data Warehouse je nach Bedarf vergrößern oder verkleinern, ohne dass Sie Ihre Daten vorpartitionieren oder andere Änderungen an Ihren Anwendungen vornehmen müssen. Und da Snowflake ein Cloud-Service ist, zahlen Sie nur für die Ressourcen, die Sie brauchen, und nur dann, wenn Sie sie brauchen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    8 MB
    08:20
    Cover

    Fehlerkultur bei Data & Analytics Projekten

    Es besteht kein Zweifel, dass Daten und Analysen in der heutigen Geschäftswelt eine wichtige Rolle spielen. Die Fähigkeit, Daten zu sammeln, zu analysieren und darauf zu reagieren, verschafft Unternehmen einen erheblichen Wettbewerbsvorteil. Doch mit der zunehmenden Abhängigkeit von Daten steigt auch der Druck, alles richtig zu machen. Und wenn bei Daten- und Analyseprojekten etwas schief geht, kann es wirklich schief gehen. Dies hat zu einer Fehlerkultur geführt, die in einigen Kreisen als "Fehlerkultur" bezeichnet wird - eine Kultur, in der die Mitarbeiter Angst haben, Fehler zu machen oder Risiken einzugehen, weil sie fürchten, als inkompetent abgestempelt zu werden. Es ist zwar wichtig, aus Fehlern zu lernen und zu vermeiden, sie zu wiederholen, aber diese Kultur der Angst kann zu einer Lähmung der Analyse führen und die Innovation hemmen. Wie können wir also das richtige Gleichgewicht finden? Wie können wir die Mitarbeiter ermutigen, Risiken einzugehen und innovativer zu sein, ohne die Innovation zu ersticken oder das Unternehmen zu gefährden? Das und mehr beantworten wir in dieser Folge des Data & Analytics lernen Podcasts---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    7 MB
    07:37
    Cover

    Data & Analytics lernen - Vorteilen von Data & Analytics im Unternehmen

    Daten und Analysen können Unternehmen in vielerlei Hinsicht helfen. Indem sie Einblicke in das Kundenverhalten gewähren, können sie Unternehmen dabei helfen, ihre Marketingmaßnahmen zu optimieren und ihre Zielgruppe besser anzusprechen. Außerdem können Daten und Analysen dazu beitragen, die betriebliche Effizienz zu verbessern und Bereiche zu ermitteln, in denen Kosteneinsparungen möglich sind. Darüber hinaus kann die datengestützte Entscheidungsfindung Unternehmen helfen, Risiken zu verringern und bessere strategische Entscheidungen zu treffen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    7 MB
    08:11
    Cover

    Data & Analytics lernen - Process Mining vs. Data Mining

    Process Mining und Data Mining sind zwei unterschiedliche, aber sich ergänzende Bereiche der Analytik. Beim Data Mining werden wertvolle Informationen aus großen Datensätzen extrahiert, während beim Process Mining Geschäftsprozesse analysiert werden, um zu verstehen, wie sie funktionieren und wie sie verbessert werden können. Data Mining ist ein allgemeinerer Begriff, der für die Extraktion jeglicher Art von Informationen aus Daten, einschließlich Geschäftsprozessdaten, verwendet werden kann. Process Mining hingegen ist ein spezialisierteres Gebiet, das sich speziell auf die Analyse von Geschäftsprozessen konzentriert. Trotz ihrer unterschiedlichen Schwerpunkte sind sowohl Data Mining als auch Process Mining für das Verständnis der Funktionsweise von Unternehmen und die Ermittlung von Möglichkeiten zur Verbesserung ihrer Leistung von wesentlicher Bedeutung.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    12 MB
    12:23
    Cover

    Data & Analytics lernen - 11 Schritte zur erfolgreichen Cloud Migration

    Es gibt viele Gründe, in die Cloud zu migrieren, aber die drei häufigsten sind die Verbesserung der Skalierbarkeit, die Senkung der Kosten und die Erhöhung der Flexibilität. Bevor man sich jedoch für eine Migration entscheidet, sollte man sich über die Auswirkungen und potenziellen Risiken eines solchen Schrittes im Klaren sein. Skalierbarkeit ist häufig einer der Hauptgründe für Unternehmen, die in die Cloud migrieren. Die Möglichkeit, die Leistung je nach Bedarf schnell zu erhöhen oder zu verringern, kann für Unternehmen einen großen Wettbewerbsvorteil darstellen. Darüber hinaus zahlen Sie beim Cloud Computing nur für die genutzten Ressourcen, was im Vergleich zu herkömmlichen Lösungen vor Ort zu Kosteneinsparungen führen kann. Die größere Flexibilität und die geringeren Kosten sind ebenfalls attraktive Faktoren für die Migration in die Cloud.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    6 MB
    07:05
    Cover

    Data & Analytics lernen - Einführung in Generative Adversarial Networks

    Ein generatives adversariales Netzwerk (GAN) ist ein Algorithmus der künstlichen Intelligenz, der dazu dient, neue Datenmuster zu erzeugen, die einem Trainingsdatensatz ähnlich sind. GANs werden in der Regel für die Bildsynthese verwendet und wurden bereits zur Erzeugung realistischer Bilder von Objekten, Gesichtern und Szenen eingesetzt Das ursprüngliche GAN-Papier wurde 2014 von Forschern der University of Michigan und der Stanford University veröffentlicht. Darin wird vorgeschlagen, ein GAN zur Erzeugung neuer Bilder zu verwenden, indem zwei neuronale Netze gegeneinander trainiert werden - ein Generatornetz, das gefälschte Muster erzeugt, und ein Diskriminatornetz, das versucht, die echten Muster von den gefälschten zu unterscheiden. Mit fortschreitendem Training wird der Generator immer besser darin, realistische Fälschungen zu erzeugen, und der Diskriminator wird besser darin, sie zu erkennen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    7 MB
    08:13
    Cover

    Data & Analytics lernen - Deep Learning: Ein kleiner Leitfaden für Einsteiger

    Deep Learning ist ein Teilbereich des maschinellen Lernens, der von der Struktur und Funktion des Gehirns inspiriert ist. Es versucht, die Art und Weise, wie unser Gehirn Informationen verarbeitet, durch die Schaffung künstlicher neuronaler Netze (ANNs) zu modellieren. ANNs bestehen aus einer großen Anzahl miteinander verbundener Verarbeitungsknoten oder Neuronen, die lernen können, Muster von Eingabedaten zu erkennen. Es hat sich gezeigt, dass Deep-Learning-Algorithmen bei einer Reihe von Aufgaben, darunter Bilderkennung, Verarbeitung natürlicher Sprache und Spracherkennung, Spitzenergebnisse erzielen. Sie werden auch zunehmend für prädiktive Modellierung in einer Vielzahl von Branchen eingesetzt, darunter Finanzen, Gesundheitswesen und Logistik.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:29
    Cover

    Data & Analytics lernen - Generative Modellierung

    Generative Modelle sind eine Klasse von Algorithmen des maschinellen Lernens, die lernen können, aus einem gegebenen Trainingsdatensatz neue Datenmuster zu erzeugen. Dies unterscheidet sich vom traditionellen maschinellen Lernen, das sich auf das Erlernen der Vorhersage von Bezeichnungen oder Werten für neue Datenpunkte auf der Grundlage eines bereits vorhandenen Datensatzes konzentriert Die generative Modellierung ist eine leistungsstarke Technik für viele reale Anwendungen. Sie kann zum Beispiel verwendet werden, um neue Bilder von Gesichtern aus einem Trainingssatz von Bildern zu generieren oder um neue Textabschnitte aus einem Korpus vorhandener Texte zu erstellen. In jedem Fall besteht das Ziel darin, die zugrundeliegende Verteilung der Daten zu erlernen, so dass wir neue Muster generieren können, die für Menschen realistisch und glaubwürdig aussehen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    3 MB
    03:43
    Cover

    Data & Analytics lernen - Userstorys im Bereich Data & Analytics erstellen

    User Stories sind ein wichtiges Instrument im Bereich Daten und Analytik. Sie helfen Analysten, die Anforderungen der Personen zu verstehen, die ihre Berichte und Dashboards nutzen werden. User Stories helfen auch bei der Sprint-Planung, indem sie den Entwicklungsteams helfen zu verstehen, was getan werden muss, um ein Projekt abzuschließen. Jede User Story ist in der Regel mit einer oder mehreren Funktionen verbunden, die implementiert werden müssen. Mit Hilfe von User Stories kann sichergestellt werden, dass sich alle Teammitglieder über die Ziele eines Projekts im Klaren sind. Sie können auch als Ausgangspunkt für Diskussionen darüber dienen, wie Daten am besten gesammelt und analysiert werden können.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    05:06
    Cover

    Data & Analytics lernen - Der Azure Data Explorer (ADE)

    Azure Data Explorer (ADE) ist ein schnelles, skalierbares Datenexplorations- und Abfragetool, das für die Cloud entwickelt wurde. Es ermöglicht Ihnen die einfache Erkundung und Analyse großer Datensätze in wenigen Minuten, ohne dass Sie neue Tools oder Technologien installieren oder erlernen müssen. ADE lässt sich in Azure Data Lake Store, HDInsight Spark-Cluster, Event Hubs und andere Datendienste in Azure integrieren, um eine nahtlose Erfahrung für die Datenexploration und -analyse zu bieten. Sie können ADE verwenden, um mit Daten zu arbeiten, die in jedem Format gespeichert sind, einschließlich JSON, CSV, XML, AVRO, Parquet und mehr.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    06:00
    Cover

    Data & Analytics lernen - Azure Analysis Services

    Azure Analysis Services ist eine Cloud-basierte Plattform für die Analyse von Daten, mit der Sie intelligente Anwendungen und Dashboards erstellen können. Sie können sie nutzen, um Ihre Data Warehousing- und BI-Lösungen mit schneller Leistung, Skalierbarkeit und Sicherheit zu betreiben. Mit Azure Analysis Services können Sie Daten modellieren, Berichte verfassen und Dashboards erstellen - alles in der Cloud. Sie können eine Verbindung zu Ihren Datenquellen herstellen, egal wo sie sich befinden - vor Ort oder in der Cloud - und diese Daten dann mit Standard-SQL abfragen und analysieren. Azure Analysis Services lässt sich auch mit anderen Azure-Diensten wie Power BI, Machine Learning und Event Hubs integrieren, damit Sie mehr aus Ihren Daten herausholen können.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    3 MB
    03:56
    Cover

    Data & Analytics lernen - Was ist Azure Stream Analytics

    Azure Stream Analytics ist ein vollständig verwalteter Cloud-basierter Service für Echtzeit-Analysen, der Ihnen hilft, Erkenntnisse aus Ihren Streaming-Daten zu gewinnen. Der Service kann große Mengen an Streaming-Daten aus verschiedenen Quellen verarbeiten, darunter Sensoren, Web-Clickstreams, Finanzticker, Social Media Feeds und IoT-Geräte. Stream Analytics nutzt eine leistungsstarke Streaming-Engine, die Datenströme nahezu in Echtzeit analysieren kann, um Trends und Muster zu erkennen. Der Service umfasst auch eine umfangreiche Abfragesprache, mit der Sie die Bedingungen festlegen können, unter denen eine Warnung generiert oder eine Aktion durchgeführt werden soll.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    6 MB
    06:14
    Cover

    Data & Analytics lernen - Azure Data Lake Storage

    Azure Data Lake Storage (ADLS) ist ein Cloud-basiertes Dateispeichersystem, mit dem Sie Daten aus jeder Quelle, zu jeder Zeit und in jedem Format erfassen können. Es bietet eine kostengünstige und skalierbare Lösung für die Speicherung großer Datenmengen und stellt leistungsstarke Tools für die Verwaltung, Verarbeitung und Analyse dieser Daten bereit. ADLS ist hochverfügbar und skalierbar, ohne Begrenzung der Datenmenge, die gespeichert werden kann. Es ist korruptionssicher und kann sich automatisch von Ausfällen erholen. Außerdem bietet es umfassende Sicherheitsfunktionen, einschließlich rollenbasierter Zugriffskontrolle, Verschlüsselung im Ruhezustand und bei der Übertragung sowie Auditing.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    6 MB
    07:11
    Cover

    Data & Analytics lernen - Self Service Data

    Laut Gartner wird die Self-Service-Datenaufbereitung die wichtigste analytische Entwicklung des nächsten Jahrzehnts sein. Bei der Self-Service-Datenvorbereitung handelt es sich um eine neue Softwarekategorie, die es normalen Geschäftsanwendern - und nicht nur IT- oder Data Scientists - ermöglicht, Daten auf einfache Weise selbst zu entdecken, zu verstehen, zu bereinigen und anzureichern, um sie für neue Erkenntnisse zu analysieren. Dies ist eine große Veränderung gegenüber dem traditionellen Ansatz für BI und Analysen, bei dem die Unternehmen auf die Aufbereitung der Daten durch die IT- oder Data-Science-Teams warten mussten, bevor sie mit der Analyse beginnen konnten.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    8 MB
    08:33
    Cover

    Data & Analytics lernen - Data Lake oder Data Warehouse

    Die Antwort auf diese Frage hängt von den Anforderungen Ihres Unternehmens ab. Ein Data Warehouse ist für Berichte und Analysen gedacht, während ein Data Lake für die Speicherung und Erkennung gedacht ist. Wenn Sie Daten für Berichte und Analysen schnell abrufen müssen, ist ein Data Warehouse die bessere Wahl. Wenn Sie jedoch eine große Menge an Daten speichern müssen, die Sie später analysieren möchten, ist ein Data Lake die bessere Wahl. Welche die richtige Wahl für Ihr Unternehmen ist lernen Sie in dieser Folge!---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    6 MB
    06:17
    Cover

    Data & Analytics lernen - Data Lake Catalog

    Wenn es um Data Lakes geht, ist eine der wichtigsten Aufgaben die Katalogisierung aller im See gespeicherten Informationen. Dies kann eine entmutigende Aufgabe sein, ist aber absolut notwendig, um den Überblick zu behalten und sicherzustellen, dass nichts verloren geht Eine Möglichkeit besteht darin, ein zentrales Repository einzurichten, in dem alle Daten innerhalb des Sees katalogisiert werden. Dieses Repository kann in Form einer Datenbank oder auch nur einer einfachen Tabellenkalkulation angelegt werden. Wichtig ist jedoch, dass es für jeden, der Informationen innerhalb des Data Lake sucht, leicht zugänglich und durchsuchbar ist Ein anderer Ansatz ist die Verwendung eines Tools wie Apache Hadoop, das ein integriertes Framework für die Verwaltung von Daten im Data Lake bietet---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:57
    Cover

    Data & Analytics lernen - Data-Lake-Architektur

    Es gibt keine "Einheitslösung" für die Architektur von Data Lakes. Je nach den spezifischen Anforderungen eines Unternehmens kann ein Data Lake viele verschiedene Formen annehmen. Es gibt jedoch einige Gemeinsamkeiten, die alle Data Lakes aufweisen. Am wichtigsten ist, dass ein Data Lake darauf ausgelegt ist, große Datenmengen in ihrem ursprünglichen Format zu sammeln und zu speichern. Diese Rohdaten können aus einer Vielzahl von Quellen stammen, sowohl aus internen als auch aus externen Quellen des Unternehmens. Nach der Erfassung können diese Daten bereinigt, umgewandelt und analysiert werden, um wichtige Geschäftsfragen zu beantworten. Einer der Hauptvorteile eines Data Lake ist seine Flexibilität. Im Gegensatz zu einer traditionellen Datenbank, die ein starres Schema hat, kann ein Data Lake alle Arten von Daten aufnehmen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    6 MB
    06:28
    Cover

    Data & Analytics lernen - Streaming Analytics

    Bei der Streaming-Analyse werden die Daten in Echtzeit analysiert, sobald sie eintreffen. Diese Art der Analyse ist besonders nützlich, um Muster und Trends sofort zu erkennen, anstatt auf eine Batch-Analyse zu warten, die Stunden, Tage oder sogar Wochen später erfolgen kann. Es gibt eine Vielzahl verschiedener Anwendungen für Streaming-Analysen, von der Betrugserkennung über die Überwachung des Aktienmarktes bis hin zum Kundendienst. Der Hauptvorteil der Streaming-Analyse besteht darin, dass sie es Unternehmen ermöglicht, Entscheidungen in Echtzeit und auf der Grundlage der aktuellsten Informationen zu treffen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    06:09
    Cover

    Data & Analytics lernen - Was ist Streaming SQL?

    Eine Streaming-SQL-Engine ist eine Art von Datenbankmanagementsystem (DBMS), das kontinuierlich Daten aus einem Eingabestrom verarbeitet und sie für Abfragen in Echtzeit zur Verfügung stellt. Es verwendet eine Pull-basierte Architektur, bei der der Client Abfragen initiiert und das DBMS die Ergebnisse aus seinem internen Datenspeicher abruft. Dieses Design eignet sich gut für die Verarbeitung großer Mengen schnell ankommender Daten, da die Abfrageverarbeitung beginnen kann, sobald neue Daten ankommen. Streaming-SQL-Engines werden häufig für Anwendungen wie Überwachung, Betrugserkennung und komplexe Ereignisverarbeitung eingesetzt. Einige Beispiele für Streaming-SQL-Engines sind Apache Kafka Streams, Apache Samza, FlinkSQL und StormSQL.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:15
    Cover

    Data & Analytics lernen - Lambda Architektur für Echtzeit Daten

    Bei der Lambda-Architektur handelt es sich um eine Systemarchitektur, die die Verarbeitung von Daten in Echtzeit ermöglicht und gleichzeitig in der Lage ist, zuvor nicht gesehene Daten zu verarbeiten. Die Hauptkomponenten der Lambda-Architektur sind eine Geschwindigkeitsschicht und eine Stapelverarbeitungsschicht. Die Geschwindigkeitsschicht wird für die Verarbeitung neuer Daten verwendet, sobald sie ankommen, während die Stapelschicht für historische Daten verwendet wird. Die Lambda-Architektur wurde erstmals von Nathan Marz vorgestellt, der auch das Apache Storm-Projekt ins Leben gerufen hat. Ziel der Lambda-Architektur ist es, ein robustes und skalierbares System bereitzustellen, das sowohl Echtzeit- als auch historische Daten verarbeiten kann. Zu diesem Zweck werden zwei getrennte Netze - eines für jeden Datentyp - verwendet, die dann zu einer einzigen Ausgabe kombiniert werden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:24
    Cover

    Data & Analytics lernen - Alles was sie über BERT wissen müssen

    Google BERT ist ein neuer Algorithmus zur Verarbeitung natürlicher Sprache (NLP), der im Oktober 2019 veröffentlicht wurde. Er wurde entwickelt, um die Qualität der Suchergebnisse zu verbessern, indem er den Kontext von Suchanfragen versteht und sie mit den relevantesten Antworten abgleicht. BERT steht für Bidirectional Encoder Representations from Transformers und basiert auf einer Art von künstlicher Intelligenz, die als maschinelles Lernen bezeichnet wird. Beim maschinellen Lernen wird Computern beigebracht, aus Daten zu lernen, so dass sie lernen können, bestimmte Aufgaben selbständig auszuführen. BERT ist in der Lage, komplexe Sätze und Beziehungen zwischen Wörtern besser zu verstehen als andere NLP-Algorithmen, wodurch er genauere Suchergebnisse liefern kann.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    9 MB
    10:05
    Cover

    Data & Analytics lernen - Data Understanding beim maschinellen Lernen

    Algorithmen für maschinelles Lernen benötigen eine große Menge an Daten, um Muster genau zu "lernen". Je mehr Daten in den Algorithmus eingespeist werden, desto genauer sind seine Vorhersagen. Allerdings sind nicht alle Daten gleichwertig. Einige Daten sind wertvoller als andere, weil sie mehr Informationen enthalten und der Algorithmus leichter daraus lernen kann. Datenwissenschaftler verwenden in der Regel viel Zeit auf die Bereinigung und Vorverarbeitung von Daten, bevor sie sie in den Algorithmus für maschinelles Lernen einspeisen. Denn schlechte oder irrelevante Daten können dazu führen, dass der Algorithmus die falschen Muster "lernt" und ungenaue Ergebnisse liefert. Daher ist es wichtig, dass Sie die verwendeten Daten sorgfältig auswählen und sicherstellen, dass sie von guter Qualität sind, bevor Sie sie in das maschinelle Lernmodell einspeisen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    2 MB
    03:03
    Cover

    Data & Analytics lernen - OLAP in mehrdimensionalen Datenräumen

    Ein OLAP-System (Online Analytical Processing) bietet den Benutzern die Möglichkeit, multidimensionale Datenräume zu analysieren. Es ermöglicht ihnen die schnelle Erstellung von Berichten und die Durchführung von Ad-hoc-Analysen großer Datensätze OLAP-Systeme werden in der Regel von Unternehmen eingesetzt, die Entscheidungen auf der Grundlage komplexer Datensätze treffen müssen, z. B. von Unternehmen, die Produkte auf mehreren Märkten verkaufen oder über große Kundendatenbanken verfügen. Viele OLAP-Systeme bieten eine Vielzahl von Funktionen, darunter die Möglichkeit, Daten zu zerschneiden und zu würfeln, Details aufzuschlüsseln und Daten auf eine höhere Abstraktionsebene zu bringen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    2 MB
    02:48
    Cover

    Data & Analytics lernen - Data-Governance-Strategien

    Eine Data-Governance-Strategie ist ein Aktionsplan, mit dem Unternehmen die Qualität, Genauigkeit und Integrität ihrer Daten sicherstellen wollen. Bei der Erstellung einer Data-Governance-Strategie sind verschiedene Faktoren zu berücksichtigen, z. B. wer für die Aufrechterhaltung der Datenqualität verantwortlich ist, wie oft die Daten überprüft und aktualisiert werden und wie Fehler korrigiert werden. Einer der wichtigsten Aspekte der Data Governance ist die Erstellung und Durchsetzung von Richtlinien für die Verwaltung von Datenänderungen. Dazu gehört, dass festgelegt wird, wer zu Änderungen berechtigt ist, welche Arten von Änderungen zulässig sind und welche Schritte unternommen werden müssen, um sicherzustellen, dass alle Änderungen dokumentiert und nachverfolgt werden. Es ist auch wichtig, Verfahren für den Umgang mit beschädigten oder ungültigen Daten zu haben.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:30
    Cover

    Data & Analytics lernen - Roadmap zum erfolgreichen Data Lake

    Es gibt zwar kein Patentrezept für den Erfolg von Data Lakes, aber es gibt eine Reihe von Schlüsselfaktoren, die zum Erfolg beitragen können. Erstens ist es wichtig, einen klaren und präzisen Plan dafür zu haben, was Sie mit Ihrem Data Lake erreichen wollen. Zweitens müssen Sie über die richtigen Tools und Technologien verfügen, um Ihren Data Lake zu unterstützen. Und schließlich ist es wichtig, dass alle am Projekt beteiligten Interessengruppen mitziehen. Wenn Sie diese einfachen Richtlinien befolgen, können Sie Ihre Erfolgschancen bei der Implementierung eines Data Lakes erhöhen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    9 MB
    09:32
    Cover

    Data & Analytics lernen - Apache Flink als Stream Processing Framework

    Apache Flink ist ein Stream-Processing-Framework, das viele Vorteile gegenüber herkömmlichen Batch-Processing-Frameworks wie Hadoop MapReduce hat. Die Streaming-Dataflow-Architektur von Flink ermöglicht die Verarbeitung von Datenströmen in Echtzeit und eignet sich daher gut für Anwendungen wie Betrugserkennung, Finanzanalyse und Prozesssteuerung. Dank seiner Fehlertoleranz- und Elastizitätsfunktionen eignet es sich gut für Big-Data-Streaming-Anwendungen, bei denen Zuverlässigkeit und Skalierbarkeit wichtig sind. Darüber hinaus ist die API von Flink sehr intuitiv und einfach zu bedienen, was sie zu einer guten Wahl für Entwickler macht, die schnell Streaming-Anwendungen entwickeln müssen. Insgesamt ist Apache Flink eine ausgezeichnete Wahl für die Entwicklung von Streaming-Data-Anwendungen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:43
    Cover

    Data & Analytics lernen - Statische und lernende Algorithmen

    Worum es in dieser folge des Data & Analytics lernen Podcast geht: Der Hauptunterschied zwischen statischen und lernenden Algorithmen besteht darin, dass statische Algorithmen ihr Verhalten nicht auf der Grundlage neuer Daten ändern, während lernende Algorithmen ihr Verhalten anpassen können, wenn neue Daten hinzukommen. Statische Algorithmen werden in der Regel für Aufgaben verwendet, bei denen die Daten relativ einfach und gut verstanden sind, während lernende Algorithmen für komplexere Aufgaben erforderlich sind, bei denen die Daten schwieriger zu modellieren sind. Im Allgemeinen sind lernende Algorithmen statischen Algorithmen bei Aufgaben mit komplexeren Daten überlegen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:24
    Cover

    Data & Analytics lernen - Anonymisierung von qualitativen Daten

    Es gibt verschiedene Möglichkeiten, qualitative Daten zu anonymisieren. Eine Möglichkeit besteht darin, identifizierende Informationen wie Namen und Adressen einfach zu entfernen. Eine andere Möglichkeit besteht darin, identifizierende Informationen durch einen Code oder eine andere Kennung zu ersetzen. Dies kann entweder manuell oder mit Hilfe von Software geschehen. Der Vorteil der Anonymisierung qualitativer Daten besteht darin, dass die Identität der Teilnehmer geschützt wird und offenere Antworten möglich sind. Außerdem lassen sich so Daten aus verschiedenen Studien leichter vergleichen, da man sich keine Gedanken über die Identifizierung von Personen machen muss. Allerdings gibt es auch einige Nachteile. Ein Nachteil ist, dass es schwierig sein kann, Daten zu interpretieren, wenn man die Identität der Teilnehmer nicht kennt. Außerdem kann es schwierig sein, die Befragten ausfindig zu machen, wenn man sie für weitere Informationen kontaktieren muss.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    2 MB
    02:25
    Cover

    Data & Analytics lernen - Assoziationsanalyse - Data Mining Methode

    Die Assoziationsanalyse ist eine Data-Mining-Methode, die dazu dient, Beziehungen zwischen Variablen in Daten zu identifizieren. Sie wird häufig eingesetzt, um Assoziationen zwischen Krankheiten und genetischen Markern zu finden oder um Beziehungen zwischen Produkten und Kunden zu ermitteln. Der Grundgedanke hinter der Assoziationsanalyse ist, dass zwei Variablen, die miteinander in Beziehung stehen, auch statistisch miteinander assoziiert sind. Die Assoziationsanalyse kann zur Ermittlung von Beziehungen verwendet werden, indem man entweder die Gesamtverteilung der Daten betrachtet oder spezielle Algorithmen wie den Pearson-Korrelationskoeffizienten einsetzt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:14
    Cover

    Data & Analytics lernen - Representation Learning

    Es gibt viele Möglichkeiten, Repräsentationen von Daten zu lernen, aber ein gängiger Ansatz ist die Verwendung neuronaler Netze. Neuronale Netze können so trainiert werden, dass sie automatisch nützliche Datenrepräsentationen lernen, indem sie eine Verlustfunktion minimieren. Dieser Ansatz hat sich bei einer Vielzahl von Aufgaben als effektiv erwiesen, z. B. bei der Bildklassifizierung und der Verarbeitung natürlicher Sprache.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    04:55
    Cover

    Data & Analytics lernen - Korrelation und Kausalität in der Analytik

    Korrelation und Kausalität sind zwei wichtige Konzepte in der Analytik. Die Korrelation ist ein Maß dafür, wie zwei Variablen zueinander in Beziehung stehen. Kausalität ist ein Maß dafür, wie eine Variable eine andere beeinflusst. Es gibt viele Debatten darüber, was wichtiger ist, aber beide sind für das Verständnis von Daten unerlässlich. Die Korrelation hilft Ihnen, die Beziehungen zwischen den Variablen zu verstehen, während die Kausalität Ihnen helfen kann zu verstehen, wie eine Variable eine andere beeinflusst.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    4 MB
    05:00
    Cover

    Data & Analytics lernen - Support-Vektor-Maschine

    Eine Support Vector Machine (SVM) ist ein maschineller Lernalgorithmus, der für Klassifizierungs- oder Regressionszwecke verwendet werden kann. Sie funktioniert, indem sie eine Hyperfläche im Raum konstruiert, die zwei Datensätze trennt (d. h. einen Satz von Trainingsdaten und einen Satz von Testdaten), und sie tut dies, indem sie die optimale Hyperebene findet, die den Abstand zwischen den beiden Datensätzen maximiert. Mit anderen Worten: SVMs sind in der Lage zu "lernen", wie sie zwischen verschiedenen Datentypen unterscheiden können, indem sie eine so genannte Entscheidungsgrenze (oder Marge) schaffen, die sie voneinander trennt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:23
    Cover

    Data & Analytics lernen - Storytelling für Datenwissenschaften

    Das Erzählen von Geschichten ist eine wichtige Fähigkeit für Datenwissenschaftler. Es hilft ihnen, komplexe Datensätze in etwas umzuwandeln, das von anderen leicht verstanden werden kann. Ein guter Geschichtenerzähler kann die Daten zum Leben erwecken und den Menschen helfen, die Welt auf eine neue Weise zu sehen. Datenwissenschaftler müssen in der Lage sein, Geschichten zu erzählen, die sowohl informativ als auch unterhaltsam sind. Sie sollten in der Lage sein, ihre Kreativität einzusetzen, um ihre Zuhörer zu fesseln und sie dazu zu bringen, immer wieder zu kommen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    9 MB
    09:35
    Cover

    Data & Analytics lernen - Datenintegrität mit einem Datenkatalog

    Ein Datenkatalog ist ein wichtiger Bestandteil zur Gewährleistung der Integrität Ihrer Daten. Indem Sie einen Katalog all Ihrer Daten führen, können Sie schnell und einfach überprüfen, ob die von Ihnen verwendeten Daten korrekt und aktuell sind. Ein Datenkatalog kann Ihnen auch dabei helfen, doppelte oder veraltete Daten aufzuspüren, was Zeit spart und sicherstellt, dass Ihre Daten immer korrekt und aktuell sind. Ein zuverlässiger, genauer Datenkatalog ist für jede Organisation, die ihre Daten sauber und organisiert halten will, unerlässlich.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    3 MB
    03:20
    Cover

    Data & Analytics lernen - Sentiment Analysis

    Bei der Stimmungsanalyse wird automatisch der emotionale Ton eines Textes bestimmt - positiv, negativ oder neutral. Dies kann für Aufgaben wie die automatische Beantwortung von Kundenanfragen, Produktempfehlungen und politische Analysen nützlich sein. Es gibt eine Reihe verschiedener Ansätze für die Stimmungsanalyse. Zu den gängigen Techniken gehören maschinelle Lernalgorithmen wie Support-Vektor-Maschinen oder Naive-Bayes-Klassifikatoren, Techniken zur Verarbeitung natürlicher Sprache wie Part-of-Speech-Tagging und Lemmatisierung sowie regelbasierte Systeme.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 06.05.2022
    5 MB
    05:58
    Cover

    Data & Analytics lernen - Grundlagen der relationalen Datenmodellierung

    Bei der relationalen Datenmodellierung gibt es drei grundlegende Komponenten: Entitäten, Beziehungen und Attribute Eine Entität ist ein Objekt der realen Welt, das eindeutig identifiziert werden kann. Zum Beispiel eine Person, ein Ort oder eine Sache. In einer Datenbank wird eine Entität durch eine Tabelle dargestellt Eine Beziehung ist die Verbindung zwischen zwei oder mehr Entitäten. Zum Beispiel die Beziehung zwischen einem Kunden und einer Bestellung. In einer Datenbank wird eine Beziehung durch eine Fremdschlüssel-Beschränkung dargestellt Attribute sind die Merkmale einer Entität oder Beziehung. Zum Beispiel der Name eines Kunden oder der Preis einer Bestellung. In einer Datenbank werden die Attribute durch Spalten in einer Tabelle dargestellt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr