Cover

Data & Analytics lernen

Der Daten- und Analyse-Podcast liefert aktuelle Erkenntnisse und umsetzbare Ratschläge, die Ihnen zum Erfolg verhelfen. Themen sind u. a.: Datenmodelle, künstliche Intelligenz, Management von Metadaten - alles, was Ihr Unternehmen am Laufen hält!Auch die Welt der Fakten wird in diesem Podcast behandelt: von der Verwaltung der Metadaten (was bedeutet "Metadaten"?) bis hin zur Analyse komplexer Modellierungstechniken, um Trends im Kundenverhalten zu verstehen... Diese Sendung bietet den Hörern alles, was sie brauchen, um bei der Arbeit mit Daten erfolgreich zu sein.

Alle Folgen

  • 28.08.2022
    12 MB
    12:36
    Cover

    Data & Analytics lernen - Die Datenblackbox im Financial

    Bei der Finanzdatenanalyse geht es darum, Zusammenhänge in Finanzdaten zu erkennen und zu erforschen, um bessere Entscheidungen zu treffen. Dazu werden häufig ausgefeilte statistische Techniken wie Regressionsanalysen und Zeitreihenanalysen eingesetzt. Sie kann aber auch mit einfachen Tools wie Excel durchgeführt werden. Die Datenanalyse kann zur Verbesserung einer Vielzahl von Entscheidungen in Finanzabteilungen eingesetzt werden, von der Preisgestaltung bis zum Risikomanagement. In vielen Fällen kann sie dazu beitragen, Probleme zu erkennen, die sonst unentdeckt bleiben würden. So kann die Datenanalyse beispielsweise aufzeigen, dass eine Finanzabteilung bei einer bestimmten Art von Ausgaben, wie z.B. Reisen, zu viel Geld ausgibt. Diese Informationen können dann genutzt werden, um Entscheidungen darüber zu treffen, wo die Kosten gesenkt werden sollen. Die Datenanalyse kann auch zur Verbesserung von Prognosemodellen verwendet werden. Wenn die Verkäufe eines Unternehmens beispielsweise saisonabhängig sind, kann die Datenanalyse dazu verwendet werden, die Muster in den Daten zu identifizieren und ein Modell zu entwickeln, das zukünftige Verkäufe vorhersagt. Diese Art der Analyse ist besonders in Finanzabteilungen wichtig, da genaue Prognosen für solide finanzielle Entscheidungen unerlässlich sind.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.08.2022
    6 MB
    06:49
    Cover

    Data & Analytics lernen - Data & Analytics in der Organisationsentwicklung

    Praktiker der Organisationsentwicklung haben die Bedeutung von Daten und Analysen für das Verständnis der Unternehmensleistung schon lange erkannt. In den letzten Jahren haben sich die Instrumente und Techniken, die den Praktikern zur Verfügung stehen, jedoch erheblich weiterentwickelt, so dass sich neue Möglichkeiten für die Nutzung von Daten zur Förderung des organisatorischen Wandels ergeben haben. Mit Hilfe von Daten und Analysen lassen sich nun potenzielle Verbesserungsbereiche ermitteln, die Ursachen von Organisationsproblemen verstehen und die Auswirkungen der vorgeschlagenen Änderungen messen. Infolgedessen wird die datengesteuerte Organisationsentwicklung als Mittel zur Leistungssteigerung immer beliebter. Durch die Nutzung von Daten und Analysen können Praktiker ihrer Arbeit ein neues Maß an Strenge und Objektivität verleihen, was letztlich zu einer besseren Entscheidungsfindung und einem höheren Erfolgsniveau führt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.08.2022
    9 MB
    09:59
    Cover

    Data & Analytics lernen - Rassistische Voreingenommenheit von Maschinen

    Die Sorge wächst, dass die Systeme der künstlichen Intelligenz (KI), auf die immer häufiger zurückgegriffen wird, bestimmte Gruppen benachteiligen. Das liegt daran, dass die Daten, aus denen diese Systeme lernen, oft selbst voreingenommen sind, zum Beispiel aufgrund von Diskriminierungsmustern in der Vergangenheit. Wenn maschinelle Lernsysteme nicht sorgfältig überwacht werden, könnten sie diese Voreingenommenheit verstärken und sogar noch verschlimmern. Ein Gesichtserkennungssystem beispielsweise, das auf einem Datensatz mit überwiegend weißen Gesichtern trainiert wurde, wird schwarze Gesichter wahrscheinlich weniger genau erkennen. Dies könnte schwerwiegende Auswirkungen auf Bereiche wie die Strafverfolgung haben, wo KI-Systeme eingesetzt werden, um Entscheidungen darüber zu treffen, wer angehalten und durchsucht werden soll. Es besteht die Gefahr, dass diese Systeme bestehende soziale Ungleichheiten verschärfen, wenn sie nicht stärker zur Rechenschaft gezogen werden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 15.08.2022
    6 MB
    06:32
    Cover

    Data & Analytics lernen - Framing-Prozess in der Unternehmensanalyse

    Der Framing-Prozess ist ein wichtiger Teil der Unternehmensanalyse. Er umfasst das Verstehen des Problems oder der Gelegenheit, die Definition der Ziele und Zielsetzungen und die Entwicklung eines Plans, um diese zu erreichen. Dieser Prozess trägt dazu bei, dass alle Beteiligten auf derselben Seite stehen und dass jeder den Projektumfang und den Zeitplan versteht. Ohne einen klaren Bezugsrahmen kann es schwierig sein, Entscheidungen zu treffen oder Maßnahmen zu ergreifen. Der Framing-Prozess ist daher ein wesentliches Instrument für Unternehmensanalysten.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 14.08.2022
    7 MB
    07:36
    Cover

    Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache: NLP, NLU, und NLG

    Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Linguistik, der Informatik, der Informationstechnik und der künstlichen Intelligenz, das sich mit der Interaktion zwischen Computern und menschlichen (natürlichen) Sprachen befasst. NLP dient der Anwendung linguistischer Analyse und Wissensdarstellung auf Textdaten, um Aufgaben wie automatische Zusammenfassung, Übersetzung, Dialogmanagement, Textklassifizierung, Stimmungsanalyse, Erkennung benannter Entitäten, Themenmodellierung, Beziehungsextraktion und maschinelles Lesen durchzuführen. NLP kann für Anwendungen wie Chatbots, intelligente persönliche Assistenten (IPAs), die automatische Generierung von Untertiteln für Videos oder Bilder und die maschinelle Übersetzung verwendet werden. NLP-Algorithmen lassen sich grob in zwei Kategorien einteilen: regelbasierte Methoden und statistische Methoden. Regelbasierte Methoden basieren auf handgeschriebenen Regeln, die von Entwicklern oder Linguisten verfasst werden, während statistische Methoden auf Trainingsdaten beruhen, die mit linguistischen Informationen versehen sind. Beide Ansätze haben ihre eigenen Vor- und Nachteile; regelbasierte Methoden sind genauer, erfordern aber mehr Zeit und Aufwand bei der Entwicklung, während statistische Methoden weniger genau, aber einfacher zu entwickeln sind. NLU und NLG sind verwandte, aber unterschiedliche Teilbereiche des NLP. NLU befasst sich mit der Interpretation natürlichsprachlicher Eingaben, während NLG sich mit der Erzeugung natürlichsprachlicher Ausgaben befasst. NLU-Systeme nehmen unstrukturierte Eingaben wie freien Text auf und analysieren sie in strukturierte Darstellungen wie logische Formen oder Parse-Bäume. NLG-Systeme nehmen strukturierte Eingaben wie logische Formen oder Parse-Bäume entgegen und erzeugen entsprechende natürlichsprachliche Ausgaben. Sowohl NLU- als auch NLG-Systeme können entweder regelbasiert oder statistisch sein. Morphologie, Syntax, Semantik und Pragmatik sind die wichtigsten linguistischen Aspekte im NLP. Die Morphologie ist die Lehre von der Wortbildung, einschließlich der Flexion (das Hinzufügen von Endungen zu Wortstämmen, um die grammatische Funktion anzuzeigen) und der Derivation (die Bildung neuer Wörter aus bestehenden). Syntax ist die Lehre von der Satzstruktur, einschließlich der Reihenfolge der Wörter innerhalb eines Satzes. Semantik ist die Lehre von der Bedeutung, einschließlich der Wortbedeutung (lexikalische Semantik) und der Satzbedeutung (kompositorische Semantik). Die Pragmatik befasst sich mit der Frage, wie der Kontext die Bedeutung beeinflusst. Die NLP-Forschung wurde durch eine Reihe verschiedener Ziele motiviert, darunter die Entwicklung besserer Methoden zur Verarbeitung natürlichsprachlicher Daten, die Entwicklung von Systemen, die automatisch natürlichsprachliche Texte verstehen oder erzeugen können, die Verbesserung der Kommunikation zwischen Mensch und Computer, die Unterstützung bei der Entwicklung künstlicher Intelligenz und die Modellierung von Aspekten der menschlichen Kognition.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 14.08.2022
    2 MB
    02:54
    Cover

    Data & Analytics lernen - Eine Einführung in die Interpretation der Diskriminanzanalyse

    Die Diskriminanzanalyse ist eine Klassifizierungsmethode, bei der eine lineare Kombination von Merkmalen verwendet wird, um eine Entscheidungsgrenze zu finden, die zur Klassifizierung neuer Datenpunkte verwendet werden kann. Die Koeffizienten der Linearkombination werden so bestimmt, dass die Grenze den Abstand zwischen den Mittelwerten der beiden Klassen maximiert und gleichzeitig die klasseninterne Varianz minimiert. Dies führt zu einer Grenze, die so nah wie möglich an beiden Klassen liegt und gleichzeitig so weit wie möglich von jedem Klassenmittelwert entfernt ist. Die aus der Diskriminanzanalyse gewonnene Entscheidungsgrenze kann verwendet werden, um Schätzungen der Klassifizierungsgenauigkeit für neue Datensätze zu erhalten. Die Diskriminanzanalyse ist auch für die explorative Datenanalyse nützlich, da sie dabei helfen kann, herauszufinden, welche Merkmale für die Unterscheidung am wichtigsten sind.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.08.2022
    4 MB
    04:49
    Cover

    Data & Analytics lernen - Datengesteuerte Vision

    Daten waren schon immer ein wichtiger Bestandteil des Geschäftslebens, aber ihre Bedeutung nimmt weiter zu. In der Vergangenheit wurden Daten vor allem dazu verwendet, die betriebliche Leistung zu verfolgen und strategische Entscheidungen zu treffen. Heute jedoch werden Daten für alle Aspekte des Geschäfts genutzt, von der Produktentwicklung über das Marketing bis hin zum Kundendienst. Dieser Wandel wird durch die Fortschritte in der Datenanalyse vorangetrieben, die Unternehmen neue Einblicke in ihre Kunden und Abläufe verschafft. Infolgedessen werden Unternehmen immer datengesteuerter und nutzen Daten als Grundlage für alle Entscheidungen, die sie treffen. Diese Entwicklung wird sich in Zukunft fortsetzen, da Daten immer allgegenwärtiger und ausgefeilter werden. Erfolgreich werden die Unternehmen sein, die datengestützte Entscheidungen treffen und diese zu ihrem Vorteil nutzen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.08.2022
    5 MB
    05:34
    Cover

    Data & Analytics lernen - Anforderungsdefinition für eine Datenpipeline

    Die Definition von Anforderungen für eine Datenpipeline kann ein komplexes Unterfangen sein, da viele Faktoren zu berücksichtigen sind. Zunächst ist es wichtig, die Datenquellen zu ermitteln, die in der Pipeline verwendet werden sollen. Dazu können Datenbanken, Protokolldateien, Daten aus sozialen Medien usw. gehören. Sobald die Datenquellen identifiziert sind, muss im nächsten Schritt festgelegt werden, wie die Daten auf ihrem Weg durch die Pipeline umgewandelt und verarbeitet werden sollen. Dies kann verschiedene Schritte wie Bereinigung, Anreicherung, Aggregation usw. umfassen. Schließlich müssen auch die Anforderungen an die Ausgabe der Pipeline definiert werden. Dazu gehört die Festlegung des Formats der Daten, die von der Pipeline generiert werden (z. B. CSV, JSON, XML), sowie aller anderen Anforderungen wie Leistung, Sicherheit usw. Durch sorgfältige Planung und Definition im Vorfeld ist es möglich, eine robuste und skalierbare Datenpipeline zu erstellen, die alle erforderlichen Anforderungen erfüllt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 31.07.2022
    7 MB
    07:33
    Cover

    Data & Analytics lernen - Big Data-Modell: Logische & physischen Komponenten

    Ein Big-Data-Modell besteht aus zwei Hauptkomponenten: der logischen Komponente und der physischen Komponente. Die logische Komponente ist die konzeptionelle Darstellung der Daten, die definiert, wie die Daten organisiert sind und in Beziehung zueinander stehen. Die physische Komponente ist die tatsächliche Implementierung des Datenmodells, die festlegt, wie die Daten gespeichert und auf sie zugegriffen wird. Die logische Komponente wird in der Regel zuerst entworfen, gefolgt von der physischen Komponente. Die logische Komponente kann als die abstrakte Darstellung der Daten betrachtet werden, während die physische Komponente die konkrete Implementierung darstellt. Die Beziehung zwischen diesen beiden Komponenten wird oft als "Impedanzmißverhältnis" bezeichnet, da sie unabhängig voneinander entwickelt werden und oft unterschiedliche Ziele verfolgen. Zum Beispiel kann eine ein logisches Modell kann für die Optimierung von Abfragen entwickelt werden, während ein physisches Modell auf Leistung oder Skalierbarkeit ausgelegt sein kann. Die Impedanzabweichung kann oft zu Problemen führen, wenn Daten von einer Komponente in die andere verschoben werden. So sind beispielsweise Daten, die in der logischen Komponente für die Abfrageleistung optimiert wurden, in der physischen Komponente möglicherweise nicht optimal. Außerdem erfordern Änderungen an der logischen Komponente oft entsprechende Änderungen an der physischen Komponente, was schwierig und zeitaufwändig sein kann. Trotz dieser Herausforderungen sind Big Data-Modelle für die effektive Verwaltung großer Datenmengen unerlässlich. Wenn Unternehmen die Beziehung zwischen den logischen und physischen Komponenten eines Big Data-Modells verstehen, können sie ihre Daten besser entwerfen, implementieren und verwalten.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 31.07.2022
    3 MB
    03:30
    Cover

    Data & Analytics lernen - Der ETL-Prozess: Extrahieren, Transformieren und Laden Ihrer Daten

    Der ETL-Prozess (Extrahieren, Transformieren, Laden) ist normalerweise der erste Schritt bei Data-Warehousing- und Big-Data-Initiativen. Er extrahiert Daten aus Quellsystemen (in der Regel operative Datenbanken), wandelt sie in ein für die Analyse geeigneteres Format um (in der Regel eine denormalisierte Form) und lädt sie dann in ein Data Warehouse oder eine Big-Data-Plattform. Der ETL-Prozess ist oft manuell und zeitaufwändig, aber es gibt eine Reihe von Tools und Plattformen, die ihn bis zu einem gewissen Grad automatisieren können. Ziel der Automatisierung des ETL-Prozesses ist es, den Zeit- und Arbeitsaufwand für das Extrahieren, Transformieren und Laden von Daten in ein Data Warehouse oder eine Big-Data-Plattform zu reduzieren. Dies kann Unternehmen dabei helfen, mit ihren Big-Data-Initiativen zu beginnen---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 30.07.2022
    2 MB
    02:39
    Cover

    Data & Analytics lernen - Datenvision

    Data Vision srsly??? Nein, aber im Ernst, Data Vision ist wichtig. Sie hilft uns, die Welt durch Daten zu sehen und bessere Entscheidungen zu treffen. Daten lügen nie! Bei der Datenvision geht es darum, Daten in Erkenntnisse umzuwandeln, die Unternehmen helfen, bessere Entscheidungen zu treffen. Es geht darum, Trends zu verstehen, Beziehungen zwischen verschiedenen Daten zu finden und schließlich einen Wert aus den Daten zu ziehen, der zur Verbesserung der Leistung genutzt werden kann Die Datenvisualisierung ist eine Möglichkeit, dies zu erreichen, indem sie uns hilft, Muster und Trends zu erkennen, die sonst in den Rohdaten verborgen wären. Die Datenvisualisierung ist jedoch nur ein Werkzeug im Arsenal der Datenvisualisierung - andere wichtige Techniken sind die kontextuelle Analyse, die prädiktive Modellierung und das maschinelle Lernen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 29.07.2022
    3 MB
    03:57
    Cover

    Data & Analytics lernen - Datenarchitektur

    Datenarchitektur ist der Prozess der Gestaltung der Datenstruktur in einer Datenbank oder einem Informationssystem. Ziel der Datenarchitektur ist es, Daten so zu organisieren, dass sie leicht zu finden, zu nutzen und zu verstehen sind. Es gibt mehrere Gestaltungsprinzipien, die zur Erreichung dieses Ziels verwendet werden können, darunter:Normalisierung: Aufteilung der Daten in kleinere, besser handhabbare Teile Hierarchie: Organisieren von Daten in einer logischen Hierarchie Entity-Relationship-Modellierung: Definition der Beziehungen zwischen EntitätenDie Datenarchitektur ist ein wichtiger Bestandteil des Entwurfs von Informationssystemen und sollte bereits in den ersten Phasen der Entwicklung berücksichtigt werden. Wenn Sie sich die Zeit nehmen, eine gute Datenstruktur zu entwerfen, können Sie sich später eine Menge Kopfschmerzen ersparen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 29.07.2022
    2 MB
    02:47
    Cover

    Data & Analytics lernen - Dashboard Typen

    Sie fragen sich, was ein Dashboard ist und wie es Ihnen helfen kann? Ein Dashboard ist ein wichtiges Instrument für die Überwachung Ihres Unternehmens. Es ermöglicht Ihnen, alle wichtigen Kennzahlen auf einen Blick zu sehen, so dass Sie schnell fundierte Entscheidungen treffen können. Es gibt drei Arten von Dashboards - operative, analytische und strategische. Jede Art dient einem anderen Zweck. In diesem Beitrag werden wir die verschiedenen Arten von Dashboards besprechen und Ihnen dabei helfen, herauszufinden, welche Art von Dashboard die richtige für Sie ist! So können Sie das perfekte Dashboard finden, das Ihnen hilft, besser zu arbeiten, zu denken oder zu entscheiden. Warten Sie also nicht länger und lesen Sie weiter! Klicken Sie jetzt auf diesen Beitrag und erfahren Sie mehr über die verschiedenen Arten von Dashboards!---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 29.07.2022
    3 MB
    03:23
    Cover

    Data & Analytics lernen - Bayes'sche Methoden

    Bayes'sche Methoden sind eine Form der Statistik, die es Ihnen ermöglicht, Ihre Vorannahmen über die Wahrscheinlichkeit verschiedener Ergebnisse zu berücksichtigen, wenn Sie eine Entscheidung treffen. Dies kann hilfreich sein, wenn Sie nur über begrenzte Daten verfügen oder wenn die Daten verrauscht sind. Nehmen wir zum Beispiel an, Sie versuchen zu entscheiden, ob Sie ein Lotterielos kaufen sollen oder nicht. Sie wissen vielleicht, dass die Gewinnchancen ziemlich gering sind, aber Sie wissen auch, dass die Auszahlung ziemlich hoch ist. In diesem Fall würden Sie davon ausgehen, dass die Gewinnchancen gering sind, die potenzielle Auszahlung jedoch hoch ist.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 29.07.2022
    8 MB
    08:54
    Cover

    Data & Analytics lernen - Wir wir unser Big Data Warehouse mit analytischen Objekten betanken

    Es war eine dunkle und stürmische Nacht. Na ja, nicht wirklich. Eigentlich war es ein eher milder Abend, aber das macht nicht so viel Spaß, darüber zu schreiben. Jedenfalls befand sich an diesem Abend eine Gruppe von Datenwissenschaftlern in ihrem Datenlager, um ihre Big-Data-Analysemaschine hochzufahren. Sie mussten die Daten für ihr nächstes Treffen mit dem CEO vorbereiten. "Hey, Leute", sagte einer der Wissenschaftler, "ich glaube, wir brauchen mehr Treibstoff" "Was meinst du?", fragte ein anderer Wissenschaftler. "Wir brauchen mehr Analyseobjekte, um unsere Analysen durchzuführen", antwortete der erste Wissenschaftler. "Ich sehe eine Menge roter Balken auf unserem Leistungsmonitor" "Rote Balken?", fragte ein anderer. "Was soll das bedeuten?" Der erste Wissenschaftler seufzte und sagte: "Das bedeutet, dass uns die Analyseobjekte ausgehen und wir neue finden müssen."---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 28.07.2022
    5 MB
    05:19
    Cover

    Data & Analytics lernen - Game Changer Technologien für IoT

    Es gibt eine Reihe von bahnbrechenden Technologien, die in der Zukunft des IoT eine große Rolle spielen werden. Zu diesen Technologien gehören 5G-Netzwerke, Edge Computing, künstliche Intelligenz und Blockchain. 5G-Netze werden für die Unterstützung der riesigen Datenmengen, die von IoT-Geräten erzeugt werden, unerlässlich sein. Edge Computing wird dazu beitragen, die Datenmenge zu reduzieren, die von zentralen Servern übertragen und verarbeitet werden muss, und künstliche Intelligenz wird es den Geräten ermöglichen, ohne menschliches Eingreifen eigenständig Entscheidungen zu treffen. Die Blockchain-Technologie wird dazu beitragen, die Sicherheit und Integrität der zwischen den Geräten übertragenen Daten zu gewährleisten.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 27.07.2022
    3 MB
    03:32
    Cover

    Data & Analytics lernen - Modelle für Data Stewardship

    Sie fragen sich vielleicht, was Data Stewardship ist und wie es Ihrer Organisation helfen kann. Data Stewardship ist die Praxis der Verwaltung und Kontrolle von Daten, damit diese effizient und effektiv genutzt werden können. Es gibt viele verschiedene Modelle für Data Stewardship, jedes mit seinen eigenen Vorteilen und Risiken. In diesem Beitrag werden wir fünf der gängigsten Modelle erörtern, damit Sie entscheiden können, welches Modell für Ihr Unternehmen das richtige ist. Jedes Modell hat seine eigenen Vorteile, aber alle haben ein gemeinsames Ziel: sicherzustellen, dass die Daten effizient und effektiv zur Erreichung der Geschäftsziele genutzt werden. Wenn Sie die verschiedenen Modelle für die Datenverwaltung kennen, können Sie sicherstellen, dass Ihr Unternehmen über die richtigen Instrumente für eine effektive Datenverwaltung verfügt. Hören Sie jetzt reinb, um mehr über die verschiedenen Modelle für die Datenverwaltung zu erfahren!---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 24.07.2022
    3 MB
    03:17
    Cover

    Data & Analytics lernen - Entwicklungsmethoden im Big Data Umfeld

    Es gibt verschiedene Entwicklungsmethoden, die in einer Big-Data-Umgebung eingesetzt werden können. Einige davon sind Agile, Waterfall, Lean und DevOps. Die Wahl der am besten geeigneten Methodik hängt von Faktoren wie Projektgröße, Zeitrahmen, Budget und Unternehmenskultur ab...---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 22.07.2022
    3 MB
    03:33
    Cover

    Data & Analytics lernen - Wie Big Data Analytics das Geschäft verändert

    Das Thema Big Data ist in aller Munde, und das aus gutem Grund. Der potenzielle Wert, der aus der Analyse großer Datensätze gewonnen werden kann, ist atemberaubend. Aber was genau ist Big Data? Und, was noch wichtiger ist, was bedeutet es für Unternehmen? Big Data sind einfach Daten, die zu groß sind, um mit herkömmlichen Methoden verarbeitet und analysiert zu werden. Das Volumen, die Vielfalt und die Geschwindigkeit der Daten nehmen in einem noch nie dagewesenen Tempo zu, so dass es für Unternehmen unmöglich ist, sich auf altmodische Methoden wie manuelle Analysen und Excel-Tabellen zu verlassen. Um all diese Daten sinnvoll nutzen zu können, benötigen Unternehmen neue Tools und Technologien, die das Volumen und die Komplexität von Big Data bewältigen können.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 21.07.2022
    6 MB
    06:15
    Cover

    Data & Analytics lernen - Die Daten Blackbox im Controlling

    Beim Unternehmenscontrolling geht es darum, der Unternehmensleitung zeitnahe und genaue Informationen zur Verfügung zu stellen, damit sie fundierte Entscheidungen treffen und eine wirksame Kontrolle über ihre Tätigkeiten ausüben kann. Die Daten- und Analysefunktion spielt eine entscheidende Rolle im Unternehmenscontrolling, indem sie Daten sammelt, analysiert und präsentiert, die für strategische und finanzielle Entscheidungen verwendet werden. Das Daten- und Analyseteam innerhalb des Unternehmenscontrollings ist für das Sammeln, Speichern und Analysieren von Finanz- und Betriebsdaten zuständig. Das Team nutzt diese Daten, um Erkenntnisse zu gewinnen, die dem Management helfen, fundierte Entscheidungen zu treffen, wie das Unternehmen wachsen und die Rentabilität verbessert werden kann. Darüber hinaus arbeitet das Daten- und Analyseteam eng mit anderen Funktionen innerhalb des Unternehmens zusammen, z. B. mit der Buchhaltung und dem Finanzwesen, um sicherzustellen, dass alle von der Geschäftsführung verwendeten Informationen korrekt und aktuell sind.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 18.07.2022
    7 MB
    08:03
    Cover

    Data & Analytics lernen - Einblicke in Visual Analytics

    Visuelle Analyse ist der Prozess der Umwandlung von Daten in Informationen und Wissen durch den Einsatz von Bildern. Durch die Verwendung von Bildern, Diagrammen und anderen Formen der Visualisierung können Analysten Muster und Trends in ihren Daten leichter erkennen. Dadurch können sie Fragen zu ihren Daten stellen und beantworten, die sie sonst nicht stellen könnten. Die visuelle Analyse ist zu einem unverzichtbaren Werkzeug für Unternehmen und Organisationen jeder Größe geworden. Mit ihrer Hilfe lässt sich die Entscheidungsfindung verbessern, das Kundenverhalten verstehen, der Fortschritt bei der Erreichung von Zielen verfolgen und vieles mehr. Viele Experten sind sogar der Meinung, dass visuelle Analysen bald zum Standardbestandteil jedes Business Intelligence-Toolkits gehören werden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 18.07.2022
    3 MB
    03:13
    Cover

    Data & Analytics lernen - 6 zukunftsweisende Technologien, die das Internet der Dinge ermöglichen werden

    Das "Internet der Dinge" (IoT) ist ein Begriff, der das wachsende Netzwerk von physischen Objekten beschreibt, die mit dem Internet verbunden sind. Diese Objekte können von Haushaltsgeräten und Autos bis hin zu Industrieanlagen und medizinischen Geräten alles umfassen. Das IoT hat das Potenzial, die Art und Weise, wie wir leben und arbeiten, zu revolutionieren, indem es uns ermöglicht, physische Objekte mithilfe von intelligenten Geräten und Apps aus der Ferne zu steuern und zu überwachen. So könnten Sie zum Beispiel mit Ihrem Telefon das Licht in Ihrem Haus dimmen oder den Motor Ihres Autos von überall auf der Welt starten. Das Potenzial des IoT ist enorm, aber es gibt noch viele Herausforderungen, die überwunden werden müssen, bevor es sein volles Potenzial entfalten kann.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 18.07.2022
    3 MB
    03:08
    Cover

    Data & Analytics lernen - Was ist künstliche Intelligenz?

    KI ist eine Möglichkeit, ein Computersystem "intelligent" zu machen, d. h. es in die Lage zu versetzen, komplexe Aufgaben zu verstehen und komplexe Befehle auszuführen. Das Gebiet der KI gibt es schon seit Jahrzehnten, aber erst seit kurzem wird es aufgrund von Fortschritten bei der Rechenleistung und der Datenspeicherung in großem Umfang genutzt. Es gibt viele verschiedene Anwendungen für KI, von der Steuerung von Drohnen und Autos bis zur Diagnose von Krankheiten und der Übersetzung von Texten. Manche Menschen befürchten, dass KI eines Tages so leistungsfähig sein wird, dass sie den Menschen übertrumpfen kann, aber die meisten Experten halten dieses Szenario für unwahrscheinlich. Die meisten Experten halten dieses Szenario jedoch für unwahrscheinlich. Stattdessen glauben sie, dass KI uns eines Tages dabei helfen wird, einige der größten Probleme der Welt zu lösen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 18.07.2022
    3 MB
    03:11
    Cover

    Data & Analytics lernen - Zeitreihenanalyse: Lineare Systeme, nichtlineare Dynamik und Einbettung in Verzögerungskoordinaten

    Es gibt viele verschiedene Möglichkeiten, Zeitreihendaten zu analysieren. In diesem Blogbeitrag werden wir uns auf die drei gängigsten Ansätze konzentrieren: lineare Systeme, nichtlineare Dynamik und Einbettung in Verzögerungskoordinaten. Jede dieser Methoden hat ihre eigenen Stärken und Schwächen, so dass es wichtig ist, sie alle zu verstehen, bevor man sich für eine entscheidet, die man verwenden möchte. Wir werden auch einige der praktischen Anwendungen jedes Ansatzes erörtern.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.07.2022
    7 MB
    07:34
    Cover

    Data & Analytics lernen - Methode der Datenmodellierung

    Die Datenmodellierung ist der Prozess der Untersuchung und Beschreibung der Daten, die in einer bestimmten Anwendung verwendet werden sollen. Dazu gehört die Erstellung eines Datenmodells, das eine mathematische Darstellung der Daten ist. Das Datenmodell kann dann zur Entwicklung von Algorithmen oder Prozessen verwendet werden, die mit den Daten arbeiten.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.07.2022
    4 MB
    05:00
    Cover

    Data & Analytics lernen - Das Big Data Dilemma

    Zweifellos hat Big Data die Unternehmenslandschaft revolutioniert. Per Definition ist Big Data ein Begriff, der Datensätze umfasst, die so groß und komplex sind, dass sie mit herkömmlichen Methoden nur schwer zu verarbeiten sind. Solche Datensätze sind in der Regel durch ein hohes Volumen, eine hohe Geschwindigkeit und eine große Vielfalt gekennzeichnet und enthalten oft wertvolle Erkenntnisse, die für bessere Entscheidungen genutzt werden können. Die Informationsasymmetrie zwischen denjenigen, die Zugang zu Big Data haben, und denjenigen, die keinen Zugang haben, hat jedoch neue Herausforderungen geschaffen und eine neue Art von Problemen hervorgebracht: Einerseits haben Unternehmen, die Zugang zu Big Data haben, einen erheblichen Wettbewerbsvorteil gegenüber denen, die keinen Zugang haben. Andererseits werfen Big Data Bedenken hinsichtlich des Datenschutzes auf und werfen ethische Fragen zu ihrer Nutzung auf.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.07.2022
    8 MB
    08:50
    Cover

    Data & Analytics lernen - Was sind Deepfakes und wie kann ich mein eigenes Deepfake-Video erstellen?

    Deepfakes sind eine neue Art von KI-generierten gefälschten Inhalten. Deepfakes verwenden Deep-Learning-Algorithmen, um realistische gefälschte Videos und Bilder zu erzeugen. Deepfakes werden häufig zur Erstellung pornografischer Videos verwendet, können aber auch für andere Zwecke eingesetzt werden, z. B. zur Erstellung gefälschter Nachrichten oder zur Verbreitung von Desinformationen Mit der Verbesserung der Technologie der künstlichen Intelligenz werden Deepfakes immer häufiger und einfacher zu erstellen. Das Problem bei Deepfakes ist, dass sie nur sehr schwer von echtem Filmmaterial oder Bildern zu unterscheiden sind. Das bedeutet, dass Deepfakes dazu verwendet werden könnten, Menschen in die Irre zu führen oder falsche Informationen zu verbreiten---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.07.2022
    3 MB
    03:32
    Cover

    Data & Analytics lernen - Was sind stochastische Suchmethoden und wie können sie Ihnen helfen, bessere Lösungen finden?

    Stochastische Suchmethoden sind eine Familie von Algorithmen, die den Zufall nutzen, um den Suchprozess auf die optimale Lösung zu lenken. Dies macht sie besonders nützlich für Probleme mit vielen möglichen Lösungen oder für Probleme, bei denen es schwierig ist, im Voraus zu wissen, wie die optimale Lösung aussieht. Eine der gebräuchlichsten stochastischen Suchmethoden ist das so genannte simulierte Glühen (simulated annealing), bei dem ein System während der Suche nach einer Lösung schrittweise abgekühlt wird. Auf diese Weise wird verhindert, dass der Algorithmus in einem lokalen Minimum stecken bleibt, und er kann ein breiteres Spektrum an möglichen Lösungen erkunden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.07.2022
    3 MB
    03:11
    Cover

    Data & Analytics lernen - Warum Data & Analytics Projekte scheitern

    Es gibt viele Gründe für das Scheitern von Daten- und Analyseprojekten, aber zu den häufigsten gehören fehlende Governance, eine ungeeignete Technologieauswahl, Probleme mit der Datenqualität, unrealistische Erwartungen und eine mangelnde Abstimmung zwischen Unternehmen und IT. Mangelnde Governance ist eine der Hauptursachen für das Scheitern von Daten- und Analyseprojekten. Wenn es keine klaren Standards oder Protokolle für die Verwaltung von Daten- und Analyseprojekten gibt, entsteht oft ein Chaos. Dies kann zu Meinungsverschiedenheiten zwischen den Teammitgliedern über das weitere Vorgehen, zu verpassten Terminen, Budgetüberschreitungen und schließlich zu einem gescheiterten Projekt führen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.07.2022
    6 MB
    07:06
    Cover

    Data & Analytics lernen - Neuronale Netze: eine Einführung in eines der leistungsfähigsten Datenanalysetools

    Neuronale Netze sind eines der leistungsfähigsten Modelle des maschinellen Lernens, das komplexe Datensätze mit hoher Genauigkeit modellieren kann. In den letzten Jahren sind sie in einer Vielzahl von Bereichen wie der Bildklassifizierung, der Verarbeitung natürlicher Sprache und Empfehlungssystemen immer beliebter geworden. Für ihren Erfolg gibt es mehrere Gründe. Erstens basieren neuronale Netze auf den Grundlagen der linearen Algebra und der Infinitesimalrechnung, wodurch sie nichtlineare Beziehungen zwischen Eingaben und Ausgaben erlernen können. Zweitens benötigen neuronale Netze im Vergleich zu anderen Modellen des maschinellen Lernens relativ wenig Daten zum Trainieren und können leicht auf große Datensätze skaliert werden. Schließlich haben neuere Techniken wie Deep Learning die Leistung neuronaler Netze erheblich verbessert, da sie eine Möglichkeit bieten, automatisch Merkmale aus Daten zu lernen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.07.2022
    6 MB
    07:17
    Cover

    Data & Analytics lernen - Regelinduktion: Wie man Regeln aus Daten lernt

    Regelinduktion ist eine Methode des Lernens aus Daten, die darauf abzielt, eine Reihe von Regeln zu finden, die die zugrunde liegende Struktur der Daten beschreiben. Sie wird häufig in Anwendungen für maschinelles Lernen und Data Mining eingesetzt, wo sie dazu verwendet werden kann, automatisch Muster in Daten zu entdecken und diese Muster dann zu nutzen, um Vorhersagen über neue Daten zu treffen Die Regelinduktion ist eng mit den Entscheidungsbäumen verwandt: Viele Algorithmen zur Regelinduktion sind eigentlich Variationen von Algorithmen zum Lernen von Entscheidungsbäumen. Der Hauptunterschied zwischen Regelinduktion und Entscheidungsbäumen besteht darin, dass bei der Regelinduktion der endgültige Satz von Regeln in der Regel viel kleiner und leichter zu verstehen ist als ein entsprechender Entscheidungsbaum. Daher eignet sich die Regelinduktion besonders gut für Anwendungen, bei denen die Interpretierbarkeit wichtig ist, wie etwa in der Medizin oder im Finanzwesen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 15.07.2022
    4 MB
    04:54
    Cover

    Data & Analytics lernen - 8 Schritte zur Steigerung des Erfolgs von BI und Big Data Warehouse

    Es gibt keine allgemeingültige Antwort auf diese Frage, da der beste Weg zur Steigerung des Erfolgs von BI- und Big Data Warehouse-Initiativen von der spezifischen Situation und den Zielen des jeweiligen Unternehmens abhängt. Es gibt jedoch einige allgemeine Schritte, die unternommen werden können, um die Erfolgschancen für diese Art von Projekten zu verbessern---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 10.07.2022
    7 MB
    08:11
    Cover

    Data & Analytics lernen - Die 4 Elemente der Datenwissenschaft

    Als Data Scientist ist es unerlässlich, sich mit den vier Elementen der Datenwissenschaft gut auszukennen: kanonisches Geschäftsproblem, Systemanalyse, digitale Zwillinge und maschinelles Lernen.Ein kanonisches Geschäftsproblem ist eine bestimmte Art von Problem, das mit datenwissenschaftlichen Techniken gelöst werden kann. Ein gängiges kanonisches Geschäftsproblem ist zum Beispiel die Vorhersage der Kundenabwanderung. Bei der Systemanalyse werden Daten analysiert, um zu verstehen, wie ein System funktioniert, und um mögliche Verbesserungen zu ermitteln. Sie könnten die Systemanalyse zum Beispiel verwenden, um zu verstehen, warum Ihre Website zu bestimmten Tageszeiten nur langsam besucht wird. Digitale Zwillinge sind digitale Nachbildungen von physischen Objekten oder Systemen. Sie können verwendet werden um reale Bedingungen zu simulieren, um neue Designs zu testen oder vorherzusagen, wie ein System auf bestimmte Änderungen reagieren wird. Maschinelles Lernen ist eine Art der künstlichen Intelligenz, die es Computern ermöglicht, aus Daten zu lernen, ohne explizit programmiert zu werden. Maschinelles Lernen wird für Aufgaben wie Bilderkennung und Betrugserkennung eingesetzt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 09.07.2022
    4 MB
    04:36
    Cover

    Data & Analytics lernen - Support Vector Machines

    Support-Vektor-Maschinen sind ein leistungsfähiges Werkzeug für überwachtes Lernen und wurden erfolgreich auf eine Vielzahl von Problemen im maschinellen Lernen angewendet. In dieser Antwort gebe ich einen kurzen Überblick über Support-Vektor-Maschinen und diskutiere dann einige der Vor- und Nachteile ihrer Verwendung. Wie der Name schon sagt, basieren Support-Vektor-Maschinen auf der Suche nach der optimalen Hyperebene, die einen Satz von Datenpunkten trennt. Intuitiv gesehen ist diese Hyperebene diejenige, die den Abstand zwischen den einzelnen Punkten maximiert - mit anderen Worten, sie maximiert die Trennung zwischen den Klassen. Die Suche nach dieser Hyperebene kann als Optimierungsproblem formuliert werden, das mit speziellen Algorithmen (z. B. quadratische Programmierung) gelöst werden kann.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 09.07.2022
    6 MB
    06:48
    Cover

    Data & Analytics lernen - Statistische Konzepte und Methoden

    Es gibt einige verschiedene Arten von statistischen Methoden, die verwendet werden, um die Beziehungen zwischen Variablen zu verstehen. Die gebräuchlichste statistische Methode ist der Pearson-Korrelationskoeffizient, der zur Messung der linearen Beziehung zwischen zwei kontinuierlichen Variablen verwendet wird. Es gibt jedoch auch andere statistische Methoden, die zur Analyse von Beziehungen zwischen Variablen verwendet werden können, wie z. B. die Chi-Quadrat-Statistik und der ANOVA F-Test. Jede Art von statistischer Methode hat ihre eigenen Stärken und Schwächen, daher ist es wichtig, die richtige Art von statistischer Methode für jeden einzelnen Datensatz zu wählen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 09.07.2022
    4 MB
    05:07
    Cover

    Data & Analytics lernen - Fuzzy-Logik: Einführung, Grundlagen und Anwendungen

    Die Fuzzy-Logik ist ein Zweig der Mathematik und Informatik, der sich mit Systemen befasst, die nicht genau definiert sind. Mit anderen Worten, die Fuzzy-Logik lässt Wahrheitsgrade zu, anstatt nur Ja- oder Nein-Antworten zu geben. Dadurch eignet sie sich gut für die Lösung von Problemen in der realen Welt, in der die Dinge selten schwarz oder weiß sind. Eine häufige Anwendung der Fuzzy-Logik ist die Steuerung von Maschinen. Zum Beispiel kann einer Maschine ein Temperaturbereich vorgegeben werden, in dem sie sich bewegen soll, anstatt nur eine bestimmte Temperatur zu haben. Dadurch kann sich die Maschine besser an verschiedene Umgebungen anpassen und die Wahrscheinlichkeit eines Ausfalls wird verringert. Fuzzy-Logik kann auch in Bereichen wie Marketing, Finanzen und Technik eingesetzt werden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 08.07.2022
    3 MB
    03:16
    Cover

    Data & Analytics lernen - Azure für KI und maschinelles Lernen Was es bietet und wie man einsteigt

    Azure Machine Learning ist ein Cloud-Service, mit dem Sie Modelle für maschinelles Lernen erstellen, bereitstellen und verwalten können. Sie können den Abschnitt "Modelle" von Azure Machine Learning Studio verwenden, um schnell ein maschinelles Lernmodell aus Ihren Daten zu erstellen. Sobald Ihr Modell erstellt ist, können Sie es als Webdienst in der Cloud bereitstellen, damit andere Anwendungen darauf zugreifen können. Und Sie können den Abschnitt "Monitoring" von Azure Machine Learning Studio verwenden, um den Zustand und die Leistung Ihrer bereitgestellten Webdienste zu überwachen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 20.06.2022
    6 MB
    06:40
    Cover

    Data & Analytics lernen - Data Steward als Erfolgsfaktor

    Ein Datenverantwortlicher ist aus zwei Gründen ein Erfolgsfaktor. Erstens stellt ein Datenverwalter sicher, dass die Daten korrekt und zuverlässig sind. Dies ist entscheidend für Unternehmen, die sich auf Daten verlassen, um fundierte Entscheidungen zu treffen. Zweitens trägt ein Datenverwalter dazu bei, dass jeder im Unternehmen den Wert der Daten versteht und weiß, wie sie zur Verbesserung der Entscheidungsfindung genutzt werden können. Indem er das Verständnis für Daten innerhalb der Organisation fördert, trägt er dazu bei, dass jeder die Daten so effektiv wie möglich nutzt.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.06.2022
    9 MB
    10:08
    Cover

    Data & Analytics lernen - Datenpipelines und Datendateien

    Es gibt eine Vielzahl von Datenpipelines. Einige sind sehr einfach und verschieben lediglich Daten von einem Ort zum anderen. Andere sind komplexer und umfassen mehrere Schritte und Prozesse. Wieder andere sind für bestimmte Aufgaben wie ETL (Extrahieren, Transformieren, Laden) oder Data Warehousing konzipiert. Welche Art von Datenpipeline Sie benötigen, hängt von Ihren spezifischen Anforderungen und Ihrer Situation ab. Wenn Sie nur kleine Datenmengen verschieben, reicht vielleicht eine einfache Pipeline aus. Wenn Sie jedoch große Datenmengen verarbeiten müssen, benötigen Sie eine robustere Lösung.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 30.05.2022
    5 MB
    05:37
    Cover

    Data & Analytics lernen - Data Culture

    Eine starke Datenkultur beginnt mit dem Engagement des Topmanagements. Daten sollten als strategische Ressource genutzt werden, um fundierte Entscheidungen zu treffen. Mitarbeiter auf allen Ebenen müssen in der Lage sein, auf Daten zuzugreifen und sie effektiv zu nutzen. Es müssen auch Prozesse und Tools vorhanden sein, die es den Mitarbeitern leicht machen, Daten zu sammeln, zu analysieren und zu nutzen. Durch eine starke Datenkultur können Unternehmen bessere Entscheidungen treffen, die Effizienz steigern und die Leistung optimieren.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 27.05.2022
    5 MB
    05:29
    Cover

    Data & Analytics lernen - Microservices Event-Broker und Message-Broker

    Die Begriffe "Event-Broker" und "Message-Broker" werden oft durcheinander gebracht Beide sind sich insofern ähnlich, als sie die Kommunikation zwischen Systemen erleichtern, aber es gibt wichtige Unterschiede, die man verstehen sollte. Ein Event Broker basiert auf dem Publish/Subscribe-Modell. Das bedeutet, dass ein System (der Herausgeber) Ereignisse produziert und ein anderes System (der Abonnent) sie konsumiert. Der Vorteil dieses Ansatzes ist, dass Verleger und Abonnent entkoppelt sind, d. h. sie können unabhängig voneinander entwickelt werden und müssen nichts voneinander wissen. Ein Message Broker erleichtert ebenfalls die Kommunikation zwischen Systemen, verwendet aber einen anderen Ansatz, der als Point-to-Point bekannt ist. In diesem Modell hat jedes System eine Warteschlange, in der Nachrichten hinterlegt. Der Message Broker leitet dann die Nachrichten von einer Warteschlange zur nächsten weiter, bis sie ihr endgültiges Ziel erreichen. Der Vorteil dieses Ansatzes ist, dass Nachrichten an mehrere Systeme weitergeleitet werden können, nicht nur eins-zu-eins wie beim Publish/Subscribe-Modell.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 24.05.2022
    8 MB
    09:10
    Cover

    Data & Analytics lernen - Automatische Textanalyse durch Methoden der künstlichen Intelligenz

    Die statische Textanalyse durch Methoden der künstlichen Intelligenz ist definitiv eine Möglichkeit! Viele sind jedoch der Meinung, dass diese Methoden nicht in der Lage sind, den Kontext des Textes zu berücksichtigen und somit kein optimales Ergebnis liefern könnten. Außerdem argumentieren einige, dass die Anwendung dieser Methoden vielen Menschen die Freude am Lesen nehmen würde. Ich habe zwar Verständnis für diese Argumente, bin aber auch der Meinung, dass der technische Fortschritt nicht durch unsere persönlichen Vorlieben eingeschränkt werden sollte. Schließlich haben wir Computer nicht zuletzt deshalb, um uns Menschen die Arbeit zu erleichtern! Wenn wir eine Maschine schaffen können, die etwas genauso gut (oder sogar besser) kann als wir, warum sollten wir sie dann nicht lassen?---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 23.05.2022
    7 MB
    07:45
    Cover

    Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache (Einstieg in die Verarbeitung natürlicher Sprache_ NLP, NLU, und NLG)

    Die Verarbeitung natürlicher Sprache (NLP) bezieht sich auf die Fähigkeit von Computern, mit Menschen in natürlicher Sprache zu interagieren. NLP umfasst ein breites Spektrum an Fähigkeiten, darunter maschinelle Übersetzung, Spracherkennung und -synthese sowie Text Mining. Innerhalb des NLP gibt es drei große Teilbereiche: Natural Language Understanding (NLU), Natural Language Generation (NLG) und Natural Language Interaction (NLI). Bei NLU geht es darum, die Bedeutung der Eingaben eines Benutzers zu verstehen, bei NLG geht es darum, auf der Grundlage dieser Eingaben angemessene Antworten zu generieren, und NLI bezieht sich auf die Fähigkeit, ein Gespräch mit einem Benutzer zu führen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 20.05.2022
    8 MB
    09:07
    Cover

    Data & Analytics lernen - Business Development & Big Data

    Es ist unbestreitbar, dass Big Data einen großen Einfluss auf Unternehmen aller Branchen hat. Aber was genau ist Geschäftsentwicklung, und wie können Big Data genutzt werden, um in diesem Bereich erfolgreich zu sein? Einfach ausgedrückt, geht es bei der Geschäftsentwicklung darum, neue Chancen zu erkennen und zu verfolgen, um das Wachstum zu fördern. Dies kann von der Erkundung neuer Märkte und Kundensegmente bis hin zur Einführung neuer Produkte oder Dienstleistungen reichen. Auch wenn die Einzelheiten von Unternehmen zu Unternehmen unterschiedlich sind, gibt es doch einige gemeinsame Themen und bewährte Verfahren, die alle Unternehmen im Auge behalten sollten, wenn sie die Vorteile der Big-Data-Revolution nutzen wollen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 17.05.2022
    9 MB
    10:05
    Cover

    Data & Analytics lernen - Data Understanding beim maschinellen Lernen

    Das Verständnis der Daten ist der Schlüssel zum maschinellen Lernen. Sie müssen sicherstellen, dass Sie den richtigen Datensatz haben, ihn richtig vorverarbeiten und ihn bereinigen, damit die Algorithmen daraus lernen können. Andernfalls vergeuden Sie nur Ihre Zeit. Nehmen Sie sich also die Zeit, Ihre Daten zu verstehen, bevor Sie mit Algorithmen für maschinelles Lernen beginnen. Vergewissern Sie sich, dass Sie wissen, was die Daten darstellen und wie Sie sie für das Training Ihrer Modelle richtig formatieren. Andernfalls werden Sie am Ende ungenaue Ergebnisse erhalten und viel Zeit und Mühe vergeuden.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 16.05.2022
    8 MB
    08:41
    Cover

    Data & Analytics lernen - Predictive Analytics

    Predictive Analytics ist ein Teilbereich des Data Mining, der Statistiken und maschinelles Lernen nutzt, um Vorhersagen über zukünftige Ereignisse zu treffen. Damit kann man alles vorhersagen, von der Frage, welche Produkte ein Kunde wahrscheinlich kaufen wird, bis hin zur Frage, ob ein Patient eine bestimmte Krankheit entwickeln wird oder nicht. Das Schöne an der prädiktiven Analytik ist, dass sie Vorhersagen für jede Art von Ereignis treffen kann, egal wie selten oder unwahrscheinlich es auch sein mag. Dies macht sie zu einem äußerst leistungsfähigen Instrument für Unternehmen und Organisationen, die das Risiko finanzieller Verluste verringern wollen, oder für Gesundheitsdienstleister, die die Qualität der Patientenversorgung verbessern wollen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 14.05.2022
    3 MB
    03:51
    Cover

    Data & Analytics lernen - Einstieg in Azure-Quatencomputing

    Azure Quantum Computing ist ein Cloud-basierter Quantencomputing-Dienst, der den Nutzern die Möglichkeit bietet, Quantenalgorithmen und -experimente auszuführen und auf verschiedene Quanten-Hardware-Architekturen zuzugreifen. Es gibt verschiedene Möglichkeiten, mit Azure Quantum Computing zu beginnen, je nach Erfahrungsstand und Fachwissen. Wenn Sie gerade erst mit dem Quantencomputing beginnen, ist der beste Weg, das Azure Quantum Development Kit zu verwenden. Das Kit enthält einen Quantencomputer-Simulator, mit dem Sie Quantenalgorithmen auf einem klassischen Computer ausführen können. Dies ist eine großartige Möglichkeit für den Einstieg, da keine spezielle Hardware oder Kenntnisse der Quantenphysik erforderlich sind.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.05.2022
    3 MB
    03:29
    Cover

    Data & Analytics lernen - Snowflake Snowpipes

    Was kann Snowflake Snowpipes---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 13.05.2022
    4 MB
    04:13
    Cover

    Data & Analytics lernen - Big Data in der Cloud

    Amazon Web Services, Microsoft Azure und Google Cloud Platform sind die drei führenden Anbieter von öffentlichen Cloud-Diensten. Sie alle bieten eine breite Palette von Diensten an, darunter Rechen-, Speicher-, Datenbank-, Netzwerk-, Analyse- und Anwendungsdienste. Jeder Anbieter hat seine eigenen Stärken und Schwächen. AWS ist der Marktführer und bietet das breiteste Spektrum an Diensten. Azure liegt beim Marktanteil an zweiter Stelle und ist besonders stark bei Unternehmensanwendungen und Big Data. Google Cloud Platform liegt beim Marktanteil an dritter Stelle, bietet aber einige einzigartige Funktionen wie die Plattform für maschinelles Lernen TensorFlow. Die Wahl des richtigen Anbieters kann schwierig sein. Der beste Weg, eine Entscheidung zu treffen, besteht darin, Ihre Bedürfnisse zu ermitteln und dann die Angebote der Anbieter mit diesen Bedürfnissen zu vergleichen.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr
  • 11.05.2022
    8 MB
    08:16
    Cover

    Data & Analytics lernen - Cloud Computing Grundlagen

    Cloud Computing kann definiert werden als die Bereitstellung von Rechendiensten - einschließlich Servern, Speicherplatz, Datenbanken, Netzwerken, Software, Analysen und Intelligenz - über das Internet ("die Wolke"), um schnellere Innovationen, flexible Ressourcen und Größenvorteile zu bieten. Einst eine aufstrebende Technologie oder Geschäftspraxis, hat sich Cloud Computing inzwischen durchgesetzt: 90 % der Unternehmen nutzen mindestens einen öffentlichen Cloud-Service. Und diese Zahl wird voraussichtlich noch steigen: Gartner prognostiziert, dass bis zum Jahr 2020 eine "No-Cloud"-Politik in Unternehmen so selten sein wird wie heute eine "No-Internet"-Politik.---Send in a voice message: https://anchor.fm/data-analytics-podcast/message

    ...mehr