Episodes

  • [Anzeige] Der EU AI Act erklärt: Vorteile, Nachteile, Risikogruppen und Anforderungen | Mit Sirke Reimann
    Oct 11 2024

    Was müssen Unternehmen in Zukunft beachten beim EU AI Act? Ein Thema, das vielen Unternehmen gerade unter den Nägeln brennt und deswegen verdient es auch eine ganze Podcastfolge von Datendurst. Host Tim Ebner hat diesmal Sirke Reimann von VIER zu Gast, einer Kundenservice Software aus Deutschland, die Lösung mit Künstlicher Intelligenz verbindet. Anwendungsbeispiele sind die Zählerstandablesung bei Energieunternehmen, wobei dr Prozess dann vollautomatisch am Telefon durchgeführt wird oder auch das Briefing von Service-Agenten durch die Künstliche Intelligenz.

    Sirke ist Chief Information Security Officer und damit bei VIER zuständig für Informationssicherheit, Datenschutz und Compliance.

    Wer mehr über das Thema KI und EU AI Act erfahren möchte, kann jeden Freitag bei VIER TV reinschauen.

    Die beiden Experten tauchen gleich tief ins Thema ein:

    Schon 2019 hat die EU damit begonnen, eine KI-Verordnung zu erstellen, das Ergebnis ist der EU AI Act, der im März 2024 verabschiedet wurde und bis 2026 von allen Unternehmen umgesetzt sein soll.

    Das Ziel des EU AI Acts ist es, die Bevölkerung vor unethischen Entscheidungen der KI zu schützen, beispielsweise vor Schaden oder der Verletzung der Menschenwürde.

    So gut das klingt – es bringt jede Menge Bürokratie mit sich!

    Den EU AI Act erfüllen müssen einige Parteien: Anbieter, die KI-Systeme unter ihrem Namen auf den Markt bringen (dabei ist noch unklar, ob es Dienstleister oder Kunden sind), Importeure von KI-Systemen, Händler und teilweise auch die User der Systeme.

    Dabei gibt es 4 Risikogruppen, denen verschiedene Anforderungen gestellt werden:

    - Keine oder minimale Risiken

    Das sind Systeme, die keinen Einfluss auf das Leben haben, beispielsweise KI in Spamfiltern oder Spielen. Hier gibt es freiwillige, aber nicht verpflichtende Anforderungen.

    - Begrenzte Risiken

    Hierzu gehören LLMs und generierende Systeme, das Ziel ist hierbei, eine Transparenz herzustellen, sodass User erkennen, welche Elemente mit KI generiert wurden.

    - Hohe Risiken

    Diese Systeme haben das Potential, Menschen einen Schaden zuzufügen, beispielsweise im Personalwesen, in Bildungseinrichtungen, bei finanziellen Leistungen und auch im Strafvollzug. Hier gehen die Anforderungen über Risikomanagement und Qualitätsmanagement hinaus, eine Rückverfolgbarkeit der Entscheidungen muss möglich sein sowie eine Resistenz gegen Manipulation.

    - Inakzeptable Risiken

    Hierzu gehören KI-Systeme, die gegen die Menschenwürde verstoßen, beispielsweise durch Social Scoring oder Identifizierungssysteme.

    Der Wert des EU AI Acts liegt darin, dass niemand durch KI-Systeme nachteilig behandelt werden soll und somit auch das Vertrauen in KI steigen kann. Als Bevölkerung werden wir geschützt. Gleichzeitig gibt es zurzeit noch viele Unsicherheiten in der Formulierung, der Definition von KI-Systemen und es werden sich Geschäftsfelder aus der EU wegentwickeln müssen. Dafür müssen Prozesse und Strukturen geschaffen werden, der Aufwand ist noch nicht abschätzbar.

    Zum Schluss geht es in der Folge noch darum, wie der EU AI Act den Technologiemarkt verändern wird.

    Zur Website von VIER: https://www.vier.ai

    Zum Blog über den EU AI Act von VIER:

    https://www.vier.ai/unternehmen/blog/eu-ai-act-teil1/

    https://www.vier.ai/unternehmen/blog/eu-ai-act-teil2/

    VIER TV zum EU AI Act:

    Show more Show less
    53 mins
  • DATENSCHUTZ als WETTBEWERBSVORTEIL – Wie Du die DSGVO besser umsetzt | Mit Mona Wrobel
    Sep 27 2024

    Ist Datenschutz ein Qualitätsmerkmal? Kann ich haftbar gemacht werden, wenn ich eine Datenpanne in einem Unternehmen verursache? Haben Daten wirklich so viel mit Macht zu tun?

    Darum geht es in der neuen Folge von Datendurst. Host Tim Ebner interviewt Mona Wrobel, Anwältin im Bereich Datenschutz und IT-Recht und zusätzlich Legal Counsel bei TeamViewer. Übrigens ist auch sie Podcasterin beim eigenen Podcast „Data Date“.

    Doch wie kann man so fasziniert von Datenschutz sein? Mona findet das Thema nicht so komplett festgefahren wie andere Rechtsgebiete. Es ist sehr vielfältig und besonders die aktuelle KI-Entwicklung sorgt für spannende Neuerungen.

    In der Folge liegt der Fokus darauf, warum Datenschutz ein Qualitätsmerkmal ist. Eigentlich schon, denn das Ziel von Unternehmen ist es, dass User uns auch morgen noch Daten geben, die wir analysieren können. Hierfür muss Vertrauen aufgebaut und gehalten werden.

    In Europa wird dies von Verbrauchern erwartet und ist gleichzeitig ein Wettbewerbsvorteil. Doch wie sieht das Ganze eigentlich international aus?

    In Europa gibt es seit 6 Jahren die DSGVO, aber schon seit 30 Jahren werden in Europa flächendeckende Entscheidungen zum Datenschutz getroffen.

    Nach der Einführung der DSGVO haben auch andere Länder „nachgezogen“ und orientieren sich an den europäischen Regeln. Allerdings ist die Erwartungshaltung und das Verständnis der Bevölkerung in anderen Ländern oft viel freier.

    Die DSGVO sieht übrigens auch vor, dass Unternehmen Zertifikate für ihren Datenschutz bekommen können, allerdings ist dies auf dem Markt noch nicht umgesetzt.

    Datenschutz ist ganz klar kein Sprint, sondern ein Marathon, der Zeit, Geld und auch menschliche Ressourcen benötigt. Zum Start kann man sich auf den Seiten der Datenschutzbehörden umschauen und findet dort viele Vorlagen und Beispiele, die eine gute Guidance geben. Sobald die Datenverarbeitungsprozesse über den Standard hinaus gehen, benötigt man allerdings weitere Unterstützung.

    Und was passiert, wenn man die Datenschutzanforderungen nicht erfüllt? Wie sieht es mit der privaten Haftung einzelner Mitarbeitenden aus? Wie kann das Unternehmen seine Mitarbeiter davor schützen?

    Es hilft, wenn man sich organisatorisch so aufstellt, dass die Mitarbeitenden wissen, wie sie sich zu verhalten haben. Wenn dann doch ein Datenschutzvorfall geschieht, muss klargestellt werden können, dass alles bis ins Detail geregelt wurde und ein menschlicher Fehler passiert ist. Das kann das Unternehmen zunächst von der Haftung befreien. Mitarbeitende werden eigentlich nur belangt, wenn sie mit bösen Absichten gehandelt haben. Hier reichen die Strafen vom Verlust des Arbeitsplatzes bis hin zu strafrechtlichen Konsequenzen.

    Für Unternehmen ist eine Prüfung sehr langwierig und anstrengend. Zunächst wird ein Prüfungs-Verfahren eingeleitet, dann werden Auflagen erteilt und dann gegebenenfalls Bußgelder verhängt. Die schlechte Presse folgt zuletzt. Ziel solch eines Verfahrens ist es jedoch immer, eine Lösung zu finden, damit Datenpannen nicht mehr vorkommen.

    Mona und Tim geben zum Schluss noch folgende Tipps mit:

    - So früh wie möglich versuchen, ein gemeinsames Verständnis über die Datenverarbeitungen zu schaffen

    - Datenschützer früh mit einzubeziehen

    - Geduld haben: Guten Datenschutz erreicht man nicht über Nacht!

    - Berührungsängste auf beiden Seiten abbauen: Sowohl im Datenschutz als auch im Business

    Zum LinkedIn-Profil von Mona: https://www.linkedin.com/in/mona-wrobel-8a5587177/

    Mona als Anwältin: https://eastkap.de/

    Mona’s Podcast Data Date: https://datadate.podigee.io/

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/




    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    47 mins
  • UNF#CK your DATA QUALITY | So werden Deine Daten besser | Mit Christian Krug
    Sep 13 2024

    Warum ist Datenqualität so wichtig? In welchen Abteilungen ist sie gut und wo ist sie schlecht? Was bedeutet Datenqualität überhaupt?

    Darum geht es in der neuen Folge von Datendurst. Host Tim Ebner hat diesmal Christian Krug vom Podcast Unf*ck Your Data zu Gast. Auch wenn man mit dem Namen oft im Spam-Filter hängenbleibt, ist es Christian wichtig, Dinge zu „unf*cken“.

    Neben seinem Podcast arbeitet er bei Frauscher Sensortechnik als Global Data Architect und baut dort eine zentrale Datenplattform und damit einhergehend auch ein Data Team auf. Dazu gehört auch, digitale Produkte aufzubauen und dabei interne und externe Daten zusammenzubringen. Frauscher stellt Radsensoren her, die - ganz einfach erklärt – dafür sorgen, dass Züge nicht ineinander fahren.

    Christian‘s Credo: Unternehmen müssen sich mehr mit Datenqualität beschäftigen!

    Denn Datenqualität ist wichtig, wenn Du Entscheidungen auf Basis von Daten treffen möchtest. Dafür macht Christian auch eine einfache Analogie zum Kauf eines Autos. Möchte man verschiedene Autos vergleichen, braucht man Daten, zum Beispiel Kaufpreise. Aber auch beim Hype-Thema KI ist Datenqualität wichtig, denn wenn die KI mit schlechten oder fehlerhaften Daten gefüttert wird, dann sind die Ergebnisse davon schlecht.

    Christian und Tim sind sich einig: Manchmal sind schlechte Daten aber auch besser als gar keine Daten. Denn wenn Du nicht mit schlechten Daten anfängst, wirst Du nie gute Daten haben.

    Doch was ist eigentlich Datenqualität?

    In Christian’s Augen bedeutet es, dass Daten, die für eine Entscheidung benötigt werden, in der richtigen Aktualität auswertbar vorliegen. Mängel können dabei Unvollständigkeit, das Format, falsche Daten, nicht integrierte oder veraltete Daten sein.

    Dabei ist die Datenqualität oft dann gut, wenn viel Aufmerksamkeit auf dem zugrundeliegenden Thema liegt und Druck von außen da ist. Beispiele dafür sind Finance- und bald auch ESG (Environmental, social, governance), also Nachhaltigkeit. Auch in bestimmten Branchen, wie z.B. dem Pharma- oder dem Versicherungs- und Banken-Bereich, in denen viele Kontrollen stattfinden, sind die Daten oft auch sehr gut.

    Schlecht wird die Datenqualität dann, wenn eben nicht darauf geguckt wird, es keine Reportings gibt und nicht kontrolliert wird. Christian erklärt, dass das vor allem im HR oft ein Problem ist. Dabei können wir es uns eigentlich nicht mehr erlauben, in der HR-Abteilung mit schlechten Daten zu arbeiten.

    Die Qualität in den Abteilungen kann man durch Incentives und die Untersützung vom Top-Management verbessern. Hier hilft es, einfach mal einen Tag „mitzugehen“ und dabei herauszufinden, welche Daten und Reportings nötig sind, um den Mitarbeitenden das Leben zu vereinfachen.

    Christian’s Tipp: Der erste Schritt für die Erhöhung der Datenqualität ist, herauszufinden, wo es klemmt.

    Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/

    Zum Podcast von Christian: https://linktr.ee/christian_krug

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/



    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    47 mins
  • UnternehmensGPT – Wofür braucht man das? | Mit Sarah Stemmler
    Aug 30 2024

    Was ist eigentlich ein GPT? Was unterscheidet eine KI von einem GPT? Wie baut man ein GPT auf und welche Technologien gibt es dafür? Was hat das Ganze mit Datenqualität zu tun? Und was kann man mit einem UnternehmensGPT machen?

    Darüber spricht Host Tim Ebner in der neuen Folge von Datendurst mit Sarah Stemmler. Die kennen wir schon aus der letzten Folge Datendurst, in der es um’s Gründen ging. Denn Sarah hat sich gemeinsam mit ihrem Partner Sebastian selbstständig gemacht und das KI-Start up Synsugar gegründet, mit dem sie Unternehmen helfen, betriebliche Abläufe mit KI zu optimieren und die Produktivität zu steigern. Und dazu gehört mittlerweile auch, UnternehmensGPTs zu entwickeln.

    Doch was ist ein GPT überhaupt? Seit der Veröffentlichung von ChatGPT wurde der KI-Hype losgetreten. Dabei gibt es das Thema schon seit den 50ern und viele Unternehmen setzen es schon jahrelang ein.

    GPT steht dabei für eine spezielle Technologie, die das Unternehmen OpenAI (die Gründer von ChatGPT) entwickelt hat. Die Abkürzung steht für Generative Pretrained Transformers.

    Ein GPT ist somit eine spezielle Art von KI, wozu ja auch Predictive Maintenance und ähnliche Dinge gehören. Der Klassiker ist: Text-Input und Text-Output. Die gleiche Architektur funktioniert auch bei Bildern: Text-Input und Bild-Output. Außerdem kann ein GPT auch Code generieren und mittlerweile gibt es Forschungen zum Einsatz in Wettermodellen.

    Doch was unterscheidet nun ein GPT von einem UnternehmensGPT?

    Im Grunde heißt das, dass Unternehmen für ihre eigenen Anwendungsfälle ein GPT entwickeln. Dieses ist dann verknüpft mit den eigenen Daten bzw. der internen Wissensdatenbank. Sarah erzählt zum Beispiel von dm, wo dies mit der Tochter dm Tech umgesetzt wurde.

    Doch warum nicht einfach ChatGPT mit den eigenen Daten füttern?

    Hier kommen der Datenschutz und IT-Security dazwischen. Denn hochsensible Daten möchte man nicht mit ChatGPT in Verbindung bringen, zudem kann man bei dieser Lösung Daten nur sehr gezielt hochladen.

    Eine eigene GPT-Variante löst diese Probleme. Dabei bedient man sich an den Sprachmodellen vom Markt und verbindet sie mit eigenen Daten.

    Das ist zudem auch eine viel kostengünstigere Lösung, denn das Training eines komplett neu entwickelten Systems kostet mehrere 100 Millionen.

    Sarah gibt noch ein paar Tipps zum Start mit einem eigenen GPT. Wichtig ist hierbei, sich zuerst Gedanken über die eigenen Use Cases zu machen. Dazu gehört auch die Datenvorbereitung, denn viele Unternehmen haben keine Single Source of Truth, die man hierfür benötigt.

    Außerdem wichtig: Informiert Euch über den EU AI-Act, wenn Ihr ein eigenes GPT umsetzen wollt!

    Zum LinkedIn-Profil von Sarah: https://www.linkedin.com/in/sarah-stemmler/

    Zur Website von Synsugar: https://synsugar.com

    Über das BayernGPT: https://synsugar.com/blog/freistaat-bayern-plant-bayerngpt

    Über das Unternehmens-GPT von dm: https://open.spotify.com/episode/2fSn7aAwykXafucpwRAlNR?si=f46a586d1c1d45ce

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/

    [Anzeige] Datendurst-Stellenmarkt

    Offene Stelle: Team Lead Social Media Analytics

    Unternehmen: We Are Era

    Aufgaben: Leitung und Entwicklung eines Teams, das Social Media Daten überwacht, analysiert und interpretiert; Markt- und Wettbewerbsanalysen, Trackinganalysen und Dashboards erstellen, Influencer Markt im Auge behalten, Analysetools einführen und nutzen

    Über das Unternehmen: Studio- und Talent-Agency mit Standorten in Amsterdam, Berin, Köln, Kopenhagen, Paris, Madrid, Mailand und Stockholm

    Arbeitsort: Hybrid

    [Anzeige] Link zur Stellenanzeige: https://jobsearch.createyourowncareer.com/weareera/job/Berlin-Team-Lead-Social-Media-Analytics-BE-10777/1104577901/?utm_medium=podcast&utm_source=datendurst



    This podcast uses the following third-party services for analysis:

    OP3 -...
    Show more Show less
    1 hr
  • Selbstständigkeit im Data- und KI-Bereich | Mit Sarah Stemmler
    Aug 15 2024

    Wie verändert sich der Alltag durch die Selbstständigkeit? Welche Sorgen macht man sich (begründet oder unbegründet) vorher? Welche Vorteile hat die Selbstständigkeit und wie kommt man mit den Gedanken dazu klar, dass man damit vielleicht nicht den Kühlschrank füllen kann? Wieso ist Positionierung eine never-ending Story?

    Darüber spricht Host Tim Ebner in der neuen Folge von Datendurst mit Sarah Stemmler.

    Sarah hat 4 Jahre im Angestellten-Verhältnis gearbeitet und sich dann selbstständig gemacht – nun auch 4 Jahre. Doch wie ist sie überhaupt zu der Selbstständigkeit gekommen?

    Sarah kommt aus einer Gründerfamilie und fand Unternehmertum immer schon spannend. Auch ihr Lebenspartner Sebastian ist selbstständig und langsam aber sicher kam Sarah auf den Geschmack. Ihre Gründung kam allerdings zu einem schlechten Zeitpunkt: Kurz vor Covid und dem Lockdown. Das war für Sarah ein holpriger Start, sie fühlte sich gefangen und zunächst mit Selbstmitleid erfüllt, nahm dann aber die Möglichkeit wahr, sich intensiver mit der Selbstständigkeit zu beschäftigen.

    Dazu gehörte auch das digitale Vertriebsmarketing, was sie vorher nicht viel genutzt hatte. Doch Personal Branding ist viel wert und die Wirkung davon nicht zu unterschätzen.

    Innerlich setzte sie sich die Grenze von einem Jahr und merkte dann: Das hat funktioniert! Sie wollte weitermachen, nicht wieder zurück in die Festanstellung. Und sie merkte, dass sie durch die Selbstständigkeit auch viel spannendere Themen und Projekte um sich herum hatte.

    Nach 2 Jahren gründete sie dann gemeinsam mit ihrem Lebenspartner – eine Sache, die viele Menschen nicht unbedingt tun würden! Doch viele Gespräche und auch der Wunsch danach, nicht mehr als Einzelkämpfer unterwegs zu sein, sorgten dann für ein positives Bild.

    Nun hat Sarah einen Sparringspartner und teilt sowohl die Freiheit als auch die Verantwortung gemeinsam mit Sebastian im Unternehmen synsugar, mit dem sie Unternehmen hilft, betriebliche Abläufe mit KI zu optimieren und die Produktivität im Unternehmen zu steigern.

    Doch wie positioniert man sich als Freelancer oder auch Unternehmen?

    Für Sarah ist es wichtig, zunächst einmal herauszufinden, was man selbst möchte. Denn wenn es keine klare Positionierung gibt, dann erhält man immer wieder Anfragen, die extrem divers sind und damit auch viel Zeit fressen.

    Ihr Tipp ist es, optimistisch zu sein, denn wer sollte schon von einem Pessimisten kaufen wollen?

    Zum LinkedIn-Profil von Sarah: https://www.linkedin.com/in/sarah-stemmler/

    Zur Website von Synsugar: https://synsugar.com

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/




    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    57 mins
  • Was ist das Besondere an Google Analytics 4? | Mit Vikash Sharma
    Aug 1 2024

    Was sind die Grundpfeiler für GA4-Tracking? Und was ist eigentlich so besonders an Google Analytics 4, das Universal Analytics abgelöst hat?

    Darum geht es in der neuen Folge von Datendurst! Tim Ebner, der Host der Show, spricht mit Vikash Sharma, einem strukturierten Digital Analyst mit dem Fokus auf GA4. Vikash hat früh Erfahrung in Großkonzernen, u.a. OTTO und T-Online gemacht. Jetzt ist er selbstständig mit dem Konzept Collect, Understand, Visualize.

    Vikash wollte immer schon mit Zahlen, Daten und Fakten verstehen, was für Entscheidungen Menschen treffen. Aus dem Grund hat er Psychologie studiert, dann mehrere Stationen in Konzernen gemacht, wollte dann aber agiler werden und hat sich gleichzeitig mit seiner Auswanderung nach Asien selbstständig gemacht. Spannenderweise hat Vikash eine estländische Firma, was für ihn einige Vorteile bietet.

    Durch die Betreuung großer Accounts in den Konzernen konnte er wertvolle Erfahrungswerte sammeln. Und deswegen erzählt er auch, wofür sein Konzept steht:

    Collect bedeutet, erstmal Daten zu erheben, zu sammeln und datenschutzkonform zu machen. Hierzu gehört auch, herauszufinden, an welche Tools Daten in welcher Form gesendet werden. Auf der Basis kann man dann die Implementierung und damit das Tracking aufbauen.

    Understand bedeutet, Daten in einen Kontext zu setzen und zu verstehen. Die Aussage „wir haben am Montag 10.000 Produkte verkauft“ ist nämlich wertlos, wenn man nicht den Kontext dazu hat, wie viele Produkte normalerweise an einem Montag verkauft werden und wie viele User einen Checkout gestartet, aber abgebrochen haben.

    Visualize bezieht sich dann auf die Datenvisualisierung – aber zielgruppengerecht! Bei der Vorstellung von Daten neigt man oft dazu, ins absolute Detail zu gehen, doch vielleicht möchte die Zielgruppe genau diese Informationen gar nicht haben. Deswegen muss man sich immer fragen, wer der aktuelle Stakeholder ist, welche Informationen dieser benötigt und welches Informationsbedürfnis sie oder er hat.

    Als Visualisierungstool empfiehlt er Python zum Austausch mit anderen Analysten, ansonsten aber auch Tableau, PowerBI oder Looker Studio.

    Außerdem geht es um die Besonderheit von GA4 im Vergleich zu UA und wie die Migration stattfinden kann. Vikash empfiehlt immer, ein ordentliches Tracking-Konzept zu erstellen, bevor die Umsetzung mit Events erfolgt. Schließlich soll alles wartbar bleiben und die Fragen der Stakeholder sollen in vernünftige KPIs übersetzt werden.

    Der Fokus sollte immer auf der gesamten Data-Wertschöpfungskette liegen!

    Zum LinkedIn-Profil von Vikash: www.linkedin.com/in/vikash-analytics

    Zur Website von Vikash: https://www.vikash-analytics.com/

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/




    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    51 mins
  • Wirklich gute Dashboards brauchen schwarze Magie | Mit Evelyn Münster
    Jul 18 2024

    Wie macht man interessante Dashboards, die auch wirklich genutzt werden? Und was wollen Dashboard-User wirklich sehen?

    Darüber diskutiert Host Tim Ebner in der neuen Folge von Datendurst. Zu Gast ist Evelyn Münster, die auf Data Visualisation und Storytelling spezialisiert ist.

    Es geht um ein Thema, das eigentlich so einfach scheint und trotzdem so viele Probleme hervorruft: Gute Dashboards. Diese müssen nach Evelyn vor allem drei Dinge erfüllen: Klarheit, Interpretierbarkeit und Relevanz.

    Für Evelyn war es immer schon ein Anliegen, Dinge zu visualisieren, die sie nicht sehen kann und dadurch zu erkennen, was Dinge für Auswirkungen haben. Das bezieht sie nicht nur auf ihren Körper, sondern auch auf Websites. Als sie anfing mit der Data Visualisation wurde das noch kaum gemacht. Sie startete also mit Dashboards im Onlinemarketing, erstellte ein Produkt – doch die Menschen nutzten dieses nicht. Denn Ästhetik reicht für ein gutes Dashboard nicht aus, ansonsten finden User die Dashboards zwar interessant – aber interessant ist die kleine Schwester von scheiße und bedeutet vor allem nicht relevant.

    Wichtig ist zu erkennen, was hinter den Daten steht und wie der Kontext dazu aussieht – eigentlich wie Indizien in einem Kriminalroman.

    Evelyn ist es wichtig, die persönlichen Präferenzen der User zu befriedigen. Deswegen mag sie es auch nicht, wenn generelle Aussagen getroffen werden, wie z.B. dass Pie Charts grundsätzlich schlecht sind. Sie bringt Beispiele, an welchen Stellen genau diese Charts eine gute Visualisierung sein können.

    Der Kern eines guten Dashboards ist es, gute Datenfragen zu stellen. Evelyn bezeichnet das als Dark Art of Data Analytics. Die Kernaufgabe von Analytics Leaders ist es nicht, Dashboards zu bauen, sondern mit den Business Usern dazusitzen und herauszufinden, was ihre Fragen und Probleme sind. Dazu gibt sie den Vergleich zu Henry Ford, wenn dieser seine Kunden gefragt hätte, was sie gerne hätten, dann hätten sie sich schnellere Pferde gewünscht – das eigentliche Problem war aber, dass die Fortbewegung nicht schnell genug war.

    Bei Data Visualisation geht es also darum, herauszufinden, wo die Probleme wirklich liegen – mit dem Ziel, Business Impact zu generieren. Evelyn gibt dazu auch ein paar Beispiele für gute Datenfragen.

    Erst danach sollten Dashboards designed werden. Der Game Changer liegt also im guten alten Gespräch.

    Zum Schluss hat Evelyn noch ein Geschenk für die Hörenden, und zwar einen kostenlosen Crashkurs vom Chartdoktor.

    Zum LinkedIn-Profil von Evelyn: https://www.linkedin.com/in/evelynmuenster/

    Zum Chartdoktor-Crashkurs: https://www.chartdoktor.com/chart-doktor-test

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/



    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    47 mins
  • Analysen beim Streaminganbieter RTL+ - Zielgruppen und Metriken | Mit Sascha Leweling
    Jul 4 2024

    Was macht Analysen im Streamingumfeld denn so besonders? Wie kriegt man Daten im Streamingumfeld analysebereit? Welche Analyseprodukte kommen dabei raus?

    Darum geht es in der neuen Folge von Datendurst. Der Host Tim Ebner spricht mit Sascha Leweling, Head of Customer Analytics bei RTL+, dem Streamingdienst von RTL unter dem Konzern Bertelsmann.

    Sascha war vorher bei Obi und hat im Marketingbereich promoviert – und aus dem Studium kennen sich die beiden Data-Liebhaber auch!

    Sascha’s Ziel ist es, RTL+ zu enablen, datengetrieben zu arbeiten. Dabei beschäftigt er sich natürlich auch viel mit der Weiterentwicklung seines eigenen Teams.

    Doch was macht Analysen im Streaming-Umfeld überhaupt so besonders?

    Bei RTL+ gibt es verschiedenste Angebote, neben dem Reality-TV, für das die App besonders bekannt ist. Doch eigentlich sind alle Mediengattungen vertreten, von Hörbüchern über Podcasts, Musik und Magazine bis hin zu den bekannten Serien, aber auch Sport-Übertragungen.

    Um die Frage zu beantworten, ist es für Sascha allerdings wichtig, nochmal genau zu erklären, was Analytics überhaupt bedeutet, denn das ist ein Begriff, der viel genutzt wird, vor allem als Synonym zu Reportings. Das ist allerdings nur ein Teil von Analytics, denn im Vordergrund steht, datengetriebene Insights zu generieren und Menschen zu enablen, mit diesen datengetrieben zu arbeiten. Jeder im Produkt soll die Daten selbst verstehen und damit arbeiten können, damit sich die Analytics-Teams noch tiefer in die Daten eingraben und noch tiefere Insights kreieren können.

    Die Herausforderung bei den Streaming-Analytics besteht unter anderem in der riesigen Datenmenge, die erstellt wird und darin, dass diese Rohdaten ja zunächst aggregiert werden müssen. Um das zu erklären, tauchen Tim und Sascha tief in den „Maschinenraum“ ab und diskutieren die Messungen.

    Die nächste Herausforderung ist dann die Zielgruppe. Diese sind bei RTL+ nämlich total unterschiedlich, was vor allem bei Accounts, die in einem Haushalt geshared werden, nochmal komplizierter wird.

    Sascha listet dabei die Metriken und Dimensionen auf, die er am meisten betrachtet:

    • Wie viele Leute kommen rein und schließen ein Abo ab?
    • Wofür sind diese Kunden reingekommen – was war der erste Stream?
    • Wann gehen die Kunden raus und welche tun das? Was haben diese vorher getan?
    • Wie kommt die Person zu RTL+ ?
    • Wie sieht die Customer Discovery aus?
    • Und natürlich der Customer Lifetime Value – da gehören aber viele andere Dinge zu, sodass dieser nicht so einfach zu berechnen ist.

    Sascha gibt den Tipp: Miss nicht alles, was du kannst, sondern alles, was du brauchst und achte dabei auch darauf, was deine Stakeholder brauchen. Hier benötigt man einen gesunden Pragmatismus, auch wenn das Analystenherz dabei blutet.

    Übrigens:

    Sascha sucht für sein Team bei RTL+ gerade einen Senior Data Analyst. Wichtig ist ihm dabei vor allem ein offenes Mindset und die Motivation, auch mal selbst loszulaufen – das ist sogar noch wichtiger als die technischen Skills auf dem Papier! Wenn Ihr Interesse habt, dann schaut mal hier: https://jobsearch.createyourowncareer.com/RTL/job/K%C3%B6ln-Senior-Data-Analyst-%28mwd%29-NW-50981/1061609701/

    Zum LinkedIn-Profil von Sascha: https://www.linkedin.com/in/dr-sascha-leweling-410b6b7a/

    Zur Website von RTL+: https://plus.rtl.de/

    Zum LinkedIn-Profil von Tim: https://www.linkedin.com/in/ebner-tim/



    This podcast uses the following third-party services for analysis:

    OP3 - https://op3.dev/privacy
    Show more Show less
    57 mins