Wie Verlage KI-Technologie sinnvoll einsetzen

Audience Development Deep Dive Folge 6

Christian Kallenberg, Inhaber von We Like Mags, und Benjamin Kolb, Geschäftsführer von Purple, im Gespräch mit Dr. Marcus von Harlessem, Unternehmensberater für IT-Projekte in Medienunternehmen.

Dr. Marcus von Harlessem war Geschäftsführer der InterRed GmbH, ein Software-Unternehmen das auf Redaktionssysteme spezialisiert ist. Im Jahr 2021 gründete er selbst und zwar seine eigene Unternehmensberatung. Mit über 20 Jahren Erfahrung im IT- und Medienbereich berät und begleitet er nun unterschiedliche Firmen bei der digitalen Transformation.

Weiterführende Links

Das erwartet Sie in dieser Folge

00:38 Gibt es DIE Lösung für erfolgreiche IT-Projekte?

05:42 Ein Mix aus klassischen KPIs und anderen Metriken

10:13 Wirkt sich Paid Content auf die Qualität der Produkte aus?  

13:38 Welche KI-Modelle für Verlage erfolgversprechend sind

21:51 KI für redaktionelle Inhalte – gut oder schlecht?

31:07 Ein Blick in die Zukunft: KI-Modelle für Verlage

26:51 Die Angst vor der Paywall ist genommen


Transkript

00:00:08

Christian Kallenberg: Willkommen beim Audience Development Deep Dive von Sprylab Technologies und We like Mags. Mein Name ist Christian Kallenberg und auch heute sitzt mir wieder gegenüber Benjamin Kolb, Geschäftsführer von Sprylab Technologies. Hallo Benny.


00:00:20

Benjamin Kolb: Hallo Christian. Freut mich sehr.  


00:00:22

Christian Kallenberg: Ich freue mich auch sehr, denn heute haben wir einen ganz besonderen Gast, Dr. Marcus von Harlessem, den ehemaligen Geschäftsführer von Interred und mittlerweile Unternehmensberater im Bereich IT für Industrie und Medienunternehmen.


00:00:35

Benjamin Kolb: Hallo Marcus.


00:00:36

Dr. Marcus von Harlessem: Hallo Christian, hallo Benjamin.

00:00:38

Christian Kallenberg: Kannst du aus deiner Erfahrung vielleicht erzählen, welche Faktoren entscheidend sind für den Erfolg von großen IT-Projekten in Unternehmen und Medienunternehmen?


00:00:46

Dr. Marcus von Harlessem: Natürlich operiere ich als Projektleiter in einem kleinen Projekt, ich sage mal in einem 100.000 EUR Projekt ganz anders als in einem Projekt von 5 Mio. EUR oder so, das ist klar, dass ich da mit ganz anderen Werkzeugen und Tools und Prozessen arbeiten muss. Aber es gibt ein paar Dinge, die jetzt außerhalb des klassischen PM-Handwerks meiner Erfahrung nach oft ein bisschen vernachlässigt werden, aber doch im Nachhinein sich herausgestellt haben als ganz entscheidend für gute Projektverläufe. Das sind die klassische Vorbereitung, Planung im Projekt-Setup. Das ist etwas, das sollte man nicht unterschätzen. Es genügt also nicht da irgendwie einen Dienstleister einzukaufen, die Verträge zu unterschreiben und dann Kick-Off zu machen und dann setzen sich alle an den Tisch und dann geht es irgendwie los, sondern auf das ganze Thema Planung und Kommunikation sollte man sehr viel Wert drauf legen. Darüber hinaus sind es dann so Dinge, ich sage mal als ein Beispiel, das Thema Schulung. Ich habe in vielen großen Projekten erlebt, was für einen entscheidenden Ausschlag das Thema Schulungsplanung in einem Projekt geben kann. Das ist leider ein Posten, wo oft der Rotstift angesetzt wird, weil Ressourcen sind begrenzt überall, das ist klar, man kann nicht überall beliebig viel Money investieren in so ein Projekt, also wird oft bei Schulung gesagt „da machen wir halt ein schönes PDF und das verteilen wir am Ende an unsere ganzen Mitarbeiter und dann können die die neue Software bedienen“, aber man darf nicht vergessen, gerade in größeren Medienhäusern, da gibt es Flurfunk und Rumours „wir kriegen ein neues System, wie sieht denn das aus? Hast du es schon mal gesehen? Ist das toll oder total doof?“ und in den Schulungen wird es dann so sein, dass die Mitarbeiter das erste Mal echten Kontakt zu dem neuen System bekommen. Das ist ganz entscheidend, dass das System in dem Moment perfekt vorbereitet ist, also ein dediziertes Schulungssystem und nicht irgendwie ein Entwicklungssystem, auf dem man vorher eine Funktionsprüfung gemacht hat, sondern ein eigenes Schulungssystem mit eigenen Inhalten, die sauber vorbereitet und getestet sind, didaktisch gut trainierte Leute, die die Schulung machen, also darauf spezialisierte Menschen, die eben auch die typischen Herausforderungen in Schulungssituationen bewältigen können, wenn einer da irgendwie als Störer auftritt oder nicht motiviert ist. Wenn man das alles sehr gut vorbereitet, wenn der erste Kontakt zu den Mitarbeitern schon eine gute Präsentation des neuen Systems ist, dann hat man so viel Stimmung im Laden und natürlich auch inhaltlich, es hat ja auch einen inhaltlichen Effekt, so eine Schulung, hat das eine enorme Wirkung. Dann gibt es vielleicht noch einen Punkt, der klingt jetzt ein bisschen Old School, hat sich aber insbesondere in Krisensituationen als wichtig herausgestellt meines Erachtens, man muss sehr flexibel sein, was die Methodiken anbelangt. Wir arbeiten heute alle mit Tools, mit Ticketsystemen und mit Konferenzsystemen und mit Wiki-Systemen und managen darauf unser Projekt, aber es gibt eben oft Situationen, habe ich in Projekten erlebt, wo die Misere relativ groß war aus welchen Gründen auch immer Dinge nicht funktioniert haben. Ich erinnere mich an ein großes Digitalprojekt, wo Templates geliefert wurden, wo das Java-Script nicht dokumentiert war und dann die Return-Werte der Java-Script-Aufrufe unklar waren und dann 25 Mal angemahnt wurde, dass das sauber dokumentiert muss, weil Stand ja auch so im Pflichtenheft, das war eine Mitwirkungspflicht, die wurde nicht sauber erfüllt. Formell war man dann auf der sicheren Seite, aber es war halt einfach aus menschlicher Sicht nicht leistbar, weil die Templates hatte ein Dienstleister gebaut, den es gar nicht mehr gab und dann haben wir gesagt „das steht zwar nicht im Vertrag und das ist auch im Budget alles so nicht eingeplant, aber wir nehmen jetzt die Entwickler und wir nehmen die Customizer und die setzen wir in ein Auto und die fahren jetzt zu dem Kunden hin, drei Tage die Woche“, der war zum Glück nicht so weit weg, das waren 150 km oder so und wir haben gesagt „ihr fahrt jetzt dahin und setzt euch da mit den Techniker auf der anderen Seite zusammen und ihr setzt euch wirklich hier Team Programming mäßig vor einen Bildschirm und dann guckt ihr darauf und dann versucht ihr die Templates gerade zu biegen und den Termin noch einzuhalten“ und da haben sich erst alle gegen gewehrt und der Sponsor hat sich dagegen gewehrt, weil er kein Interesse hatte die zusätzlichen Kosten zu bezahlen, die Programmierer wollten aus ihrer gewohnten Wohlfühloase nicht raus und da irgendwo in die Fremde fahren und da mit anderen Leuten zusammensitzen, die sie gar nicht kennen – das ist ja bei ITlern, ich darf das sagen, ich bin selbst ITler – die sind ja vielleicht manchmal ein bisschen kontaktscheu. Letztlich haben wir das so gemacht und es war die Rettung und es waren auch alle begeistert, also die Entwickler waren begeistert, der Kunde war begeistert, weil im Bruchteil der Zeit, die man da mit einer Ticket-Kommunikation klassisch investiert hätte, dieser Teamspace, wo die Entwickler sich einfach so ganz Old School gemeinsam vor einen Rechner gesetzt haben und dann mal für einen Monat, das war nicht länger als ein Monat, drei Tage die Woche da hingefahren sind und zusammengearbeitet haben, das hat das Projekt gerettet. Das sind Dinge, wo ich eben sage „was im Vertrag steht, ist schön und gut“, aber man muss eben bei den Lösungen flexibel sein und den Faktor Mensch in so einem Projekt darf man einfach nicht außer Acht lassen.


00:05:42

Benjamin Kolb: Wenn wir jetzt mal auf die Projekte oder auf große Projekte schauen. Was sind denn deine Erfahrungen, was da üblicherweise so für Erfolgskriterien herangezogen werden? Klar, man hat irgendwie Projektkosten, was man natürlich versucht gering zu halten, aber man will mit dem Projekt ja auch was bezwecken durch die Änderung, die man herbeiführt. Was ist deine Erfahrung, was so die KPIs angeht für so ein Projekt?


00:06:04

Dr. Marcus von Harlessem: Das hat sich natürlich schon im Laufe der letzten 20 Jahre ziemlich verändert. Natürlich gibt es die klassischen KPIs, die es auch vor 20 Jahren schon gegeben hat, dass man einerseits eine ROI-Berechnung macht und dann sagt „ich möchte in zwei, drei Jahren mein Invest wieder drin haben“ und das kann ich erreichen bspw. über einen Klassiker wie Reduktion von Betriebskosten. Also ich mache da eine konsolidierte IT-Landschaft hin und fasse drei Einzelsysteme in ein neues System zusammen und durch die geringeren Betriebskosten spare ich dann in zwei oder drei Jahren ein Invest wieder drin und danach habe ich einen Revenue an der Stelle. Natürlich gibt es die klassischen KPIs wie Produktionskosten jetzt aus dem Printbereich, „was kostet mich eine Seite? Wie viel Zeit brauche ich für die Produktion einer Seite? Wie viel Zeit brauche ich für die Bildbearbeitung? Wie viel Zeit brauche ich für die Textbearbeitung?“. Das sind alles so KPIs, wo man sagt „wenn wir das beschleunigen um Faktor X, können wir Zahl Y investieren und dann wird sich das irgendwann rechnen“. Das sind viele solcher klassischen KPIs, die wir heute noch finden. Allerdings muss man sagen, im Rahmen der Digitalisierung hat eine unheimliche Technisierung von KPIs stattgefunden. Wenn man heute in Projekten über Dinge redet, die als Metriken herangezogen werden sollen, dann ist da mittlerweile sehr viel Technik im Spiel. Gerade durch den ganzen Web- und App-Bereich, wo man im Prinzip ein ganz anderes Konkurrenzumfeld hat, wo bspw. das Ranking bei Google ein wichtiger Faktor ist, „welche Metriken muss ich denn optimieren, um dort besser gerankt zu werden?“. Wir hatten lange Jahre das Thema gehabt „wie komme ich auf die erste Seite der Suchergebnisse?“, weil dann die entsprechende Wahrscheinlichkeit, dass ich angeklickt werde, relativ hoch ist. Das hat sich mittlerweile noch deutlich verschärft durch das Position Zero Problem, was wir durch die ganzen Sprachcomputer-Assistenten haben, die halt nur noch ein Ergebnis wiedergeben, wenn eine Frage gestellt wird, das Ganze nochmal deutlich verschärft und deswegen achten die Verlage viel auf technische KPIs und seit Google die Core Web Vitals eingeführt hat, sind eben auf einmal Dinge wie LCP, Largest Contentful Paint oder First Input Delay oder solche Metriken, die zur Performanceoptimierung dienen, die werden auf einmal von einem Kunden herangezogen und sagen „wir machen hier einen Relaunch und wir müssen auf diese Dinge achten, weil die Performance der Website ist ein entscheidender Faktor, um gut gerankt zu werden bspw. bei Google“. Das sind ganz neue Metriken, die da herangezogen werden. Das Volumen der Startseite, das ganze Thema Kompression und Minifizierung. Das sind Dinge, die eine Rolle spielen in Digitalprojekten. Die klassischen Sachen spielen auch noch eine Rolle. Natürlich werden immer noch PIs und Visits gehandelt, gerade in den Vermarktungsabteilungen ist das immer noch ein Thema, wobei man sagen muss, jetzt in Zeiten von Paid Content ist das Thema Abozahl, also digitale Abos, ist sehr wichtig geworden, weil insbesondere auch darüber die Verhandlung bei der Anzeigenpreise aus Kundensicht besser erfolgen kann, weil ein e-paper-Abo mittlerweile auch von den Anzeigenkunden anders eingeschätzt wird als es vielleicht noch vor ein paar Jahren der Fall war. Das Thema Digitalabos ist ein wichtiges Thema, aber auch das Thema Media Time, also wie lange ist ein Besucher, der auf die Seite kommt hier unterwegs und was macht er? Hat er den Artikel angeklickt und ist dann Kaffee trinken gegangen und klickt dann nochmal zwei-, dreimal und ist dann noch fünf Sekunden da und dann ist er wieder weg? Ist eben etwas anderes, als wenn ein User auf die Seite kommt, ich habe vielleicht einen längeren Fachartikel und der wird sauber durchgescrollt und hat wirklich eine entsprechend lange Lesezeit, offensichtlich habe ich dann da Content gehabt, der relevant ist. Relevanz ist etwas, was man schlecht als harte Metrik definieren kann, aber etwas, was dazu führt, dass ich die Nutzer möglichst lange auf meinem Angebot binde, weil wir wissen, dass dort dann die Wahrscheinlichkeit, dass man da eine Conversion erreichen kann mit diesen Nutzern deutlich höher ist als die Fly By’s, die eben von einer Suchmaschine kommen, kurz zwei, drei Klicks machen und dann wieder weg sind.


00:10:13

Christian Kallenberg: Wenn es um Paid Content Modelle geht, hast du gerade schon gesagt, gibt es verschiedene KPIs, aber vor allen Dingen die Zahl der Subscriber ist da wichtig. Wie wirkt sich das deiner Meinung nach auf die Produkte aus? Ist es da eine Steigerung in der Qualität oder würdest du eher sagen, das schadet?


00:10:30

Dr. Marcus von Harlessem: Das schadet eher nicht. Meiner Beobachtung nach ist es so, dass insbesondere bei den Regionalverlagen in den letzten 10-20 Jahren die einzige Erlösquelle die Vermarktung war. Da waren PIs und Visits die KPIs, die wichtig waren und man hat über die TKPs verhandelt und hat dann versucht, da möglichst hohe Einnahmen zu generieren, was dazu geführt hat, dass man dem eigenen Kunden bis an seine Schmerzgrenze sozusagen belastet hat mit Seiten, wo man den redaktionellen Content mit der Lupe suchen musste, weil wenn man die Startseite von so einer Regionalzeitung aufgerufen hat, kam dann erstmal so viele Banner und Skyscraper und Pop-Ups und Fly-Outs bis man irgendwann den Content nicht mehr gesehen hat und bis man das alles weggeklickt hatte, um dann den eigentlichen Artikel zu sehen. Das sah aus meiner Sicht schon fast so aus wie eine Bestrafung der eigenen Kunden.


00:11:24

Benjamin Kolb: Und der eigene Artikel hatte dann auch noch eine Headline, die eher zum clickbaiten verführt hat als dass sie irgendwie zum Inhalt gepasst hat, um noch mehr Klicks zu erreichen.


00:11:31

Dr. Marcus von Harlessem: Absolut, ganz genau. Und Bildergalerien mit 500 Bildern, die man dann auf die Startseite gepackt hat usw. Diese ganzen hässlichen oder unschönen Entwicklungen. Da hat natürlich in den letzten Jahren ein Umdenken stattgefunden. Es gibt jetzt einige Anbieter, die gesagt haben „Paid Content ist jetzt nicht unser Ziel“, aus welchen Gründen auch immer, wegen mangelnder Technologie oder wegen mangelnder Qualität, weiß man nicht, auf jeden Fall hat man den Schmerz für den Kunden reduziert, indem man eine Werbefreiheit oder eine Werbereduktion zumindest sich erkaufen konnte mit einer Subscription. Andererseits hat auch in der Redaktion ein Umdenkprozess stattgefunden. Es war lange Zeit so, dass man gesagt hat „unseren hochwertigen, eigens recherchierten Content, wo wirklich Leute unterwegs waren und wir wirklich viel Geld investiert haben, den stellen wir nicht einfach so kostenlos ins Netz, den hängen wir hinter die Paywall oder hinter irgendeine Form von Log-In. Das wollen wir nicht mehr verschenken“. Man hat irgendwann erkannt, dass es vielleicht so klug war über die ganzen Jahre den teuren Content an die großen Plattformbetreiber in den USA zu verschenken und die darauf schöne, schlaue Geschäftsmodelle entwickelt haben und damit viel Geld verdient haben, auch in den deutschen Medienverbänden ist das ja gerade ein diskutiertes Thema, dass diese Sünde nicht nochmal wiederholt werden darf. Dadurch dass man eben jetzt die Möglichkeit hat technisch auch für Einzelinhalte oder eben halt auch für gebündelte Inhalte Einnahmen zu generieren im Digitalbereich, ist man natürlich eher dazu geneigt die hochwertigen Inhalte auch im Digitalen zu veröffentlichen. Das hat da auf jeden Fall zu einer Verbesserung geführt und wir sehen ja auch, nachdem erste Newsanbieter da vorangeschritten sind, was das Thema anbelangt, haben wir mittlerweile sowohl bei den Newsportalen, bei den Nachrichtenportalen, als auch bei den ganzen Zeitschriften und Fachzeitschriften eine enorme Verbreitung von Paid Content Ansätzen, weil man eben in den letzten Jahren gesehen hat, es funktioniert tatsächlich und damit kann ich meinem Kunden ein Leseerlebnis anbieten, was im Digitalen nicht schlechter ist als im Print, sondern wo ich auch die Vorteile des digitalen Mediums noch nutzen kann im Vergleich zum klassischen Papier.


00:13:38

Benjamin Kolb: Jetzt ist es aber so, dass dadurch natürlich auch dieser Nachteil des digitalen Mediums mitkommt, dass es noch komplexer wird, weil plötzlich die Website auch noch ein Funnel hat, eine Paywall, alles dynamisch ist, dynamisches Pricing von irgendwelchen Teers usw., wo man natürlich schon sagen muss „die Komplexität wird immer weiter aufgebläht durch diese Paid Content Geschichte“, da hat man trotzdem noch Advertising drin, man hat trotzdem noch andere Kanäle, Social Media usw. und um dem zu begegnen, gibt es ja viele Bestrebungen auch KI einzusetzen, um gewisse Dinge wieder aus dem Manuellen zu entfernen und zu automatisieren. Wie sind denn so deine Erfahrungen in dem Bereich? Wie weit ist das so vorangeschritten bei Publishern, dass sie überhaupt KI einsetzen und wenn ja, aus deiner Sicht, was sind da so erfolgreiche Modelle, wo KI eingesetzt wird, die entweder zum Zwecke der Komplexitätsreduktion oder um das Ergebnis zu verbessern auch eingesetzt wurden?


00:14:32

Dr. Marcus von Harlessem: Das ist auf jeden Fall eins der hochdynamischsten Bereiche in den letzten Jahren. Keine Konferenz, kein Projekt und kein Kunde, wo es nicht um das Thema geht. Es wird meiner persönlichen Meinung nach noch dadurch verstärkt, dass das Thema Subscription, was in den letzten Jahren so im Vordergrund gestanden hat, das könnte eine strategische Sackgasse sein. Natürlich haben die Verlage mit dem Boom des Internets versucht über alle möglichen Diversifikationen im Digitalbereich irgendwie Einnahmen zu generieren, weil über den Content und die Anzeigen war das am Anfang nicht so erfolgreich und jetzt haben sich alle auf die Subscriptions gestürzt, weil sie gesagt haben „wir verlagern das von einem Kiosk ins Web und holen uns da die Abos und dann haben wir regelmäßige Einnahmen“. Da gibt es auch ein paar erfolgreiche Beispiele in Deutschland, wo das funktioniert, aber ich glaube man kann nicht mehr dieses Kulturverhalten des Abos, was wir jahrzehntelang aus dem Printbereich kennen, das kann man nicht mehr 1-zu-1 ins Digitale übertragen, d. h. man wird relativ schnell dort in eine Abflachung der Abozunahme kommen und dann muss man sich überlegen „habe ich außer dem klassischen Abo-Modell noch andere Ansätze, um im Digitalbereich Einnahmen zu generieren?“. Da gibt es eben verschiedene Formen von Aggregierungen, von Einzelverkauf-Geschichten, weil gerade das Thema „ich möchte jetzt einen einzelnen Artikel, weil mich das Thema gerade interessiert, den will ich haben, dann bin ich auch bereit dafür zu bezahlen, aber ich will eben kein Abo abschließen“, das ist im Digitalbereich sozusagen das Pendant zum klassischen Kiosk. Da bin ich reingegangen und habe immer meine Computerzeitschrift gekauft, aber irgendwann wollte ich vielleicht doch mal was im Garten machen und dann habe ich ausnahmsweise mal eine Gartenzeitschrift gekauft, aber ich wollte halt kein Abo abschließen. So Leute muss ich auch im Digitalbereich abholen. Neben dem, was du gerade schon genannt hast, kommt das alles auf den Stack oben drauf und ich kann so viele Menschen gar nicht dahinsetzen, die sich manuell um das alles kümmern, um das zu realisieren, also brauche ich eben Technologie. Die Technologie hat jahrelang nach relativ primitiven, regelbasierten Verfahren gearbeitet, da hat sich eben das Produktmarketing irgendwelche Regeln überlegt, die hat man dann implementiert und danach wurden eben Inhalte auf die Website ausgesteuert. Das ist eben nicht mehr kompetitiv mittlerweile und deswegen ist das ganze Thema KI-Unterstützung auf allen möglichen Ebenen gerade explosionsartig dabei sich zu verbreiten. Es hat angefangen vielleicht vor über zehn Jahren im deutschsprachigen Bereich mit den ersten Empfehlungssystemen. Das, was heutzutage als Recommendation System bezeichnet wird, waren so die Anfänge, wo man gesagt hat, man wollte das, was man aus dem E-Commerce kannte, was man von Amazon kannte „wer dieses Buch gekauft hat, hat auch folgende Bücher gekauft“, sowas wollte man auch für den redaktionellen Content haben, „gibt es da nicht tolle Software, mit der man sowas machen kann?“ und dann hat es angefangen, dass man so Empfehlungssysteme auf die Website platziert hat und wenn einer da ein Testbericht von einer Grafikkarte gelesen hat, hat man ihm automatisch drei andere passende Artikel angezeigt. Das waren so die klassischen Anfänge. Mittlerweile ist es so, wenn wir uns insbesondere den ganzen Verlagsbereich anschauen, dass wir in der Wertschöpfungskette eigentlich KI-Tools vom Anfang bis zum Ende mit im Einsatz haben. Das fängt schon an bei der Anzeigenvermarktung, bei der Platzierung von Anzeigen. Der Redakteur, der Texte verfasst, der hat Tools in seinem Editor für predictive typing Unterstützung, er schreibt einen Artikel über die Affenpocken, weil er gerade Medizinjournalismus macht und bekommt vom System automatisch verwandte Texte angezeigt. Entweder aus dem eigenen Bestand „was haben wir schon dazu gebracht zu diesem Thema Infektionskrankheiten? Was machen unsere Mitbewerber gerade?“. Redakteure haben Tools, KI-basierte Tools, wenn es um Archivsuche geht. Archivsuche ist ja lange Jahre eine ganz heilige Kuh in den Verlagen, wo viel Geld investiert wurde in eine Verschlagwortung oder sogar in eine hierarchische, ontologiebasierte Kategorisierung von Archivinhalten. Da hat man dann Anfragen ans Archiv gestellt und hat gesagt „ich brauche zum Thema Infektionskrankheiten, Pocken, was haben wir da in den letzten zehn Jahre dazu gehabt?“ und dann hat man zwei Tage später eine Antwort aus dem Archiv bekommen, weil die Systeme so komplex waren, dass sie keiner bedienen konnte. Heute hat man sowas in einem Redaktionssystem direkt integriert und kann eben automatisch oder semi-automatisch sich da Ergebnisse anzeigen lassen. Das ganze Thema Synonyme ist für ein Redakteur heute eine Unterstützung, dass er irgendwie, wenn es um Fachbegriffe geht, immer mal wieder Variabilität in die Texte reinbringt. Textkürzung ist ein sehr spannendes Thema, was in den ganz jungen Jahren jetzt Fahrt aufgenommen hat durch verbesserte Technologien. Das kann mal einerseits im Digitalbereich fürs Tethering verwenden, aber auch dieses ganze Thema Summarization, um erstmal für den Menschen ein Angebot zu machen, der nicht einen langen Fachartikel lesen will, sondern um dem erstmal Appetit zu machen über eine Zusammenfassung, sowohl im Print als auch für Übersichtsseiten. In der Produktion kann man die Summarization-KI-Modelle benutze, um bspw. das Printlayout, was fast überall unter einem hohen Kostendruck steht, um das weiter zu automatisieren, um da die Effizienz zu steigern und zu sagen „ich kann Teile des Layouts, was bisher Menschen manuell gemacht haben, weiter durch Werkzeuge automatisieren, die mir bspw. Übersatz automatisch korrigieren“ oder vielleicht ein entsprechendes Printtemplate auswählen, das passt mit einem entsprechend Bildmaterial und dann den Automatisierungsgrad beim Seitenaufbau dadurch weiter erhöhen kann und eben die Produktionskosten mit runterzufahren, während gleichzeitig die Einnahmen im Printbereich immer weiter zurückgehen. Dann gibt es mittlerweile noch schöne andere Tools, Topic Detection, wo man eben Themen identifiziert, die jetzt gerade populär sind, indem man vielleicht Social Media Kanäle scannt und dort automatisch Themenseiten generieren lässt, wo man alles, was man zu dem Thema hat, schön auf einer speziellen Themenseite generiert. Bei der automatischen Key Word Extraktion gibt es auch mittlerweile sehr mächtige Werkzeuge im Produktionsbereich. Wenn wir dann über das Thema Output nachdenken und gucken, wir sind jetzt sozusagen beim End User und haben den Content auf der Seite und dann haben wir natürlich eben schon angesprochen diese klassischen Empfehlungssysteme, Kontextpersonalisierung, wo mittlerweile viele Anbieter auch im deutschsprachigen Markt unterwegs sind und auch dort viele Verlage das schon einsetzen. Wir haben das Thema Objekterkennung, was unter dem technischen Begriff Named Entity Recognition läuft, wo man in Texten Personen erkennen kann oder Produkte bspw. und darauf basierend kann man wieder Affiliate-Links generieren oder Produktdatenbanken anbinden. Das ganze Thema text-to-speech bspw. ist auch seit ein paar Jahren ein Trendthema im Verlagsbereich und jetzt vor kurzem kam noch eine Meldung raus, dass eine Regionalzeitung den ersten vollautomatisch generierten Podcast auf den Markt gebracht hat. Es ist gerade unglaublich viel Bewegung und Dynamik in dem kompletten Bereich.


00:21:51

Christian Kallenberg: Lass uns bei dem Thema KI im redaktionellen Umfeld noch kurz bleiben. Du hast schon gesagt, da macht die Maschine inzwischen ganz schön viel. Gibt es da in deinen Augen auch eine Art Trade Off zwischen einer Ungenauigkeit, die vielleicht akzeptiert wird, weil es so viel günstiger wird und Benny, vielleicht kannst du ja im Anschluss zu Marcus da auch noch was zu sagen, denn euer System ist da ja auch recht wirkmächtig. Aber zuerst du, Marcus.

00:22:17

Dr. Marcus von Harlessem: Die Vorbehalte in den Redaktionen gegenüber den KI-Tools und KI-Werkzeugen haben deutlich nachgelassen. Das war vor zehn Jahren, als die ersten auf dem Markt sich damit beschäftigt haben, ich erinnere mich an ein bekanntes Computer-/IT-Portal, was damit vor zehn Jahren schon erste Experimente gemacht hat, da war die Redaktion äußerst kritisch demgegenüber und man konnte im Grunde genommen nur durch A/B-Testing oder durch entsprechende Statistiken nachweisen, dass das funktioniert, dass die Leser das nutzen. Ich kann mich an eine Geschichte erinnern, wo also der klassische Related Content Kasten von der Redaktion unter einem Fachartikel stand und wir darunter noch schlechter sozusagen von der Position einen automatisch basierten Related Content Kasten platziert haben. Der wurde nachher in der Analyse häufiger geklickt als der von den Redakteuren manuell zusammengestellte Kasten. Deswegen sind die Vorbehalte da zurückgegangen. Natürlich ist es so, dass in Einzelfällen die Maschine immer noch Dinge macht, wo der Mensch sich fragt „wie soll ich das meinem Leser präsentieren?“ oder auch die Logik dahinter nicht versteht, weil es gibt dort vielleicht auch keine Logik dahinter, die man verstehen kann, es sind im Prinzip ja alles nur statistische Verfahren auf enorm vielen Daten. Deswegen habe ich erlebt, dass immer noch die Möglichkeit des manuellen Eingriffs, die wird sehr hoch geschätzt, also dass man sagt „wir haben hier einen tollen Automaten, der liest alle eure Texte und automatisiert den Output auf euren Websiten“, das ist so ein Wunschtraum, den vielleicht manche Verlagsmanager haben, aber in den Redaktionen stehen dann die Nackenhaare zu Berge und die wollen zumindest noch die Möglichkeit haben mit Blacklisting oder Whitelisting oder auch Parameter, die sie selber noch einstellen können, einzugreifen in die Maschine, aber sie haben eben erkannt, dass in der Masse des Contents und der Bereiche ein Mensch das eben nicht machen kann und eine Maschine, die vielleicht nicht ganz so die Qualität wie ein Mensch hat, aber das immer noch für den eigenen Erfolg viel besser ist trotzdem den Auftritt optimieren zu lassen von einer Maschine als wenn es eben gar nicht passiert. Gerade auch das Thema „ich gehe nochmal zurück in die Vergangenheit und kann eben Content, der schon älter ist, der vielleicht überhaupt nie wieder manuell angefasst wird und aktualisiert wird“, wenn ich da bei dem Bereich Medizin bleibe und wir ein Thema haben, Corona, was seit zwei Jahren medial absolut omnipräsent ist, dann habe ich vielleicht relevanten Content, der zu dem Thema passt, den ich vielleicht vor vier, fünf Jahren verfasst habe, der dort eine wichtige Rolle spielt und den müsste ich sozusagen manuell aus dem Archiv holen, um den nutzen zu können und wenn ich eine Maschine habe, die das auf Basis einer semantischen Suche für mich quasi identifiziert und sagt „ich habe hier etwas über Aerosole, das haben wir vor fünf Jahren mal geschrieben, ist gerade top-aktuell, packe das mal bitte mit auf die Website“, dann ist das ein riesen Gewinn für einen Contentanbieter und diese Erkenntnis hat sich jetzt schon in der Breite durchgesetzt, deswegen sind die Vorbehalte mittlerweile nur noch relativ überschaubar. Mittlerweile geht es in den Gesprächen mit den Kunden eher darum „wie können wir möglichst intelligent für unsere Zielgruppe und für unseren Content diese Tools einsetzen und gar nicht mehr um das grundsätzliche Ob oder Ob-Nicht“.  


00:25:41

Benjamin Kolb: Das können wir aus eigener Erfahrung bestätigen. Es ist schon so, dass da sich einiges geändert hat, vor allem und das war vielleicht auch wichtig, was du gesagt hast, kam vielleicht noch nicht ganz so raus, es geht halt nicht mehr nur um Kostenersparnis. Es geht wirklich darum, dass wenn man z. B. das Thema Verlinkung von Content, Artikel-zu-Artikel-Links, wenn man sich das mal anschaut, dann ist eine gewisse Kostenersparnis dabei, sechs neue Links in dem Artikel zu setzen, dass es automatisiert durch eine Maschine passiert, aber was viel interessanter ist, ist ja, wenn sich diese Maschine um den gesamten Schatz permanent kümmert. Du hast ja vorhin erzählt, wie viel da schon investiert wurde, um hierarchische Ontologien zu bauen, um diesen Content-Schatz verwertbarer zu machen, aber was im Prinzip ja gar nicht passiert, ist, dass so ein Stück Content, nachdem es mal publiziert wurde, in der Regel nochmal angefasst wird und so eine Maschine kann sich um so etwas kümmern, weil die läuft ja 24/7 und hat einen viel größeren Impact als die Redaktion. Ich glaube dadurch ist eine gewisse Begeisterung auch da, aber was man schon immer spürt, bei jedem Projekt, wo es darum geht, ist, dass es schon eine gewisse verhaltene Einführung von so etwas gibt. Man will eben die Kontrolle behalten. Man will nicht, dass dieser Schatz auch zerstört wird. Man möchte sehen und eingreifen und zuerst lieber auch halbautomatisch oder manuell vergleichen, bevor man das eben laufen lässt. Ich glaube diese Vorbehalte sind nach wie vor da, weil – und das ist ja auch etwas, was du komplett richtig gesagt hast – das statistische Modelle sind, d. h. keiner kann am Ende wirklich punktuell erklären, warum dieser Link jetzt eigentlich da ist, weil das viel zu komplex wäre, das zu erklären. Das ist die Magie, die dahintersteckt. So magisch ist es am Ende auch nicht, aber es geht halt um Wahrscheinlichkeiten und am Ende kommt halt, dass es ein guter Link ist, errechnet die Maschine, dass es auch nur mit einer Wahrscheinlichkeit von 75 Prozent ist z. B. Das kann man ja mit berechnen, dass diese 75 Prozent aber weitaus besser sind, was die Redaktion so im Normalfall tatsächlich tut, weil ja eigentlich auch alle mit dem Ergebnis, was eine Redaktion im Bereich Links z. B. macht, ist ja immer unzureichend, weil die Ressourcen sind ja auch gar nicht da, das richtig gut zu machen, aber dass diese 75 Prozent durchaus viel, viel besser sind als das, was die Redaktion macht, dieses Vertrauen zu gewinnen, das ist schon immer ein Schritt, weil eben auch manchmal Ergebnisse dabei rauskommen, wo man sich fragt „naja, das hätte die Redaktion jetzt nicht gemacht, aber dass der Link da ist, schadet jetzt auch nicht so sehr, dass man den wahren Hebel, den so ein System bringt, nicht nutzen würde“.  


00:28:10

Dr. Marcus von Harlessem: Das Ganze steht und fällt auch ein bisschen mit der Größe des Datenpools, den ich quasi dahinterstehen habe. Natürlich kennen wir alle die Werkzeuge, die dort mittlerweile auf den Nachrichtenportalen eingesetzt werden und das funktioniert auch so gut, dass man dort eben kaum noch Vorbehalte hat und die auf breiter Front eingesetzt werden, aber wenn ich im Bereich der Fachverlage unterwegs bin und die teilweise sehr special-interest sind und eben auch komplexe wissenschaftliche oder technische Themen behandeln, ist also die Menge an Daten, die ich brauche, um erstmal mit dem Machine Learning ein Datenmodell aufzubauen, auf dessen Basis dann nachher der Algorithmus Empfehlungen ausspielen kann, die ist dann teilweise so gering, dass auch die Fehlerquote, um es mal so zu bezeichnen oder die Qualität darunter ein bisschen leidet. Ich kann über Parameter bei den meisten KI-Tools einstellen, der semantische Vektor, der dort gebildet wird, in den meisten Fällen ist es so, dass ein n-dimensionaler Vektor generiert wird und der sozusagen dann die Semantik eines Textes darstellt und ich habe dann einen n-dimensionalen Vektorraum und dann kommt der nächste Text, also der Text, um den es gerade geht, der hat eben auch einen Vektor und dann sucht man die, die möglichst nah dran sind und sagt „die sind semantisch verwandt“ und da kann ich jetzt eine Recommendation ausspielen. Diese Relevanz wird üblicherweise auch über eine Metrik definiert und da kann man eben sagen „wenn die Relevanz unter 0,7 ist, dann zeige es nicht an. Zeige nur verwandte Artikel an, die eine Relevanz / semantische Ähnlichkeit über 0,7 haben“, um mal einen abstrakten Wert zu nennen. Wenn ich aber dann in so einem special-interest-Bereich unterwegs bin, dann habe ich vielleicht überhaupt gar keine Inhalte, die über 0,7 liegen. Dann habe ich vielleicht fünf Stück und die liegen im besten Fall vielleicht bei 0,5. Was mache ich dann? Habe ich dann einen leeren Kasten auf meiner Seite? „Zu dem Thema haben wir leider, lieber Leser, lieber Kunde, wir haben leider keine weiterführenden Informationen zu diesem Bereich“ – ja doch, haben wir, aber die weichen evtl. ein bisschen ab, weil sie nur einen Teilaspekt dieser Thematik betrachten und dann im Inhalt nochmal ein anderes Themengebiet umfangreicher beleuchten und deswegen ist der Relevanz-Score vielleicht nur bei 0,4 aber könnte den User trotzdem noch interessieren. Deswegen sind die ganze Methodik und die Werkzeuge stark abhängig davon, bei welchen Kunden ich unterwegs bin, welche Datenbasis habe ich und auch die Qualität dementsprechend ein bisschen variabel ist in dem Bereich.


00:30:43

Benjamin Kolb: Ja und wie viel Zeit man sich auch nimmt, um diesen Feintuning zu machen, dass man eben genau solche Profile einstellt, wo man die Gewichtung von diesen ganzen Modellen, die man da später im Einsatz hat, auch vornimmt, dass man sich da auch eine Phase nimmt, wo man das eben gut finetuned auf den Content, den man hat. Wie du schon richtig gesagt hast, special-interest und general-interest, das unterscheidet sich schon sehr, wie diese Modelle am Ende gesteuert werden müssen.


00:31:07

Christian Kallenberg: Marcus, lass uns nochmal ein bisschen bei deiner Praxis bleiben. Wie hoch ist denn der Anteil der Verlage, mit denen du in Kontakt bist, die tatsächlich auch KI-gestützte Produkte im redaktionellen Umfeld oder im Bereich Audience Development einsetzen?


00:31:21

Dr. Marcus von Harlessem: Also in der Praxis ist es wirklich erstaunlich, in welcher rasenden Geschwindigkeit sich das in den letzten Jahren verbreitet hat. In meinem bescheidenen, persönlichen Umfeld bei den Verlagen, mit denen ich zu tun habe, würde ich sagen 80-90 Prozent setzen mittlerweile schon KI-Tools in irgendeiner Form ein. Entweder indem sie eins der marktgängigen fertigen Produkte eingekauft haben und sie dem Dienstleister gesagt haben „hier ist unser Webauftritt, bau deine Technologie hier ein“ und das ist ein Projekt mit überschaubarem Invest und mit überschaubarer Laufzeit, dann nutzt man vielleicht nicht das Potential dieser Lösung so wie man es könnte, aber man ist erstmal dabei, man hat so ein Tool im Einsatz, die Geschäftsführung kann auch sagen „wir sind innovativ, wir setzen die neuesten Methoden ein“, sowas spielt ja auch oft nochmal eine Rolle, dass man immer am Ball bleibt und als innovativ und modern dasteht. Dazu kommt, dass wir mittlerweile im Open-Source-Bereich frei verfügbare Sprachmodelle haben, die schon fertig trainiert sind und auch Technologien haben, die frei verfügbar sind, die einen relativ überschaubaren Aufwand mit ein bisschen eigener Implementierungsarbeit eingesetzt werden können und die mittlerweile auch gut dokumentiert sind, sodass man vielleicht nicht mehr, wie es vor zehn Jahren noch der Fall war, irgendwelche ganz geheim gehaltenen Spezialalgorithmen, gibt es natürlich heute auch noch ganz viel, aber da steckt auch immer viel Knowhow drin und Wettbewerbsvorteile der Anbieter, die sich da auch unterscheiden, aber die frei verfügbaren Sprachmodelle und Algorithmen, die man da heute hat und diese Tools führen eben dazu, dass sehr viele Verlage mittlerweile solche Technologien einsetzen. Meiner Erfahrung nach ist es aber eher punktuell und das ist an vielen Stellen auch so me-too, „weil meine Mitbewerber das jetzt schon alle haben, müssen wir es auch machen“. Von so einer stringenten, durchgehenden KI-Strategie, also wirklich sehr viele Bereiche, die ich eben genannt habe, auch abbildet und berücksichtigt, dass findet man tatsächlich momentan nur bei den sehr großen Medienhäusern, aber so generell ist das fast überall mittlerweile ein Thema.


00:33:28

Benjamin Kolb: Was sind denn, wenn du in den Bereich Audience Development verstärkt denkst, deiner Meinung nach so ein Zukunftsmodell für Verlage? Was sind die Themen, wo man jetzt den Fokus drauf lenken müsste, um da in drei, vier, fünf Jahren erfolgreich zu sein als Verlag?


00:33:45

Dr. Marcus von Harlessem: Das ist so ziemlich nach meinem Namen die zweite Frage, die ich gestellt bekomme, wenn ich irgendwo bei einem Kunden reinkomme. Ich muss dem Kunden auch immer gestehen, dass meine Glaskugel einen Wackelkontakt hat. Die Frage nach dem „next big thing“ steht natürlich immer im Raum, weil irgendwie hat man immer das Gefühl, die Potenziale sind einfach gigantisch im Digitalen und wenn ich die richtige Idee habe, dann bin ich total erfolgreich, aber letztendlich erkennt man immer so den Lemming-Effekt. Wir haben in den letzten Jahren im Digitalbereich gesehen, dass dort die verschiedenen Wellen von Strategien durchgelaufen sind. Ich komme mal zurück zu dem Thema Tablet, wo noch vor einigen Jahren manche Verlagsmanager Steve Jobs auf Knien danken wollten, dass er das Tablet erfunden hat, weil das galt so als die glorreiche Zukunft des digitalen Publishings, wo man eben hohe Einnahmen generieren kann, indem man nur eine medienspezifische optimale Darstellung der Inhalte realisiert. Dann haben die Verlagshäuser enorme Geldsummen investiert und haben total sophisticated Apps programmiert, die mit Animationen und Wisch- und Medienanreicherung die tollsten Darstellungsformen auf dem Tablet realisiert hat, sozusagen die neue Dimension des digitalen Lesens auf dem Tablet. Das war enorm teuer, vor allen nicht nur der einmalige Invest, sondern auch die jeweilige Produktion war enorm teuer, weil enorm aufwendig. Das ist nach und nach alles wieder in der Versenkung verschwunden, weil man gemerkt hat „die lesen das zwar, aber die bezahlen nicht so viel dafür, dass es sich irgendwann tragen würde“, also ist man wieder zurückgegangen zum klassischen e-paper. Das klassische e-paper boomt im Moment aus verschiedenen Gründen. Das ist zwar erstmal nur ein primitives PDF, was natürlich mit ein paar technischen Anreicherungen, natürlich habe ich da Links und kann irgendwo drauf klicken, lande dann auf einer Bildergalerie und so. Das macht man schon, aber im Grunde genommen ist es von der Haptik her etwas Digitales, was ich aus der physischen Welt des Papieres kenne. Das hat eben auch ein paar Vorteile. Es hat z. B. den Nachhaltigkeitsaspekt. Es gibt immer mehr Verlage, die sagen „unsere Leser wollen kein Papier mehr aus Nachhaltigkeitsgründen. Die wollen ein e-paper haben, weil es besser transportabel ist“, sie können auf ihrem Tablet 100 e-papers mitnehmen, gar kein Problem, aber sie können nicht 100 Zeitschriften mit in den Urlaub schleppen und es ist aus Umweltgründen vermeintlich besser, ob es wirklich so ist, weiß man natürlich nicht so genau, je nachdem welche Studie man da liest und das sind so Bewegungen, die im Digitalbereich und im Publishing-Bereich so dadurch laufen und dann hat man sich in den letzten Jahren stark auf das Thema Paid Content und Subscriptions konzentriert und man schaut dann auf die Player, die extrem erfolgreich sind – ich will nicht sagen extrem erfolgreich – die einfach erfolgreich sind, weil sie oben stehen und wenn man sieht, das bild.de mittlerweile bei 600.000 Abonnenten ist und die Konzernschwester WELT bei über 200.000. Das sind aber die Top-Player im deutschen Markt und wenn man sieht, dass früher von der Print-BILD zu Hochzeiten im Kiosk, keine Ahnung, 10 Mio. Stück verkauft worden sind, dann ist man da schon noch ein ganzes Stück weit von entfernt und die Frage ist, ob man das über die Digital-Subscriptions jemals wieder das Level erreicht. Also hat man da einerseits die Masse, wo man mit günstigen Preisen versucht viele Abos zu generieren. Dann hat man andere, die „hochwertigeren“ Content hochpreisiger anbieten. Neue Newsformate wie bspw. Gabor Steingart und das sind so die Bereiche, in denen sich die Bereiche ein bisschen finden müssen. Eine wichtige Barriere ist eingerissen, nämlich keine Angst mehr vor der Paywall. Das Thema ist durch, das braucht man nicht mehr zu verargumentieren, sondern dass das ein Erfolgsmodell sein kann, haben alle Verlage verstanden, aber bei vielen krankt es alleine daran, weil eben die Technologie bspw. noch gar nicht ist, weil man da eben kein Investment in Technologie gemacht hat, überhaupt nicht die Möglichkeit da ist außer einem simplen Log-In, wo man dann sagt „hier kannst du jetzt unser e-paper runterladen“, aber das ist eben keine intelligente Paid Content Strategie. Wenn ich die umsetzen will und möchte meinem Kunden eben digitale Bezahlinhalte anbieten auf einem Weg, der smart ist, der auch die einzelnen Kiosk-Verkäufer abholt und der auch keine großen Hürden bedeutet, die der Kunde überspringen muss, dann muss ich da eben in Technologie investieren und da sind jetzt viele Verlage, die jetzt erstmal versuchen wieder den Status Quo aufzuholen, um da mitzumachen und dann erstmal über ein Angebot zu haben, wo sie etwas verkaufen können, sozusagen ihren digitalen Kiosk erstmal vernünftig aufzubauen, weil für guten Inhalt die Leute offensichtlich bereit sind zu bezahlen und man braucht vor der Paywall keine Angst zu haben. Freiwillig bezahlen wahrscheinlich nur die Leser der TAZ in umfangreichem Maße und in anderen Medien muss man die Leser ein bisschen dazu zwingen, dass sie für die teuer erstellten Inhalte auch bezahlen. Das ist sozusagen die Besinnung auf das klassische Geschäft eines Verlegers. Dann muss man schauen, was haben die Verlage in den Jahren für einen großen Rückgang der Printerlöse noch für Geschäftsbereiche gehabt? Die hat man auch versucht in den Digitalbereich zu übertragen, bspw. ein Klassiker ist das ganze Thema Veranstaltungsmanagement, was viele Verlage als Einnahmequelle irgendwann mal erkannt haben und das ist jetzt nochmal verstärkt durch Corona stärker digitalisiert worden, indem man da Webinare oder digitale Konferenzen anbietet. Wenn ich in meine Community schaue, vielleicht auch meine Fach-Community als Verlag, sollte ich mir überlegen „welche Vorteile bietet denn das digitale Medium gegenüber dem bisherigen klassischen bedruckten Papier?“. Da gibt es gewisse Dinge, die kann ich eben nur im Digitalen abbilden, die will ich als Leser auch haben, dass ich da nicht irgendwo meine 20 kg gestapelte Zeitschriften durchsuchen muss, bis ich irgendwann einen speziellen Inhalt herausfinden kann, sondern da habe ich im Digitalen viel mehr Möglichkeiten auch automatisiert mithilfe von KI-Tools vielleicht automatisch generierte Specials anzubieten. Es ist ja oft so, der eine will mal ein Auto kaufen, der andere will ein Fahrrad kaufen, der andere braucht für sein Haus neue Fenster und der andere sucht neue Rezepte oder man hat ja im Leben immer so Phasen, wo man sich in irgendein Thema einarbeitet und ist auf der Suche nach wertvollen Inhalten. Das ist das Thema wie Stiftung Warentest auch erfolgreich Business macht, indem sie sagen „wir haben eine breite Palette an Informationen und haben immer für spezifische Zielgruppen genau das richtige“. Die einen suchen eben biologische Farben, um ihr Haus neu zu streichen und dann haben wir einen Test mit 20 Produkten und den kannst du bei mir kaufen. Das ist etwas, wenn ein Fachverlag bspw. sagt „unser Gebiet ist Sport“ und du möchtest jetzt neue Ausrüstung kaufen, dann können wir dir sozusagen auf KI-Methoden-basierte personalisierte Zusammenstellungen von Inhalten machen, die dich jetzt gerade interessieren, weil du bist weiblich und du hast die Größe und das Gewicht und du möchtest das und das machen. Guck mal, hier habe ich für dich ein personalisiertes Special, so eine Art Zeitschriftenspecial, die wir früher auch am Kiosk gefunden haben, die natürlich nur sozusagen einmal für die breite Masse erstellt worden sind, kann man jetzt eben mit Technologie automatisiert personalisieren. Man kann dann dort auch noch Anzeigen mit automatisiert einbauen auch mithilfe von KI-Tools und kann sagen „da kommt einer auf meine Seite, der sucht jetzt neue Ausrüstung zum Skifahren“ und dem sage ich „wenn du hier einen Betrag X bezahlst, kriegst du von mir ein 20-seitiges Special zum Thema Skiausrüstung“. So etwas kann man heute mit Technologie automatisieren und sowas kann ein Produkt sein, für welches dann der Leser bereit ist auch zu bezahlen.


00:41:41

Benjamin Kolb: Ich glaube auch, die Angst vor der Paywall ist genommen. Freien Content in so typischen Newsseiten hatten wir auch. E-Paper haben wir gerade einen Zuwachs, aber ich glaube das finale Produkt, wo die Kunden wirklich in hohem Maße bereit sind zu Abonnenten zu werden, das fehlt noch ein bisschen, weil das reine E-Paper ins Digitale zu übertragen ist zwar natürlich gut, weil man dann das Papier spart, aber im Digitalen sind da die Möglichkeiten nicht ausgereizt. Das ist aber sehr interessant, weil es ein Content Bundle ist, wofür man versteht, dass man ein Abo bezahlt. Bei den Newsseiten ist es noch nicht so ganz klar. Wenn ich nur Plus-Artikel freischalte, was mich da so erwartet. Ich glaube da liegt noch großes Potential drin. Produkte zu finden, die wirklich für die Leser cool sind, wofür sie bereit sind so ein Abo zu zahlen.


00:42:26

Dr. Marcus von Harlessem: Ich habe natürlich im Digitalbereich die Möglichkeit über Produktdatenbanken Dinge anzubieten, die so auf dem Papier nicht möglich sind. Ich kann Filtermöglichkeiten anbieten, ich kann weiterführende Inhalte anbieten. Wenn sich einer sagt, er möchte sich eine neue Waschmaschine kaufen, aber die soll einen geringen Wasserverbrauch haben oder die muss mind. 10 kg Volumen haben, bei einer Waschmaschine würde man wahrscheinlich sowieso zu Stiftung Warentest gehen, aber wenn ich wieder die Zielgruppen anschaue, die die Verlage haben und dann sagen sie „wir haben die Kompetenz, wir haben die Kunden, wir haben auch die Kontakte zu den Anbietern und wir können gerade bei dem Thema Information, Auswahlprozesse im Digitalbereich Mehrwerte anbieten, die auf Papier so nicht möglich sind“, da auch keine Angst zu haben, da einfach mal eine Paywall vorzustellen. Wenn jetzt jemand sagt „ich möchte mir was neues kaufen“, z. B. ein neues Fahrrad für viel Geld oder einen neuen Fernseher, ich weiß, da ist nicht nur die Pressemitteilung in neuer Form abgedruckt worden, sondern die haben es sich wirklich angeschaut, die können mir wirklich Vor- und Nachteile von so Produkten nennen, dann bin ich natürlich auch bereit in dem Moment da Geld für zu bezahlen und solche Dinge sollten Verlage mal ausprobieren und den digitalen Raum für solche neuen Produkte nutzen.


00:43:39

Christian Kallenberg: Super. Marcus, vielen Dank für die tiefen Einblicke. Das war wirklich ein Deep Dive. Ich bin gespannt, worüber wir uns in den nächsten fünf Jahren unterhalten, wo da die Trends hingehen und was von dem eingetreten ist, worüber wir heute gesprochen haben.


00:43:55

Benjamin Kolb: Vielen Dank Marcus.


00:43:56

Dr. Marcus von Harlessem: Ja, ich danke euch auch für eure Zeit.  


00:43:59

Christian Kallenberg: Wenn Ihnen, liebe Hörerinnen und Hörer, diese Episode gefallen hat, dann freue ich mich, wenn Sie uns auf der Podcast-Plattform Ihrer Wahl abonnieren.