"KI kann bei Musik richtige Antworten liefern"

Interview

5 Minuten

08.04.2019

Portrait von Lars Ohlendorf

Künstliche Intelligenz kann längst Musik komponieren. Was bedeutet dies für das Radio? Und wie kann man KI zur Kreation neuer Sounds nutzen? Ein Interview mit Lars Ohlendorf, Head of Design bei Wesound, über das künstlerische Potenzial von KI, ihre Bedeutung für die Branche und das Projekt iMozart.

Erstmals hat jetzt eine Künstliche Intelligenz einen Plattenvertrag erhalten. Endel, so der Name, soll für die Firma Warner, einige Alben aufnehmen. Was ist das: Eine Horrorvorstellung für Musiker oder eine Bereicherung?

Ein Witz bestenfalls. Das Faszinierende an Entwicklungen wie Endel ist doch gerade, dass sie die Restriktionen der klassischen, zeitbasierten Medien hinter sich lassen und eben nicht immer gleich sind oder linear. Nimmt man den Output eines solchen Algorithmus einfach als Album auf, verliert man all dies Besondere, und zurück bleibt – nichts! Aus künstlerischer Sicht halte ich das daher schlicht für irrelevant und weder für Horror noch Bereicherung.

Trotzdem: Werden wir bald schon nicht mehr unterscheiden können, ob der Song, den wir im Radio hören, von einem Künstler oder einer KI komponiert wurde?

Radio-Pop ist eine Massenware, die nach genau definiertem Regelwerk gestrickt wird, sei es nun Pop-Klassik, Pop-Rock, Pop-Rap oder Pop-RnB. Und wo es ein genaues Regelwerk gibt, kann KI leicht übernehmen –  auch mit den heutigen Mitteln schon. Es würde allerdings Künstler und Hörer aus der Gleichung des Pop herausnehmen, so dass nur noch der pure Konsum bliebe – dergleichen anzustreben wäre gleichermaßen utopisch wie zynisch.

Die Agentur Wesound betreibt das Forschungsprojekt iMozart. Was kann man sich darunter vorstellen?

iMozart ist ein einfaches Echtzeit-Kompositionswerkzeug, das uns die Adhoc- Komposition von musikalischen Grundideen auf Basis von Markenwerten und allgemeinen, sinnlichen Eigenschaften ermöglicht. Es generiert auf Basis von diesen Informationen – sagen wir zum Beispiel „sportlich“, „aktiv“ und „rau“ – einfache musikalische Strukturen, die diese Anmutung unterstützen. Es ist in erster Linie ein methodischer Ansatz, in zweiter ein kreativer.

Zusammen mit unseren Kunden können wir so spielerisch musikalische Grundgedanken entwickeln und in Echtzeit beliebig weitere Markeneigenschaften in verschiedenen Intensitäten dazu mischen oder wegnehmen; und der Algorithmus passt jeweils die musikalischen Strukturen an. Bisher mussten solche Beispiele jeweils einzeln vorbereitet, sprich: komponiert und produziert werden. Ein immenser und nicht immer budgetgerechter Aufwand! Mithilfe dieser Technologie können wir unseren Künstlern von vorneherein ein viel präziseres Briefing geben, und der Kunde kann die Kreationsprozesse viel besser nachvollziehen.

Wenn wir die Musikindustrie als Ganzes betrachten: Wo bieten sich vielversprechende Einsatzfelder für Künstliche Intelligenz?

Künstliche Intelligenz ist ein riesiger Container von Bedeutungen mit entsprechend vielen Einzelanwendungen. Vom Makrokosmos betrachtet brauchen wir solche Verfahren, um Komplexität leichter verarbeiten zu können, zum Beispiel um wirtschaftliche Potenziale zu finden und im selben Moment bedienen zu können. Was ist zum Beispiel mit der aktuellen EuGH Urheberrechtsentscheidung? Da gibt es so viele Anknüpfungspunkte, wo ein automatisiertes Micromanagement zukünftig – oder schon längst – zwischen Rechteinhabern und Nutzern vermitteln könnte. Und es wäre doch wünschenswert, wenn diese Entwicklung vom selben Kontinent kommt, der auch die Urheberrechte einst hervorgebracht hat.

Wesound ist eine Soundagentur: In welchen Bereichen arbeitest Du bereits mit KI?

Die Frage ist eher: in welchen nicht?

Ok. Anders gefragt: Wie kann KI dabei helfen, den passenden Markenklang zu entwickeln? 

KI kann beim „Prototyping“ helfen – wie iMozart– aber vor allem natürlich bei der Auswertung und Vorhersage von Daten, beispielsweise der Erfassung und Auswertung von früheren Maßnahmen, von musikalischen Trends, der Begleitung und Kontrolle von Implementationsprozessen. Doch auch für den Markenklang selbst ergeben sich ungeahnte neue Möglichkeiten. Technologisch sind wir längst soweit, Markenklang als Algorithmus zu formulieren, das bedeutet, als eine musikalisch-sinnliche Essenz, die sich je nach Bedarf technischen und ästhetischen Kriterien anpasst. Momentan ist das noch das eine Prozent, und wir können kaum abwarten, dass sich dieses Verhältnis umdreht.

Wie aufwendig ist es, mit Artificial Intelligence zu arbeiten? Kann man auf bestehende Tools zugreifen oder muss alles Inhouse entwickelt werden?

Viele Algorithmen kann man bereits bei den üblichen Verdächtigen aus San Francisco beziehen. Und auch gängige Entwicklerplattformen bieten schon diverse Erweiterungen für KI, BD, ML usw. Die eigentlich aufwändige Arbeit liegt wie so oft in der Beantwortung der Frage, welches der tatsächlich intelligenteste Weg zu einem bestimmten Ziel ist. Und der muss nicht immer gleich KI sein.

KI kann vorhandene Musikstücke nach den unterschiedlichsten Kriterien analysieren und kategorisieren. Was bedeutet das für Euer Business?

Nur das: eine Hilfe bei der Kategorisierung und Analyse. Ein nützliches Tool zur Vorbereitung von Datensätzen. 

Kann auch die emotionale Reaktion auf bestimmte Songs mit KI leichter prognostiziert werden? 

Wenn Zeit, Kosten und Unschärfe keine Rolle spielen, dann vielleicht. Unter realistischen Bedingungen jedoch kaum, denn die Zusammenhänge zwischen Musik und Emotion sind für derlei Aussagen noch viel zu komplex und ätherisch.

Könnte es sein, dass wir bald Alexa bitten, uns einen ganz speziell jetzt für unsere Stimmung komponierten Song zu spielen?

Machbar ist das ja bereits. Aber wo wäre der Wert? Pop besteht doch nur zu kleinem Teil aus musikalischer Komposition. Wesentlich sind doch genauso Künstlerpersönlichkeit, Videokunst, Artwork, die Texte natürlich, das kulturell-sozialpolitische Umfeld des Künstlers sowie des Hörers und noch viele Facetten mehr. Kontext macht Musik aufregend. Die bloße Komposition ist irrelevant, siehe die Alben von Endel.

Wird Euch Artificial Intelligence eines Tages arbeitslos machen? Weil der Brand Manager über eine App in Sekundenbruchteilen Vorschläge für seine Markenklänge erhält?

Das Problem ist ja gar nicht so sehr die Übersetzung von Markenwerten in Musik, sondern vielmehr
a) die Erfassung dessen, was eine Marke tatsächlich ausmacht,
b) was davon man über den akustischen Kanal kommuniziert  
und c) wie man das künstlerisch wertvoll interpretieren kann.
Hier liegt der Kern unserer Arbeit. Gemeinsam mit dem Kunden herauszufinden, was die jeweilige Marke neben der notorischen „Dynamik“, „Leidenschaft“, „Kraft“ und „Vision“ eigentlich ausmacht und das dann auf eine künstlerisch anspruchsvolle, nicht einfach nur mathematisch richtige Art und Weise zu interpretieren. KI kann richtige Antworten liefern, aber entscheidend sind wie so oft die richtigen Fragen.

Das Interview führte Helmut van Rinsum

Lars Ohlendorf ist Tonmeister, Sound Designer und Komponist. Zudem ist er Spezialist für 3D Audio, interaktives Design und generative Systeme. Bei WESOUND ist er als Creative Director & Head of Design für die Entwicklung von Sound-Konzepten, Musik-Strategien sowie die Supervision des Produktionsteams verantwortlich.


"KI kann bei Musik richtige Antworten liefern"

Interview

5 Minuten

08.04.2019

Portrait von Lars Ohlendorf

Künstliche Intelligenz kann längst Musik komponieren. Was bedeutet dies für das Radio? Und wie kann man KI zur Kreation neuer Sounds nutzen? Ein Interview mit Lars Ohlendorf, Head of Design bei Wesound, über das künstlerische Potenzial von KI, ihre Bedeutung für die Branche und das Projekt iMozart.

Erstmals hat jetzt eine Künstliche Intelligenz einen Plattenvertrag erhalten. Endel, so der Name, soll für die Firma Warner, einige Alben aufnehmen. Was ist das: Eine Horrorvorstellung für Musiker oder eine Bereicherung?

Ein Witz bestenfalls. Das Faszinierende an Entwicklungen wie Endel ist doch gerade, dass sie die Restriktionen der klassischen, zeitbasierten Medien hinter sich lassen und eben nicht immer gleich sind oder linear. Nimmt man den Output eines solchen Algorithmus einfach als Album auf, verliert man all dies Besondere, und zurück bleibt – nichts! Aus künstlerischer Sicht halte ich das daher schlicht für irrelevant und weder für Horror noch Bereicherung.

Trotzdem: Werden wir bald schon nicht mehr unterscheiden können, ob der Song, den wir im Radio hören, von einem Künstler oder einer KI komponiert wurde?

Radio-Pop ist eine Massenware, die nach genau definiertem Regelwerk gestrickt wird, sei es nun Pop-Klassik, Pop-Rock, Pop-Rap oder Pop-RnB. Und wo es ein genaues Regelwerk gibt, kann KI leicht übernehmen –  auch mit den heutigen Mitteln schon. Es würde allerdings Künstler und Hörer aus der Gleichung des Pop herausnehmen, so dass nur noch der pure Konsum bliebe – dergleichen anzustreben wäre gleichermaßen utopisch wie zynisch.

Die Agentur Wesound betreibt das Forschungsprojekt iMozart. Was kann man sich darunter vorstellen?

iMozart ist ein einfaches Echtzeit-Kompositionswerkzeug, das uns die Adhoc- Komposition von musikalischen Grundideen auf Basis von Markenwerten und allgemeinen, sinnlichen Eigenschaften ermöglicht. Es generiert auf Basis von diesen Informationen – sagen wir zum Beispiel „sportlich“, „aktiv“ und „rau“ – einfache musikalische Strukturen, die diese Anmutung unterstützen. Es ist in erster Linie ein methodischer Ansatz, in zweiter ein kreativer.

Zusammen mit unseren Kunden können wir so spielerisch musikalische Grundgedanken entwickeln und in Echtzeit beliebig weitere Markeneigenschaften in verschiedenen Intensitäten dazu mischen oder wegnehmen; und der Algorithmus passt jeweils die musikalischen Strukturen an. Bisher mussten solche Beispiele jeweils einzeln vorbereitet, sprich: komponiert und produziert werden. Ein immenser und nicht immer budgetgerechter Aufwand! Mithilfe dieser Technologie können wir unseren Künstlern von vorneherein ein viel präziseres Briefing geben, und der Kunde kann die Kreationsprozesse viel besser nachvollziehen.

Wenn wir die Musikindustrie als Ganzes betrachten: Wo bieten sich vielversprechende Einsatzfelder für Künstliche Intelligenz?

Künstliche Intelligenz ist ein riesiger Container von Bedeutungen mit entsprechend vielen Einzelanwendungen. Vom Makrokosmos betrachtet brauchen wir solche Verfahren, um Komplexität leichter verarbeiten zu können, zum Beispiel um wirtschaftliche Potenziale zu finden und im selben Moment bedienen zu können. Was ist zum Beispiel mit der aktuellen EuGH Urheberrechtsentscheidung? Da gibt es so viele Anknüpfungspunkte, wo ein automatisiertes Micromanagement zukünftig – oder schon längst – zwischen Rechteinhabern und Nutzern vermitteln könnte. Und es wäre doch wünschenswert, wenn diese Entwicklung vom selben Kontinent kommt, der auch die Urheberrechte einst hervorgebracht hat.

Wesound ist eine Soundagentur: In welchen Bereichen arbeitest Du bereits mit KI?

Die Frage ist eher: in welchen nicht?

Ok. Anders gefragt: Wie kann KI dabei helfen, den passenden Markenklang zu entwickeln? 

KI kann beim „Prototyping“ helfen – wie iMozart– aber vor allem natürlich bei der Auswertung und Vorhersage von Daten, beispielsweise der Erfassung und Auswertung von früheren Maßnahmen, von musikalischen Trends, der Begleitung und Kontrolle von Implementationsprozessen. Doch auch für den Markenklang selbst ergeben sich ungeahnte neue Möglichkeiten. Technologisch sind wir längst soweit, Markenklang als Algorithmus zu formulieren, das bedeutet, als eine musikalisch-sinnliche Essenz, die sich je nach Bedarf technischen und ästhetischen Kriterien anpasst. Momentan ist das noch das eine Prozent, und wir können kaum abwarten, dass sich dieses Verhältnis umdreht.

Wie aufwendig ist es, mit Artificial Intelligence zu arbeiten? Kann man auf bestehende Tools zugreifen oder muss alles Inhouse entwickelt werden?

Viele Algorithmen kann man bereits bei den üblichen Verdächtigen aus San Francisco beziehen. Und auch gängige Entwicklerplattformen bieten schon diverse Erweiterungen für KI, BD, ML usw. Die eigentlich aufwändige Arbeit liegt wie so oft in der Beantwortung der Frage, welches der tatsächlich intelligenteste Weg zu einem bestimmten Ziel ist. Und der muss nicht immer gleich KI sein.

KI kann vorhandene Musikstücke nach den unterschiedlichsten Kriterien analysieren und kategorisieren. Was bedeutet das für Euer Business?

Nur das: eine Hilfe bei der Kategorisierung und Analyse. Ein nützliches Tool zur Vorbereitung von Datensätzen. 

Kann auch die emotionale Reaktion auf bestimmte Songs mit KI leichter prognostiziert werden? 

Wenn Zeit, Kosten und Unschärfe keine Rolle spielen, dann vielleicht. Unter realistischen Bedingungen jedoch kaum, denn die Zusammenhänge zwischen Musik und Emotion sind für derlei Aussagen noch viel zu komplex und ätherisch.

Könnte es sein, dass wir bald Alexa bitten, uns einen ganz speziell jetzt für unsere Stimmung komponierten Song zu spielen?

Machbar ist das ja bereits. Aber wo wäre der Wert? Pop besteht doch nur zu kleinem Teil aus musikalischer Komposition. Wesentlich sind doch genauso Künstlerpersönlichkeit, Videokunst, Artwork, die Texte natürlich, das kulturell-sozialpolitische Umfeld des Künstlers sowie des Hörers und noch viele Facetten mehr. Kontext macht Musik aufregend. Die bloße Komposition ist irrelevant, siehe die Alben von Endel.

Wird Euch Artificial Intelligence eines Tages arbeitslos machen? Weil der Brand Manager über eine App in Sekundenbruchteilen Vorschläge für seine Markenklänge erhält?

Das Problem ist ja gar nicht so sehr die Übersetzung von Markenwerten in Musik, sondern vielmehr
a) die Erfassung dessen, was eine Marke tatsächlich ausmacht,
b) was davon man über den akustischen Kanal kommuniziert  
und c) wie man das künstlerisch wertvoll interpretieren kann.
Hier liegt der Kern unserer Arbeit. Gemeinsam mit dem Kunden herauszufinden, was die jeweilige Marke neben der notorischen „Dynamik“, „Leidenschaft“, „Kraft“ und „Vision“ eigentlich ausmacht und das dann auf eine künstlerisch anspruchsvolle, nicht einfach nur mathematisch richtige Art und Weise zu interpretieren. KI kann richtige Antworten liefern, aber entscheidend sind wie so oft die richtigen Fragen.

Das Interview führte Helmut van Rinsum

Lars Ohlendorf ist Tonmeister, Sound Designer und Komponist. Zudem ist er Spezialist für 3D Audio, interaktives Design und generative Systeme. Bei WESOUND ist er als Creative Director & Head of Design für die Entwicklung von Sound-Konzepten, Musik-Strategien sowie die Supervision des Produktionsteams verantwortlich.


"KI kann bei Musik richtige Antworten liefern"

Interview

5 Minuten

08.04.2019

Portrait von Lars Ohlendorf

Künstliche Intelligenz kann längst Musik komponieren. Was bedeutet dies für das Radio? Und wie kann man KI zur Kreation neuer Sounds nutzen? Ein Interview mit Lars Ohlendorf, Head of Design bei Wesound, über das künstlerische Potenzial von KI, ihre Bedeutung für die Branche und das Projekt iMozart.

Erstmals hat jetzt eine Künstliche Intelligenz einen Plattenvertrag erhalten. Endel, so der Name, soll für die Firma Warner, einige Alben aufnehmen. Was ist das: Eine Horrorvorstellung für Musiker oder eine Bereicherung?

Ein Witz bestenfalls. Das Faszinierende an Entwicklungen wie Endel ist doch gerade, dass sie die Restriktionen der klassischen, zeitbasierten Medien hinter sich lassen und eben nicht immer gleich sind oder linear. Nimmt man den Output eines solchen Algorithmus einfach als Album auf, verliert man all dies Besondere, und zurück bleibt – nichts! Aus künstlerischer Sicht halte ich das daher schlicht für irrelevant und weder für Horror noch Bereicherung.

Trotzdem: Werden wir bald schon nicht mehr unterscheiden können, ob der Song, den wir im Radio hören, von einem Künstler oder einer KI komponiert wurde?

Radio-Pop ist eine Massenware, die nach genau definiertem Regelwerk gestrickt wird, sei es nun Pop-Klassik, Pop-Rock, Pop-Rap oder Pop-RnB. Und wo es ein genaues Regelwerk gibt, kann KI leicht übernehmen –  auch mit den heutigen Mitteln schon. Es würde allerdings Künstler und Hörer aus der Gleichung des Pop herausnehmen, so dass nur noch der pure Konsum bliebe – dergleichen anzustreben wäre gleichermaßen utopisch wie zynisch.

Die Agentur Wesound betreibt das Forschungsprojekt iMozart. Was kann man sich darunter vorstellen?

iMozart ist ein einfaches Echtzeit-Kompositionswerkzeug, das uns die Adhoc- Komposition von musikalischen Grundideen auf Basis von Markenwerten und allgemeinen, sinnlichen Eigenschaften ermöglicht. Es generiert auf Basis von diesen Informationen – sagen wir zum Beispiel „sportlich“, „aktiv“ und „rau“ – einfache musikalische Strukturen, die diese Anmutung unterstützen. Es ist in erster Linie ein methodischer Ansatz, in zweiter ein kreativer.

Zusammen mit unseren Kunden können wir so spielerisch musikalische Grundgedanken entwickeln und in Echtzeit beliebig weitere Markeneigenschaften in verschiedenen Intensitäten dazu mischen oder wegnehmen; und der Algorithmus passt jeweils die musikalischen Strukturen an. Bisher mussten solche Beispiele jeweils einzeln vorbereitet, sprich: komponiert und produziert werden. Ein immenser und nicht immer budgetgerechter Aufwand! Mithilfe dieser Technologie können wir unseren Künstlern von vorneherein ein viel präziseres Briefing geben, und der Kunde kann die Kreationsprozesse viel besser nachvollziehen.

Wenn wir die Musikindustrie als Ganzes betrachten: Wo bieten sich vielversprechende Einsatzfelder für Künstliche Intelligenz?

Künstliche Intelligenz ist ein riesiger Container von Bedeutungen mit entsprechend vielen Einzelanwendungen. Vom Makrokosmos betrachtet brauchen wir solche Verfahren, um Komplexität leichter verarbeiten zu können, zum Beispiel um wirtschaftliche Potenziale zu finden und im selben Moment bedienen zu können. Was ist zum Beispiel mit der aktuellen EuGH Urheberrechtsentscheidung? Da gibt es so viele Anknüpfungspunkte, wo ein automatisiertes Micromanagement zukünftig – oder schon längst – zwischen Rechteinhabern und Nutzern vermitteln könnte. Und es wäre doch wünschenswert, wenn diese Entwicklung vom selben Kontinent kommt, der auch die Urheberrechte einst hervorgebracht hat.

Wesound ist eine Soundagentur: In welchen Bereichen arbeitest Du bereits mit KI?

Die Frage ist eher: in welchen nicht?

Ok. Anders gefragt: Wie kann KI dabei helfen, den passenden Markenklang zu entwickeln? 

KI kann beim „Prototyping“ helfen – wie iMozart– aber vor allem natürlich bei der Auswertung und Vorhersage von Daten, beispielsweise der Erfassung und Auswertung von früheren Maßnahmen, von musikalischen Trends, der Begleitung und Kontrolle von Implementationsprozessen. Doch auch für den Markenklang selbst ergeben sich ungeahnte neue Möglichkeiten. Technologisch sind wir längst soweit, Markenklang als Algorithmus zu formulieren, das bedeutet, als eine musikalisch-sinnliche Essenz, die sich je nach Bedarf technischen und ästhetischen Kriterien anpasst. Momentan ist das noch das eine Prozent, und wir können kaum abwarten, dass sich dieses Verhältnis umdreht.

Wie aufwendig ist es, mit Artificial Intelligence zu arbeiten? Kann man auf bestehende Tools zugreifen oder muss alles Inhouse entwickelt werden?

Viele Algorithmen kann man bereits bei den üblichen Verdächtigen aus San Francisco beziehen. Und auch gängige Entwicklerplattformen bieten schon diverse Erweiterungen für KI, BD, ML usw. Die eigentlich aufwändige Arbeit liegt wie so oft in der Beantwortung der Frage, welches der tatsächlich intelligenteste Weg zu einem bestimmten Ziel ist. Und der muss nicht immer gleich KI sein.

KI kann vorhandene Musikstücke nach den unterschiedlichsten Kriterien analysieren und kategorisieren. Was bedeutet das für Euer Business?

Nur das: eine Hilfe bei der Kategorisierung und Analyse. Ein nützliches Tool zur Vorbereitung von Datensätzen. 

Kann auch die emotionale Reaktion auf bestimmte Songs mit KI leichter prognostiziert werden? 

Wenn Zeit, Kosten und Unschärfe keine Rolle spielen, dann vielleicht. Unter realistischen Bedingungen jedoch kaum, denn die Zusammenhänge zwischen Musik und Emotion sind für derlei Aussagen noch viel zu komplex und ätherisch.

Könnte es sein, dass wir bald Alexa bitten, uns einen ganz speziell jetzt für unsere Stimmung komponierten Song zu spielen?

Machbar ist das ja bereits. Aber wo wäre der Wert? Pop besteht doch nur zu kleinem Teil aus musikalischer Komposition. Wesentlich sind doch genauso Künstlerpersönlichkeit, Videokunst, Artwork, die Texte natürlich, das kulturell-sozialpolitische Umfeld des Künstlers sowie des Hörers und noch viele Facetten mehr. Kontext macht Musik aufregend. Die bloße Komposition ist irrelevant, siehe die Alben von Endel.

Wird Euch Artificial Intelligence eines Tages arbeitslos machen? Weil der Brand Manager über eine App in Sekundenbruchteilen Vorschläge für seine Markenklänge erhält?

Das Problem ist ja gar nicht so sehr die Übersetzung von Markenwerten in Musik, sondern vielmehr
a) die Erfassung dessen, was eine Marke tatsächlich ausmacht,
b) was davon man über den akustischen Kanal kommuniziert  
und c) wie man das künstlerisch wertvoll interpretieren kann.
Hier liegt der Kern unserer Arbeit. Gemeinsam mit dem Kunden herauszufinden, was die jeweilige Marke neben der notorischen „Dynamik“, „Leidenschaft“, „Kraft“ und „Vision“ eigentlich ausmacht und das dann auf eine künstlerisch anspruchsvolle, nicht einfach nur mathematisch richtige Art und Weise zu interpretieren. KI kann richtige Antworten liefern, aber entscheidend sind wie so oft die richtigen Fragen.

Das Interview führte Helmut van Rinsum

Lars Ohlendorf ist Tonmeister, Sound Designer und Komponist. Zudem ist er Spezialist für 3D Audio, interaktives Design und generative Systeme. Bei WESOUND ist er als Creative Director & Head of Design für die Entwicklung von Sound-Konzepten, Musik-Strategien sowie die Supervision des Produktionsteams verantwortlich.


Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.