Cases aus dem Prototyping Lab
Hier findest du alle Cases aus den vergangenen Labs. Spannende Prototypen rund um Künstliche Intelligenz sowie Virtual und Mixed Reality.
Hier findest du alle Cases aus den vergangenen Labs. Spannende Prototypen rund um Künstliche Intelligenz sowie Virtual und Mixed Reality.
Beim Prototyping Lab 2024 haben die teilnehmenden Unternehmen SPIEGEL, Carlsen, Onilo, Geolino und GEMA gemeinsam mit Studierenden innovative Anwendungen künstlicher Intelligenz für die Medien- und Verlagswelt erprobt. In interdisziplinären Teams wurden innerhalb weniger Wochen funktionale Prototypen entwickelt, die zeigen, wie KI kreative, redaktionelle und produktionstechnische Prozesse sinnvoll unterstützen kann – von automatisierter Datenvisualisierung über KI-gestützte Comicproduktion bis hin zu Workflows zur Videogenerierung. Die folgenden Projektbeschreibungen geben einen Einblick in die jeweiligen Problemstellungen, Lösungsansätze und Ergebnisse.
Problemstellung: Die Redaktion des SPIEGEL arbeitet regelmäßig mit datenbasierten Inhalten, doch viele Artikel bleiben rein textlich, obwohl sie sich für visuelle Ergänzungen eignen würden. Das erschwert Leser:innen das Verständnis komplexer Entwicklungen und Trends. Gleichzeitig fehlt es im journalistischen Alltag oft an Zeit, geeignete Diagramme auf Basis valider Daten zu erstellen. Ziel des Projekts war es daher, einen Prototypen zu entwickeln, der mithilfe von KI automatisch passende Visualisierungsvorschläge generiert – auf Grundlage öffentlich zugänglicher Daten, etwa von Destatis – und diese direkt in einem gängigen Format umsetzt, etwa über Datawrapper. Die Herausforderung bestand darin, eine technische Lösung zu finden, die den redaktionellen Alltag tatsächlich entlastet und gleichzeitig journalistische Standards wie Faktentreue und Quellenklarheit wahrt.
Lösungsansatz: Der entwickelte Prototyp mit dem Arbeitstitel „SPIEGEL-ÆI“ kombiniert LLM-basierte Textanalyse mit algorithmischer Datensuche und automatischer Diagrammerstellung. Ausgangspunkt ist der Artikeltext: Dieser wird durch ein Sprachmodell wie GPT analysiert, um zentrale Themen, Schlüsselbegriffe und potenzielle Visualisierungsideen zu extrahieren. Im nächsten Schritt durchsucht das System die Destatis-API nach passenden Datensätzen, prüft deren Relevanz und erstellt daraus Visualisierungen – inklusive Titel, Beschriftung und Quellenangabe – direkt im Tool Datawrapper. Dabei wurde bewusst eine strikte Trennung zwischen kreativer Analyse (LLM) und faktenbasierter Datenverarbeitung eingehalten, um Halluzinationen zu vermeiden. Die Umsetzung erfolgte in einem interdisziplinären Team, das technische Komponenten (API-Verknüpfung, Python-Logik), redaktionelle Perspektiven (Visualisierungsarten, Stil) und UX-Aspekte (Bedienbarkeit, Ergebnisdarstellung) zusammenführte.
Ergebnisse: Mit dem SPIEGEL-ÆI wurde ein funktionierender Prototyp geschaffen, der zeigt, wie sich der redaktionelle Workflow im Bereich Datenvisualisierung durch KI sinnvoll ergänzen lässt. Das System kann zu konkreten Texten passende, datenbasierte Diagramme generieren – schnell, automatisch und im Stil etablierter SPIEGEL-Grafiken. Dadurch wird nicht nur der Aufwand für redaktionelle Recherchen und manuelle Diagrammerstellung deutlich reduziert, sondern auch das Leseerlebnis für Nutzer:innen verbessert. Gleichzeitig liefert das Projekt wichtige Erkenntnisse zu den Stärken und Grenzen heutiger KI-Systeme im journalistischen Einsatz: Während Themenfindung und Datenrecherche überzeugend automatisiert werden konnten, zeigten sich bei der Destatis-API noch technische Limitationen, etwa bei Geschwindigkeit und Datenzugriff. Insgesamt legt der Prototyp eine solide Grundlage für eine zukunftsfähige Integration von KI-gestützter Datenvisualisierung im redaktionellen Alltag.
Problemstellung: Die GEMA ist traditionell in der klassischen Musikindustrie verankert, doch mit dem Aufstieg von Social Media und UGC-Plattformen hat sich das Musikökosystem verändert. Music Content Creators (MCCs) – Musiker:innen, die hauptsächlich auf Plattformen wie TikTok oder Instagram aktiv sind – wurden bislang kaum als Zielgruppe berücksichtigt. Sie stehen vor neuen Herausforderungen: mangelnde Sichtbarkeit, fehlende Anerkennung, rechtliche Unsicherheiten und hoher Druck zur kontinuierlichen Content-Produktion. Die zentrale Fragestellung lautete daher: Wie kann die GEMA innovative, relevante Lösungen bieten, um die größten Pain Points dieser Zielgruppe zu adressieren und sich gleichzeitig als relevanter Partner im Social-Media-Umfeld positionieren?
Lösungsansatz: Im Rahmen einer Design-Thinking-Challenge wurde ein nutzerzentrierter Entwicklungsprozess aufgesetzt. Nach intensiver Recherche und acht qualitativen Interviews mit semiprofessionellen MCCs wurden zentrale Bedürfnisse und Herausforderungen identifiziert. Basierend darauf entwickelte das interdisziplinäre Team – in enger Abstimmung mit dem GEMA-Innovationsteam – mehrere Lösungsideen. Daraus entstand der Prototyp „Spotlight“: ein Dashboard, das speziell auf die Bedürfnisse von MCCs zugeschnitten ist. Die Plattform kombiniert Social-Media-Analytics mit Gamification-Elementen und Inspirationstools. Die Entwicklung konzentrierte sich auf eine Low-Fidelity-Version mit Fokus auf Frontend und User Experience.
Ergebnisse: „Spotlight“ bietet drei zentrale Funktionen, die sich direkt an den Bedürfnissen der MCCs orientieren:
Der Prototyp unterscheidet sich klar von bestehenden Marktangeboten wie Viberate oder Infludata, da er MCCs in den Mittelpunkt stellt und nicht primär Marken oder Streaming-Daten adressiert. Das einzigartige Wertversprechen liegt in der Kombination aus Visibility, Recognition, Inspiration und Community-Building. Langfristig könnte die Plattform monetarisiert und in bestehende GEMA-Angebote wie GEMAPlus integriert werden. Eine Erweiterung um weitere Datenquellen und Zielgruppen ist ebenfalls denkbar. „Spotlight“ bietet somit eine zukunftsfähige Grundlage für die Positionierung der GEMA in der Creator Economy.
Problemstellung: Wie lassen sich klassische Romane effizient in moderne Comics oder Graphic Novels überführen – und welche Rolle kann dabei Künstliche Intelligenz spielen? Mit dieser Frage wandte sich der Carlsen Verlag an ein studentisches Team. Ziel war es, Kreative in ihrem Produktionsprozess unterstützen, insbesondere bei Literaturadaptionen wie der Schatzinsel von Robert Louis Stevenson.
Lösungsansatz: Das Team entwickelte einen interaktiven Prototyp, mit dem sich per Klick ganze Comicseiten generieren lassen. Der Clou: Auch einzelne Panels können neu generiert werden, ohne dass die komplette Comicseite neu gestaltet werden muss. Auf einer speziell erstellten Website können Nutzer:innen Story-Ideen, Figuren und Seitenlayouts auswählen. Mithilfe verschiedener KI-Tools – darunter ChatGPT, Midjourney, Replicate und die OpenAI-API – werden daraufhin automatisch passende Panels, Bildmotive und Sprechblasen erstellt.
Ergebnisse: Die generierten Comicseiten lassen sich herunterladen, per QR-Code teilen oder bei Bedarf weiterbearbeiten. Der Prototyp zeigt realistisch, wie sich einzelne Arbeitsschritte – etwa Skripterstellung, Charakterdesign oder Kolorierung – durch KI deutlich effizienter gestalten lassen. Als Proof of Concept entstand ein vollständiger, vierseitiger Comic inklusive Cover, der das dramatische Finale der Schatzinsel visuell umsetzt und dem Verlag ein greifbares Ergebnis liefert.
Problemstellung: Onilo produziert sogenannte Boardstories – animierte Geschichten auf Basis von Kinderbüchern, die die Lesekompetenz von Kindern fördern. Die Produktion ist jedoch sehr zeitintensiv, insbesondere das manuelle Freistellen von Figuren und Objekten aus den Originalillustrationen für die spätere Animation. Diese Arbeitsschritte binden über 60 % der Arbeitszeit von Animator:innen. Gleichzeitig gelten hohe Anforderungen an den Datenschutz, da häufig lizensiertes Material verarbeitet wird.
Lösungsansatz: Um diesen Engpass zu lösen, wurde ein Prototyp entwickelt, der das Segment Anything Model (SAM) von Meta lokal einsetzt. SAM kann auf Basis weniger Nutzerinteraktionen (z. B. Klicks oder Boxen) automatisch Objekte in Bildern erkennen, segmentieren und freistellen. Ergänzend wurde eine benutzerfreundliche Web-Oberfläche implementiert, die speziell auf die Anforderungen von Onilo abgestimmt ist.
Ergebnisse: Die entwickelte Anwendung erlaubt es, Bilder hochzuladen und mit SAM gezielt Bildteile auszuschneiden. Es stehen verschiedene Interaktionsmodi zur Verfügung (Punkt, Box, automatische Segmentierung), die auch von nicht-technischen Nutzer:innen intuitiv bedient werden können. Die erzeugten Masken lassen sich als Einzelbilder exportieren und direkt in der Animationssoftware weiterverwenden. Ein zusätzlicher Slider ermöglicht das Anpassen der Segmentierungsgenauigkeit, sodass auch feine Bilddetails berücksichtigt werden können.
Der Prototyp wird lokal betrieben, was die datenschutzkonforme Verarbeitung von urheberrechtlich geschütztem Material sicherstellt – ein wichtiger Punkt für Onilo und die kooperierenden Verlage.
Problemstellung: Die Redaktion von „Mein erstes Geolino“ möchte kurze animierte Geschichten rund um die Figur Lu und seine Freunde produzieren – kindgerecht erzählt und auf die Zielgruppe von 2–5 Jahren abgestimmt. Da im Team jedoch keine Kenntnisse in Animation, Videoschnitt oder technischer Umsetzung vorhanden sind, bestand die Herausforderung darin, einen möglichst automatisierten Produktionsprozess zu entwickeln. Das Ziel: Ein Tool, das ach Eingabe eines Prompts für eine Kurzgeschichte automatisch passende Bilder erzeugt, diese animiert, vertont und mit Soundeffekten anreichert – im konsistenten Stil der Marke und ohne manuellen Produktionsaufwand.
Lösungsansatz: Um das gewünschte Tool umzusetzen, wurde ein Prototyp entwickelt, der aktuelle KI-Technologien zu einem realistischen Workflow kombiniert. In einem mehrstufigen Prozess wurden zunächst Story-Inhalte automatisch generiert, anschließend Figuren und Hintergründe auf Basis vorhandener Illustrationen erstellt. Für die Animation kamen verschiedene Methoden zum Einsatz – darunter ein Skelett-Ansatz sowie Modelle wie Sora von OpenAI. Eine KI-generierte Erzählerstimme sowie Soundeffekte ergänzten die visuelle Ebene. Für die praktische Anwendung wurde eine Website entwickelt, die diesen Prozess abbildet und den Einstieg in die KI-gestützte Produktion erleichtert.
Ergebnisse: Der entwickelte Prototyp zeigt exemplarisch, wie KI die Arbeit der Geolino-Redaktion im Digitalbereich unterstützen kann. Die Website fungiert als zentrale Plattform für Inspiration, Demonstration und Workflow-Dokumentation. Sie veranschaulicht, wie einzelne Schritte – von der Texterstellung über Bild- und Videogenerierung bis zur Postproduktion – durch KI unterstützt werden können. Besonders deutlich wurde: Während Text- und Bild-KIs bereits überzeugende Ergebnisse liefern, bestehen bei der Videoanimation noch technische Hürden, etwa bei Bewegungssteuerung und Stiltreue. Dennoch liefert das Projekt eine tragfähige Grundlage für zukünftige Entwicklungen – mit klaren Potenzialen zur Effizienzsteigerung und kreativen Unterstützung im redaktionellen Alltag.
Im Prototyping Lab 2022 haben 12 Studierende aus vier Hochschulen KI-Lösungen für den Carlsen Verlag, den Jahreszeiten Verlag und RMS entwickelt.
Die Challenge von Team Carlsen bestand darin, eine KI zu entwickeln, die das Lettering bei der Übersetzung ausländischer Comics erleichtert. Dieser Prozess erfolgt normalerweise von Hand und ist deshalb zeit-, personal- und kostenintensiv. Die KI soll die Sprechblasen ausländischer Comics automatisch erkennen, ihre Form und Größe bestimmen und anschließend mit deutschen Texten neu befüllen. Dabei soll der Text optisch ansprechend und in passende Paragrafen unterteilt eingefügt werden.
Die Studierenden entwickelten einen Prototyp, der zunächst per optischer Zeichenerkennung Worte erkennt und diese anschließend in Gruppen zuordnet, die jeweils eine Sprechblase repräsentieren. Die Sprechblasen werden in der Version des Comics mit leeren Sprechblasen von dem Prototyp gefunden und ausgemessen. Da das Programm die Sprechblasen im Originalcomic nummeriert hat, können die Übersetzungstexte mithilfe der Messdaten passend in ihre jeweilige Sprechblase eingefügt werden.
Das Radio hat sich im Rahmen der digitalen Transformation zu einem Multichannel-Medium entwickelt. Eine der zentralen Fragen in dieser digitalen Welt ist die der Werbewirkung. Wie messen wir die Conversion eines digitalen Audiospots? Wie weisen wir nach, dass ein Audiospot aus einem Hörenden eine interagierende Person macht? Das Team RMS sollte deshalb im Rahmen des Prototyping Labs eine Lösung entwickeln, mit der die Wirkung von Werbung bei digitalen Audiospots gemessen werden kann.
Um diese Challenge zu lösen, entwickelten die Studierenden einen Algorithmus zur Audioerkennung. Der Algorithmus kann anhand von einer Sekunde eines Audiospots erkennen, ob dieser eine Audiowerbung von RMS ist oder nicht. Falls es als RMS-Audio erkannt wird, kann das Programm feststellen, um welchen Audiospot es sich handelt.
Das Team Jahreszeiten Verlag beschäftigte sich im Prototyping Lab mit der Herausforderung, ein Marktforschungstool für Entscheidungsträger*innen des Jahreszeiten Verlags zu entwickeln, mithilfe dessen Food-Trends für die Zielgruppe 20-30 Jahre identifiziert werden können. Langfristig sollen so auf der Datengrundlage des Tools strategische Produktentwicklungsentscheidungen getroffen werden können.
Das Team löste die Challenge, indem sie einen Prototypen mit mehreren Komponenten konzipierten. Bei der Data Collection werden zunächst mit einem Scraper Daten von TikTok gesammelt, die zur Trendanalyse verwendet werden können. Anschließend werden die Daten mithilfe anderer Programme aufbereitet und so gespeichert, dass sie von Entscheidungsträger*innen des Jahreszeiten Verlag ausgelesen und für Produktentwicklungsentscheidungen genutzt werden können.
Ob in einem Verlag, einem Medienhaus oder einer Agentur – künstliche Intelligenz kann die Zukunft der Medien verändern. Im Prototyping Lab 2021 haben 20 Studierende aus fünf Hochschulen mit vier Partnerunternehmen zusammengearbeitet und KI-Lösungen für Herausforderungen der Content-Branche entwickelt.
Die Challenge: Im Carlsen Verlag erscheinen jährlich mehr als 700 Bücher. Wie kann ein KI-Tool bei der Nachdruckentscheidung helfen, die ideale Bestellmenge und den Zeitpunkt zu bestimmen? Ziel war es, die Kosten für Lager, Produktion und Abfall zu reduzieren und gleichzeitig die Lieferfähigkeit zu sichern.
Der Prototyp: Zunächst wurden die internen Lagerabverkaufsdaten, Metadaten der Titel und Kalkulationstabellen analysiert. Bei der Umsetzung entschied sich das Team für einen Orchestration-Ansatz, bei dem die Clusterung der Daten und der Einsatz eines rekurrenten neuronalen Netzes (RNN) kombiniert wurden. Der Empfehlungsprozess teilt sich dabei in zwei Phasen auf: Dem Vorhersagen der Abverkaufsverläufe und der Berechnung der Nachdruckentscheidung. Bei einem finalen Test überzeugte der Prototyp mit realitätsnahen Prognosen und einem enormen Zeitersparnis, da pro Titel die Kalkulationszeit um 50% reduziert werden konnte (von 3 auf 2 Stunden).
Die Challenge: Das Archiv auf spiegel.de beinhaltet mehr als eine Million Artikel. Wie kann der Spiegel seine großen Mengen an Artikeln und Metainformationen mithilfe von Künstlicher Intelligenz sinnvoll verarbeiten und daraus neue Angebote schaffen?
Der Prototyp: Im Kickoff-Workshop entstand die Idee, einen interaktiven und übersichtlichen Jahresrückblick zu erstellen. Das Team entschied sich für die Umsetzung das bereits vortrainierte Open-Source-KI-Modell “Spa.cy” zu nutzen, das schon eine sehr hohe Trefferquote (91%) in diesem Bereich vorweist. Aufgrund der kurzen Zeit und der großen Menge an Daten wurde der Prototyp auf das Jahr 2020 und die Entität Personen eingegrenzt. Unter dem Arbeitstitel “Spiegel-Zeitreise” ist eine Web-Applikation entstanden, die mittels Künstlicher Intelligenz aus dem Archiv einen visuellen Jahresrückblick mit den fünf wichtigsten Persönlichkeiten und weiterführenden Informationen und Artikeln zu ihnen erstellt. Das dafür genutzte Backend-System mit angeschlossener Datenbank könnte in Zukunft auch für andere Einsatzzwecke genutzt werden, z. B. für die Zusammenfassung und automatische Verschlagwortung von Texten.
Die Challenge: Markenführung wird im digitalen Zeitalter immer komplexer und herausfordernder. Fork Unstable Media hat dafür den Modular Branding-Ansatz entwickelt, mit dem sie Marken als dynamische “Persönlichkeiten“, sog. Brand Tokens, interpretiert. Wie kann mittels KI das Potenzial dieses Modells genutzt werden, um Markenprofile automatisch anzupassen?
Der Prototyp: Als Ansatzpunkt wählte das Team die mittels Machine Learning ermittelten Präferenzen der User*innen, die in eine personalisierte Darstellung der Webseite übersetzt werden sollten. Hierfür wurden KPIs wie die Verweildauer oder Interaktionsrate definiert. Das größte Problem bestand in den fehlenden Nutzungsdaten, weswegen sich das Team für das Training mit künstlichen Nutzer*innen unter realen Bedingungen entschied. Eine Performance-KI überprüft die definierten KPIs der Webseite, während eine Design-KI die Darstellung der Webseite automatisiert anpasst. Nach 2000 Wiederholungen liegt die Treffergenauigkeit bei 30% und damit deutlich über den Werten, die eine menschliche Schätzung ergeben würde.
Die Challenge: tigermedia steht vor der Herausforderung, die über 10.000 Titel in ihrer Mediathek, zu der regelmäßig neue Inhalte dazukommen, zu pflegen und zu kategorisieren. Ziel des Labs war es daher, die Menge an Content intelligent zu analysieren und aufzubereiten, um die damit verbundenen Prozesse zu optimieren.
Der Prototyp: Mithilfe von KI konnte ein vollständig automatisierter Prozess zur Extrahierung und Analyse von Content entwickelt werden, der für jeden neuen Titel angewendet werden kann. Um neue Metadaten automatisiert generieren zu können, mussten die Audiodateien zunächst via Text-to-Speech-Technologie in Volltext transkribiert werden. Anschließend wurde dieser Text im sog. Embedding in Vektoren umgewandelt. Auf dieser Basis wurden die einzelnen Audiotitel dann mithilfe des DBScan Algorithmus in Clustern, die sich ähnlich sind, zusammengefasst. So können für mehrere Titel, also pro Cluster, passende Schlagworte bzw. Tags empfohlen werden. In zwölf Minuten analysiert und kategorisiert das Tool 14 Titel – in dieser Zeit kann ein Mensch nicht mal einen Titel komplett anhören. Als Add-On wurde ein Bad Mouth-Filter, der neue Titel auf für Kinder ungeeignete Begriffe durchsucht und diese kennzeichnet.
Zum Technologie-Schwerpunkt KI haben Hamburger Hochschulen gemeinsam mit dem Spiegel, N-Joy und Bauer Media beeindruckende Prototypen gebaut.
Wie kann das „House of Food“ der Bauer Media Group mittels KI schnell auf neue Trends im Food-Segment reagieren? Als Lösung wurde eine intelligente Rezeptdatenbank entwickelt, bei der Zutaten nach Merkmalen wie „vegan“ oder „glutenfrei“ klassifiziert wurden. Basierend auf einem manuellen Tagging von rund 2000 Dateien konnte das neuronale Netz trainiert werden, sodass der Prototyp vorhandene Rezepte und Bilder automatisch taggen kann. Zusätzlich wurden folgende Funktionen integriert: die Suche nach Food-Trends und Ernährungsformen, eine Reverse Image Search und ein Tool zur Nährwertberechnung.
Bei Ad Fraud handelt es sich um betrügerische Anzeigen, hinter denen sich u.a. minderwertige Produkte oder Schadsoftware verbergen. Bislang konnte dieses Problem nur ex post und unter hohem manuellen Aufwand gelöst werden. Der Prototyp für Der Spiegel wurde mittels einer Support Vector Machine und einem Bot auf dem Google Ad Manager aufgesetzt. Zur Klassifikation der Werbemittel sollte die KI zunächst alle aktuellen und neuen Werbemittel mit einer Metadaten- und Bildanalyse prüfen und anschließend fragwürdige Werbemittel automatisch blockieren. Das Ergebnis überzeugt: In den 2000 Testdaten wurden betrügerische Anzeigen zu 95% korrekt identifiziert.
Die Challenge: Um im Wettbewerb mit Streamingdiensten wie Spotify erfolgreich zu bleiben, soll eine KI der Musikredaktion dabei helfen, neue Songs auszuwählen, die den Hörer*innen mit einer hohen Wahrscheinlichkeit gefallen werden.
Der Prototyp: Die KI ist ein einfaches neuronales Netzwerk, das Musiktitel auf Ähnlichkeiten anhand von 33 Merkmalen untersucht. Im Analysetool werden die Song-Dateien eingelesen und Eigenschaften wie Geschwindigkeit, Tonart und der Songtext überprüft und bewertet. Mithilfe von Umfrageergebnissen und 500 durch die Redaktion von N-Joy vorab bewerteten Songs konnte der Erfolg des Prototypen in der Testphase überprüft werden. Um die Benutzerfreundlichkeit für Redakteure zu gewährleisten, wurde eine simple grafische Benutzeroberfläche für Linux-Systeme entwickelt. Die Music Prediction Machine lernt ständig dazu und kann so immer genauere Vorhersagen für neue Songs treffen.
Im ersten Lab experimentierten Hamburger Studierende mit Bauer, Foodboom und dem Spiegel mit XR-Technologien (VR, AR und 360°).
Wie kann vorhandener digitaler Content für VR-Anwendungen adaptiert und verwertet werden? Die Idee: Das Traumhaus mit eigenen Händen aufbauen und gestalten – virtuell und spielerisch nach dem Prinzip eines DIY-Baukastens. Der Prototyp für Xcel Media arbeitete mit der gesamten Palette der VR-Technik: eine VR-Brille, zwei Controllern und auf diese abgestimmte Sensoren im Raum, die eine realistische Bewegung im virtuellen Raum ermöglichen. Potenziell könnten in der Anwendung sogar ganze Themenwelten implementiert, Werbepartner platziert, Produkte in einen Warenkorb gelegt und online bezahlt werden.
Wie kann VR-Storytelling in die Prozesse einer Redaktion integriert werden und welchen Mehrwert bieten solche multimedialen Formate in Zukunft? Als Prototyp einer VR-Reportage entwickelte das Team die 10-minütige VR-Live-Experience „Behind the Moon“ zum 50. Jahrestag der Mondlandung. Funksprüche und Tagebuchaufzeichnungen in Audioform sowie Infomarker über die Raumfähre ergänzen die Reportage, die auf Spiegel Online veröffentlicht wurde. Um die Nutzung auch ohne VR-Equipment möglich zu machen, wurde zusätzlich ein 360° Video produziert.
Die Challenge: Als Lifestyle-Marke für digitalen Food-Content sucht Foodboom nach neuen Multimedia-Anwendungen mit Mehrwert, die sich gut in die eigenen Angebote und soziale Plattformen integrieren lassen.
Der Prototyp: Der „Foodbot“ erkennt mithilfe der Kamerafunktion Lebensmittel und macht daraufhin passende Rezeptvorschläge. Am Ende des Prozesses hatte das Team 3500 selbst fotografierte Labels für 18 ausgewählte Zutaten und 20 eigens dafür angefertigte Rezepte erstellt. Technologisch stützt sich die Smartphone-App auf Augmented Reality (AR) und Machine Learning. Der Vorteil von AR: Es kann innovativer Content geschaffen werden, der niedrigschwellig ist, geringe Anschaffungskosten aufweist und sich somit leichter in den Medienmix integrieren lässt als eine VR-Anwendung. Gleichzeitig kommen die Nutzer*innen in den Genuss interaktiver, digitaler Realitäten, sodass sich der funktionsfähige Prototyp mit diesem Erlebnis-Mehrwert klar von anderen Foodboom-Angeboten abgrenzt.