Neue Design-Dynamik: Menschen lenken, KI gestaltet
Die transformative Zusammenarbeit, bei der Designerinnen die Visionen lenken und KI sie verwirklicht
15.05.2024 74 min
Zusammenfassung & Show Notes
In unserer neuen Folge zeigen wir, wie Designer:innen mit KI ihre kreativen Ideen noch besser umsetzen können. Erfahre, wie die Zusammenarbeit mit künstlicher Intelligenz das Design revolutioniert und uns neue Möglichkeiten eröffnet. Lass dich inspirieren und entdecke, wie du KI als kreativen Partner für deine eigenen Projekte nutzen kannst.
Themen dieser Folge:
- Wie KI Designer:innen unterstützt und kreative Prozesse verbessert: Wir sprechen darüber, wie KI-Tools dir helfen können, schneller und effizienter zu arbeiten. Von der Ideenfindung über Prototyping bis hin zur finalen Umsetzung – KI kann dir in jedem Schritt zur Seite stehen und deine kreativen Prozesse optimieren.
- Zukunftsvisionen: Wie KI die Designbranche nachhaltig verändern wird — wir wagen einen Blick in die Zukunft und diskutieren, welche Entwicklungen uns erwarten. Welche neuen Möglichkeiten eröffnen sich durch die Integration von KI? Wie könnte der Designprozess in fünf oder zehn Jahren aussehen?
Links und Ressourcen:
- Perhaps Prototyp: https://www.youtube.com/watch?v=4QwHJmRd9M0&t=114s
- Mindmapping mit KI: https://www.loom.com/share/916cb741875043fb815bf23ac62b4a4a
- Kooperatives Zeichnen: https://drawfast.tldraw.com/
- Multimodaler Input und Iteration: https://github.com/tldraw/make-real
- Autocomplete für das Canvas: https://www.youtube.com/watch?v=3KvgGB4rLWM
- Semantisches Feedback für Texte: https://wattenberger.com/thoughts/yay-embeddings-math
- KI als Funktion in Tabellen: https://share.cleanshot.com/56p4ct8K
- KI Workflows erstellen: https://www.youtube.com/watch?v=I0ydDRNpbQ0&t=317s
- KI hilft Gedanken zu strukturieren: https://x.com/Scobleizer/status/1784843711920345162
- Navigating the AI Sea Change with Jared Ficklin: https://www.youtube.com/watch?v=76w2I2ucMkQ
- AI Is Your New Design Material: https://www.youtube.com/watch?v=Hu5Jc1yIfas&t=292s
- What is Generative AI? It’s going to alter everything about how we use the internet: https://www.youtube.com/watch?v=AGsafi_8iqo
- AI×UX NYC 2023: https://www.youtube.com/watch?v=76chBva31Iw
- An AI Pattern Language: https://autonomy.datasociety.net/patternlanguage/
- People + AI Guidebook: https://pair.withgoogle.com/guidebook
- Guidelines for Human-AI Interaction: https://www.microsoft.com/en-us/haxtoolkit/ai-guidelines/
- UX of AI: https://uxofai.com/
- Don’t Build AI Products The Way Everyone Else Is Doing It: https://www.builder.io/blog/build-ai
- UX for AI: How to Power Human Experiences with AI: https://www.youtube.com/watch?v=50Of7_lubN4
- Emerging architectures for LLM applications: https://www.youtube.com/watch?v=Pft04KLw5Lk
- UX for Language User Interfaces: https://www.youtube.com/watch?v=l5mG4z343qg
- 2023 Design in Tech Report: Design and Artificial Intelligence: https://designintech.report/sxsw2023/
- It's Time To Build AI | UX: https://www.latent.space/p/build-ai-ux
- Malleable software in the age of LLMs: https://www.geoffreylitt.com/2023/03/25/llm-end-user-programming.html
- Building the AI × UX Scenius — with Linus Lee of Notion AI: https://www.latent.space/p/ai-interfaces-and-notion
- Language Model Sketchbook, or Why I Hate Chatbots: https://maggieappleton.com/lm-sketchbook
- Explore what's possible with some example prompts: https://platform.openai.com/examples/
Meldet euch gerne!
Schaut auf unserer Website www.dieKI.show vorbei oder schreibt uns direkt eine Mail an hallo@dieKI.show – wir würden uns freuen. :)
Schaut auf unserer Website www.dieKI.show vorbei oder schreibt uns direkt eine Mail an hallo@dieKI.show – wir würden uns freuen. :)
Transkript
Hey und herzlich willkommen bei der KI Show.
Ich bin Benny und zusammen mit Ruben tauchen wir praxisnah und im Detail in die Welt der Künstlichen Intelligenz ein.
Egal, ob du JetGPD dazu nutzt, um Hundefotos zu generieren oder dein Haus schon von KI designt wurde, hier bist du genau richtig.
Ruben, worüber staunen wir heute?
Heute geht's um ein Thema, das mir ganz nah am Herzen liegt, Design.
Und konkret Design zusammen mit KI.
Und da hab ich unglaublich viel Gedanken und Themen.
Wir können heute wahrscheinlich eher an der Oberfläche so kratzen, aber es wird auf jeden Fall spannend.
Bevor wir da reingehen, haben wir bestimmt ein Minithema von dir, oder?
Genau.
Und zwar wir steigen in unseren McLaren und fahren zurück in die Zukunft.
Es ist das Jahr 2074 und Künstliche Intelligenz ist in so gut wie jedem Prozess integriert.
Ich habe fünf Teilbereiche hier von unserem Leben, die relativ random sind und du könntest mir sagen zu jedem Teilbereich, wie das im Jahre 2074 aussehen wird.
Cooles Gedankenspiel.
Also der erste Teilbereich ist Landwirtschaft.
Oh, noch mehr automatisiert?
Ich wahrscheinlich komplett automatisiert, dass ein Mensch da gar nicht mehr was mit drin hat, sondern wir Menschen einfach nur noch in ein fertiges System kommunizieren, was wir gerade so wollen, was wir gut oder schlecht finden, was wir lecker fanden oder nicht.
Und ich glaube, mehr Variationen, also zum Beispiel allein Tomaten gibt es tausende Sorten, die verschiedene Formen und Farben haben und wir kaufen im Laden ein, zwei verschiedene Sorten, einfach weil es praktisch ist, das so anzubauen und so weiter.
Und deswegen glaube ich, dass einfach in den verschiedensten Sachen mehr Variation reinkommt und viel frischer.
Ein System kann direkt sehen, was braucht wer demnächst und das dann on demand herstellen, also nicht on demand, sondern pre-demand herstellen.
Und dann sind die richtigen Sachen rechtzeitig fertig für dich im richtigen Moment.
Und so ist auch viel, viel weniger Verbrauch, Verschwendung da, weil zurzeit sind wir sehr ineffektiv, was wir beim herstellen fällt so viel weg und dann wird ein Riesenteil der Ernte auch weggeschmissen, weil es nicht schön genug ist für den Laden oder nicht praktisch genug für den Transport und am Ende dann kaufen die Leute was und dann geht es wahrscheinlich auch kaputt im Kühlschrank oder wird nur teilweise verwendet oder am Ende wird es nicht verkauft, dann wird es weggeschmissen.
Also ich glaube, mehr Effizienz, kein Mensch ist mehr auf dem Feld und macht was und viel mehr Variation.
Sehr schön.
Einen Gedanken zu Landwirtschaft habe ich, zu den anderen eigentlich nicht, aber zur Landwirtschaft.
Weil ich glaube, dass es relativ schnell kommen wird, dass wir anstatt dass wir große Maschinen kaufen, die dann Pestizide auf die Felder streuen oder irgendwelche Chemikalien, die die halt Schädelänge zerstören, glaube ich, dass wir bald Drohnenflotten sehen werden, weil die relativ billig sind.
Und mit KI kann so eine Drohne übers Feld fahren, kann irgendeinen Käfer identifizieren und wenn es ein Schädling ist, dann läsert der den weg.
Das gibt es schon.
Das ist jetzt in der Entwicklung.
Das heißt, ich glaube, in der Landwirtschaft werden wir sehr viele Drohnen sehen in der Zukunft auf den Feldern.
Ja, das glaube ich auch.
Und wir wollen auch demnächst eine Robotik-
und KI-Folge machen.
Da habe ich mich in letzter Zeit ein bisschen beschäftigt.
Und da gibt es ganz spannende Sachen, Firmen, die bauen Hack-Roboter, Hack-AI oder so.
Was heißt das?
Und das ist wirklich ein Roboter, der fällt durchs Feld und hackt Unkraut weg.
Aber so präzise und genau, wie es ein Mensch gar nicht machen könnte, weiß ich, ist nicht lohnt.
Aber der fährt einfach den ganzen Tag, wo es fällt und hackt alles Unkraut weg oder alles Sachen, die nicht gewünscht sind.
Und so dieses filigrane, jede einzelne Pflanze betreuen wirklich, was ein Mensch nicht kann.
Keine KI.
Die kann eine Datenbank anlegen, wo diese eine Pflanze vom Samen bis zum großen Wachstum einfach getrackt wird.
Und ja, da glaube ich auch, dass wir sehr viel kleine Maschinen sehen werden auf den Feldern.
Sehr viel Umschwung in der Landwirtschaft.
Das zweite Thema, studieren.
Oh, studieren.
Aber da gibt es zwei Richtungen, an die ich denke.
Einmal, dass niemand mehr studiert und mir alles runterladen, Matrix-Style, dass du dir wirklich Wissen runterlädst.
Was ich ein bisschen mit einem traurigen Auge sehe, die Überlegung, weil ich Lernen so spannend finde.
Also wenn ich was lerne und das anwenden kann, das gibt mir so ein tolles Gefühl.
Da feuern die Doponimine in meinem Gehirn.
Und wenn man das nicht mehr machen müsste, find ich glaub schade.
Das andere, das haben wir auch schon ein paar Mal angesprochen, in eine andere Richtung, die ich mir vorstellen kann, das war einfach viel flexibler, dass man nicht diesen festen Beruf hat, sondern man lernt Interessen und dann kann man das, was man gelernt, einfach anwenden in verschiedenen Bereichen und dass es viel flexibler ist und dass Studieren an sich nicht so ein Ding ist, sondern du hast mehr so einen lebenslangen, das hatten wir auch schon die Idee, in Utopia überlegt, einen lebenslangen KI Lehrer, Lehrerin, die dich begleiten und einfach mit deinen Interessen mitschwingen und dich in jedem Bereich einfach pushen und dich dich multiplizieren.
Deswegen glaube ich, dass man nicht mehr dieses statische, du studierst x Jahre diesen einen Beruf haben werden.
Und ganz wichtig und ich glaube das wird auch noch sich ändern und sehr bald sogar, also nicht in 50 Jahren, sondern vielleicht in 10 Jahren, dass Studieren nicht mehr so was exklusives ist.
Das ist nichts, wo du einen Abschluss haben musst und wenn du nicht die weiterführende Schule geschafft hast, dann kannst du halt nicht studieren.
Dieses ausgeschlossen, in Amerika ist es ja noch krasser mit irgendwelchen Unis, wo du nur hinkommst, wenn du irgendwie Kontakt hast oder sehr, sehr viel Geld in die Hand nehmen möchtest und dass das vielmehr demokratisiert wird, dass jemand, der gerade in einem kleinen Dorf irgendwo auf dem Berg lebt, mit dem Internetzugang oder auch vielleicht einer lokalen KI Sachen lernen kann, die einem Studium heute entsprechen.
Kleidung.
Lustiges Thema.
Kleidung, KI, hab ich nie so nachgedacht.
Also was sich in der letzten Zeit schon gezeigt hat, so verschiedene Kleidungsstücke, die bestimmt eine bestimmte Musterung drauf haben, die dann KI-Bilderkennung irritiert.
Also ich glaube, das wird in der nächsten Zeit ein Thema.
Aber in 50 Jahren?
Also ich bin mir sicher, dass wir selber Kleidung herstellen werden lassen.
Also irgendwie, du hast irgendwie so ein...
Entweder sagst du einfach deiner KI, was du gerade magst, in welche Richtung, und dann machst du einen Klick und dann wird das sehr nah in der Firma hergestellt und dir geschickt.
Vielleicht sogar, dass du zuhause irgendwie eine Maschine hast, die dir was basteln kann.
3D-Drucker-Style.
Und ich glaube, es werde deutlich mehr DesignerInnen geben.
Es wird nicht so die exklusive, sondern mehr so, wie es jetzt auch immer mehr Maker gibt, die Produkte verkaufen auf Etsy und so weiter.
Das wird es noch multipliziert geben, dass im Grunde jeder, ähnlich wie wir mal gesprochen haben, dass demnächst jeder irgendwie Musik machen kann, wird dann auch jeder irgendwie Kleider designen können.
Und dann trägst du vielleicht einfach Kleidung von deinen Freunden, die das designt haben, weil es gut aussieht, weil es dir gefällt.
Wenn es so wäre, dass jeder sich die Kleidung selbst drucken oder selbst irgendwie schneidern lassen könnte zu Hause mit Sprache, sag ich mal, glaubst du, dass es also Trends wird ja wahrscheinlich immer geben, dass dann einfach viel Gleiches gedruckt wird, weil das jetzt gerade Trend ist.
Aber wie glaubst du, sehen Menschen dann generell aus, weil ich glaube, dass dann die abstrusesten Mode-Erscheinungen Alltag werden?
Was denkst du dazu?
Möglich.
Also ich denke, wir Menschen werden immer Gruppentiere sein, Herdentiere sein.
Wir werden immer, das sind wir und ihr seid anders, Thema haben.
Der Seth Godin, den ich auch mal erwähnt hatte, hat so einen schönen Spruch, People like us do things like this.
Also diese Idee, dass man immer Menschen sucht, die ähnliche Dinge tun oder ähnliche aussehen.
Und ich glaube, das wird immer ein Thema sein.
Deswegen wird es wahrscheinlich immer so zusammen Gruppchen geben, die dann sich ähnlich kleiden auch.
Ja, aber wahrscheinlich mehr Variationen.
Das kann sehr gut sein.
Also ich würde mir sehr stark wünschen, dass wir weggehen von Trends, wo wirklich jedes Jahr ein Trend ist.
Und dann wir auch da wieder diese Verschwendung haben, die völlig unnötig ist, wo du einen wunderbaren Pulli, der wunderbar aussieht, wirklich weggibst.
Oder im schlimmsten Fall sogar wegschmeißt, weil einfach der nicht mehr im Trend ist.
Also da würde ich mir wünschen, dass viel mehr Menschen mehr Selbstsicherheit haben und das tragen, was ihnen gefällt, unabhängig davon, was irgendwie ein gesellschaftlicher Trend ist.
Eine riesen Hoffnung ist natürlich auch, was mit KI möglich ist, dass wir weggehen von den schlimmen Arbeitsverhältnissen, die ja auch in der Kleidungsindustrie heute noch herrschen.
In anderen Ländern, wo wir davon leider profitieren, wo dann du in einen Laden gehen kannst und einen T-Shirt schon einen Euro kaufen kannst, was völlig absurd ist.
Und dass wir da wegkommen, dass Kleidung kein Thema ist, wo du das Gefühl hast, hey, da hat jemand gelitten, sondern dass wir mehr in die Richtung kommen.
Auch was die Umweltverschmutzung angeht, dass weniger Menschen und die Umwelt weniger leidet.
Ich glaube, dass Kleidung ja auch verschiedene Zwecke hat.
Es wird immer diese Funktionale Kleidung geben, die wahrscheinlich eh schon sehr optimiert ist und dann so aussehen wird ungefähr, wie das jetzt aussieht.
Und dann hast du Filme wie Hör, wo die Leute relativ normal gekleidet sind in der Zukunft.
Und dann hast du Filme wie zum Beispiel die Tribute von Panem, wo dann jeder wirklich individuell seine ausgepflückten Kleider trägt, vielleicht zum Event oder was.
Aber es wird glaube ich sehr bunt und sehr spannend, dieser Teil bitte ich.
Fünftens, nee vierten, Kino.
Sehen wir jetzt ein bisschen mit der Apple Vision Pro jetzt, wo wie viele Leute sagen, das ist unglaublich krass, dass du das aufsetzt und dann so drin bist.
Oder auch jeder, der schon mal eine VR-Brille aufgesetzt hat und sich auf eine Szene gebracht hat, auf einen Berg oder eine Stadt oder sonst was.
Dieses mittendrin sein, das ist riesig.
Und ein großes Thema wird auf jeden Fall generierte Filme.
Also ich glaube, es wird mehr in die Richtung gehen, dass ein, zwei wenige Personen einen Film beschreiben, was da drin so passiert.
Oder vielleicht sogar eine ganze Welt beschreiben.
Und Menschen dann das hinnehmen, das ist im Grunde der Prompt für die KI, die generiert dann den Film.
Und das ist dann hyper personalized.
Das ist wirklich, wenn du möchtest, auf deine Aspekte, auf deine Welt angepasst.
Aber es wird spannend.
Was bedeutet das?
Kannst du einen Film dann tausendmal gucken, weil er immer verschieden ist?
Oder ist das dann langweilig?
Weil wir gucken auch Filme so oft, auch wenn wir wissen, wie er ausgeht, einfach für dieses Gefühl von Sicherheit und du weißt, wie es ausgeht.
Also ich sehe das auch bei anderen, die dann lieber noch mal den gleichen gucken, als einen neuen zu gucken, weil du investierst zwei Stunden und dann war es vielleicht voll der Flop.
Ja, da bin ich gespannt drauf.
Aber auf jeden Fall, glaube ich, generiert.
Also on the fly generiert für dich.
Und nicht mehr irgendwie das ganze Kamerateams drei Jahre lang einen Film produzieren, dann wird er geschnitten und dann gibt es noch 3D-Effects, die draufgelegt werden, sondern allein mit Sora sieht man es ja schon, wie weit wir heute sind.
In 50 Jahren ist das sehr sicher kein Thema mehr.
Also ich glaube, da wird es dann keine Camera Crews mehr geben und große Production Studios, sondern da werden ein paar Leute in der Garage oder vielleicht sogar eine Person.
Da zählt dann mehr die Idee und die Geschichte, die du aufbaust, als dass du die Ressourcen hast für einen Kinofilm.
Dann wird das, was wir jetzt haben, wahrscheinlich zur Nostalgie werden.
Das kann ich mir auch vorstellen.
Ich glaube, dass Games und Filme sehr stark ineinander verschmelzen werden.
Dass du einen sehr, sehr guten Film, sag ich mal, guckst und dann kannst du selbst entscheiden, was passiert.
Zum Beispiel wie so ein Spiel.
Und ein ganz großer Vorteil könnte auch sein, ich meine, jeder hat ein bisschen seine Lieblingsfilme.
Und wenn ein Lieblingsfilm aus einer Reihe besteht, wie Teil Fast & Furious bis Teil 8, oder genau aus einem ganzen Universum, wie zum Beispiel Harry Potter, dann hast du ja ein bisschen Glück, weil es um diese Lieblingsfilme eine ganze Welt gibt, die du erforschen kannst.
Wenn du jetzt aber einen Lieblingsfilm hast, der zwei Stunden geht und da gibt es nichts dazu, dann hast du da nicht mehr Content dazu.
Und vielleicht in 50 Jahren kannst du um einen Lieblingsfilm, den du hast, eine Welt aufbauen, die nach deinen Vorstellungen dann auf Basis des Films generiert wird, wo du dann mehrere Sachen aus diesem Film noch erforschen kannst, was du ja so vielleicht nicht kannst.
Das ist spannend, ja, ja.
Das kann ich mir sehr gut vorstellen.
Dieses Merchandising, was man heute hat, das aus dem Film noch ein Spiel und noch ein Gimmick oder sonst was gemacht wird, das das im Grunde für dich, dass du das selber entscheiden kannst.
Was ich mir auch sehr gut vorstellen kann, ist, dass es im Grunde Menschen gibt, die machen Filme und Menschen gibt, die remixen Filme.
Und du guckst dir da nicht vielleicht das Original an, sondern das von dem besten Curator, den du total magst und dessen Stil du magst.
Eigentlich bei Liquid Democracy, wo du deinem Vote einer Person gibst, der davor traust und die macht das dann, könntest du vielleicht sagen, die Person hat genau meinen Geschmack und die Person macht den ganzen Tag, guckt Filme an und sagt, okay, das und das hat jetzt nicht gepasst, ändert nur den Prompt.
Du musst jetzt nicht schneien oder sowas, ändert nur den Prompt.
Oder einen Edit Prompt wird noch hinzugefügt und dann lädst du dir diese Variante des Films.
Es wird aber auch spannend, was bedeutet das dann, weil jetzt wir Menschen genießen es auch, so ein Shared-Knowledge zu haben, Shared-Experience zu haben.
Und wenn ich zur Arbeit gehe und dann mit dir über den letzten Film Baby Driver 2 spreche, Baby Driver 50 dann in 50 Jahren, und deine Experience ist komplett anders als meine, was bedeutet das dann noch?
Können wir darüber reden, groß oder nicht?
Mit Netflix hat sich das ja schon ein bisschen geändert, weil man nicht zu der gleichen Zeit immer das Gleiche guckt, wie früher, wo man 2015 an der Stelle stehen musste.
Da könnte man vielleicht auch eine ganze Folge, weil ich hab da auch tausend Gedanken dazu, dass es ja auch dann geht für die Ready Player One-Schiene vielleicht ein bisschen ins Gaming rein.
Wir haben das eigentlich schon geplant, eine Gaming-Folge, die müssen wir auf alle Fälle umsetzen und das ein bisschen mit einbeziehen.
Lass uns zum letzten Punkt kommen.
Der letzte Punkt ist Hausarzt.
Jeder hat einen eigenen Hausarzt, Hausärztin, das ganze Leben begleitet davon und ist nicht nur ein Wenn, was da ist, wird das gelöst, sondern ist vorher schon extrem präventiv gearbeitet und informiert und dass, wenn man das möchte, auch subtil in eine bestimmte Richtung gestupst wird.
Wenn ich sag, ich würd gern mehr Gemüse und Obst essen, dann ist das für mich, wenn ich das selber entscheide, so ein Hardcut und dann muss ich das irgendwie mit Self-Wirr hinkriegen, aber ich denke, eine KI könnte einen so in eine Richtung schubsen, wo man dann neue Sachen ausprobiert und ja, das geht jetzt mehr in Kochen-Richtung, wieder in Agrarleiter, aber dieses, wenn ich was esse und das schmeckt mir, dann kann das getrackt werden, dieser Datenpunkt, und dann geht's in andere Richtungen, das schmeckt mir nicht, und dann kann eine KI so ein Geschmacksbild erarbeiten und weiß dann, okay, hier gibt's noch 5000 andere Gerichte, die mir schmecken würden.
Weil heute ist es so, wenn ich was Neues probieren möchte, dann ist es so ein, okay, ich investier das Ganze, kochen und so weiter, und am Ende schmeckt es mir oder nicht.
Allein wenn ich jetzt Spinat mache, es gibt so viele Varianten, Spinat zu machen, und von den 10, die ich bisher probiert hab, schmecken mir 3 richtig gut, und die anderen, bläh.
Und als Kind hab ich vielleicht nur die anderen bekommen, die mir nicht so gut schmecken, und deswegen fand ich das früher nicht gut.
Und dass dann in Zukunft eben eine KI am helfen kann, neue Sachen zu entdecken, das wird cool.
Aber wir waren gerade bei Hausarzt.
Ja, ich glaub, dieses Persönliche immer dabei sein in 50 Jahren, mehr fällt mir da nicht ein.
Ich hab immer so ein Gefühl von, vielleicht in die Richtung Medikamente, dass die irgendwie personalisiert sind, dass die auf dich zugeschnitten sind.
Ja genau, ich glaub, das könnte nur in die Richtung gehen.
Dass da, dass viel mehr Datenpunkte von deinem Körper und von dir aufgenommen werden können und so Medikamente wirklich auf dich zugeschnitten sind.
Weil du kaufst jetzt grad Medikamenten, Paracetamol oder sowas, und das ist halt ein generisches für alle.
Aber vielleicht wirkt das, wenn man das noch ein bisschen anpasst, viel besser bei dir und hat viel weniger Nebenwirkungen.
Und dass das dann eine KI für dich machen kann.
Und eben auch checken, was fehlt dir?
Welche Vitamine fehlen dir, welche Bakterien fehlen dir und so weiter.
Und das alles immer wieder zu checken und zu sehen und dann deine Ernährung und deine Medikamente entsprechend drauf anpassen.
Weil es gibt manche Menschen, die haben große Probleme, da hat der Körper einfach große Probleme, B12 aufzunehmen.
Und wenn das so ein KI-Hausarzt weiß, dann kann man das entsprechend anpassen.
Weil es war gesagt, dass Medikamente für alle...
Ich hoffe auch, dass diese individualisierte Herstellung von Medikamenten kommt relativ schnell.
Weil es ja sogar heutzutage noch so ist, dass Medikamente, die erforscht werden, vielleicht nur in einer Personengruppe getestet werden.
Zum Beispiel Männer.
Und zum Zweiten ist ja das IoT schon eigentlich seit Jahrzehnten Thema.
Das heißt Internet of Things.
Das heißt, wie bekommen wir irgendwie das Internet in meine Tasse oder in meinen Schlafsack oder sowas.
Und das wird halt ein riesen Ding, glaube ich, hausartstechnisch, weil wir überall Sensoren haben werden.
Wir werden in der Toilette Sensoren haben, die den Urin testen.
Wir werden Abwassersensoren haben, nach dem Duschen.
Im Bett werden wir Sensoren haben.
Unsere Smartwatch hat ja jetzt schon so viele Sensoren.
Das heißt, diese ganze, alles wird durch Sensoren gemessen und dann eben präventiv gehandelt, das glaube ich auch.
Sind wir schon fertig.
Wir haben die fünf Teilbereiche.
Wir hätten ja noch 20 nehmen können oder 50 oder 150.
Fast schon sparisch, schade, ja.
Ja, vielleicht bauen wir eine ganze Folge mit so Zukunftsgedanken.
Okay, dann wechseln wir mal zum Hauptthema Design und KI.
Und wie ich schon erwähnt habe, ist ein riesiges Themenfeld.
Mir fällt so viel ein und ich musste auch bei dem Vorbereiten auf die Folge mich zurückhalten, nicht zu viele Sachen reinzupacken.
Deswegen, weil die sich damit auch ein bisschen auskennen.
Ich werde wahrscheinlich vieles weglassen und nur an der Oberfläche kratzen.
Generell kann man sehr oft teilen, zwei Sachen.
Einmal, dass man KI nutzt, um zu designen.
Also, dass du jetzt einfach so wie du heute auch Design machst, aber einfach mit KI es noch leichter wird.
Das ist so ein großer Bereich, die KI dich unterstützt.
Und ein anderer Bereich ist, dass man wirklich KI integriert in Produkte, also KI als Designmaterial im Grunde nutzt.
Und die Herausforderung da und was Neues dabei herauskommt, da sind so die zwei Bereiche.
Und erstmal würde ich darüber sprechen, KI als Multiplikator im Design zu nutzen.
Und an was die meisten wahrscheinlich denken, ist erstmal so Sachen wie Photoshop.
Photoshop hat ja jetzt auch KI-Tools drin.
Und da kannst du dann zum Beispiel dir Fotos generieren lassen, kannst ein Foto nehmen und sagen, hey, in diesem Bereich ändere mal das und das.
Da schreibst du dann, hey, hier statt einem Sonnenaufgang mach irgendwie einen Sonnenuntergang oder statt einem Sonnenschein mach mal Regenwetter aus diesem Bild.
Das ist ja heute schon und Adobe ist da ja schon sehr, sehr weit vorne.
Oder du hast irgendwie einen Schriftzug und dann kannst du sagen, da soll Gras darüber wachsen oder ändert diesen Schriftzug in Sonnenblumen und so weiter.
So kreative Sachen, die sind heute schon in Photoshop möglich, wo die Leute erstmal an das Visuelle denken.
Das finde ich auf jeden Fall ein spannendes Thema.
Hast du da eigentlich schon experimentiert, mal in dem Bereich?
Ich bin ja nicht so kreativ, wenn es um Zeichnen geht oder Design oder so.
Aber ich habe halt schon ein bisschen was, also Webseiten-Mockups oder auch Flyer oder sowas.
Auch Figma designt, ganz, ganz basic.
Aber wenn ich mir jetzt vorstelle, dass ich ein Tool hätte, das mir mit Prompts weiterhilft, dann hätte ich einen extremen Multiplikator für, keine Ahnung, meine eigene Firma, für mein eigenes Projekt, für irgendwas, was ich mir im Wohnzimmer aufhängen will.
Also das wäre schon sehr hilfreich für unkreativere Personen.
Und es ist auch super praktisch, vielleicht auch nicht jetzt im Moment, gerade gibt es auch viele Unsicherheiten mit Datenschutz und Copyright und so weiter, aber allein für die Prototypphase zu nehmen.
Weißt du, wenn du jetzt einem Klienten eine Broschüre machen sollst und da brauchst du ein paar Bilder.
Normalerweise würdest du jetzt auf irgendwelche Stockfoto-Seiten gehen und dir so ein Stockfoto nehmen und das reinsetzen, aber es ist vielleicht nicht genau das, was du brauchst.
Und du kannst jetzt im Moment der KI genau beschreiben, was du möchtest und dann mit ein paar Iterationen hast du wirklich das, was das ausdrückt, was du möchtest und dann packst du das in deinen Mockup, in deinen Design rein.
Und wenn der Klient sagt, okay, das passt, dann kann er auch tatsächlich in Fotograf hingehen und da ein echtes Foto aus der Situation machen.
Aber so kann man viel schneller rüberbringen, kommunizieren, was so die Idee ist, die man haben möchte.
Und auch in diesem Design-Prozess gar nicht was fertiges Produkt, aber davor während des Design-Prozesses Inspiration.
Da kann KI auch total gut sein, als generative KI, wo du zum Beispiel einfach so eine Idee hast, irgendwas im Kopf hast, so eine Welle und dann sitzt da irgendwas drauf oder irgendwie so ein visueller Effekt, so ein Mut oder sowas.
Und da kannst du halt auch mit Bildgenerierung arbeiten und so ein bisschen mehr experimentieren.
Weil heute ist es oft so, dass eine innen machen sich Mood Boards, wo sie dann online recherchieren, da gibt es verschiedene Portale.
Und dann klickt man sich da durch, bis man das, okay, das trifft den Aspekt, den ich mir vorstelle und das den und dann zieht man sich das zusammen und hat so ein großes Canvas mit 20, 30 Fotos, die vielleicht ausdrücken, was man möchte und vielleicht auch ein paar wie Fonds irgendwie gesetzt sind oder sowas.
Und mit KI kann man halt viel individueller und viel mehr experimentieren und auch so hin und her schieben.
Wenn du ein Foto hast und sagst, okay, mach das mal ein bisschen mehr in die Richtung, mehr Sci-Fi oder mach das mehr ein bisschen, keine Ahnung, darker oder mach das ein bisschen mehr happy oder sowas.
Da kannst du viel mehr dieses hin und her schieben, experimentieren in diesem Gefühl, was du treffen möchtest, um dann den Punkt zu erwischen, anstatt dass du so diese groben Ecken, die irgendwie da sind, zusammenziehst.
Absolut.
Ich habe mir auch gesagt, dass das mit der Inspiration, das würde ja schon unkreativeren Menschen helfen, weil ich finde es immer erstaunlich, wenn ich jemanden treffe, der irgendwie gut zeichnen kann oder gut designen kann, dass die schon ein fertiges Bild im Kopf haben und das dann so umsetzen.
Und dieses Bild bekomme ich ja gar nicht in meinem Kopf als unkreativer.
Ich sage immer unkreativ, dass das ein bisschen negativ ist als jemand, der das nicht kann.
Und das finde ich das Erstaunlichste, dass die Designer wirklich ein klares Bild haben, wo sie hin wollen, weil ich hätte ja nicht mal ein Bild, wo ich hin will.
Und dann kommt die KI und dann schlägt sie mir vielleicht 50 Wege vor, wo ich hingehen könnte und ich suche mir nur einen Weg aus.
Also ich habe das kennengelernt, da gibt es verschiedene Arten von Menschen.
Die einen haben wirklich ein ganz klares Bild im Kopf und wollen da dann hin.
Und andere sind mehr so, dass es ein Journey ist, wo sie entdecken und auch selber experimentieren.
Und dann scribbelst du mal hier was und das ist oft halt erstmal im Groben, dass du irgendwie auf Papier scribbelst oder sowas.
Aber die KI kann das wirklich sehr nah am fertigen Produkt schon experimentieren.
Das ist auch sehr cool.
Aber wo man tatsächlich so verschiedene Richtungen ausprobiert, ganz unterschiedliche Varianten macht und dann so ein Pfad durchgeht, bis man dahin kommt und man sagt, ja, okay, das passt.
Also da sehe ich das eh verschiedene Menschen.
Und wie du meinst, Design wird auch mehr demokratisiert.
Designer haben viel weniger die Aufgabe irgendwie.
Also das ist jetzt heute schon eine Visitenkarte.
Wer macht das schon heute noch?
Weil es online gibt fertige Templates, Tausende, wo du dir was kostenlos aussuchen kannst, machst deinen Namen rein.
Vor 20 Jahren war das noch wirklich ein Designer in den Job, aber es ist heute nicht mehr.
Und jetzt mit Generatia KI geht das noch viel weiter.
Und es gibt auch schon Produkte, die in die Richtung gehen, dass sie nicht nur Bilder oder Fotos generieren, sondern ganze Layouts, wo du dann sagst, hey, das ist mein Content und die KI dann versuchen, es ist heute noch rudimentär, aber es wird dahingehen, dass du wirklich das reinlegst und dann wird der Content generiert.
Genau, das ist der visuelle Aspekt.
Aber ein großer Aspekt vom Design ist natürlich auch das, darüber nachdenken, wie wird was kommuniziert.
Also wenn ich zum Beispiel einen Flyer für irgendein Event habe, und dann muss ich als Designer darüber nachdenken, was kommuniziere ich als erstes?
Weil Menschen haben eine eingeschränkte Aufmerksamkeit.
Das heißt, ein Thema muss groß sein, andere Sachen klein.
Zum Beispiel ist bei einem Event total wichtig, je nach Kontext, wann es ist.
Wenn ich nebenbei der Autobahn rechts ein Schild habe oder bei der Straße, dann ist es wichtig, wann, wo grob das Thema und die Details dann runter.
Und in anderen Kontexten sind andere Sachen wichtig.
Und diese Aufgabe zu entscheiden, was ist wichtig, wie mache ich die Hierarchie, das ist auch ein wichtiger Teil.
Und ich kann mir auch vorstellen, dass KI in Zukunft viel helfen wird, dass DesignerInnen mehr einen Step hoch machen.
Also es gibt ja DesignerInnen und dann Leute, die diese Menschen managen und Art Director machen, Art Direction machen.
Und ich denke, viel mehr Menschen werden mehr Art Direction für KI machen in Zukunft, als dass sie selber Hand anlegen, wie heute es passiert.
Und deswegen ist es super wichtig.
Und das, was du gerade als Kreativität beschrieben hast, würde ich sagen, ist Taste.
Also Geschmack zu haben für etwas und ein Gefühl haben, was ist richtig wichtig zu kommunizieren.
Und dann ist es wichtig, diesen Taste kommunizieren zu können.
Und deswegen finde ich es total wichtig, dass Leute heute schon mit KI experimentieren, um zu lernen, wie kann ich der Maschine diesen Geschmack, dieses, was immer im Kopf steckt, rüberbringen.
Ja, aber wie du gesagt hast, das Demokratisieren von dem Ganzen, das wird auch diese ganzen Profis nicht ablösen, weil wenn du Künstler bist, wenn du das vielleicht auch studiert hast, dann kannst du ja viele verschiedene Bereiche einschlagen.
Und ich glaube, wie du gesagt hast, das Wichtigste ist, dass du die Message kommunizieren kannst durch diese Kunst.
Und als Beispiel nehme ich da jetzt zum Beispiel das Set-Design von einem Film.
Das ist ja sehr wichtig, also jede Tasse von einem Film wurde wahrscheinlich absichtlich dort positioniert, um vielleicht irgendwas zu kommunizieren.
Und wenn du dann Filme hast wie La La Land, die farblich so...
Das bringt ja Gefühl darüber.
Und wenn du das machen willst, dann musst du nicht nur kreativ sein können oder du musst nicht nur gut zeichnen können, du musst etwas über Farblehre wissen, du musst etwas über Farbsychologie wissen.
Und dann hast du dann Set, die Kleidung wurde designt, das Set wurde designt, im Grunde wurde ja auch die Kommunikation in einem Film designt durch eben ein Skript.
Und das wird ja trotzdem bei den Profis bleiben, weil die eben genau wissen, wie sie das kommunizieren müssen.
Aber das demokratisieren, dass jeder so ein Art Director auch sein kann, wird viele mehr so, also Amateur-Filme, sag ich mal, die aber trotzdem gut aussehen hervorbringen.
Ja genau, also ich glaube immer noch, dass die Profis da auch langfristig am Werk bleiben werden.
Ja, und Menschen, die heute nicht die Ressource haben, also nicht in der Position von Director oder Art Director oder sowas sind, in Zukunft aus ihrem Schlafzimmer heraus am Computer etwas machen können, weil sie eben eine Richtung, einen Geschmack haben, ein Bild im Kopf haben, was dieser Film vielleicht als Gefühle rüberbringen möchte und das dann eben modellieren können und rüberbringen können, was heute nicht möglich ist, definitiv.
Hast du ein paar Beispiele, die dich ein bisschen angesprochen haben im Welt des KI-Designs?
Das ist alles noch sehr früh, deswegen nicht so sehr.
Also konkrete Bespäle, wie Menschen KI nutzen um das Design, meinst du?
Nee, nicht so richtig.
Also ich hab so ein paar Ansätze gesehen, aber das ist alles noch sehr früh tatsächlich.
Also Bildgenerierung war eins dieser ersten Sachen, die so wow gemacht haben, aber das große Problem ist noch das Kontrollieren.
Und deswegen ist das noch nicht so weit, um es wirklich zu nutzen.
Es ist mehr so ein Prototyping-Experiment.
Deswegen hab ich es erwähnt, weil es heute wirklich, kann man es sofort nutzen für dieses Experimentieren, inspirieren lassen, aber wirklich für fertige Sachen umsetzen, hab ich noch nichts gesehen.
Nee, tatsächlich nicht.
Ich denke, das wird in den nächsten zwei, drei Jahren kommen, wo es gibt ja ImageNet, wo du ein Bild nehmen kannst, wo du sagen kannst, okay, das eine ändern und der Rest bleibt gleich.
Das verändert sich nicht komplett.
Oder, dass du viel mehr der KI-Kummel ziehen kannst, was du willst.
Statt nur einen Prompt, einen Textprompt, gibst du der KI vielleicht fünf Bilder und einen Prompt.
Und dann geht das zusammen und dann, wir brauchen noch neue Interfaces.
Wir müssen noch Designer in Designen ein Interface.
Da hab ich auch tolle Prototypen gesehen, wo zum Beispiel du ein Bild hast.
Und dann sagst du, pass mir mal das.
Und dann kriegst du verschiedene Varianten, verschiedene Richtungen, die auch ähnlich sind.
Also, dass die KI im Grunde mit Design mitdenkt und dir verschiedene Sachen...
Und dann gehst du so einen Pfad entlang.
Okay, das gefällt mir, das, okay, das ging jetzt in nichts.
Dann gehst du wieder zurück und probierst das andere heraus und so.
Und dass das nicht ein Chat-Interface ist, wo du von oben nach unten gehst, sondern dass es mehr so, ja, vielleicht ein Canvas ist, wo du experimentierst, verschiedene Layers und so.
Also, ich glaube, die Tools brauchen wir noch, um in die Richtung zu gehen zu können.
Ich glaube, das Einzige, was man jetzt schon ein bisschen verwenden kann, ist ja wirklich Photoshop.
Also, wenn du wirklich das, das, das, in einem Bereich statt, statt dem Hut nimmst, diese Kappe oder so, das, das funktioniert schon einigermaßen gut.
Aber natürlich musst du das ja auch noch nacharbeiten, weil nicht jede Pixel dann stimmen und die Übergänge stimmen nicht.
Oder dass der Hintergrund oder so dieses nacharbeiten wird, aber dann auch schön langsam ein bisschen automatisiert.
Weil es gibt ja diese Upscaler zum Beispiel, die schlechte Auflösung zu einer guten Auflösung machen, indem sie einfach sich denken, diese Pixel könnten hier hinkommen und dann sieht das Ganze gut aus.
Und das wieder auch immer.
Also dieses Nacharbeiten eines Bildes, eines Logos, eines Videos oder irgendwas, das könnte ich mir auch vorstellen, dass es einfacher wird.
Ja, mir ist gerade auch eingefallen, woran es eben auch noch klemmt, dass es noch richtig viele Menschen nutzen.
Nach meinem Eindruck ist, dass die gesellschaftliche Absektanz einfach noch nicht da ist.
Da hatten wir auch schon drüber gesprochen, dass die Gesellschaft erst mal umstellen muss und sich einstellen muss auf KI mitten drin im Leben.
Also da gab es manchmal Aufschrei, dass eine größere Firma dann für ein Plakat, ich glaube Lidl war es mal, die für ein Plakat wirklich ein KI-grinderes Bild von Personen genommen haben.
Und man hat schon im Detail gemerkt, okay, das ist jetzt generiert, das passt nicht ganz.
Irgendeine Hand über einer Tasche lag statt innen drin und so weiter.
Und da sind glaube ich auch noch viele gehemmt, das wirklich im finalen Produkt zu nutzen.
Aber davor würde ich auf jeden Fall alle motivieren, das zu nutzen.
Und ein anderen Bereich, wo vielleicht gar nicht dran denken ist, ist, glaube ich, die Text-KI, also Language Models zu nutzen für Design.
Da hab ich mir ein paar Sachen notiert.
Allein fürs Brainstorming oder Metaphern finden.
Im Design geht es auch oft darum, eine Metapher für eine bestimmte Sache zu finden.
Und du musst nicht nur einfach, okay, du hast ein Thema und dann setzt du das halt um, sondern beschäftigst dich mit dem Thema.
Was steckt dahinter?
Was ist ähnlich?
Und dann kommst du vielleicht auf kreative Verbindungen, die dann zum Lacher führen, weil du irgendwie im Bild das und das verknüpft hast oder der Text mit dem Bild ein Spiel hat, was dann eine lustige Dynamik bringt.
Und da kann man sich auch ganz toll mit der KI-Austausch und Brainstorm Varianten finden, weil die KI auch eben mit diesem Latent Space von einem Thema in ähnliche Themen rutschen kann oder Verknüpfen machen kann.
Also ich glaube, da könnten auch ganz viele Designen heute schon nutzen, KI, Text, KI, um ihre Designarbeiten besser zu machen.
Was wäre denn so ein Beispiel für so eine Metapher?
Also ich denke mir irgendwas aus mit Text oder irgendeinem Message, den ich rüberbringen will und wie bringe ich die dann im Design rüber?
Wie ist da der Prozess?
Es gibt ja zum Beispiel, wenn du jetzt ein technisches Thema hast oder sowas, wie Sprache oder ein bestimmtes Konzept in der Programmiersprache, Vorloops oder sowas und wie kann man das darstellen visuell?
Und dann könntest du vielleicht mit der KI schreiben, was ist ein Vorloop?
Das ist eine Schleife, eine Iteration.
Was ist denn noch so?
Wie kann man was verbildlichen, was eine Schleife ist?
Und dann kommst du vielleicht auf Bänder, die in der Luft fliegen oder ein Karussell, wo Kinder drauf sitzen.
Und jedes Kind ist irgendwie eine Iteration in diesem Vorloop.
Und was, wenn der einen Vorloop-Overflow hat, dann fliegen die Kinder aus dem Karussell raus oder so.
Da kann man eben Verknüpfungen von Konzepten zur Bildsprache mit der KI so ein bisschen erarbeiten.
Was viele einfach so in Brainstorming-Sessions mit anderen Menschen machen oder skribbeln.
Oder wo es dann ein Shower-Thought ist, was dir auf einmal kommt oder wo du in der Stadt rumläufst.
Und dann denkst du, ah Moment, ich denke gerade über das Thema nach.
Und da, dass die Szene, wo die zwei gerade auf der Straße irgendwie hier Musik gemacht haben und der eine hat getanzt, das erinnert mich total.
Und dann hat man eine Verknüpfung, dann bäm, hat man diesen Ah-Effekt.
Und dann skribbelt man das und das passt dann total gut.
Im Grunde musst du quasi so Assoziationen finden, die gesellschaftlich auch ein bisschen oder eine Gruppe anspricht.
Das heißt, jeder verbindet Spinneln mit etwas Gruseligen.
Deswegen eignet sich das für das Halloween-Plakat.
Und das ist ja doch auch eine Aufgabe, dass du da psychologisch ein bisschen drauf guckst, was spricht wie an.
Ja, genau.
Und auch so Empathie finden für andere Menschen, Gruppen, wo du dich vielleicht nicht auskennst oder Kulturen.
Vielleicht auch, dass du dich mit Themen auseinandersetzt, die du bisher gar keine Ahnung hast.
Also kommt vielleicht eine Kundin zu dir, die hat einen Stahlbetrieb und die möchte gerne das und das, ihr Produkt verkaufen und eine Website machen.
Und du kennst dich mit dem Thema nicht aus, schnapp dir ein Chatbot, beschäftige dich mit dem Thema.
Und je tiefer du dem Thema drin bist, desto besser kannst du das auch rüberbringen und kommunizieren.
Was ist relevant?
Was ist in dieser Industrie eigentlich?
Woran, was sind die wichtigen Faktoren, die man rüberbringen sollte?
Und was ist nicht so wichtig?
Denn du von außen, wo du noch nie in dieser Industrie drin warst, weißt du das vielleicht nicht.
Und das versucht man dann oft mit der Kundin zusammen zu arbeiten.
Was ist euch denn wichtig?
Vielleicht wissen die das selber manchmal nicht.
Und so kannst du mit dem Chatbot dir noch mehr Knowledge holen, um da richtig, weil Design ist am Ende Kommunikation.
Du willst etwas rüberbringen auf verschiedene Weisen.
Und was solltest du kommunizieren?
Was ist wichtig in dem Teil zu kommunizieren?
Das kannst du mit dem Chatbot.
Also ich hab da schon einige positive Erfahrungen gemacht.
Erarbeiten.
Ich finde es interessant, dass du die Kunden angesprochen hast.
Weil wenn du ja in irgendeiner Dienstleisterform tätig bist, dann hast du wahrscheinlich schon festgestellt, dass die Kunden oft selbst nicht wissen, was sie wollen.
Sondern nur, dass es funktioniert.
Also ganz viel an Technologie so.
Aber ich glaube auch, wenn du jetzt zum Beispiel Architekt bist und jemandem ein Haus bauen und hat ja natürlich null Vorstellungen.
Vielleicht hat er Vorstellungen, aber ist es auch umzusetzen?
Oder wie sieht das im Detail aus?
Und wenn du dann Programme hast, die den Architekten unterstützen können, den Kunden das zu kommunizieren.
Zum Beispiel der Kunde sagt, ich will hier einen Raum hin haben, der so und so groß ist.
Dann macht man ein Prompt und dann fügt er diesen Raum hinzu zum Beispiel.
Und am Ende hast du ein Haus da und du kannst das Haus individueller anpassen.
Ich glaube, dass wir sehr im Design, sei es Kleidung oder Filme oder Bilder oder Häuser, sehr viel Individualisierung sehen werden.
Was auch relativ spannend ist, weil jetzt kannst du zum Beispiel, jetzt musst du dich das 0815 Haus nehmen aus einem Katalog, das so und so viel kostet, sondern du kannst dir vielleicht mit dem gleichen Geld ein richtig krasses Haus designen lassen, das perfekt zu dir passt, zu deiner Persönlichkeit.
Dann sind die Siedlungen nicht mehr so monoton.
Dann werden die Blockbauten abgelöst durch skurrile Hundertwassermonumente.
Das wird schon hilfreich werden.
Ja, und wenn dann die Städte und Gemeinden auch mitmachen und das erlauben, dass Variation drin ist, definitiv.
Wie du meinst, im Grunde mit KI in Zukunft, also jetzt nicht heute, aber in Zukunft kann möglicherweise jede Person einen KI-Architekten bei der Seite haben.
Und dann ist es vielleicht die, die heute Architektur machen.
Die geben vielleicht noch das Finale.
Aber das Experimentieren vorher, das kannst du schon selber machen mit der KI.
Ähnlich wie du vielleicht mit einem IKEA-Konfigurator deine Küche schon recht gut vorbereiten kannst, aber am Ende noch jemand drüber schauen sollte, ob das alles Sinn macht und so weiter, kannst du dann mit einer KI noch viel individueller, nicht mit fertigen Bausteinen, sondern richtig kreativ das, was du dir wünscht, zusammen basteln.
Ein Riesenthema, was ich noch super spannend finde, und dann sollte man auch zu dem Einsetzen von KI in Produkte sprechen, weil das auch ein riesen spannendes Thema ist, heute kann DesignerInnen schon KI nutzen, um zu prototypen.
Weil es gibt ja immer noch diese große Kontrast zwischen Design und Engineering.
Und da ist ein Riesenfeld dazwischen.
Und da können DesignerInnen jetzt weiter reinrutschen mit KI.
Also keine fertigen Apps vielleicht noch entwickeln, das wird möglicherweise auch kommen, aber schon prototypen.
Und dadurch viel mehr noch kommunizieren, der Engineering-Seite, was in ihrem Kopf passiert.
Allein Animation zu kommunizieren ist so schwierig.
Da machst du vielleicht ein paar Screens, wo du die Bewegung des Intros machst oder was weiß ich, oder das Menü und dann versucht das jemand umzusetzen, den Code und dann ist es doch nicht so wie du es willst.
Dann ist das so ein Hin und Her, aber du kannst eben nicht den Code kommunizieren.
Und da gab es auch verschiedene Apps, die versucht haben, diese Brücke zu schlagen.
Aber mit KI können Designer in heute reinspringen, Prototypes basteln und viel mehr kommunizieren, was sie sich vorstellen oder auch viel früher vielleicht einen Teil von einer App oder sowas basteln oder einen Teil von einer Website basteln und dadurch die Kunden zeigen, hey, meinst du das so, das stellen wir uns vor und dann nähe und dann hin und her.
Und so ist dieser Feedback Loop, den man heute in großen Schleifen hat, viel kleiner.
Genau, es ist in jedem Teilbereich des Designs auch dieser Multiplikator greifend.
Das heißt, du hast einen Multiplikator in der Kommunikation mit dem Kunden, den Prototyping, in der Umsetzung und in der Nacharbeitung und kannst so viel effektiver und viel mehr Kunden auch bedienen.
Es werden vielleicht keine schlecht designten Webseiten von 1998 beim Mittelstand mehr sehen oder keine schlecht designten Flyer mehr, wo du den was du im Briefkasten findest und erstmal ein bisschen belächeln musst.
Das wird es vielleicht gar nicht mehr geben.
Insgesamt alles, was irgendwie designt ist, wird hübscher, denke ich.
Das Level, das Niveau wird hochgeschoben durch KI, dadurch, dass es demokratisiert wird und viel mehr Leute Zugriff auf die Tools haben.
Dann würde ich gerne in die Richtung gehen, wie kann man eigentlich mit KI designen?
Also nicht wie kann KI uns helfen, sondern wie kann man KI reinpacken als Designmaterial?
Designmaterial ist so ein Begriff, wo man sagt, du hast verschiedene Designmaterialien, die du einsetzen kannst, um ein Produkt zu designen.
KI ist im Grunde einfach gesagt ein neues Designmaterial.
Und was kann man denn machen?
Chatbot, ChatGPD ist so der Burner gerade.
Und alle versuchen, einen Chatbot überall reinzupacken.
Aber es gibt einen Teil von der Designgemeinde, die sagt, Chatbots sind nicht das Ende von der Fahnenstange, sondern es geht noch besser.
Chatbots sind im Grunde so wie das Terminal früher von den Interfaces, wo du sehr viel manuell gemacht hast und irgendwie so ein langsames Hin und Her hattest.
Und das geht besser.
Ich finde diesen Vergleich auch wirklich gut.
Und es macht auch Hoffnung, dass die Interfaces noch besser werden.
Also wir hatten ja auch letztes Mal darüber gesprochen, dass die KI's dir viel mehr antizipieren und dann vorher schon machen.
Aber es gibt auch jetzt schon ganz viele Leute, die mit KI experimentieren.
Und da habe ich ein paar Beispiele mitgebracht.
Und die wollte ich ihnen mal zeigen und wir können ja versuchen zu beschreiben, was wir sehen und ein paar Inspirationen geben, was so in der Welt gerade passiert.
Weil ich glaube, die Menschen, die sich für Design interessieren und die sagen, hey, ich würde gerne in dieses KI Design-Feld reinspringen.
Das fasziniert mich, die neuen Möglichkeiten.
Und ich würde das gerne anwenden, dann so ein bisschen Inspiration geben, was die neuen Leute heute schon machen.
Und dann generell ist es glaube ich schon total spannend.
Es ist ein richtig guter Moment als Designer innen hier reinzuspringen, weil es noch so ein komplett neues Medium ist.
Das passiert nicht oft.
Damals iPhone mit Touchscreens und dann andere Smartphones, das war so ein Wendepunkt, wo es eine neue Art von Interaktion gab und ganz viel zu experimentieren.
Und dann wurden so langsam die Pattern festgelegt.
Und heute mit diesem neuen Medium haben wir nochmal neue Chancen, Patterns aufzubauen, kreativ zu sein und neue Sachen auszuprobieren.
Geht natürlich immer, aber eben wenn so ein Feld so neu ist, erst recht.
Deswegen, auf jeden Fall würde ich euch alle motivieren, wenn ihr euch dafür interessiert, dass ihr das ausprobiert.
Dann schäle ich mal dir meinen Screen mit dir.
Kann man da die Links auch in die Beschreibung dann setzen, oder ist das eher lokal?
Unbedingt, also ich würde...
Ich habe so viel Material, ich werde die Show Notes vollpacken, diesmal mit Zeug.
Definitiv alles, was ich heute zeige.
Aber auch noch andere, ich habe Talks gefunden.
Es gibt schon Leute, die versuchen, Patterns für AI-Design zu entwickeln.
Da gibt es Seiten mit verschiedenen Sachen.
Auch wie kann man KI und Design und diese Perspektive ins Team bringen.
Da gibt es schon fertige Präsentationen, die man sich nehmen kann für Workshops intern.
Da gibt es richtig tolle Materialien und die werde ich alle mit reinpacken.
Okay, also ein Bereich, wo ich so ein paar Beispiele habe, ist wie KI und Mensch kooperieren können.
Also mehr so, als hättest du einen Agent, mit dem du zusammen etwas machst.
Da habe ich hier ein erstes kleines Projekt.
Also wir sehen gerade, also Perhaps heißt das.
Das ist so ein erster Prototyp von jemand, der das entwickelt hat.
Und hier sehen wir so ein Canvas, wie so ein digitales Whiteboard.
Und da hat er so eine Mischung.
Man sieht auch hier einen Cursor von einer KI.
Und er hat jetzt angefangen hier ein, also er hat so ein Objekt, das heißt Prompt, schmeißt einfach rein.
Und dann schreibt er ein Prompt, wo er geschrieben hat, hey, finde mir alle Firmen, die im Y Combinator, so ein Investor-Thema, 24 drin waren.
Und dann sieht man hier, wie die KI aktiv wird.
Die macht dann auf dieses Canvas ein Fenster von Google, wo es dann danach sucht.
Und dann kommt ein neues Fenster, wo es dann eine Website gefunden hat mit einer Liste, hat das entsprechend gefiltert.
Und am Ende, hier an der nächsten Position, gibt es ein neues Objekt auf diesem Canvas, wo das Ergebnis von der Recherche, von diesem Agent drin ist, wo dann eine Liste ist von allen Firmen mit der Beschreibung.
Und das Coole daran ist jetzt, jedes Objekt auf diesem Canvas ist ein Objekt, das man in den neuen Kontext reinwerfen kann.
Und jetzt macht er zum Beispiel, er öffnet noch selber einen Browser, wo er eine Website öffnet und dann später setzt er noch einen neuen Prompt, wo er dann das Browser Fenster von der Website und seinen Prompt auswählt als Kontext und sagt, hey, verbessern wir mal den Text hier.
Und dann nimmt er die Copy von dem Website und ändert den Text, macht das ein bisschen anders.
Und dann kann er den Text, das ist wieder ein Objekt, abändern und dann so wirklich mit der KI kooperieren.
Und das ist ein richtig schönes, dynamisches Hin und Her, wo die KI fast schon wie eine Person ist, der man Aufgaben geben kann und wo man wirklich so ein Kooperieren haben.
Das finde ich super spannend, das Ganze auf so einen Canvas zu setzen.
Genau, also bei dem Beispiel eben war es jetzt so, dass man mit der KI auf so einem Canvas kooperiert und die KI selbst Objekte erstellen kann und dann man so ein Hin und Her hat, was ich super spannend finde.
Und hier das nächste Beispiel ist im Grunde ähnlich.
Du hast aber ein bisschen klassischer, also du hast hier eine Mindmap und fängst an mit dem Thema und die KI generiert dir dann Ideen, also weitere Notes drum herum um dieses Thema.
Und dann kannst du die Notes nehmen, die dich interessieren, ein bisschen verschieben, die anderen löschen, die nicht für dich ein Thema sind.
Und in dem Beispiel bastelt jetzt die Person eine Mindmap für eine Website und sammelt so Ideen.
Und da hast du wirklich so ein, im Grunde das Fertige, darum wo es geht, also in dem Fall die Mindmap ist da und du und die KI ihr zusammen manipuliert das und es wird so erarbeitet.
Weniger wie es jetzt mit Chatbots ist, wo du so eine Konversation hast und im Grunde das, was du veränderst, immer wieder neu geschrieben wird und du teilweise dann auch irgendwie, das verändert wird wegen dem vorherigen Kontext und so weiter, hast du hier und zumal bei der KI, wenn du einen Text schreibst, geht es eigentlich um den Text und der sollte immer vor dir sein.
Aber beim Chatbot ist es nicht so.
Und hier ist so ein Interface, wo du eine Mindmap hast und die fertigen Mindmaps sind im Grunde immer vor dir und ihr bearbeitet die zusammen.
Also das finde ich auch ganz spannend, eben dieses, darum wo es geht, das immer in der Mitte zu haben und mehr dieses Kooperieren mit der KI statt dieses Hin und Her mit dem Chatbot.
Ich hab letztens auch, wollte ich ein Projekt umsetzen, was anstatt eine statische Website so eine Art Canvas hat, so React Flow Mindmap-mäßig.
Und da hab ich halt eben festgestellt, dass das echt eine gute, so eine Mindmap-Struktur, wie die beiden jetzt da gemacht haben, es ist ein guter Weg, wie man das dem Menschen oder wie man damit arbeiten kann mit neuen Ideen oder auch mit allem anderen.
Glaubst du, dass alle oder dass viele Bereiche dann in so Mindmaps umswitchen oder gibt es vielleicht noch was Besseres als solche?
Kann was?
Nee, ich glaub tatsächlich, dass es nicht so die eine beste Art gibt, wie man das visualisiert, sondern mehr, dass es AI infused wird in verschiedene Interfaces und die AI kann einfach mit dem Interface danach umgehen.
Ob es jetzt im E-Mail-Programm ist, wo du einen Text schreibst oder auf einem Canvas, wo du eben, wenn du gerne so mit Mindmapping arbeitest und das so visualisierst, dann da dabei ist.
Aber dass immer eben das Medium, um was es gerade geht, dir vor ist.
Später auch wenn du Fotos oder Videos machst, dass du dann das Video vor dir hast und das manipulierst und immer wieder das Video anguckst.
Und nicht irgendwie im Chatbot sagst, hey, ich hätt gern das Video.
Und dann kommt das Video und sagst, nee, den Bereich hätt ich gern anders, dann kommt ein neues Video.
Sondern dass dieses Medium und was es geht, immer in der Mitte ist zwischen dir und der KI und ihr daran zusammenarbeitet.
Also ich denke, das ist die Zukunft unabhängig davon vom Medium.
Ob es jetzt ein Canvas ist, eine Mindmap, ein Video, ein Bild.
Es gibt so viele Anwendungen, aber ganz oben an der Oberfläche hast du eben das Interface Chat.
Und ich glaube, das wird ein Switch geben, dass das Medium, was es geht, PDF, Text, Bild, Canvas, Mindmap im Vordergrund steht und die AI hinten im Grunde steht und mit dir kooperiert.
Da habe ich noch ein weiteres Beispiel, das habe ich dir gerade geschickt.
Da geht es um Zeichnen.
Das ist ein Video.
Das ist nicht immer online, aber das ist ein Video.
Das kannst du angucken, da ein bisschen durchsliden.
Und in dem Fall, das ist auch wieder so ein Canvas, da kann man so grob zeichnen.
Und parallel, da gibt es ja mittlerweile einige Models, die Bilder sehr schnell generieren können.
Und das Spannende darin ist, also ein Modus ist, da hast du links deine grobe Zeichnung und rechts macht die KI einen generierten Bild raus, aber extrem schnell.
Also während du links zeichnest, wird das rechts generiert.
Und dann gibt es ein Modus, wo das übereinander liegt.
Wo du dann, das was du zeichnest, ist im Hintergrund, du siehst das gar nicht und das generiert das im Vordergrund.
Das heißt, es fühlt sich fast an, als würdest du das generierte Bild manipulieren.
Und da gibt es ein Beispiel, wo dann so ein Bild ist von einem Fisch und die Person zieht den Fisch hoch und runter und manipuliert im Hintergrund die simple Zeichnung.
Aber es sieht aus, als würde sie das generierte Bild manipulieren.
Und dadurch, dass es so extrem schnell ist, ist das richtig spannend, was dabei rauskommt, wenn man diesen schnellen Feedback Loop hat.
Und man kann das Ganze noch kombinieren, dass die Zeichnung mit einem Text prompt, wo du dann sagen kannst, hey, das ist eine Welle oder sowas, und dann generiert die KI eben eine Welle daraus und dann kannst du das nochmal bearbeiten.
Also das finde ich ganz spannend, was auch mal zeigt, wie nah beieinander so eine KI-Menschkooperation sein kann.
Dieses Beispiel von Drawfast, das ist wirklich Wahnsinn.
Also ich hab das immer, auch wenn so Echtzeit-Anpassungen an so Bilder, das gibt es ja auch bei so Open Source-Bilder-Generatoren, dann schreibst du einen prompt und dann wird das Echtzeit erstellt.
Nach ein paar Millisekunden ist das da.
Da muss man vielleicht auch noch ein bisschen in den Gedanken der Zuhörerinnen ein bisschen verbildlichen, wie KI eigentlich arbeitet.
Denn wenn wir JetGPT nutzen oder irgendeine andere KI, dann ist es ja so, dass das langsam geschrieben wird oder es wird langsam erstellt.
Aber mit den ganzen Anpassungen, mit dem Scaling, wird es ja so werden, dass die KI im Grunde tausend Bilder in einer Sekunde vielleicht irgendwann erstellen kann oder tausend Texte in einer Sekunde.
Und das ist nicht schnell, das ist übermenschlich schnell dann einfach.
Und so sieht man das hier.
Die zeichnen nur ein bisschen was Kleines hin und auf einmal kommt da ein vollumfängliches Objekt oder ein Bild dabei raus.
Das ist schon sehr, sehr erstaunlich.
Ja, und was du sagst, ist total wichtig.
Die Geschwindigkeit, wie eine KI den Output generieren kann, ist nicht nur nett, sondern eröffnet komplett neue Anwendungsfälle.
Also zum Beispiel stell dir vor, du bist in einem Service Center, bist am Telefon und eine KI, die schnell genug ist, die kann dem Gespräch zuhören und live Material, Texte, Content, Rückmeldungen, die wichtigen Infos auf dem Bildschirm bringen und kriegt mit der Kundin, die Kundin die Anruf, da geht es um dieses Produkt und dieses Produkt und bäm ist das Produkt auf dem Screen.
Und wenn die KI schnell genug ist, dann kann es dort auch wirklich angewendet werden.
Oder hat den und den Fall und so weiter.
Also Geschwindigkeit eröffnet neue Möglichkeiten.
Und wenn die KI, die Rückmeldung zu langsam ist, dann schränkt das wieder ein, wo es wirklich eingenutzt werden kann, geht ja auch um Robotik.
Wenn die KI schnell genug ist, dann kann der Roboter sich schneller bewegen, weil die KI schneller Entscheidungen, richtige Entscheidungen treffen kann.
Wenn die KI zu langsam ist, muss der Roboter, was man heute oft sieht, sich langsam in Slow-Motion bewegen, um nicht hinzufallen.
Extrem wichtig und man kann sich auch selbst ein Bild machen, wenn zum Beispiel, wenn man jetzt nicht mehr 5 Minuten rumklicksen muss, um irgendwas zu finden, sondern man sagt was und es ist quasi schon da.
Also es dauert nicht zu laden, sondern es kommt einfach.
Und wenn das in jedem Produkt, was du am PC auch hernimmst oder so integriert ist, dann wird es ein richtiger Multiplikator.
Da hab ich noch ein Beispiel, das richtig spannend ist.
Also es gibt TL Draw, das ist so ein Open Source Canvas.
Kann man sich holen, wenn man Canvas integrieren möchte in die eigenen Produkte.
Und die experimentieren zurzeit ganz viel mit KI.
Und das Draw Fast war eben ein Beispiel.
Und das nächste heißt jetzt Make Real.
Und das hab ich schon vor einiger Zeit gesehen.
Die haben das noch ein bisschen weiterentwickelt.
Das finde ich mega spannend.
Unter Runterscrolls gibt es ein Video in diesem Repo.
Und das ist die Überlegung hier war, wie viel verschiedene Inputs kann man der KI geben, um etwas zu generieren.
Und hier haben sie ein Beispiel.
Da siehst du ein Canvas.
Wie gesagt, TL Draws ist ein Canvas.
Und da haben sie so gezeichnet, ganz grob mit Linien und kurzen Textfeldern.
Ein Quadrat, da ist oben ein Timer drin.
Also 00, 00 steht drin.
Und unten sind so verschiedene Kreise.
Die sollen wahrscheinlich Button sein, mit Reset und Plus, Minus und so weiter.
Und jetzt kann man das selektieren in diesen Prototypen und sagen, make it real.
Und dann programmiert die KI im Hintergrund das.
Und dann siehst du rechts daneben so ein kleines Fensterchen, ein iFrame technisch.
Und da wird das fertig Programmierte dargestellt.
Und dann siehst du, wie dein Zeichen zum Leben erweckt wird.
Aber jetzt finde ich, was ich unglaublich spannend finde, links daneben hat die Person einen State-Chart gemalt.
Also wie, in welchem State, in welchem Zustand, dass dieser Timer sich wie verhalten sollte und wann es in den anderen Zustand rüber springt.
Zum Beispiel von nicht laufend zu laufend zu resettet und so weiter.
Und welcher Zustand wie zu welchem anderen switcht.
Also wirklich, das gibt es verschiedene Arten.
Und hier in dem Fall Boxen, die mit Pfeilen verbunden sind.
Und dann verschiedene Beschreibungen.
Und dann nimmt die Person diesen State-Chart und die grobe Zeichnung, seletiert das.
Und dann nimmt die KI beides als Input und generiert einen Timer, der dann auch wirklich nach diesem State-Chart funktioniert.
Also dadurch, dass die KI so multimodal ist, kann es diesen State-Chart verstehen, kann diese Zeichnung verstehen und generiert dann etwas, was so aussieht.
Und dann geht es weiter, dann gibt es diesen Output, dann kann die Person einen Pfeil drauf machen, also bei dem Generierten, dass das funktioniert nicht so, und das und das macht es anders und schreibt wirklich in Textform, macht das, seletiert die zwei Sachen und generiert wieder was Neues.
Und das finde ich super spannend, wie man der KI so auf verschiedenen Levels, verschiedenen Medien Input geben kann, Kontext geben kann, was wie riesig, also wenn ich mir jetzt vorstelle, ich müsste das in Textform, in Chatbot erklären, das wäre umfangreich und die KI würde mich vielleicht missverstehen, aber dadurch, dass sie das zeichnen kann und dann noch Text reinschmeißen kann, das alles kombiniert, die KI nehmen kann und ein Ding draus macht und wir dann auch noch weiter daran iterieren können, das finde ich mega spannend.
Wir sehen hier die Zukunft der Erstellung zum Beispiel auch von Webseiten.
Das heißt, wir haben ja jetzt verschiedene Webseiten-Bilde, wie eben auch Canvas oder was gibt es denn noch alles, also es gibt ja ewig viele Wicks oder so.
Und die können statischen Text gut darstellen, Bilder, Videos, Text, aber die haben halt nicht viel Logik, ne?
Also da kannst du jetzt nicht einbauen, so ein Timer oder eine Uhr, die das und das macht oder irgendwas anderes, was irgendwas macht.
Logik, eigentlich eine Programmierung von der Logik.
Das kannst du ja noch nicht einbauen.
Und jetzt kannst du was zeichnen.
Jetzt kannst du die Logik, das, was programmiert werden soll, kannst du hier rein zeichnen.
Und der schreibt den Code für diese Logik.
Es ist sogar der Step, dass man das schreibt und erstellt den Code, wurde ein bisschen übersprungen.
Und du kannst jetzt zeichnen, was das machen soll.
Das ist sehr erstaunlich, das Ding.
Ja, und das hat mich total erinnert an, zum Beispiel Unreal Engine, das ist eine Spiele-Engine.
Und da kann man mit verschiedenen Nodes zusammen etwas aufbauen und dann da die Logik, die State-Machines zum Beispiel reinpacken.
Und da musst du darauf achten, dass alles zusammenpasst und du musst das Ganze verstehen und so weiter.
Aber bei dem Teil, du zeichnest es halt.
Und du kannst, was ich auch letztes Mal meinte, der KI sowas grobes zu werfen und die macht dann was draus.
Aus diesem Messi wird was Sauberes.
Dieses Beispiel hat mich super inspiriert.
Gestern hat einer meiner Buben gesagt, dass es eine Website cool wäre, die so einen Körper abbildet.
Und wenn man auf einen bestimmten Körperteil klickt, dass das dann erklärt wird oder das wird reingezoomt.
Und dann kann es da immer tiefer gehen in den Körper.
Da haben wir halt gesprochen, darüber welcher Aufwand es wäre, das zu programmieren.
Und da hat man ein bisschen was überlegt.
Und das ist natürlich designtechnisch und programmiertechnisch ist das schon ein Riesenaufwand, dass du so eine Website irgendwie auf die Beine stellst.
Aber wenn ich mir jetzt das angucke, dann könnte das jemand, der null Ahnung mit Design hat, der null Ahnung im Programmieren hat, könnte vielleicht so eine Website relativ schnell sogar bauen.
Und das ist so erstaunlich.
Und ich hab noch viele, viele weitere Beispiele.
Aber weil uns die Zeit heute reicht, nicht reicht, würde ich die alle in die Show Notes packen.
Und wer jetzt ein bisschen auf den Geschmack gekommen ist, kann gerne sich da durchklicken und die verschiedenen Sachen anschauen und dann vielleicht selbst aktiv werden und Sachen basteln.
Ich hab noch ein paar Gedanken zu der Rolle und den Aufgaben, die sich ändern für DesignerInnen.
Denn wenn man mit KI arbeitet und KI als Designmaterial hat, dann hat man auch ganz neue Aufgaben.
Es ist nicht so klar aufgeteilt, dass jetzt die Engineers, die basteln die KI und die DesignerInnen, die nutzen einfach die KI, wie sie fertig ist.
Sondern es ist ja auch ein Modellieren der KI.
Also, wenn wir zum Beispiel einen simplen Chatbot nehmen, ist es ja auch eine Frage, wie reagiert der, was ist die Persönlichkeit, wo sind die Limits, wo holt er sich die Informationen her?
Und all das ist auch eine Designfrage.
Und da ist es super hilfreich, wenn DesignerInnen sich eben auch damit beschäftigen, auch ein bisschen die technischen Hintergründe kennen und dadurch so die Fähigkeiten, die Limits von KI heute und was auch noch kommt, einfach kennen.
Genau.
Hast du da schon was versucht von den Tools, wo du sagst, ok, krass.
Also hast du schon das so experienced, so ein Tool mal?
Eins von denen, so was in die Richtung, wie ich jetzt hier gezeigt habe, meinst du?
Genau, genau.
Also so irgendwie Canvas-Tool.
Nee, leider noch nicht.
Also das ist sehr viel Prototypisches.
Es ist auch so, dass in Amerika die UX AI-Szene sehr, sehr weit schon ist im Vergleich zu Deutschland, zumindest im deutschsprachigen Raum, was ich bisher gesehen habe.
Oder auch in der Restewelt.
Also da sind da wirklich Pioniere.
Da gibt es auch große Meetups mit mehreren Hundert Leuten, die alle ihre Prototypen zeigen.
Und da ist eine richtig aktive Szene.
Vielleicht habe ich sie im deutschsprachigen Raum noch nicht gesehen.
Deswegen meldet euch gerne, wenn da was passiert.
Aber das ist alles noch so im Umbruch.
Also ich glaube, so die Design-Community hat jetzt vor kurzem erst so geschafft zu verstehen, okay, Chatbots sind nicht das Ende.
Und wir können neu experimentieren.
Und jetzt geht es in die nächste Phase, wo das wirklich angewendet ist.
Deswegen bin ich gespannt auf die nächsten Jahre, wenn Sachen kommen.
Was ich jetzt bei allen Tools gesehen habe, ist, wie du gesagt hast, dass das Medium im Mittelpunkt steht.
Also PDF, Video, Foto, egal was.
Was aber bei allen auch irgendwie gleich ist, ist, dass das Endresultat schon ersichtlich ist.
Also ich glaube, das ist ein ganz wichtiger Punkt beim AI-Design oder das Design, mit das man AI nutzt, dass du dann in Echtzeit sofort das Ergebnis siehst, ohne dass du irgendwie fünf Schritte machen musst und dann siehst du das Ergebnis, sondern sofort.
Da ist ein guter Punkt diese Feedback-Loop.
Was du dir vorstellst und dann manipulierst du es und was am Ende dabei rauskommt, ist viel kürzer.
Du machst nicht erst mal Skizzen und dann mockabst du das in Photoshop und drei Wochen später hat das vielleicht jemand umgesetzt in eine Website und dann denkst du, hm, war doch nicht so, dass ich wollte.
Sondern du, in diesem einen Beispiel, du skrippelst das auf einem Board und Sekunden später hast du das finale Produkt.
Das ist definitiv.
Und das ist auch etwas Umdenken, wo man, wenn man als Designer sagt, ich mach jetzt ein Tool, das mit KI arbeitet, welche Fähigkeiten, welche Möglichkeiten da einfach da sind.
Und generell ist es auch so ein Umdenken für DesignerInnen, denn du hast im Grunde Intelligenz als Designmaterial.
Das ist ja so, dass wenn wir das im Moment angucken, aber auch in die Zukunft denken, wie KI sich vielleicht noch weiterentwickelt.
Du hast einfach Intelligenz, mit der du arbeiten kannst und reinstecken kannst.
Und da kommen ganz neue Ideen, wenn man so ein bisschen überlegt, was kann ich eigentlich damit machen und dann vielleicht das Potenzial verstehen.
Deswegen würde ich alle, die sich dafür interessieren, motivieren, beschäftigt euch, guckt was draußen ist, experimentiert selber, was da draußen ist.
Und da kann man sicher die schön austoben und coole Sachen basteln.
Definitiv.
Und wenn wir die Analogie nochmal nehmen, dass der Chat-Pod das Terminal ist, dann ist vielleicht dieses Canvas schon ein bisschen weiter zu der benutzerfreundlichen Oberfläche eines Computers vergleichbar mit dem ersten Mac OS, Macintosh oder mit dem ersten, also Windows 95, wo man dann schon Fenster hatte.
Vielleicht ist es damals zu vergleichen.
Wo gehen wir aber dann hin?
Ich meine, wenn wir die Analogie nehmen, was würde dann die Apps sein oder das Web sein von KI Design?
Also generell glaube ich, ist eine Perspektive, die man haben kann.
Es war jetzt viele Jahre, auch mit SEO und allem anderem, wo es so war, Content ist King, also das Thema.
Und ich glaube, wir gehen jetzt in eine Ära, wo es Kontext ist King ist.
Das schiebt auch nochmal ganz viel Power zu den Betriebssystemen.
Apple, Microsoft und Android.
Dadurch, dass das Betriebssystem so viel weiß über das, was du machst, eben auch so viel mehr Kontext sammeln kann und dadurch so viel mehr woher es stehen kann, was du machst und auch dir in dem Moment viel besser helfen kann.
Deswegen glaube ich, dass Kontext extrem wichtig ist.
Und eine Aufgabe von einem Designer ist zu überlegen, für die Aufgabe, die jemand machen möchte mit einem Tool, mit einem Werkzeug und so weiter, welchen Kontext brauche ich dabei, um das bestmögliche Resultat zu kriegen.
Und das ist glaube ich auf jeden Fall so ein Umdenken.
Aber wo geht es hin?
Also spannende Ideen sind ja auch, dass in Zukunft keine Apps mehr programmiert werden, sondern on-the-fly generiert werden.
Dass dieses generative UI, dass die KI dir für das, was du in dem Moment brauchst, ein UI entwickelt, das genauso aussieht, wie du es brauchst.
Und dann interaktierst du, kannst du damit machen.
Und dann verfliegt das wieder.
Und beim nächsten Mal kommt das vielleicht wieder auf.
Aber passend zu dem neuen Kontext.
Also da gibt es auch Leute, die in die Richtung experimentieren, was bedeutet das, wenn ein UI nicht statisch ist, sondern angepasst auch wieder dieses hyperpersonalisiert auf dich in deiner Situation.
Das finde ich einen interessanten Ansatz, weil das zieht sich ja schon auch durch die ganzen AI-Experten.
Wie werden wir AI nutzen?
Und dieses On-the-Fly programmieren.
Das heißt, du hast einen speziellen Anwendungsfall und sagst, hey, ich brauch das.
Dann programmiert dir dir eine Oberfläche und du kannst in diese Oberfläche dann arbeiten.
Ich glaube, das wird ein Riesending werden.
Und ich kann mir vorstellen, dass das eben das ist dann the next step so nach dem Ganzen.
Also wir werden jetzt verschiedene Steps haben zwischen dem Mindmap Canva und dem, was wir jetzt gesagt haben.
Da wird viel dazwischen liegen.
Aber so letztendlich kann ich mir schon vorstellen, dass sowas dann funktioniert.
Ja, sehe ich auch so.
Gleichzeitig werden ganz viele UX-DesignerInnen aufschreien.
Vielleicht jetzt gerade, wenn sie den Podcast hören und sagen, Moment, aber ich stecke erst so viel Arbeit und Gedanken rein, um dieses Tool in dem Moment so effizient möglich zu machen.
Nur das in dem Moment dem User zu zeigen, was er sie in dem Moment braucht und so weiter.
Und das wird, glaube ich, nicht weggehen.
Ich glaube, KI wird schon besser darin, einem zu helfen, sowas zu designen.
Aber auch, es gibt unten die Base Level, wird es so viel kleinere Aufgaben, die du jeden Tag hier und da hast und so weiter, wo die KI das abnehmen wird.
Wo Menschen heute nicht das richtige Werkzeug haben oder gar kein Werkzeug haben.
Und dann machen sie halt das manuell irgendwie.
Allein so ein Beispiel wie in Excel, irgendwie da alle Sachen da rausziehen und dann jeweils ein Bild generieren und das dann rüber kopieren und das und so weiter.
Da gibt es kein fertiges Werkzeug, das genau das in diesem Fall macht.
Aber das sind, glaube ich, diese Situation, wo da in Zukunft eine AI hochploppt, die für diesen Fall eine App programmiert, eine UI programmiert und dann verschwindet dieses Ding wieder.
Aber ich glaube, diese richtig gut designten Apps, die du jeden Tag benutzt und die im richtigen Moment das Richtige machen, die werden nicht weggehen.
Und wir alle, die sich für Design interessieren, werden eher mehr das designen dürfen, als diese simplen, langweiligen, eher rudimentären Sachen, die eine KI dann abnehmen kann.
So wie es eigentlich im jedem Bereich momentan ist, bietet es sich, glaube ich, irgendwas Eigenes aufzubauen.
Ich glaube, wir sind jetzt in einer Zeit, wenn du irgendwie selbstständig werden willst, wenn du dir eine Firma aufbauen willst oder als Freelancer arbeiten willst, dann ist, glaube ich, jetzt die perfekte Zeit dafür, weil jetzt kommen eben auch die Tools, die dir so viel Arbeit abnehmen, dass du das auf die Beine stellen kannst.
Wenn du Designer bist, und ich glaube, dass es viele, viele, viele Designer da draußen gibt, die eben nicht bei einem Konzern arbeiten wollen oder nicht bei einer einzelnen mittelständischen Firma, die wollen sich vielleicht selbst was aufbauen oder überhaupt, wenn man so viele kreative Tasks hat, dann kann man sich natürlich seine eigenes Leben wahrscheinlich auch besser ausmalen.
In dem Sinne und anders ausmalen.
Und ich glaube, dass das ein Schritt wäre, vielleicht als Designer selbstständig zu werden, wenn man sich vielleicht auch technisch interessiert oder vielleicht einen Programmierer an seiner Seite hat, dass man guckt, wie, welche, also, wir sind ja am Anfang der Tools, das steckt ja alles in den Kinderschuhen.
Und auf GitHub kommen irgendwelche Open Source-Programme täglich hoch, die nicht sehr aufwendig zu programmieren sind.
Die nutzen halt die KI und die KI ist ja das Backend.
Also du musst jetzt vielleicht nicht Wochen oder Monate programmieren und hast dann ein fertiges Tool, sondern du kannst einen Plan machen und hast vielleicht schon ein paar Tage oder ein paar Wochen ein fertiges Tool.
Und das allerwichtigste, glaube ich, wird, dass wir die verschiedenen KI-Systeme irgendwie miteinander kommunizieren lassen, dass wir die Chatbots mit den Bildgeneratoren kommunizieren lassen und das dann grafisch schön irgendwie aufploppt auf dem PC.
Das heißt, ich glaube, wenn man jetzt Designer ist, dann hat man ein riesen, riesen neues Feld, das man erkunden kann und wo man neue Tools vielleicht selbst entwickeln kann, beziehungsweise die Tools, die halt jetzt rauskommen, dann vollumfänglich nutzen kann.
Und um da reinzukommen ist, auch wie wir in der Chatbot-Folge es schon angesprochen haben, experimentieren.
Also das, was möglicherweise man dann für andere macht, kann man erst mal für sich selber zum Beispiel.
Wenn ich designe, kann ich mir vielleicht per KI einen kleinen Prototyp basteln, der mir Farben, hast eine Farbenzünder.
Ich geb eine Farbe rein und die KI gibt mir schöne Farben, die dazu komplementär sind, raus.
Oder ich werf ein Thema rein und da kommt vielleicht verschiedene Metaphern bei raus.
Also dass man selber einfach rum experimentiert.
Ich glaub, das ist das Beste, dass du mehr man sich damit beschäftigt und versteht, wo sind die Limits, was sind die Möglichkeiten, kann man andere beraten.
Tolle Produkte designen und dann ist man gefragt.
Weil ich denke, das Thema wird riesengroß in den nächsten Jahren.
Und dann sind die DesignerInnen, die sich damit auskennen, die schon damit experimentiert haben, hochgefragt.
Und auch konkret eine Firma kommt und sagt, wie kann ich den KI bei mir einsetzen?
Und die möchten da nicht irgendwie ein fertiges Produkt drauf werfen, sondern jeder hat einen verschiedenen Fall, Anwendungsfall, Situationen.
Und wenn man dann fähig ist zu wissen, was kann die KI, dann kann man die Situation sich angucken und dann richtig gut beraten.
Und dann kann das, wenn man es selber nicht kann, ein Technik-Thema umsetzen.
Was ich aber auch mega wichtig finde, ist, dass man sich mit beschäftigen mit den ethischen Fragen.
Zu Themen wie KI-Content und KI-Interaktion, sollte man sie auszeichnen?
Ja, wie, an welcher Stelle, wenn ich jetzt mit einem Chatbot integriere und das wirkt wie ein Mensch, sollte man schreiben, das ist ein Chatbot.
Also es sind spannende ethische Fragen, die im Designbereich aufkommen.
Oder dass man sich als Designer in beschäftigt mit Halluzinationen, Missinformationen.
Ich kann jetzt nicht einfach ein fertiges Model nehmen und irgendwo reinschmeißen und dann hoffen, dass es gut geht.
Sondern ich muss auch sicherstellen, dass es eben gut funktioniert, dass die Informationen richtig sind.
Und wenn sie nicht richtig sind, gibt es verschiedene Ansätze.
Ein Pattern ist zum Beispiel, dass man die KI so promptet, dass sie einfach sagt, wenn sie unsicher ist.
Weil zurzeit ist es oft so, dass KI schnell einfach sehr sicher ist mit all den Antworten, die vielleicht aber falsch sind.
Und dass man da einfach so eben es noch reinbringt, hey, möglicherweise, so wie ein Mensch zu einem Mensch das auch machen würde.
Oder auch ein Bias, der vielleicht drin ist.
Also alles wichtige Sachen und Datenschutz, mit dem man sich auch beschäftigen sollte als Designerin, wenn man KI in Produkte rein designen möchte.
Definitiv, und es gibt ja auch immer die Kontroverse, die Daten, die gefüttert wurden, waren ja irgendwie wahrscheinlich geistiges Eigentum oder physisches Eigentum von irgendwelchen Künstlern.
Ansonsten könnte die KI ja nicht irgendwie Bilder erstellen, wenn es nicht Millionen, Milliarden von Bildern bekommen hätte, die Menschen vielleicht irgendwie gezeichnet oder geschossen haben.
Oder was?
Und diese Kontroverse, die zieht sich durch.
Ich glaube, dass wir in Zukunft eher synthetische Daten haben, während die besser sind als das, was der Mensch macht.
Also im Grunde gibst du der KI zum Beispiel das Grundprinzip, wie ist ein Mensch aufgebaut, rein optisch, welche Unterschiede gibt es.
Und mit diesen Baukasten kann es dann Menschen generieren, die echt aussehen, weil sie eben den Baukasten dazu hatten.
Und das kannst du dann Millionen, Milliardenfach.
Und somit hast du synthetische Daten, die eigentlich von der KI selbst kommen, die man der KI wieder selbst füttern kann.
So ironisch, wie sich das anhört.
Aber die Kontroverse besteht jetzt immer noch.
Ich meine, der Anfang ist ja immer so, dass das geistiges Eigentum genommen wird und irgendwie der KI gefüttert wird.
Und im Design, vor allem im Design, ist das schwierig.
Und mit dem Bias dann auch noch dazu.
Und das ist das ganz, ganz Schwierige, dass man jedes Detail mitnimmt und wirklich keinerlei Gruppierungen oder Menschen oder irgendetwas irgendwie vernachlässigt diskriminiert.
Definitiv, also es gibt viele Fragen, die da aufkommen.
Und wer sich damit beschäftigt und wen das interessiert, gerne.
Wie gesagt, ich pack die Show Notes ran voll mit Themen.
Springt da rein, tobt euch aus.
Und ansonsten meldet euch gerne, wenn ihr Fragen habt, die euch das Thema interessiert.
Ich habe eine weitere Liste von Links und Ideen und Sammlungen.
Und da möchte ich mich gerne austauschen zu einem Thema mit euch.
Dann war das alles für Design und KI.
War super spannend.
Und dann freue ich mich auf nächste Woche.
Wir sehen uns.
Ruben
00:00:25
Benny
00:00:44
Ruben
00:01:12
Benny
00:01:13
Ruben
00:01:17
Benny
00:02:50
Ruben
00:03:31
Benny
00:04:16
Ruben
00:04:21
Benny
00:07:21
Ruben
00:07:53
Benny
00:09:31
Ruben
00:10:07
Benny
00:11:57
Ruben
00:13:08
Benny
00:14:32
Ruben
00:14:51
Benny
00:17:19
Ruben
00:18:26
Benny
00:18:29
Ruben
00:18:36
Benny
00:20:25
Ruben
00:21:00
Benny
00:23:14
Ruben
00:24:03
Benny
00:26:55
Ruben
00:28:34
Benny
00:29:06
Ruben
00:29:13
Benny
00:30:55
Ruben
00:31:47
Benny
00:33:36
Ruben
00:33:51
Benny
00:35:06
Ruben
00:35:28
Benny
00:36:45
Ruben
00:38:20
Benny
00:40:33
Ruben
00:41:13
Benny
00:43:50
Ruben
00:43:55
Benny
00:48:05
Ruben
00:48:43
Benny
00:51:22
Ruben
00:52:26
Benny
00:53:42
Ruben
00:54:05
Benny
00:57:03
Ruben
00:58:05
Benny
00:58:40
Ruben
00:59:20
Benny
01:00:38
Ruben
01:00:55
Benny
01:01:00
Ruben
01:01:04
Benny
01:01:56
Ruben
01:02:30
Benny
01:03:46
Ruben
01:04:22
Benny
01:05:54
Ruben
01:06:33
Benny
01:07:57
Ruben
01:09:54
Benny
01:12:16
Ruben
01:13:40
Benny
01:14:11
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!