Digitale Originale
00:00:00: Kennst du diesen Meme? Weißt du, wo dieser Großdies, diese Gossik, und dann nach dieser
00:00:08: weirischen Volksweisen im Tanzfachen steigen? Ja, nach dem, das ist der dritte Versuch,
00:00:17: glaube ich.
00:00:18: Wie weiter?
00:00:19: Nee, für mich schon der dritte, weil ich habe ja erst mal eingemacht, wo ich nur ganz
00:00:21: alleine lauere.
00:00:22: Also.
00:00:23: Dann...
00:00:24: Oh, selber schuld?
00:00:25: Ja, das ist wirklich selber schuld.
00:00:27: Allerdings sind sie immer nach wie vor die gleichen Themen.
00:00:29: Also, ich...
00:00:30: So langsam hängt es ein bisschen auf dem Ohr an.
00:00:32: Ja, sind paar fit.
00:00:34: Wollen wir starten?
00:00:36: Ja, dann würde ich sagen, dann starten wir mal mit der Episode 36.
00:00:41: Digitale Originale.
00:00:43: Der Podcast mit Olli und Freunden.
00:00:46: Heute...
00:00:47: Wo stehen wir bei AR und KI?
00:00:50: Ja, herzlich willkommen zu unserem neuen Podcast.
00:01:05: Wir wollen uns heute den Thema AR und KI widmen.
00:01:09: Und zwar haben wir uns ein bisschen überlegt, dass wir tatsächlich mal ein bisschen chronologisch
00:01:14: vorgehen, euch auch ein bisschen mitnehmen wollen.
00:01:16: Wir können natürlich dann entsprechend die Themen, die euch interessieren, skippen.
00:01:21: Und bzw. die, die euch nicht interessieren, skippen so rum.
00:01:24: Und ja, so würden wir es einfach starten.
00:01:26: Ich mache mal eine kleine Inhaltsangabe.
00:01:28: Und zwar wollen wir heute zunächst erst mal über AR sprechen in unserer Weihnachtspost.
00:01:32: Wir haben ja ein bisschen Hirnschmalz und Ideen in unsere letzte Weihnachtspost gesteckt.
00:01:38: Das war halt eben AR.
00:01:39: Da wollen wir ein bisschen erzählen, was wir uns dabei gedacht haben, wie es entstanden
00:01:43: ist und so weiter.
00:01:44: Und dann wollen wir uns auch über das ganze Thema AR in unserem Alltag auseinandersetzen.
00:01:49: Das heißt, also, ist, hat sich das im Alltag etabliert oder nicht?
00:01:52: Dann wollen wir über das ganze Thema Special Computing sprechen.
00:01:56: Das heißt, Apple hat ja jetzt seine Vision Pro raus.
00:01:59: Gibt es ja einiges im Netz zu sehen.
00:02:01: Und dann wollen wir über das ganze Thema AR, VR, Mixed Reality sprechen.
00:02:06: Dann AR und KI.
00:02:08: Jetzt wird sich wahrscheinlich der eine oder andere die Frage stellen, wieso denn überhaupt KI?
00:02:12: Was hat das eine mit dem anderen zu tun?
00:02:14: Diesen Themenblock wollen wir noch mal angehen.
00:02:16: Und natürlich KI an sich.
00:02:18: Wie hat sich KI denn inzwischen in unserem Alltag so integriert?
00:02:22: Ja, dann ein gemeinsames Fazit dieser ganzen Technologien.
00:02:26: Und wir hoffen, es macht Spaß und es ist kurzweilig.
00:02:30: Bei mir heute sind Svenny und Aline, meine beiden Kollegen aus der Kreation.
00:02:36: Und wir drei wollen uns heute genau mit diesen Themen komplex auseinandersetzen.
00:02:41: Hi.
00:02:43: Fangen wir doch mal an mit dem ganzen Thema AR und unsere Weihnachtspost.
00:02:49: Wir machen jedes Jahr eigentlich relativ aufwändig immer Weihnachtspost.
00:02:55: Das hat zum einen den Grund, dass wir natürlich auch zeigen wollen,
00:02:59: was wir technologisch so machen oder was machbar ist.
00:03:03: Und im Jahr 23 haben wir uns dazu entschieden,
00:03:07: einen AR-Thema rauszubringen.
00:03:13: Und zwar ist es nicht so, ob wir AR nicht schon vorher gemacht hätten.
00:03:17: Allerdings haben wir uns mal mit einer Technologie auseinandergesetzt.
00:03:20: Das ist nämlich Web-AR, die tatsächlich Betriebssystem unabhängig ist.
00:03:25: Und ja, Svenny, erzähl doch mal, du hast da ja auch einen großen Anteil.
00:03:30: Ja, grundsätzlich zur Motivation.
00:03:34: Also AR ist immer noch so ein AH-Thema jetzt auch vor der Vision Pro.
00:03:39: In dem Sinne war es immer noch so ein AH-Thema,
00:03:42: was auch irgendwie trotzdem immer noch mit gewissen Hürden verbunden war.
00:03:48: Und das fand ich jetzt gerade an der Stelle bei Web-AR so eine interessante Geschichte,
00:03:54: dass eine von diesen vielen Hürden dadurch wegfällt,
00:03:58: dass man eben unabhängig von Betriebssystemen oder App,
00:04:01: sondern einfach nur über den Browser quasi "sino augmented reality" Geschichte spinnen kann.
00:04:08: Das war der eine Grund, wie gesagt.
00:04:11: Und AR hat immer noch einen absoluten AH-Effekt, finde ich.
00:04:16: Und war es so doppelt oder von daher von unserer Seite so gemacht worden,
00:04:24: dass wir uns mit der Technologie auseinandersetzen können,
00:04:27: dass wir auch sehen, was geht, was geht nicht.
00:04:30: Also es ist natürlich jetzt nicht Web-AR und ich sage mal ein AR über eine App,
00:04:35: da gibt es natürlich auch immer noch technologische Unterschiede.
00:04:38: Also gerade was den Detailgrad von Renderings oder eben diese 3D Models,
00:04:46: in dem Sinne gibt, dass Web-AR da doch noch abgespeckter ist.
00:04:52: Aber wie gesagt, sich damit auseinanderzusetzen, zu sehen, was ist möglich
00:04:55: und kriegt man eigentlich was auf die Beine, was auch schon diesen AH-Effekt abholt oder mitnimmt.
00:05:02: Und ich finde grundsätzlich, dass uns das gelungen ist mit der Karte, als solches.
00:05:06: Was genau haben wir denn gemacht?
00:05:08: Ja, das möchtet ihr jetzt alle wissen.
00:05:10: Nein, also ja, wir haben ein...
00:05:16: Ja, das ist so ein bisschen komisch schwer zu sagen, was wir genau gemacht haben.
00:05:19: Also eigentlich haben wir eine Artfigur gemacht,
00:05:21: eine digitale Artfigur von unserem Leitmotiv, würde ich jetzt mal so sagen,
00:05:27: das ist der Computerhead, den auch vielleicht der ein oder andere kennt.
00:05:32: Den haben wir als Leitmotiv und haben wir dann dafür verwendet.
00:05:39: Und der hat im Grundsatz, haben wir versucht mit dem,
00:05:44: das ist eine Tischdeco, den klassischen Weihnachts-USB-Weihnachtsbaum,
00:05:49: den man damals für ultrafortschrittlich gehalten hat.
00:05:54: Den wollten wir eigentlich in digital mit AR deutlich machen.
00:06:00: Ich glaube, das trifft es eigentlich ganz gut,
00:06:03: dass wir diese Technologie dafür verwendet haben,
00:06:07: um so ein staubiges Zeug mal in die heutige zu transportieren.
00:06:11: Vielleicht ein bisschen was zu dem Computerhead.
00:06:14: Also wenn ihr euch mal unsere Webseite anguckt,
00:06:17: also die, die uns kennen, werden den Computerhead kennen,
00:06:19: aber die, die uns jetzt nicht kennen, schaut gerne mal auf unsere Webseite,
00:06:22: der werdet ihr sehen, der wird überall eigentlich gespielt in unserer Kommunikation.
00:06:26: Und zwar ist das eigentlich eine menschliche Figur,
00:06:29: die statt einen Kopf, einen Computer hat, und zwar genau zu sein,
00:06:32: einen alten Mac SE aus den 80er Jahren.
00:06:35: Und wir hatten mal überlegt, auch diese Figur etwas zu modernisieren,
00:06:40: aber auch Betonung auf etwas.
00:06:42: Und dafür war Aline im Vorfeld zuständig.
00:06:46: Das heißt ja, wir haben gesagt, okay, wir wollen den transformieren
00:06:49: in die dritte Dimension, aber er sollte halt auch nochmal ein bisschen aktualisiert werden.
00:06:53: Aline, erzähl doch mal, wie ist denn dabei dir der Entstehungsprozess gewesen?
00:06:57: Ja, wir haben uns natürlich zuerst mal den alten Computerhead genommen und geguckt,
00:07:03: wie soll der jetzt, oder wie können wir ihn modernisieren?
00:07:09: Wir haben uns ja da auch ein bisschen an den Artfigurs von anderen Künstlern orientiert,
00:07:14: also zum Beispiel Cors oder Super Plastik oder so, und geschaut, wie machen die es eigentlich?
00:07:20: Und haben dann den so ein bisschen noch in die heutige Zeit rübergeholt,
00:07:26: also einen neuen, einen neuen iMac-Kopf hat er bekommen.
00:07:30: Da war natürlich auch die Frage, wie lassen wir ihn aussehen?
00:07:34: Also soll er jetzt irgendwie niedlich sein, soll er jetzt genau so realistisch sein,
00:07:39: wie er vorher auch war? Also wie verhalten wir uns mit den Proportionen?
00:07:44: Vorher war er, also wir hatten auch mal so einen Stand, da war er ja so ein bisschen kleiner,
00:07:51: so mickey-mausmäßig, das war uns dann aber doch ein bisschen zuverspielt.
00:07:55: Kartoniger, ne?
00:07:56: Ja, genau.
00:07:57: Ein Oberkörper groß wie ein Zendstück, aber Beine so lang wie kein Artengegern.
00:08:01: Ja, ja, genau. Da sind wir dann wieder von weg gegangen und so eher Richtung Super Plastik auch tatsächlich.
00:08:07: Also es ist doch ein bisschen menschlicher, aber immer noch in Richtung Comic-Stil,
00:08:15: würde ich jetzt mal fast sagen.
00:08:17: Super Plastik, das hat uns damals auch schon beeinflusst so in dem Sinne,
00:08:21: weil das kam ja raus mit, dass das quasi virtuelle Models dann in dem Sinne waren
00:08:26: für eine junge Käuferschaft, möchte ich jetzt mal so sagen.
00:08:30: Ja, die haben ja auch glaube ich während der Corona-Zeit und diesem NFT-Hype auf einmal so wahnsinnig Oberwasser gekriegt.
00:08:37: Also überhaupt alle Arteils, die jetzt gehen ja durch den NFT-Hype, der meiner Ansicht nach nicht mehr vorhanden ist.
00:08:44: Nee, gar nicht irgendwie.
00:08:46: Aber da ist das ein bisschen hochgespült worden.
00:08:49: Ja, ich sage mal so, jetzt da ist ja ein ganz kurzer Abschweifer NFT, also jetzt so,
00:08:55: das als ein Kunstwerk, das als, hier hast du dein, wie hießen die Affen von diesem Yachtclub da,
00:09:04: Board-Ape, Yachtclub, irgendwie, also ist zum Vergessen auch gut, womöglich weiß ich es aus gutem Grund nicht mehr so,
00:09:12: aber das war ja so der Halbschlicht hin und die Dinger sind ja wirklich für Millionen von Dollars verkauft worden.
00:09:18: So natürlich schwingt da immer irgendwie so ein bisschen die Korruption oder auch die Geldwäsche so grundsätzlich ja bei,
00:09:22: da ist ja kein Kunstmarkt von frei, aber man merkt ganz schnell heute, also die Technologie als solche hat vielleicht eine
00:09:29: Daseinsberechtigung und ist ja auch nicht an der Stelle hochgekommen, sondern war, gab es ja schon früher auch im
00:09:33: Energaming-Branche und so, also dass man einfach dieses einzelne Original hat quasi so.
00:09:40: Das ist auch immer noch was, aber das hat sich an der Stelle überhaupt nicht durchgesetzt.
00:09:43: Also ich glaube in der Kommerzialisierung fand ich Nike's Ansatz eigentlich sehr, sehr schön,
00:09:48: mit dem Hoodie mit den Flügeln, also dass du dann VR, du hast ein QR-Code halt auf den Hoodie und dann wenn du den Scans hast,
00:09:55: kriegt der Hoodie auf einmal Flügel und das machen sie jetzt mit Schuhen glaube ich auch, also dass sie dieses ganze Thema durch
00:10:03: NFT gestützt hat, immer noch mit AR-Funktionalitäten dann sagen wir mal digital erweitern, also das Produkt finde ich eigentlich eine
00:10:10: ganz spannende Sache, aber wie gesagt, dieser eigentliche NFT-Hype, der hat so echt, der ist wirklich stark abgeeckt.
00:10:17: Also wir sind alle keine Millionäre geworden.
00:10:19: Nein, das stimmt.
00:10:20: Ich sage mal, die realistische Hoffnung hatte ich da nie, aber trotzdem, man hat sich ja dafür interessiert und irgendwie wollten die Leute
00:10:28: einmal schon auch Weiß machen und das damit Geld zu verdienen sei.
00:10:32: So, also, aber nein.
00:10:34: Noch mal zurück zu unserer Figur. Also Aline ist, also für euch Aline ist unsere Illustratorin, also alle Sachen, die ihr jetzt zum Beispiel
00:10:42: auf der Website sieht, die sind halt von Aline auch gezeichnet. Die ist richtig gut da drin und es ist tatsächlich so gewesen,
00:10:48: der Prozess, also zu sagen, okay, wie können wir ihn, wie können wir ihn nicht zu weit weg von dem alten Stil,
00:10:54: bis die Proportion so anpassen, dass es ein bisschen kartuniger wird, aber trotzdem noch sehr viele menschliche Proportionen
00:11:00: beibehält und so weiter, das hast du begleitet, in denen du mit vielen Illustrationen und Illustrations entwürfen,
00:11:06: tatsächlich hier in die Runde gegangen bist.
00:11:08: Wir haben uns das angeguckt, haben darüber diskutiert, ist das nicht so kitschy, ist das nicht so kartunig, ist das nicht zu zuartig.
00:11:14: Also man muss ja eins dazu sagen, wir haben ja jetzt ja auch keine Kunden aus der Kunst- und Kultur-Szene oder sowas,
00:11:20: sondern wir müssen ja auch schon relativ kommerziell kommunizieren, was unsere Kundschaft angeht.
00:11:26: So, und haben dann einfach irgendwann den Stil gefunden oder diesen Dreh oder diesen Kniff gefunden zu sagen,
00:11:31: okay, pass auf, wir machen den Kopf auf jeden Fall anders und wir haben uns tatsächlich für diesen iMac entschieden,
00:11:37: der mit Steves Jobs zurückgang zu Apple, also der ist ja zwischenzeitlich bei Apple nicht mehr gewesen,
00:11:44: hat dann NECCS gegründet, blah, so, und kam dann mit diesem Pauken- und Trompetenschlag, mit diesem iMac, mit diesem bunten iMacs zurück
00:11:51: und genau das ist dann jetzt der neue Computerhead, der dann natürlich auch ein bisschen anders aussieht.
00:11:56: Proportionen sind so gewesen, dass wir die Beine natürlich kartunig länger haben, den Oberkörperkartunig kürzer,
00:12:02: allerdings in solchen Proportionen, das ist jetzt nicht so drastisch aufhörig, das ist nur noch aussieht wie eine kartunfigur.
00:12:08: Ich finde aber tatsächlich, dass der neue iMac jetzt sehr gut zu der Figur passt, durch die Abrundung und so.
00:12:14: Absolut, sieht mehr nach dem Kopf aus und dadurch, dass er farbig ist, kann man da auch sehr schön variieren.
00:12:19: Ja, weil die Artfigur halt auch so weich ist, durch die Comics, die passt einfach so.
00:12:23: Ja, vor allem finde ich es auch noch ein bisschen abgefahren, weil der, also jeder, der diesen alten iMac kennt,
00:12:28: der sieht ja, das ist ja so transparenter Kunststoff, also das wirkt natürlich auch alles nochmal ein bisschen.
00:12:33: Ist heute auch wieder total modern, also 90er Style ist ja eine sichere Bank quasi, wenn eher Blond-Ferm, keine Ahnung, so die Geschichten.
00:12:43: Vor allen Dingen, was ich bei der Artfigur oder bei dem Computerhead jetzt irgendwie, was ja weiter aufrecht erhalten bleiben sollte,
00:12:49: ist der grundsätzlich, der kommt ja aus einer Idee, dass wir eben lange in der Branche sind.
00:12:57: Also eine große digitale Expertise oder auch eine lange und auch eine durchaus so beräne Expertise im Digitalen haben,
00:13:06: aber natürlich genauso die Brücke zum, ja zum Jung und Wilden, also so wie unsere Agentur dann in dem Sinne aufgestellt ist,
00:13:14: dass von bis auch sich da irgendwie drin wieder findet letztendlich und das auch die Figur genau das transportiert.
00:13:21: Und das finde ich, das ist so simpel, es ist so alt, Expertise, neu, Jung und Wild zusammen.
00:13:30: Ja, und die Idee war ja dann sozusagen, einen virtuellen Weihnachtsbaum zu machen und grundsätzlich, also auch in der Illustration von Alim,
00:13:36: kam dann so der Gedanke auf, okay, der muss so eine, ich sage mal, in 3D nimmt man das eine Charakter-T-Stellung einnehmen.
00:13:44: Ja, die T-Bose.
00:13:45: Genau, da da so ein bisschen aussieht wie ein Weihnachtsbaum, das heißt die Arme sind da so ein bisschen weiter runtergebaut
00:13:51: und dann sollte der eigentlich so eine Christbaumkette rum haben, so eine Lichterkette.
00:13:56: So, und da kam man natürlich dann an die Grenzen dessen, was im Moment in WebAR machbar ist.
00:14:01: Also Leuchten und Rage-Racing, also eigentlich so ganz simple Sachen, die man üblicherweise kennt, sind dann nicht ganz so einfach.
00:14:09: Die reale Beleuchtung, also HDRI und so was, also damit haben wir uns dann sehr intensiv auseinandergesetzt
00:14:15: und uns war dann auch am Ende eigentlich nur diese T-Pose zu langweilig,
00:14:21: worauf wir dann ja auf die Idee gekommen sind zu sagen, okay, der muss noch ein bisschen mehr können, als da einfach nur durchstehen.
00:14:27: Und dann haben wir uns halt mit dem Thema noch mal auseinandergesetzt und jetzt wissen wir ja aus der Vergangenheit,
00:14:32: wir hatten ja 22 auch schon mal ein 3D-Thema, anderes Medium, da ging es um Filmchen,
00:14:36: aber wir haben festgestellt, also das, also animieren jetzt irgendwas, ist ein Riesenaufwand.
00:14:42: Diesen Aufwand wollten wir jetzt nicht nochmal so in dieser Größenordnung vornehmen
00:14:48: und sind dann auf die Idee gekommen, halt Motion Capture Daten zu nehmen.
00:14:51: Und haben da ein bisschen umrecherchiert und so weiter und Duby hat ja mit Mixamo die geilste Motion Capture Datenbank der Welt.
00:14:58: Ja, und dann haben wir uns damit auseinandergesetzt, war gar nicht so einfach die In- und Export, In- und Export,
00:15:02: immer Ex-Person, lange bis das dann noch irgendwie funktioniert.
00:15:04: Also das ist eine Datenbank, wo es ganz, ganz viele Bewegungsabläufe für diese 3D-Geschichte gibt.
00:15:10: Ach, du musst mal nochmal sagen.
00:15:11: Um das jetzt einfach mal auszunehmen.
00:15:12: Ja, das ist gut, verlorte die...
00:15:13: Simpler Sprache von mir.
00:15:14: Ja, du, dass du sagst, also verlorte die sich damit nicht auseinandersetzen, also so Filme wie Avatar und so weiter,
00:15:20: sind fast ausschließlich mit Motion Capture entstanden.
00:15:22: Motion Capture nennt man dieses Thema, wenn man eine reale Person filmt mit so Kentafly,
00:15:28: mit so weißen Punkten überall am Körper und diese Punkte, die werden dann mitgefilmt
00:15:33: und werden als Daten ausgewertet, nämlich im Raum, also diese 3D-Messe,
00:15:37: so XYZ-Achse, wird ausgewertet und das kann man dann auf ein 3D-Objekt übertragen.
00:15:42: Diesen Prozess nennt man Motion Capturing und das ist normalerweise ein sehr aufwendig und teurer Prozess.
00:15:48: Da braucht man bestimmte Kameras, man braucht bestimmt, also man muss einen komischen Anzug tragen und so weiter und so weiter.
00:15:54: Und dann dem Prozess das auch wirklich digital auszuwerten, zum Daten zu machen, das ist auch etwas aufwendiger.
00:16:01: So, und das gibt es als fertig, also mit fertigen Daten gibt es das halt eben von Miksamo, also von Adobe
00:16:08: und da haben wir uns da ein bisschen, haben wir ein bisschen rumprobiert und ausprobiert und gemacht und getan
00:16:13: und haben da halt einfach eine sehr, sehr schöne Lösung gefunden, ihnen dann auch einfach nicht da nur durftehen zu lassen, so bewegungslos,
00:16:19: sondern er konnte dann halt Salte rückwärts, er konnte tanzen und er hat auch geatmet, wenn er gestanden hat, also er war jetzt nicht ganz so tot, sag ich mal.
00:16:28: Also war für uns auch ein spannendes Learning, also auch diese Dinge auszuprobieren und vor allem das alles in Echtzeit 3D.
00:16:36: Was muss natürlich auch auf dem Handy, also auf dem Handy Computer muss das ja auch funktionieren, also es war eine sehr, sehr spannende Sache.
00:16:43: Hat viele Dinge gehabt, also fand ich genau an der Stelle letztendlich so du als 3D-Lad,
00:16:48: du wirst ja dann auch ja genug Zeit auch oder wissen, wie viel Zeit man damit verbringen kann, 3D-Figuren zu animieren,
00:16:57: bis ins letzte Detail auszupengeln irgendwie, man kann auch gerne gerne in wie so ein Jahrzehnt vorbeigehen, so weißt du.
00:17:04: Und das war natürlich auch für den Workflow, denke ich auch für uns.
00:17:07: Also wie kriegt man schnelles Ergebnis mit Daten, also dass man nicht alles natürlich von vorne oder von Null an beginnen muss.
00:17:13: Man kann auch auf gewisse Daten wie jetzt dieses Rigging oder wie auch immer, du hast es gerade genannt, zurückgreifen können.
00:17:20: Ja, also jetzt falls wir euch jetzt den Mund wässrig gemacht haben, einfach auch zu gucken, was wir dort gemacht haben,
00:17:25: wir haben auf unserer Website unter Podcasts genau zu dem Podcast auch noch mal links, da könnt ihr euch das auch noch mal live selbst angucken auf dem Handy.
00:17:32: Ist ja vielleicht dann auch mal ganz spannend, wenn man es nicht nur hört, sondern da vielleicht auch mal sieht.
00:17:40: Wollen wir aber mal ein bisschen rübergehen zu dem Thema AR im Allgemeinen.
00:17:44: Was würdet ihr dann sagen, ist AR im Alltag angekommen?
00:17:48: Ja, schon. Find ich schon.
00:17:52: Ja, nö.
00:17:55: Es ist branchenabhängig, würde ich für dich jetzt mal so sagen.
00:17:59: Also ich sag mal, ich glaube wir hatten ja immer letzte Mal darüber gesprochen,
00:18:04: also ich stelle mir von IKEA oder von Amazon keine 3D-Möbel irgendwie in meinem Räumchen rum, um zu sehen wie es aussieht,
00:18:12: dann mache ich nicht, aber ich habe mir durchaus von Mr. Specks schon mal eine Brille aufgesetzt, um zu sehen,
00:18:20: um ein Gefühl dafür zu kriegen, wie könnte die und jene Brille bei mir aussehen.
00:18:25: Also das hat Einfluss, klar, aber es ist schon branchenabhängig,
00:18:31: natürlich auch gerade Kunst und Kultur kann irgendwie alles, da kann es schon etablierter sein,
00:18:37: aber gibt noch ganz viele Parts, wo es echt noch absolut Kinder-Schuhe ist.
00:18:41: Alim, ist es bei dir?
00:18:43: Also ich habe IKEA auf jeden Fall, also das ist ein gutes Beispiel, das nutze ich eigentlich auch,
00:18:51: wenn ich Interesse daran habe, mir irgendwas zu kaufen, dann eigentlich auch regelmäßig.
00:18:56: Ansonsten fallen mir eigentlich auch die Social Media Filter einmal ein, also das ist, nutzt ja fast jeder.
00:19:05: Ja, da sind wir, also das ist ein Thema, da sollten wir gleich nochmal dran, weil da ist nämlich die Brücke ARKI,
00:19:10: da sprechen wir genau über diesen Bereich nochmal, würde ich jetzt nochmal zurückstellen.
00:19:14: Ja, also ich finde auch, also AR ist tatsächlich ein bisschen branchenabhängig, also es gibt Branchen,
00:19:21: wo AR meiner Ansicht nach sich schon super etabliert hat, also zum Beispiel im Bereich Fashion und im Bereich Beauty.
00:19:28: Ja, total, lebt in Schlittbären, probiert oder so was.
00:19:31: Was ich jetzt auch gelesen habe, finde ich eigentlich auch ganz cool, habe ich aber bis jetzt noch nicht live gesehen,
00:19:35: sind so Virtual Trions in zum Beispiel Kleidungsgeschäften halt, dann hast du dann da einen Spiegel
00:19:41: und dann kannst du da auswählen, was du anziehen möchtest, das heißt du musst gar nicht in die Umkleide,
00:19:45: sondern siehst direkt an dir die Kleidung, wie es aussehen kann.
00:19:49: Das finde ich auch echt spannend, aber wie gesagt, habe ich bis jetzt so noch nicht gesehen.
00:19:54: Ja, es gab ja, ich glaube vor einem Jahr oder so was, ging das ja auch irgendwie viral,
00:19:58: diese AR-Funktionalität, dass man sich schuhe, also dass man sich schuhe direkt live am Fuß angucken kann.
00:20:03: Das fand ich auch total spannend.
00:20:05: Ist übrigens auch mit Eight Wall gemacht, mit genau der gleichen Software, mit der wir unser Weihnachtspost gemacht haben,
00:20:11: weil das ist bei denen auf der Webseite tatsächlich als Referenz her.
00:20:15: Und im Fashion-Bereich ist es, glaube ich, ein Riesenthema.
00:20:18: Auch das ist ja tatsächlich, hat mal so einen richtigen Push gekriegt durch die Corona-Zeiten,
00:20:22: auch diese NFT und Metaverse, das ist ja auch so ein Begriff, der vor zwei Jahren noch ein Riesenthema war,
00:20:28: jetzt auch so ein bisschen eingeschlafen ist.
00:20:31: Adobe hat das Thema Metaverse ja mal definiert, als nicht ein Raum, wo jetzt alle rum eiern,
00:20:37: sondern irgendwie im Grunde genommen der Begriff oder der Oberbegriff für das Verbinden der realen Welt mit der virtuellen.
00:20:44: Find ich eigentlich eine sehr, sehr schöne Gleichung, dass man sagt, also das ist Metaverse nicht irgendwie eins,
00:20:51: oder hier, also Roblox oder irgendeine Spielegeschichte, sondern es ist tatsächlich Verbindung zwischen real und fiktiv.
00:20:57: Und das finde ich eigentlich eine ganz, ganz schöne Interpretation.
00:21:00: Und da gehört zum Beispiel dieser Fashion-Bereich auch da rein, also zu der Zeit, wo Metaverse noch so ein Riesenthema war,
00:21:06: da kam auf einmal das Thema virtuelle Fashion auf einmal tierisch auf.
00:21:10: Also wo dann auf einmal du Klamotten kaufen konntest, die nie real sind, also die nirgends nur als NFT oder als virtuelle Mode gab
00:21:20: und dann für die Avatare in unterschiedlichen Bereichen konnte man dann mit entsprechenden Assessoires,
00:21:27: das ja im Spielebereich schon lange gegangen gäbe ist, Assessoires kaufen,
00:21:31: aber im Fashion-Bereich dann, das war schon mal neu, dass man auf einmal typische Marken gesehen hat,
00:21:38: die auf einmal andere Wege eingegangen sind.
00:21:41: So und im AR-Bereich, das was du gerade auch schon sagtest, da interbliert sich das immer mehr,
00:21:46: dass man also Klamotten ausprobieren kann, indem man sie via AR darstellt.
00:21:52: Und das finde ich glaube ich auch nochmal einen ganz spannenden Weg.
00:21:54: Ja und bei Mögeln hatten wir ja auch schon mal darüber gesprochen, also für mich,
00:21:58: Amazon hat das ja wahnsinnig professionalisiert das ganze Thema AR,
00:22:03: das heißt also jedes Möbelstück, was du da bei Amazon siehst, kannst du dir rein theoretisch gleich mal in Raum stellen.
00:22:09: Jetzt gar nicht unbedingt das Foto-Realismus wegen, sondern passt es da und das finde ich eigentlich total spannend.
00:22:14: Ja sicher auch.
00:22:15: Ich finde auch, das hat sich bei mir ganz selbstverständlich etabliert.
00:22:18: Total.
00:22:19: Daher, der AR-Bereich.
00:22:21: Wo würdet ihr denn sagen, könnte AR noch nützlich sein?
00:22:25: Also wo sagt ihr, Mensch, da ist ein Missing-Link, da könnte man, da wäre AR richtig spannend eigentlich.
00:22:30: Boah, das ist natürlich eine große philosophische Frage.
00:22:35: Ja, also ich sag mal so, wie gesagt, AR ist ja dann an der Stelle, ich glaube da ist auch immer noch das Problem,
00:22:43: weswegen es sich nicht so durch die Bank durchzieht, dass es schon überall angekommen ist.
00:22:48: Es hat eben noch ganz, ganz viele Hürden, die auch noch genommen werden müssen in dem Sinne.
00:22:53: So wie gesagt, dieses Web-AR, das ist dann auch wieder eine von 10.000 Hürden, die genommen worden ist.
00:22:59: Aber es hat natürlich noch super, super viele Hürden.
00:23:03: Ich wüsste jetzt nicht, wo, ich sag mal, ich vielleicht kriege, ist das die Brücke zur Apple Vision Pro?
00:23:11: Weißt du, das ist ja in dem Sinne vielleicht schon was, was jetzt mal einfach einen neuen Kosmos eröffnet.
00:23:17: Irgendwie auch wenn es jetzt von Apple selber nicht AR genannt wird, aber es ist, unterm Strich ist es das so.
00:23:23: Das eröffnet natürlich jetzt einen riesen neuen Kosmos so.
00:23:27: Und da ist ultra viel vorstellbar, glaube ich so.
00:23:31: Also, ja, von daher.
00:23:34: Find ich gut, dass du die, also, ich wollte etwas sagen, Helene.
00:23:37: Ja, also es gibt ja jetzt schon bei AR Anwendungen, die genutzt werden und wichtig sind, finde ich.
00:23:44: Zum Beispiel Google Maps, die nutzen auch AR aktiv.
00:23:48: Dass du direkt siehst, okay, in welche Richtung musst du jetzt gehen?
00:23:51: Ich glaube, als, das finde ich auch.
00:23:54: Ich finde dieses ganze Weg, Wegethema, also da, glaube ich, da wird AR relativ schnell Einzug halten.
00:23:59: Sowohl zu Fuß als auch mit dem Auto.
00:24:01: Ja.
00:24:02: Auto ja sowieso über Head-Up-Displays ja schon seit geraumer Zeit.
00:24:06: Aber jetzt sagen wir mal so, im Handy hat sich das ja so noch nicht etabliert.
00:24:09: Also bei Apple Karten ist das nicht.
00:24:11: Also ich muss immer noch aufs Handy gucken und habe so eine, also ich wüsste jetzt nicht, dass ich eine AR Ansicht hätte.
00:24:16: Das ist eben...
00:24:17: Ich glaube, das ist der Next Step, oder?
00:24:19: Ich weiß gar nicht, ob es das schon gibt.
00:24:21: Ich habe auf jeden Fall davon mitbekommen, ob es das jetzt irgendwie in der Zukunft geben wird oder ob es das wirklich schon gibt.
00:24:27: Technologisch auf jeden Fall machbar, aber auch wieder AdWall.
00:24:30: Also die tatsächlich, also auch du kannst Interaktion mit Objekten, auch mit Maps Einbindung, also mit Street View Einbindung, ist möglich.
00:24:40: Damit kannst du rein, hier riecht sogar eine, sagen wir mal, bei der Maps Ansicht kannst du auch sagen, so der nächste leckere Burger Laden ist dann da hinten.
00:24:47: Geh mal da weiter und so was.
00:24:49: Da geht es schon einiges.
00:24:50: Ich glaube, da passiert ein bisschen was.
00:24:51: Aber da sind wir bei den Themen Device und das ist eine ganz, ganz, ganz schöne Übergang.
00:24:58: Das ist ein ganz schöner Übergang.
00:25:00: Also ich glaube so ein bisschen die Höhe oder die Schwierigkeit bei AR ist, tatsächlich, dass unser Alltags-Divis, wir regen jetzt hier vom Smartphone,
00:25:09: das ist ja nun mal ein Gerät, was sich komplett in unseren Alltag integriert hat, wenn nicht sogar übernommen hat, was man ein bisschen übertreibt.
00:25:18: Aber das ist genau eine ausgerechnet Funktion, wo das Device etwas unglücklich dasteht.
00:25:22: Also wie blöd würde das sein, wenn ich mit einem Smartphone vor der Nase, weil ich muss ja ins Display gucken, mir einen Weg angucke.
00:25:31: Also erstmal würde das ziemlich dämlich aussehen auf der Straße und es ist auch unhandlich, es ist nicht alltagstauglich.
00:25:37: So und es gibt ja schon seit Ewigkeiten den Wunsch, sagen wir mal, eine virtuelle Welt mit der realen Welt zur Verbindung über Brillen.
00:25:45: So und da sind wir jetzt genau bei dem Thema Apple, Apple Vision Pro, ist gerade rausgekommen.
00:25:51: Also und die versuchen jetzt tatsächlich ein Tool auf den Markt zu bringen, was der Next Big Thing sein soll und was sich jetzt da vielleicht massentauglich etabliert und in unseren Alltag integriert.
00:26:07: Was sagt er dazu?
00:26:09: Also massentauglich ist es ja schon allein nicht, weil es eine immens hohe Summe kostet.
00:26:16: Also preislich, preislich.
00:26:18: Ich kann sich nur die 1% der Menschheit so gefühlt leisten, also irgendwie 4.000 Dollar oder wird auch immer das Ding kosten oder Euro dann hier.
00:26:26: Also da muss Apple glaube ich nochmal ran in Zukunft, wenn das massentauglich sein soll, zumindest was das angeht.
00:26:32: Also ich glaube grundsätzlich, dass das Thema, also das ist sozusagen, finde ich jetzt der erste richtige Kinderschuh.
00:26:40: Diese ganze Technologie steckt noch total in Kinderschuh. Das gab es jetzt ähnliche Sachen, gab es ja auch schon von Meta hier, wie heißt die Brille von denen?
00:26:48: Oculus. Oculus, oder man so die, ah ne, warte mal, wie heißt die von Meta?
00:26:52: Ist das nicht Oculus?
00:26:54: Ich weiß es nicht, auf jeden Fall die Meta-Brille.
00:26:56: Der Name fehlt mir jetzt gerade, aber Quest 3.
00:27:00: Ah genau, Quest 3.
00:27:02: Ist ja auch schon so was in der Art gewesen so.
00:27:06: Und grundsätzlich die Technologie, die da jetzt gerade bei der Vision Pro zusammengekommen ist, das ist glaube ich das erste Mal, dass da, also da ist ein neuer Kosmos geschaffen worden,
00:27:18: der aber jetzt wirklich das erste Mal einfach nur ein Kinderschuh ist.
00:27:23: So, ne? Ich sag mal, das ist schon beeindruckend. Letztendlich, dass das jetzt wirklich über, auch wie man es bedient, natürlich mit Augen, das kennt man alles,
00:27:33: aber dieses Zeigefinger-Daumenprinzip, um was zu bestätigen und so, und wirklich da ist der nächste Schritt passiert.
00:27:40: Für die schon sagen, das ist ein Schritt so, aber mehr auch jetzt erstmal nicht so.
00:27:45: Man wird jetzt abwarten müssen, was die Entwickler und die Leute, die dafür jetzt irgendwas entwickeln wollen, sich was ausdenken wollen, was dazu stande gebracht wird so an der Stelle.
00:27:56: Ich glaube schon, dass das damit wir weitergehen, das glaube ich schon.
00:28:01: Ja, also ich, man muss ja eins dazu sagen, also dieses ganze Thema VR gibt es ja schon Ewigkeiten.
00:28:09: Das hat in den 80ern angefangen, in den 90ern, es gab immer wieder Versuche, das Ganze in die Masse zu bringen hat aber irgendwie nie so richtig funktioniert.
00:28:17: Es ist immer irgendwie Nischenprodukt. Es ist immer ein A-H-Effekt, wenn man so ein Ding aufhat.
00:28:21: Den Ansatz den Apple jetzt hat mit der Vision Pro, nämlich so eine Mixed Reality-Variante.
00:28:26: Auch diesen Ansatz gab es schon von Microsoft sehr frühzeitig mit den HoloLenses.
00:28:32: Und Google mit den Glasses, beide Projekte wurden reingestampft.
00:28:38: Ja, ich glaube aber jetzt Apple, das ist auch wieder, Apple hat mit diesem Ding, das ist jetzt wie gesagt kein Massenprodukt.
00:28:47: Und ich glaube auch nicht, dass da viele wirklichen Nutzen drauf haben.
00:28:50: Man hat so ein A-H-Effekt, kann man einem gut vorführen in dem Sinne und jeder sagt, wow, Wahnsinn, so klar.
00:28:55: Aber es hat trotzdem ganz, ganz viele dieser Hürden einfach auch schon wieder mitgenommen.
00:29:00: Also jetzt mal alleine der Fakt, dass es, glaube ich, okay, ich hatte so ein Ding noch nicht auf,
00:29:05: ich muss mich jetzt nur darauf stützen, was andere mir erzählt haben oder was ich von anderen,
00:29:09: wenn nicht mir hat, niemand was erzählt, ich habe gelesen oder zugehört.
00:29:13: Aber dass es das erste Mal ist, dass du kein Pixel mehr wahrnimmst.
00:29:18: Dass du wirklich so eine gute Auflösung hast, dass dein Auge oder dein Geist damit zufrieden ist,
00:29:25: was da da bekommt, ohne es wieder in diese Richtung so hinterfragen.
00:29:30: Das ist ein, ja, die Hürde ist übersprungen worden so und dies finde ich schon eine sehr essentielle grundsätzlich.
00:29:37: Also das ist schon ein Zauber, dadurch wird es ein wenig mehr ein Zauber
00:29:41: und dadurch, dass alles wirklich so gestochen scharf ist, das muss ja wirklich, also soll ja alles wie Glas aussehen,
00:29:46: also ich sage mal die Screens, die du dir dann da machen kannst.
00:29:50: Das hat schon viel Geiles, muss ich wirklich sagen.
00:29:54: Ich habe jetzt so ein paar Memes gesehen, ihr habt da wahrscheinlich auch schon gesehen,
00:29:58: also wo dann Amis, also in Amiland wird die ja schon flasig verkauft, dann tatsächlich damit über die Straßen rennen
00:30:03: und sagen wir mal, sich ziemlich unsinnig verhalten, ihrer Umwelt gegenüber.
00:30:09: Ich meine gut, man muss einenzeit zu sagen, das hört sich jetzt vielleicht lächerlich an,
00:30:14: aber es ist ja im Grunde genommen nichts anderes als das, was anfangs der Smartphone-Zeit stattgefunden hat.
00:30:20: Es ist auf einmal die Leute nicht mehr nach geradeaus gucken, sondern eigentlich runter
00:30:24: und sich da eigentlich wahrscheinlich, muss man sich erst mal an das Alltagsbild gewöhnen,
00:30:29: dass dann auf einmal jemand mit einer Skibrille auf, mit einer Verstraße stehen bleibt
00:30:34: und irgendwelche wirren Handbewegungen macht, weil er irgendwelche Displays von A nach B schiebt.
00:30:40: Nein?
00:30:42: Er jetzt wie eine Meme-Logo-Grösser macht.
00:30:43: Ja, ja, ja, ja, man als, ich weiß noch, als die Airpods rauskam, da hat sich jeder diese
00:30:50: Aufsteckaufsätze für elektrische Zahnbürsten als Gag in die Ohren gesteckt so. Also da hat sich
00:30:56: am Anfang auch jeder drüber lustig gemacht. Okay, das ist vielleicht jetzt ein optisch
00:30:59: gesehener, hat aus einer anderen Qualität, ob ich mir jetzt so ein kleines Ding ins Ohr stecke
00:31:04: oder mir so einen großen Apparat aufsetze in dem Sinne. Jetzt, wie gesagt, ich glaube jetzt in
00:31:09: allererster Linie ist das für Apple einfach auch wieder ein Light-Produkt so. Die wollen einfach
00:31:14: Innovationsförderer und als innovativ wahrgenommen werden, auch mehr als es dann, die standen mal
00:31:21: mehr dafür. Das ist so ein bisschen abgeflacht. Ich glaube da den Anstrich wollen die sich jetzt
00:31:25: erstmal wieder verpassen. So, das ist das eine natürlich und es hat letztendlich niemand bislang
00:31:32: so eine Art von Gerät in dieser hochwertigen Artigen gekriegt. Aber wenn man ehrlich ist,
00:31:39: ist das immer noch alles andere als cool. Also wie gesagt, hochwertige Materialien und so gut
00:31:48: hat es noch niemanden gekriegt. Gar keine Frage, da kann man Haken dran machen, aber es ist immer
00:31:54: nur nicht im Bereich, dass man das als eine Selbstverständlichkeit hinnehmen würde. Das ist
00:31:58: aber gut, dass du sagst, weil das ist ja dieses ganze Thema. Warum ist das iPhone so unfassbar
00:32:07: erfolgreich gewesen oder ist es nach wie vor, also das Smartphone und gut iPhone waren mal die
00:32:14: Erfinder und weil es tatsächlich ein Tool ist, was sich zu 100 Prozent in unseren Alltag integriert
00:32:22: hat. Also wirklich morgens, mittags, abends, egal wo ich bin, also es ist überall dabei. Es ist
00:32:28: ein Tagebuch, es ist ein Gedankenträger, es ist ein Multitool-Foto-Apparatersatz, da könnte ich
00:32:38: jetzt unendlich aufzählen. So und ich glaube, wenn wir mal ganz ehrlich sind, die Vision Pro ist
00:32:45: schön, kann mir aber nicht vorstellen. Also ich weiß, ich habe wahrscheinlich auch dort Reviews
00:32:50: gesehen, da hat einer wirklich tatsächlich versucht, diese Brille jetzt 24 Stunden lang in
00:32:54: seinen Alltag zu integrieren, also damit gekocht, damit geschlafen, damit schiegelaufen, das war
00:33:01: sehr lustig. Nein, es ist kein Altersding. Zumal natürlich durch die, also das ist ja Fluch und
00:33:10: Segen gleichzeitig, diese hohe Qualität erfordert auch viel Technik. Und die kriegst du halt auf
00:33:17: kleinsten Raum nicht so untergebracht, als dass es dann unkomfortabel wird. Das ist eben
00:33:23: ein Entwicklungs-Spritz. Als solcher versteht, dann wird das Produkt, das Produkt wird dem auch erst
00:33:30: mal nur gerecht. Ja und es ist halt immer so, bei Apple war es immer so, die haben was angetreten
00:33:35: und die Industrie ist darauf eingestiegen und ich glaube, das wird jetzt hier auch so sein, also
00:33:38: durch diesen nochmal aufkommenden oder von Apple produzierten Thema hängt sich natürlich,
00:33:48: hängt sich die ganze Industrie dran. Ich glaube, wir werden da jetzt einiges an
00:33:52: Entwicklungen innerhalb kürzester Zeit sehen, aber ich glaube auch und da sind wir jetzt wieder
00:33:57: bei dem Thema AR. Ich glaube, da wird ein Schuh raus. Also wir haben ja gesagt, AR kann sich auf
00:34:03: dem Smartphone nicht so richtig etablieren, weil du dann immer das Display vom Smartphone direkt
00:34:08: vor dem Gesicht haben musst. Aber mit einer Brille sieht das Ganze natürlich ganz anders aus.
00:34:12: Das hat ja auch ganz neue Herausforderungen an Userinterfaces und so weiter und wenn die Brille
00:34:19: dann so ist, dass sie auch alltagstauglich ist und ich stelle mir dann eine Brille vor, die auch
00:34:24: nur ist wie eine Brille. Ja also die das Gewicht einer Brille hat, die aussieht wie eine Brille
00:34:29: und so weiter. Da gibt es ja auch schon diverse Ansätze, also von diversen Unternehmen, also Meta
00:34:34: mit Ray-Ban. Das ist allerdings nichts anderes als die Kamera, da ist noch nicht wirklich Mixed Reality
00:34:38: drin. Es gibt aber so ein paar Anbieter, die sich da jetzt auch schon mit tiefst miteinander setzen
00:34:44: oder intensiv mit auseinandersetzen. Ich glaube, dann wird AR noch mal eine ganz andere, auch
00:34:49: ganz anderen Stellenwert kriegen. Also als jetzt auch nur dieses Nischen da sein. Ich glaube jetzt
00:34:55: bei der Brille jetzt auch im speziellen, man muss es so ein bisschen jetzt einfach wieder
00:35:03: kriegen, die Dinge wieder ein bisschen intelligenter, weil ich glaube das, was Apple jetzt gebaut hat,
00:35:08: war das höchste aller Gefühle, was gerade möglich ist. So ich glaube die, wie gesagt,
00:35:13: die wollten sich da selber als Innovationstreiber wieder absolut etablieren und haben jetzt das,
00:35:19: was die Technik heute hergibt an Sensorik, an Kamera, all diese haben sie zusammengefasst und das ist
00:35:27: das Maximum, was jetzt drin ist. So wenn diese Brille jetzt länger als zwei Stunden hält und auch
00:35:33: nicht mehr über einen externen Akkordennum mit herumschleppst und das einfach auch nicht mehr
00:35:38: so ein globaliges Ding ist. Ich sage mal, jetzt eine wirkliche, also jetzt eine Brille muss es noch
00:35:44: nicht mal sein. Wenn es diesen Ready Player, wie heißt der Film hier, Ready Player One,
00:35:49: genau, wenn das so eine Dimension angenommen hat, da ist ja gar nicht mehr viel. So, dann ist
00:35:55: das schon was absolut zugängliches. Und ich glaube, dann wird das auch benutzt, weil man muss
00:35:59: jetzt auch sagen, was man für Vorteile da durch hat. Also ich sage mal Arbeitsplätze, kannst
00:36:07: du dir dann auch, du brauchst ja keine Hardware mehr, wenn du nur noch dieses eine Ding brauchst.
00:36:10: Also gibt es viele Vorteile, die das damit... Nein, in der Industrie, also das ist ja ganz
00:36:17: lustig. In der Industrie hat sich dieses Mixed Reality Thema ja natürlich auch durchgesetzt.
00:36:21: Also weil nichts ist besser als automatisiert, Menschen anzulernen. Das hat sich also in der
00:36:28: Automobilzulieferung und so weiter, hat sich das total etabliert. Also ich muss jetzt nicht irgendwie
00:36:32: ein Guide haben, der jetzt drei Stunden erklärt, wie welche Schraube an welcher Mutter zu packen ist,
00:36:37: sondern das macht dann automatisch die Mixed Reality Brille. Die setzt sich auf und dann werden
00:36:41: die Leute virtuell angelernt. Und um ganz sich falsch machen, in der Medizin ja genauso.
00:36:48: Ja genau, so und das, jetzt kommen wir, jetzt versuchen wir mal den Dreh zu finden zu dem Thema KI,
00:37:00: weil die Sachen wachsen ja auch immer mehr zusammen. Also dieses KI und AR, also AR heißt eben,
00:37:07: das Vermischen der Real mit der virtuellen Welt in Verbindung mit KI. Da stellt sich jetzt natürlich
00:37:14: erstmal jeder die Frage, gibt es keine, was für eine Verbindung gibt es nicht. Doch gibt es
00:37:18: eine sehr große, und zwar die, die sich extrem schon in unserem Alltag etabliert hat, bzw. die wir
00:37:23: als ganz normal empfinden. Das ist das ganze Thema Social Media, Tiktoks, also Videos vor allem,
00:37:31: und die Gesichtsveränderungen, die automatisierte. Das ist AR und KI in Höchstform. Was sagt ihr dazu?
00:37:40: Also es ist ja voll etabliert, so bemerkt ja quasi keiner. So will ja auch gar keiner hinterfragen,
00:37:46: warum man jetzt auf einmal in dem Video zehn Jahre junger aussieht. So, gefällt ja jedem erstmal von
00:37:52: daher. Und der Einsatz ist natürlich auch einfach, ich sage mal, es ist genau, ein Selfie machen,
00:37:59: hat nur mal gewisse Unterliege, gewisse Kriterien, und da ist AR was, was sofort wie Faust aufs Auge
00:38:07: passt. Und das macht dann, oh ja, wie gesagt, das wird jetzt auch, das wird ganz selbstverständlich
00:38:12: verwendet und benutzt. Ja, und KI an sich ist ja jetzt auch, also ich sage mal so, wenn wir jetzt
00:38:21: sagen, wir wollen vom Basswords ausgehen, wir haben ja schon mal gesagt, 22, 21 war das ganze
00:38:26: Thema NFT, Metaverse, ein Riesenthema, ein Riesenhype. Wenn wir jetzt mal sagen, 23 und auch eigentlich
00:38:33: noch jetzt, bis jetzt ist das Thema KI eigentlich das Basswort überhaupt. Hat es die gleiche
00:38:41: Haltwertzeit wie die Basswords davor? Was meint ihr? Wenn man sich überlegt, wie sehr sich das
00:38:49: etabliert hat, finde ich schon. Also ich meine allein bei den Streamingdiensten, wenn du da deine
00:38:54: Empfehlung bekommst, da hintersteckt ja auch schon eine KI oder beim Smart Home oder so. Dass er sich
00:39:00: merkt, okay, deine Einkäufe, du hast das und das gekauft, das bestelle ich dir dann jetzt nächste
00:39:04: Woche nochmal, ne? So was alleine. Muss schon, finde ich nochmal differenzieren zwischen, weil was ist
00:39:09: eine KI so an der Stelle? Letztendlich ist ein Taschenrechner auch eine Art von KI, die ist
00:39:18: aber schon 50 Jahre alt oder noch länger so, weißte? Also es geht ja eher um diese neuronalen
00:39:24: Netze in dem Sinne. Also dass sich das Ding auch selber weiterentwickeln kann. Es geht um Maschinen
00:39:29: Learning, das heißt, dass das, was an Daten gesammelt wird, wird nicht einfach nur gesammelt und
00:39:35: wieder rausgegeben. Also Google ist ein schönes Beispiel, da gebe ich irgendwas rein und der wird
00:39:40: in der Daten geguckt, wie viel rausgegeben. Eine KI lernt ja daraus. Das heißt geben 50 Leute
00:39:45: irgendwas ein, dann kriegt das automatisch einen anderen Stellenwert, es wird bewertet, es wird
00:39:50: interpretiert. Also das ist schon ein bisschen intelligente als einfach nur Daten rein, Daten
00:39:55: raus. Ja gut, Chat GPT dann halt. Zum Beispiel. Das Paradebeispiel letztendlich für KI. Oder damit
00:40:03: ist ja als, war ja doch letztendlich so. Also Chat GPT kam noch raus und auf einmal war das erste
00:40:10: KI Ding da, wo man gedacht hat so krass. Ja und mit Journey, als auch immer die Fake Trump Bilder
00:40:16: kamen. Ja ich wüsste gar nicht, was als erstes da war. Von der Polizei abgerufen, abgeholt wurde und so
00:40:21: weiter. Da wurde das auf einmal ein Riesenthema. Du hast recht Chat GPT, ich glaube so oben AI war
00:40:27: glaube ich das Unternehmen, was das ganze Thema richtig ins Bewusstsein geholt hat. Weil das,
00:40:31: was Chat GPT macht auch wirklich ein Hammer ist. Ja total. Also das ist Spooky. Allein die Möglichkeit.
00:40:36: Das ist Spooky, muss man wirklich sagen. Ja und nutzen wir das? Also nutzt ihr Chat GPT? Ja im Alltag.
00:40:43: Ja. Ja jetzt nicht so intensiv. Obwohl jetzt, ich würde es jetzt nicht nur auf KI benutze. Ich
00:40:52: sage mal gerade was Textverfassung angeht oder so. Ja wenn man so autografische Schwäche hat,
00:41:02: hilft das ungemein. Da würde ich aber Deep Rite nehmen. Ja das ist ja das, was ich immer mache.
00:41:08: Ach das? Kenn ich gar nicht. Also mit Deep Rite zum Beispiel mache ich viel. Aber ich benutze
00:41:16: auch Chat GPT für die Belanglungs, also auch wenn mir Begriffe, die ich brauche oder die ich
00:41:22: wonach ich suche, da frage ich Chat GPT und ich muss dazu sagen, früher habe ich genau die
00:41:28: gleiche Frage auch einfach bei Google eingegeben und ich habe eigentlich auch die richtige Antwort
00:41:35: erhalten. Nur nicht so auf, also ich wurde nur nicht angesprochen, was ja Chat GPT mit einem so
00:41:41: selbst macht. Also was ich unheimlich spannend finde und da finde ich auch den gewaltigen
00:41:45: Unterschied zu einer Suchmaschine, also wie Google. Ich habe mal Folgendes gemacht,
00:41:50: weil mir ist angesprochen, Chat GPT kann sogar programmieren. Sondern habe ich gesagt, okay,
00:41:55: dann schreibt mir nochmal bitte ein Python Skript, also wo bitte eine Ritterburg gebaut
00:42:00: werden soll, die ich dann im Blender, diesen Skript im Blender einsetzen kann, Enter drücken,
00:42:04: dann habe ich dann Ritterburg. Chat GPT hat mir einen Python Skript geschrieben und diesen
00:42:10: Skript auch noch kommentiert. Ich habe keine Ahnung von Programmieren, aber wenn ich Programmieren
00:42:14: lernen will, dann kann Chat GPT durch diesen geilen Quelltext mir das sogar beibringen,
00:42:21: weil der Quellcode war dokumentiert. So, dann habe ich das da reingepackt, Enter zurück,
00:42:26: gut, die Ritterburg, das waren ein paar, also die waren auch sehr einfach, aber ich habe dann auch,
00:42:31: natürlich, weil ich mich damit jetzt, weil ich da so faszinierend fand, habe ich gesagt, okay,
00:42:35: die sieht ja so ein bisschen einfach aus, macht die doch mal ein bisschen genauer. Chat GPT
00:42:38: hat mir jedes Mal darauf hingewiesen, hey, Alter, bau da selber, ich kann dir nur ein paar
00:42:43: Vorschläge machen, wie das sein könnte, aber am Ende bau selber. Aber da ist der gewaltige
00:42:48: Unterschied zum Beispiel zu Google. Also wenn ich jetzt bei Google jetzt eingebe, schreib mir bitte
00:42:52: oder such mir bitte einen Python Skript, dann such Google ja irgendwas Fertiges. Chat GPT entwickelt
00:42:59: und zwar genau nach deinen Anforderungen. Standardisierte Datenverarbeitung in dem Sinne,
00:43:05: ist es ja. Also das ist ja auch das, weil letztendlich, die Basis ist ja oftmals immer dasselbe,
00:43:11: immer wiederholende Dinge kann Chat GPT und das ist bei einer Website in dem Sinne nichts Groß
00:43:17: anderes. Also Grundlagen dessen sind ja immer, sind ja immer dieselben so. Ja, aber ich glaube,
00:43:23: das ist ja Maschinenlearning, das heißt, die lernt oder ich sage immer sie, ich weiß gar nicht warum,
00:43:27: auf jeden Fall Chat GPT lernt ja mit jeder, mit jeder Anfrage, mit allem Input lernt es dazu.
00:43:34: Das heißt, es wird immer besser das System, immer besser, immer besser, immer besser. Ja,
00:43:39: das widerspricht ja dem gar nicht, was ich jetzt gerade gesagt habe so. Aber das ist das Urprinzip
00:43:46: dessen so. Also das standardisierte Dinge, die immer wieder vorkommen natürlich, macht das
00:43:52: jeder anders in dem Sinne. Aber wenn es jetzt auf Steuerberatung oder Versicherungen oder was auch
00:43:59: immer so alles standardisierte, das wird von, das ist ja, ich sage mal klar, Chat GPT ist jetzt
00:44:06: kein Steuerberater, gerade just in dem Moment. Aber das Prinzip, das in Chat GPT steckt, wird den
00:44:11: Steuerberater irgendwann mal ersetzen einfach, weil es einfach flexibel ist in den Standards. So,
00:44:16: so und das ist genau dasselbe finde ich beim, auch beim Programmieren oder so. Natürlich kann
00:44:22: man immer wieder was programmieren, was es vorher noch nicht gab. Aber viele sind ja gar nicht auf
00:44:28: der Suche, immer das neue modernste zu haben, sondern die wollen gewisse Standards haben,
00:44:33: um ja ganz blöd um Geld zu verdienen. Also und genau dafür ist Chat GPT dann eben auch einfach
00:44:40: ein gutes Tunen. Ja und es ist vor allem, es ist vor allem, es ist Gaugletier auch Empathie vor.
00:44:45: Also wir haben, ich habe letztens einen Versuch gemacht, da haben wir die Aufgabe gehabt,
00:44:49: eine Wortmarke zu finden für ein Unternehmen. Kommen wir gleich nochmal zurück, was es mit
00:44:55: unserem Alltag macht. Aber so und dann habe ich einen vermeintlichen Dialog mit Chat GPT
00:44:59: geführt. Ich habe gesagt, also pass auf, das und das sind die Begriffe oder das und das sind die
00:45:05: Hauptbegriffe, die dieses Unternehmen so macht, macht nochmal Vorschläge. Ja, hat sie gemacht,
00:45:08: die waren jetzt nicht sonderlich kreativ, aber es gab erstmal Vorschläge. Und dann habe ich mit
00:45:12: deren Dialog geführt oder mit dem, wo ich dann gesagt habe, ja das ist alles nett,
00:45:16: aber nicht sonderlich kreativ, kam alternativen. Also wir sind wirklich in einen vermeintlichen
00:45:21: Dialog gekommen. Das fand ich echt schon spooky. Am Ende ist da nichts Gutes bei rausgekommen,
00:45:26: muss ich gleich mal dazu sagen. Also wir haben ja schon mal über das Thema Kreativität gesprochen.
00:45:32: Also bei Chat GPT oder überhaupt grundsätzlich KI kann sich ja nur auf das berufen, was es kennt.
00:45:41: Es kann sich nicht auf das berufen, was es nicht kennt. Also ich habe, ich will mal das Beispiel
00:45:45: Foto nehmen. Das war jetzt vor einigen Jahren total innen zu fotografieren, als würde jemand komplett
00:45:52: volle Pulle angeblitzt. Kennt ihr vielleicht diese harten Schatten am Rand, etwas überbelichtet,
00:45:57: diese Bilder. So, ja natürlich kennen wir die. Nur es ist halt so, die normale klassische
00:46:05: Fotolehrer würde sagen, macht das nie. So, das ist aber irgendwann hat damit angefangen,
00:46:09: wurde es auch immer total hip und so weiter. So und das ist ja im Grunde eine Neuerfindung
00:46:14: eines Teals. Das wird eine KI nie können. Wie soll das gehen? Sie kann sich ja nur auf
00:46:20: gelernten Berufen oder zurückziehen. Der T1000 wird die Weltherrschaft nicht an sich reißen.
00:46:28: Ja, wird sich zeigen. Also Wissenschaftler waren schon seit grauer Zeit. Ja, man kann es nicht wissen.
00:46:36: Also sie lernt ja. Natürlich, das sind so Untergangsszenarien, die mag man dann. Die sind auch eher als
00:46:42: Witz zu verstehen. Aber kommen wir mal zurück zu unserem, also wir sind ja nun hier klassisch die
00:46:47: Kreation und sagen mal so, wenn ich mit außenstehenden spreche, bei meinem Beruf. Die erste Frage,
00:46:52: die ich zu hören kriege und das ging glaube ich euch auch schon so. Oh, werdet ihr jetzt nicht
00:46:57: durch KI ersetzt? Ja, Frührennt und so. Werden wir durch KI ersetzt? Wird die Kreation,
00:47:03: wird kreative Arbeit durch KI ersetzt? Ich sage mal so, man muss jetzt mal irgendwie so,
00:47:08: wir werden mega behemmert in der Bier, wenn wir das jetzt befürworten würden. Aber trotzdem jetzt
00:47:20: nochmal ernst gemeint, nein, glaube ich nicht. Also ich glaube nicht, dass jemand, der Geld sparen
00:47:27: möchte, jetzt mal so gesagt. Der kann sich auch heute, also wenn jemand ein Logo haben möchte,
00:47:32: ein richtig cooles Logo und der auch glaubt, dass er damit was Individuelles zeigen kann,
00:47:38: oder der verstanden hat, warum man Logos verwendet, sage ich mal so. Der wird sich von so einem KI
00:47:45: Dingen kein Logo gerieren lassen, weil es maximal genau auch rückwirkend darauf, oder das was du
00:47:51: gerade gesagt hast Olli, dass es sich immer auf was bezieht, was es schon mal gab. So irgendwie,
00:47:57: natürlich müssen wir jetzt mal ganz platt geredet, das sind Gebrauchskrafthicken, so, also der höhe,
00:48:04: hohe künstlerische Ansatz muss da überhaupt nicht drin sein, aber trotz all dessen ist es
00:48:09: einfach so, wenn ich ein gutes Logo haben möchte, dann gehe ich zu einem, der mir ein gutes Logo macht.
00:48:14: Und natürlich wird es dem geben, der sagt, bist du blöde? Du hast so viel Kohle ausgegeben,
00:48:20: Chatchi PT macht mir nach fünf Minuten ganz tolles Logo. Ja, okay, bitte. Ist wohl höchstwahrscheinlich
00:48:25: dann Logistikunternehmen für eine Plane auf dem Lkw hinten drauf, das Logo? Ja, den reicht das dann
00:48:30: ja aber auch. Ja, nee, also an den Bedürfnissen so. Auch die Stockfotografie hat auch, oder man hatte
00:48:38: auch die Befürchtung, dass die Fotografie oder was auch immer jetzt die Fotografen schon damals an
00:48:43: der Stelle schon, das wird so schwer. Also ich glaube, es gibt gerade so viele Fotografen auf
00:48:48: der Welt wie nie zuvor. Ja, und man sieht ja auch da die Grenzen, das ist also, zum Beispiel, wenn wir
00:48:53: jetzt mal bei der Bild-KI, da sind wir ja bei Midjani, Dali, Stable Diffusion und so weiter. Ich
00:49:01: weiß nicht, ich habe dir das, also bei mir ist das zum Beispiel so, ich habe mir mal das Experiment
00:49:05: gemacht, habe gesagt, okay, ich habe ein Bild im Kopf, ich wollte, das ist ein ganz bescheuert,
00:49:08: so eine Roboter-Graschüpfer, der auf einer Landstraße sitzt im Hintergrund Berge mit Sonne. So
00:49:16: müsst ihr euch vorstellen, da habe ich ein Bild im Kopf, wie der aussehen soll. Und das habe ich jetzt
00:49:21: mal in allen möglichen Bild-KI's eingegeben und ich habe nicht ein einziges Ergebnis gekriegt,
00:49:30: was exakt so war, wie es mir im Kopf vorgestellt habe. Ja, ich kann es durch Prompten, weiter Prompten,
00:49:36: nochmal Prompten, Teil raus basteln, also jetzt muss man dazu sagen, jetzt wird es spannend, wie sich das
00:49:41: in unseren Arbeitsalltag integriert. Also Adobe hat ja die KI auch in ihren Programmen inzwischen
00:49:47: integriert und bei Photoshop ist es total spannend, weil es anders als bei den KI's, die man jetzt von
00:49:53: StableDefusion und so weiter kennt, wo man also nur promptet. Ich kriege dann ganze Bildergebnisse,
00:49:59: kann ich im Photoshop Teile des Bildes nehmen und kann diese Teile nochmal neu Prompten. Das
00:50:04: eröffnet mir natürlich sehr viel mehr Kreativität und da bin ich zum Beispiel sehr schnell zu dem
00:50:08: Ergebnis gekommen, wie ich mir das vorgestellt habe. Ja, das stimmt, Photoshop KI ist wirklich sehr gut.
00:50:12: Ja, zumal ich ja Teile, die mir noch nicht passen, einfach selektieren kann und kann sagen, ne, machen
00:50:19: mir mal das und das und dann das mal so und so ab und so weiter und das ist das, was mich bei
00:50:23: diesen reinen Prompts dieser Sasslösung, die da existieren, so ein bisschen stört. Die sind zwar
00:50:30: perfekt, keine Frage, also es gibt ja inzwischen, das habt ihr vielleicht auch schon gesehen, ohne
00:50:35: Ende Beispiele, Vergleich einen KI-generierten Menschen mit einem echten Menschen. Ist das ein
00:50:41: Foto oder ist es KI? Gibt es ja um und zwischen ohne Ende? Die kann es ja wirklich nicht mehr
00:50:45: auseinander. Ich wollte gerade sagen, es wird ja auch immer schwerer, es gibt so Anhaltspunkte, wo
00:50:51: du sagen kannst, okay, darauf kannst du achten und es erkennen, zum Beispiel, wenn die Person dann
00:50:55: irgendwie auf einmal 12 Finger hat oder so. Oder wenn im Hintergrund auf einer Tafel dann
00:51:00: irgendwie so eine kryptische Schrift zu sehen ist, was du einfach nicht lesen kannst, das sind
00:51:04: noch immer so Sachen, wo du sagen kannst, okay, das wurde generiert, aber es ist gruselig, also es
00:51:11: wird wirklich immer besser. Ja, absolut. Ich benutze ja auch wie selbst, also selbstverständlich. Aber eben
00:51:20: auch wie gesagt für die Classics so in dem Sinne. Das ist jetzt nicht so, dass ich mir, dass ich
00:51:24: jetzt in diese Zeile meine Idee eingebe, sondern dass ich eine Basis habe und früher habe ich die
00:51:30: Bilder retuschiert und jetzt lasse ich die retuschieren. Jetzt geht es halt eben einfach schneller.
00:51:34: Oder ich pass hier einen Format an. Das sind ja so die Classics, mit denen auch jeder Gestalter
00:51:39: dann irgendwie, der irgendwo diese Bilder verwenden muss, auch direkt was an. Also ich finde
00:51:44: das im Moment auch ein Segen, weil es ist halt tatsächlich so, das haben wir jetzt gerade erst
00:51:47: wieder praktisch am Beispiel gehabt. Kunde will irgendwas haben, will aber keine Fotoschutting,
00:51:51: sondern will Stockmaterial so. Aber du kannst die Stockdaten banken durch so ein bisschen umfahren,
00:51:56: es ist nicht genau das Bild, was du brauchst. Und du nimmst da eins, was annähernd ungefähr dem
00:52:03: entspricht, was du dir da vorgestellt hast und fängst es dann an mit KI zu manipulieren. Also
00:52:07: das finde ich, hat sich richtig selbstverständlich irgendwie in unseren Alltag integriert. Genau
00:52:12: wie das ganze Thema Konzepten und Ideenfindung mit ChatGPT austauschen oder eben wie du es schon
00:52:18: gesagt hast, redaktionelle Arbeit, also dass man dann DeepWrite nimmt zum Anpassen von Satzbauten.
00:52:27: Also ich sag mal so, ich finde, dass es eine wahnsinnige Arbeit und Zeiterleichterung ist,
00:52:35: was wiederum natürlich auch für den Kunden gut ist, dass er jetzt nicht retusche arbeiten,
00:52:39: zwei Tage, sind dann retusche arbeiten, einen Tag oder vielleicht sogar manchmal so einen halben
00:52:45: Tag, je nachdem wir aufwändig. Ja, also da finde ich, ist es eigentlich ein Segen für uns. Es ist
00:52:51: einfach ein neues Werkzeug, es werden gewisse Dinge wieder leichter, aber dadurch ist die
00:52:56: Abschaffung, die sehe ich wie gesagt mal auf die Ursprungsfrage zurückzukommen, sehe ich überhaupt
00:53:02: nicht. Also es gibt auch genug KIs, die keine Ahnung, die jetzt die irgendwelche Symphonien,
00:53:08: irgendwelcher großen, was auch immer Mozart, Beethoven oder was auch nachinterpretieren und
00:53:14: dann komplett neues Zeug schreiben. Ja, ich glaube nicht, also die musikalischen Genies an der
00:53:21: Stelle, die werden uns auch nicht ausgehen, es sind andere Werkzeuge, aber das ich mir jetzt Musik
00:53:27: lieber anhöre von der KI als von Nirvana, ganz blöd, da ist nur mal ein riesen Unterschied.
00:53:36: Nein, das ist genau so ein Hilfsmittel wie ein Automobil, wie ein Telefon oder was auch immer,
00:53:40: es wird sich irgendwie in unseren Alltag integrieren, ersetzt uns aber nicht, sondern es hilft uns,
00:53:45: Dinge zu erledigen, Dinge zu bewältigen, Dinge besser und effizienter zu machen. Am Ende ist
00:53:51: ja immer Zeit und Geld das Thema und so sehe ich das auch und ich glaube so hat es sich bei uns
00:53:56: auch etabliert. Es macht viele Dinge einfacher, effizienter, es bereichert auch, also wenn man
00:54:01: jetzt zum Beispiel ein Bild im Kopf hat, so da fängst du an bei Pinterest, bei Stock, bei Google,
00:54:06: überall dieses Bild zu suchen oder du promptest es eben in die KI und hast es schon viel genauer so,
00:54:13: wie du es dir vorstellst, dass du einen Kunden zum Beispiel zeigen kannst, so habe ich mir die
00:54:17: Bildkomposition vorgestellt und so weiter, also das ist eigentlich ein toller. Aber eigentlich bedarf es
00:54:23: für den, der nicht damit zu tun hat, also eigentlich noch ein bisschen Aufklärungsbedarf ist an
00:54:29: der Stelle irgendwie noch, irgendwie auch da, weil letztendlich so wie du das sagst, so weiß
00:54:33: jeder von uns wird gefragt, na umtabt ihr jetzt Angst um eure Jobs, weil jetzt mit Journey und KI
00:54:38: und keine Ahnung was das alles gibt, so weiß und für uns stellt das das überhaupt nicht da, so
00:54:44: weiß, aber wir reden zum Beispiel auch im ganz normal darüber, dass das auch einfach ein Tool ist,
00:54:49: ein Hilfsmittel so weiß und ich bilde mir ein ohne jetzt irgendwie genau ins Konkrete zu gehen,
00:54:54: so dass wir letzte mal Olli als das, als wir bei einem unserer Kunden waren, du erzählt hast,
00:54:59: dass du mir, ich habe das mal hier bei ChatGPT eingegeben, so dass da schon so, hello, wir sind da,
00:55:04: los, versucht halt vor einer abzukürzen, so weiß ich, also es ist ja auch berechtigt,
00:55:09: wenn man sich da nicht unbedingt mit auseinandersetzt. Das war genau das Thema mit der Wortmarke,
00:55:14: da habe ich das als ein Block dargestellt, ich habe gesagt, das ist das, was ChatGPT gemacht hat,
00:55:19: aber noch lange nicht zu dem Ergebnis geführt. Ich will der Person überhaupt nicht, vielleicht
00:55:27: habe ich auch Gespenster gesehen, das ist auch immer noch, aber ich habe mir eingebildet,
00:55:33: wie einmal so ganz kurz, so aha, ihr benutzt also KI jetzt für unsere Geschichten, nicht in dem
00:55:40: suffisanten Untertolen, den ich jetzt gerade präsentiere, aber man hat gemerkt, da war,
00:55:45: glaube ich, eine Verwunderung da, aber es ist glaube ich, was ganz normal ist, so. Ich glaube,
00:55:49: das wird jetzt auch ein bisschen Zeit brauchen, dann wird sich das auch von selbst erklären,
00:55:53: aber es ist gerade noch genau das, die Leute kriegen es noch nicht so richtig und das macht es auch.
00:55:58: Ja, weil viele auch gar keine Behörungspunkte damit haben. Ja, das wäre sehr wenig.
00:56:03: Das stimmt ja auf der anderen Seite überhaupt nicht, die haben ganz viele Berufe. Ja, sie merken es nicht.
00:56:07: Ja, sie merken es nicht, genau. Wir können mit Alexa anfangen, Siri, KI ist ja schon ganz,
00:56:14: ganz lang, ganz tief in ganz vielen Tools integriert und die wir auch schon ganz lange nutzen,
00:56:18: das weiß nur keiner. Also, so rund sind ja nur durch ChatGPT und Dali und wie sie alle heißen,
00:56:24: eigentlich erstmal so richtig nach oben gespült worden, wobei sie hier eigentlich schon ganz,
00:56:27: ganz lange in unserem Alter Grundfuhr werken. Das muss man ganz klar sagen.
00:56:31: Ja, ihr Lieben, wir haben es jetzt 56 Minuten, unterhalten wir uns bereits miteinander,
00:56:40: mal so ein kleines Fazit zum Thema AR und KI. Was würdet ihr sagen? Wie ist euer Fazit dazu?
00:56:48: Fangen wir mal mit AR heran. Ist noch ein Weg? Ja, ist noch ein Weg. Also, wie gesagt, ich glaube,
00:56:55: grundsätzlich, aber soll es gar nicht despektierlich an der Stelle sein oder was kleinreden. Das ist
00:57:01: der erste, also diese Vision Apple Pro und all diese Sachen. Das steckt absolut jetzt eigentlich erst
00:57:07: in den ersten Kinderschuhen. Aber jetzt ist der Schuh da und der wird sich weiterentwickeln. Und ich
00:57:13: glaube, da wird es noch ganz, ganz viel geben. Also, ich glaube schon, dass das gerade auch KI.
00:57:19: Ja, weil AR ja genauso. Also, ich mein, allein für Gamification ist das super. Und wie wir auch
00:57:27: schon festgestellt haben, Google und so was, die Anwendungsmöglichkeiten sind, sind da,
00:57:31: werden ja auch genutzt schon. Und ich denke, das wird jetzt einfach nur noch weitergehen.
00:57:38: Ja, ich freue mich auf jeden Fall auf den ersten Moment, wenn einer so mit so einer Apple Vision Pro
00:57:44: und einer zusätzlich dann noch mit dem Dyson Circle, wie heißt diese Dyson-Aufführer mit
00:57:52: Zufilter, wenn einer diese beiden Dinger gleichzeitig anhalt. Darauf werde ich mich auf jeden Fall freuen.
00:57:57: Ja, es gab ja schon auch wieder so Memes, wo jetzt alle Super Mario die Dinger da weg saugen mussten.
00:58:05: Und das mit nach der Zeit gesteuert. Das ist eine geile Verbindung. Aber wie gesagt,
00:58:11: ich glaube, der Alltagskomfort, also haben wir schon darüber gesprochen,
00:58:15: der fehlt noch. Das wäre auch so mein Fazit. Ich glaube, die Richtung ist in allen Dingen,
00:58:19: geht es ganz klar in eine glasklare Vorstellung, wie sich dieses Special Computing oder das Mixed Reality
00:58:28: entwickeln wird und dass die Brille scheinbar doch eigentlich das beste Medium ist, aber es
00:58:33: halt eben tatsächlich noch Technologie Sprünge braucht, sowohl was hart als auch Software angeht,
00:58:38: damit es dann auch wirklich komfortabel zu tragen, dass er sich in den Alltag integriert.
00:58:43: Total. Hier lieben. Ah, so, sorry, das musst du jetzt rausschauen. Ja, hau raus.
00:58:49: Ich finde tatsächlich auch zwischenmenschlich ist da auch noch so eine Hürde. Ja, also in
00:58:56: Display gucken finde ich auch ein bisschen blöd. Ich finde das nicht so geil. Auch diese
00:59:00: diese Rheogramme oder was sind das, die du dann hast, wenn du mit jemandem FaceTimes oder so?
00:59:04: Ja. Ausbaufähig, auf jeden Fall. Ja, absolut, absolut. Ich glaube, dieses ganze Zeus wird
00:59:10: trotz all dessen auch nochmal, das wird alles so megasüchtig machen. Ja, glaube ich auch.
00:59:14: Wenn das dann einmal funktioniert, ich habe irgendwie, ich weiß nicht wo ich es aufgegriffen
00:59:18: habe, aber das Apple sich immer so ein bisschen als der so ein Reha-Anbieter darstellt, aber
00:59:25: eigentlich so ein digitaler Fentanyl-Fall-Dealer ist eh so. Ja, tatsächlich. Die werden nicht so
00:59:31: abso-und ich kann es mir vorstellen, so wie die Leute Stress kriegen, wenn sie ihr Telefon nicht
00:59:36: mehr... Also was das sozial-ethisch mit der Gesellschaft macht, und da sehen wir ja jetzt
00:59:41: schon am Smartphone. Ja. Also wie werden Generationen groß und wie viel Zwischenmenschlichkeit geht
00:59:48: verloren, wie viel Sozialverhalten geht verloren und so weiter. Und ich habe hier letztens auch noch
00:59:52: mit einer Freundin unterhalten, die auch sagte, meine Fresse, wenn dieses Thema AR, also dieses
01:00:00: Spezial Computing, ja, bescheuert das Wort, sich etabliert, was macht das mit den Kindern,
01:00:08: die ja mir selbstverständlich groß werden. Also lassen wir es mal überraschen. Aber das wäre
01:00:13: jetzt tatsächlich auch ein Thema, da könnten wir jetzt tatsächlich nochmal eine Stunde darüber
01:00:15: sprechen. Aber wir sind jetzt bei fast einer Stunde und ich würde sagen, vielen Dank für
01:00:22: euren Input. Hat total Spaß gemacht. Wir hoffen, euch hat es auch Spaß gemacht, zuzuhören und
01:00:27: gerne Anregungen, wie immer, egal auf welchem Kanal. Also wir werden es ja in den Social
01:00:34: Canälen posten und wäre schön, wenn wir eure Kommentare zu hören kriegen. Gerne auch Anregungen,
01:00:40: welches Thema wir denn auch mal breitreten sollen oder wo wir es vertiefen sollen. Wir freuen uns
01:00:46: auf euer Feedback. Vielen Dank und tschüss. Tschüss. Tschüss.
01:00:49: Ciao.
01:00:50: .
01:00:51: [Musik]
01:01:13: [Musik]
01:01:15: [Musik]
01:01:17: [Musik]
01:01:18: [MUSIK]
01:01:20: [Musik]