letztens.de

letztens.de

Podcast de Em und Luke

letztens mitbekommen

Empieza 7 días de prueba

Después de la prueba $99.00 / mes.Cancela cuando quieras.

Prueba gratis

Todos los episodios

6 episodios
episode Episode 1 | KI-generierte virtuelle begehbare 3D-Welten (Google DeepMind Genie 2 & WorldLabs.ai) artwork
Episode 1 | KI-generierte virtuelle begehbare 3D-Welten (Google DeepMind Genie 2 & WorldLabs.ai)

* Em * Luke KURZE ZUSAMMENFASSUNG In dieser Episode beschäftigen wir uns mit dem Potenzial von KI-generierten 3D-Welten, die unsere Erlebnisse im digitalen Raum revolutionieren könnten. Wir stellen Technologien von Google DeepMind und World Labs vor, die es ermöglichen, dynamische und begehbare 3D-Umgebungen zu schaffen, in denen man interagieren kann. Dabei diskutieren wir konkrete Beispiele, Herausforderungen bei der Entwicklung solcher Systeme und die gesellschaftlichen Auswirkungen, etwa auf soziale Interaktionen. Besonders spannend finden wir, wie KI die Spieleentwicklung verändern könnte, indem sie visuelle Gestaltung automatisiert und kreativen Köpfen mehr Raum für Story und Gameplay lässt. Zum Schluss fragen wir uns, wie diese Technologien unseren Alltag, das Entertainment und unser Miteinander in der Zukunft prägen könnten. SHOWNOTES * Artikel über System von Google Deep Mind: stadt-bremerhaven.de/google-deepmind-stellt-genie-2-vor-ein-ki-modell-das-spielbare-3d-welten-erzeugen-kann/ [https://stadt-bremerhaven.de/google-deepmind-stellt-genie-2-vor-ein-ki-modell-das-spielbare-3d-welten-erzeugen-kann/] * Artikel über Wordlabs.ai [http://wordlabs.ai/] inkl. selbst direkt im Browser ausprobierbare Demos: www.golem.de/news/worldlabs-ki-generiert-begehbare-3d-welten-aus-bildern-2412-191387.html [https://www.golem.de/news/worldlabs-ki-generiert-begehbare-3d-welten-aus-bildern-2412-191387.html] * Stray Computerspiel bei steam: store.steampowered.com/app/1332010/Stray/ [https://store.steampowered.com/app/1332010/Stray/] * Second Life Computerspiel: www.secondlife.com/ [https://secondlife.com/] * Mad Max: * Film – Fury Road: www.imdb.com/title/tt1392190/ [https://www.imdb.com/title/tt1392190/] * Film – Furiosa: www.imdb.com/title/tt12037194 [https://www.imdb.com/title/tt12037194] * Computerspiel: store.steampowered.com/agecheck/app/234140/ [https://store.steampowered.com/agecheck/app/234140/] TURBOLINKS – LINKS IM TURBOGANG * Nie mehr lesen? NotebookLM und Gemini machen’s bald möglich: www.smartdroid.de/nie-mehr-lesen-notebooklm-und-gemini-machens-bald-moeglich/ [https://www.smartdroid.de/nie-mehr-lesen-notebooklm-und-gemini-machens-bald-moeglich/] * Life in the Coldest Village on Earth −71°C (−95°F) A Journey Through All Four Seasons: www.youtube.com/watch?v=daF9R6dadH8 [https://www.youtube.com/watch?v=daF9R6dadH8] * Linux-Distributionen direkt online im Browser ausprobieren: distrosea.com/de/ [https://distrosea.com/de/] KAPITEL (00:00:12) Willkommen im Letztens.de Podcast (00:01:24) Google DeepMind und KI-Welten (00:05:33) World Labs und ihre Veröffentlichung (00:10:11) Physik und Effekte in 3D-Welten (00:16:33) Die Rolle der Technologie im Internet (00:19:32) Eskapismus und virtuelle Partner (00:28:29) Interaktive Geschichten und Filme (00:43:50) Rückblick auf Second Life (00:48:50) Spieleentwicklung mit KI-Unterstützung (00:53:27) Die Evolution der virtuellen Welten (00:57:23) Turbolinks und interessante Links [https://www.letztens.de/wp-content/uploads/podlove-media/Content-Files-Favorite-Book-Streamline-Pixel-1.svg] NEWSLETTER ABONNIEREN Wir freuen uns, wenn ihr unseren Newsletter abonniert – verfügbar entweder per E-Mail oder als Telegram-Kanal: www.letztens.de/newsletter [https://www.letztens.de/newsletter] AUSFÜHRLICHE ZUSAMMENFASSUNG (KI-GENERIERT & VON UNS REDIGIERT) In dieser Episode befassen wir uns mit dem faszinierenden Thema der KI-generierten 3D-Welten. Wir tauchen tief in die Welt der Technologien ein, die das Potenzial haben, unsere Erlebnisse im digitalen Raum grundlegend zu verändern. Lukas hat zwei interessante Artikel über Entwicklungen von Google DeepMind und World Labs mitgebracht, die sich mit der Erzeugung von begehbaren 3D-Umgebungen befassen. Wir diskutieren, wie mithilfe von KI Bilder generiert werden können, die dann in lebendige und interaktive 3D-Welten verwandelt werden. Besonders spannend finden wir die Fähigkeit, nicht nur statische 3D-Modelle zu schaffen, sondern dynamische Umgebungen, in denen man sich tatsächlich bewegen und diese erkunden kann. Wir betrachten konkrete Beispiele, wie ein Nutzer in ein Dungeon eintreten und vor verschiedenen Türen stehen kann, hinter denen sich unterschiedliche Landschaften verbergen. Ein Konzept, das nicht nur die Gaming-Welt revolutionieren könnte, sondern auch Möglichkeiten für immersive Geschichten und Erlebnisse bietet. Während unseres Gespräches erörtern wir auch die Herausforderungen und die technische Komplexität hinter diesen Systemen. Die KI muss nicht nur ein Bild interpretieren, sondern auch logische und physikalische Regeln berücksichtigen, um eine kohärente virtuelle Welt zu gestalten. Wir stellen fest, dass die Technologie noch in den Kinderschuhen steckt, aber bereits vielversprechende Fortschritte gemacht hat. Dies führt uns zu Überlegungen, welche kreativen Anwendungen und Inhalte in Zukunft aus dieser Technologie hervorgehen könnten. Ein weiterer Diskussionspunkt ist die gesellschaftliche Auswirkung solcher Technologien. Wie wird sich unser Verhalten ändern, wenn jeder Zugang zu solch leistungsfähigen Tools hat, um eigene Welten zu erschaffen? Wir spekulieren darüber, ob dies zu einer sozialen Isolation führen könnte oder ob es im Gegenteil neue soziale Interaktionen fördern würde. Vor allem die Möglichkeit, sich in von der KI geschaffene Umgebungen zu bewegen und mit anderen Nutzern auszutauschen, könnte in der digitalen Welt zu neuartigen Erlebnissen führen. Zudem sprechen wir über die Potenziale in der Spielentwicklung. Während Spieleentwickler bisher viel Zeit in die visuelle Gestaltung investieren mussten, könnte die KI diese Prozesse beschleunigen, wodurch kreative Köpfe sich mehr auf die Story und das Gameplay konzentrieren könnten. Solche Technologien könnten möglicherweise die Barrieren zum Einstieg in die Spieleentwicklung erheblich senken und damit mehr Menschen die Möglichkeit geben, ihre kreativen Visionen zu verwirklichen. Am Ende der Episode schließen wir mit der Frage, was die Zukunft für diese Art von Technologien bereithält und wie sie unseren Alltag, das Entertainment und möglicherweise sogar die Art und Weise, wie wir miteinander interagieren, beeinflussen werden. TRANSKRIPT (UNREDIGIERT) Music: [0:00] Music Em: [0:09] Letztens Podcast. Willkommen, ihr Lieben. Willkommen zurück auf unserem Letztens.de Podcast mit meinem sagenumwobenen Co-Moderator, dem Lukas und mir, M. Und heute, es sind das paar Tage jetzt her, dass wir die letzte Folge gemacht haben, geht es um bespielbare 3D-Welten. Ich muss sagen, ich habe mich mit dem Thema noch nicht großartig beschäftigt. Deshalb wird mich Luke heute ein bisschen in die Materie reinziehen. Und dann werde ich dem Sog folgen und hoffentlich was Tolles dazu berichten können. Erstmal, bevor wir loslegen, wie geht’s dir, Luke? Alles klar? Luke: [0:47] Jawohl, alles super. Ich freue mich, dass wir endlich mal wieder loslegen können hier. Em: [0:52] Sehr schön. Luke: [0:52] Ich glaube, das gleiche habe ich das letzte Mal auch schon gesagt. Em: [0:54] Das sagen wir immer. Luke: [0:56] Das sagen wir immer. Em: [0:57] Wir werden uns immer freuen. Luke: [0:58] Ja, was haben wir heute mitgebracht? Also, ich habe zufällig in den letzten Tagen zwei Artikel gefunden, die sich mit dem Thema KI-generierten 3D-Welten beschäftigen. Und zwar hat Google dazu was vorgestellt. Also, spezieller Google DeepMind. Das ist ja diese eine Abteilung von Google, Luke: [1:19] die sich speziell mit diesem Thema Deep und KI beschäftigt. Deep Learning, Deep Machine und so weiter und so fort. Em: [1:27] Mit dem Thema Deep und Mind beschäftigt. Luke: [1:29] Ja, mit dem Thema Deep und Mind beschäftigt. Und dann gibt es noch eine andere Veröffentlichung, die dazu waren. Das Team von Worldlabs, worldlabs.ai, die haben auch da etwas Ähnliches veröffentlicht oder was ziemlich, ziemlich Ähnliches veröffentlicht. Em: [1:46] Muss man die kennen? Luke: [1:48] Nö, aber hört sich auf jeden Fall irgendwie ganz interessant an. Vor allen Dingen, dass die halt speziell auch an World-Sachen arbeiten. Vielleicht gehen wir zuerst mal auf das ein, was Google DeepMind da veröffentlicht hat. Da gibt es nämlich auch in dem Blogbeitrag, den wir verlinken, von Kashi’s Blog, gibt es auch ein paar Sachen zu sehen dazu. Und das Ganze funktioniert so, dass du halt ein automatisch, also du lässt dich mit einer KI ein Bild generieren und benutzt dieses Bild dann, um tatsächlich nicht. Luke: [2:27] Dieses Bild als 3D-Modell ja, automatisch animieren zu lassen. Nicht nur animieren zu lassen, sondern sogar, dass du dich halt darin begehen kannst. Also das heißt, hier in dem Beispiel ist halt so ein Ritter, der irgendwie in einem Dungeon ist und der vor dir steht vor drei Türen. Und dann kann der halt in jede Tür sozusagen reingehen und gucken, was da ist. Einer geht eine Treppe hoch, eins geht irgendwo in eine grüne Welt rein und so weiter und so fort. Und das Spannende dabei ist, dass du nicht nur sozusagen dass das, also, dass dieses System, wenn ich es richtig verstanden habe, generiert halt nicht das als Videostream, sondern es ist halt eine wirkliche 3D-Umgebung, in der du dich umdrehen kannst, wieder zurücklaufen kannst und so weiter und so fort. Also wirklich diese klassische WASD-Steuerung, die wir alle so kennen, wenn man so ein 3D-Spiel spielt, wo man vorwärts, rückwärts, links, rechts laufen kann. Em: [3:28] Wolfenstein 3D. Genau. Luke: [3:30] Und das finde ich sehr interessant, dass du, dass das schon so weit ist, in Anführungsstrichen, dass du quasi in diese Szene, die du dir aber vorher sogar schon mit einer KI generiert hast, also musst du vielleicht nicht unbedingt, so tief bin ich jetzt dann auch nicht eingestiegen, ob man das unbedingt mit einer KI vorher abgenerieren muss, Oder ob du halt auch einfach, keine Ahnung, irgendein Bild nehmen kannst. Em: [3:53] Ja, ein Foto von dir. Wie du irgendwo stehst auf einem Surfbrett. Und dann fahre ich dich mit WASD einfach durch die Gegend. Abgefahren. Also nochmal für die Zuhörer hier, das ist irgendwie ein Single-Bild. Einfach sieht aus wie so aus einem Fantasy-Roman. Da steht so ein Dude, der sieht aus wie ein Ritter vor drei Toren, die so ich sag mal so geisterhaft, mythisch wirkendes Licht ausstrahlen. Da ist dann so scheinbar eine Naturlandschaft in dem linken Bild. In dem rechten weiß ich nicht genau, was los ist, aber da kommt so ein türkises Licht raus und ganz rechts beim dritten Tor geht so eine Treppe hoch und wenn man sich dann so ein beliebiges dieser Videos, die dann darunter mit demselben Startbild, also demselben Standbild, muss man sagen, starten, dann kann der Dude da irgendwie durchlaufen durchs Tor und man sieht einfach, das sieht aus, als ob man irgend so ein beliebiges 3D-Fantasy-Spiel spielen würde eigentlich, ne? Luke: [4:51] Genau, also für Leute, die Online- oder die 3D-Fantasy-Rollenspiele spielen, die wissen genau, was hiermit gemeint ist und finden sich da total wieder. Klar, was man auch auf jeden Fall sagen muss, ist, wenn man sich die Videos anguckt, das ist jetzt natürlich noch nicht so perfekt hochauflösend und die Bewegungen sind so super konsistent und so. Aber das sieht schon ziemlich interessant aus, im Sinne von, dass man sich vielleicht … Also, was ist jetzt die Ableitung daraus? Man könnte ja jetzt nicht selber einfach irgendwie so eine Welt generieren, die man sich immer schon mal generieren wollte und darin dann rumlaufen. So, ja, also. Em: [5:30] Oh, ich hatte jede Menge Use Cases dafür. Luke: [5:33] Und bevor wir da vielleicht weiter einsteigen, in was man damit noch machen kann, also das war jetzt dieses Beispiel von Google DeepMind und das Beispiel von World Labs hat eigentlich was recht ähnliches veröffentlicht. Da gibt es jetzt auf der Seite bei denen noch nicht so richtig viel, glaube ich, zu sehen. Also es gibt hier zwar auch so, kann man ja auch nochmal weiterklicken, wie man sich da weiter durchbewegen kann. Mit, ja, die haben hier verschiedene Beispiele für verschiedenste ja, generierte Welten, wo jetzt auch so eine Fantasy-Welt ist, dabei ist, dann irgendwie also besonders natürlich hier auf Fantasy, auf das Fantasy-Setting. Em: [6:23] Machst du das gerade? Luke: [6:23] Ja, künstlerisches, genau, also wir haben das hier nebenbei offen und da kann man sich jetzt dann auch da drin rumbewegen in dieser Welt, in dem Bild. Und das wird dann natürlich auch entsprechend nachgerendert, nachgeladen von dem, was ich, ja, sozusagen, wo ich mich hier hin bewege. Und da sind jetzt hier, wenn man das jetzt hier so mal kurz erzählt, was hier als Beispiel sind, so ein Fantasy-Setting, dann gibt es irgendwie so ein Setting, was so aussieht wie so eine fiktive Ausstellung, Museum, in dem ich mich auch rumbewegen kann. Also hier, keine Ahnung, kann ich hier von Bild zu Bild gehen und mich da drin rumbewegen. Also das, ja, kann ich jetzt hier auch Vor einer Statue stehen und mich in diesem Setting rumbewegen. Em: [7:06] Übernice. Also vielleicht ganz kurz nur, du hast es gerade mal gemacht. Also wir hatten unterschiedliche Settings. Luke hat sich da durchbewegt und plötzlich kam so ein lilaner Schimmer. Da sah das so ein bisschen strange aus und dann stand unten links, habe ich gesehen, out of bounds. Da generiert die KI wahrscheinlich nicht schnell genug oder was heißt das? Luke: [7:28] Würde ich vermuten. Ich würde vermuten, dass es natürlich, also du gibst dem ein Startbild, also hier der Blick auf verschiedene Skulpturen in einem Museumsraum oder vielleicht auch noch mit Bildern an der Wand und so und aus dieser Szene baut das Ding dann halt eine 3D-Welt und das rendert das halt bis zu einer bestimmten Tiefe halt. Also vielleicht, keine Ahnung, weiß ich nicht was, zwei, drei Meter oder so. Und wenn du dann halt weiterläufst als diese vorgerenderte Szene, in dem Fall jetzt hier bei Worldlabs, dann ist er einfach nicht mehr in der Lage, da automatisch was Neues hinzurendern. Em: [8:10] Okay, alles klar. Ich muss sagen, das sieht ziemlich geil aus. Also es sieht wirklich so aus wie bei einer richtig guten Ausstellung. Und man kann sich die einzelnen Ausstellungsgegenstände, das sind so Statuen und abstrakte Kunst gewesen aus irgendeiner Vergangenheit irgendwie, kann man sich dann aus unterschiedlichen Perspektiven angucken. Oben sind sogar die, das Schienensystem für die Beleuchtung. Spannend. Ich würde da jetzt gerne um die Ecke gehen und in den nächsten Raum. Luke: [8:38] Das würde ich auch sehr gerne machen, aber das geht halt hier jetzt bei denen noch nicht. Und das Beispiel von Google DeepMind, da kann man nur Videos sehen. Also das ist schon interessant, dass man jetzt hier bei dem World Labs direkt selber ausprobieren kann. Also man kann sich jetzt hier ein bisschen hin und her bewegen. Aber ja, genau, bei Google DeepMind, wenn ich das richtig gesehen habe, gibt es einfach noch keine… Em: [9:02] Wobei es hier auch gibt. Luke: [9:03] Gibt auch eine Demo scheinbar bei Google DeepMind. Das muss man sich vielleicht mal separat angucken. Aber das sozusagen als Ausgangssituation zu dem, was hier ja jetzt da veröffentlicht wurde. Ob man das nun direkt schon steuern kann oder nicht, ist vielleicht auch nicht ganz so relevant, weil der Schritt, der ist ja offensichtlich schon da. Also wenn man auf die Google-Deep-Mind-Seite zum Beispiel geht, dann sieht man auch nochmal so Beispiele und man sieht daran direkt, dass es offensichtlich auch schon funktioniert. Nur wahrscheinlich wieder auch einfach nicht direkt für die Öffentlichkeit freigegeben, damit nicht allzu viel Schindluder getrieben wird. Aber es ist auf jeden Fall da, die Technologie existiert. Genau, ja. Em: [9:51] Während Lukas gerade erzählt hat, ist er auf der DeepMind-Seite von Google und scrollt einfach so runter, wo die einzelnen Beispiele drin sind. Und da geht es auch so um, wie soll ich sagen, wie bei gerenderter Grafik, gibt es ja immer so Sachen, die man erreichen möchte. Also einen besonders gut aussehenden Rauch. Em: [10:12] Das nächste Thema ist zum Beispiel die Physik in der durch KI generierten Welt. Dann haben wir jetzt hier auch noch andere Themen und zum Beispiel Lightning-Effekte, Gravity, was käme jetzt als nächstes? Das ist ja total cool. Da kann man sich die Reflections, da kann man sich das alles angucken und sehen, in welcher Qualität es wiedergegeben wird und ich komme mir so vor, als ob ich mir gerade irgendwie die News zu einem neuen Spiel anschauen würde. Irgendwie der neueste Shit, der bald auf den Markt kommt. Hier habt ihr eine kleine Sneak-Preview auf das Spiel. Das ist alles sehr wie so in Game-Landschaft an. Und das sieht teilweise sehr wild aus. Das linke ist sehr fotorealistisch hier übrigens. Luke: [10:56] Ja, in dem Fall, was wir jetzt der Abschnitt, den wir uns gerade anschauen, ist halt betitelt mit Playing from Real World Images. Also das ist halt einfach dann wirklich ein Foto aus der echten Welt, was man sozusagen als Setting mit reingegeben hat, wo man sich dann auch direkt drin schon bewegen kann. Deswegen sieht es auch so super fotorealistisch aus, weil das nimmt er halt als Anfangsbild, als Startbild und extrapoliert dann halt daraus. Ja, also ohne jetzt da vielleicht weiter noch sozusagen noch weiter durchzugehen, weil das ist, glaube ich, nicht ganz, also es ist, glaube ich, spannend, sich selber anzuschauen und nicht unbedingt nur zu hören, aber man kann sich schon gut vorstellen, was damit vor allen Dingen in der Spielewelt für Fortschritte gemacht werden können. Weil dieses ganze Rendering, oder Rendering ist ja gar nicht mehr das Problem, aber das Setting überhaupt zu erschaffen, also fliege ich durch einen Canyon, ja, und wie sieht aber dann der Canyon aus? Also wie detailliert ist er, wie zerklüftet ist er? Irgendjemand muss diese Sachen ja shapen oder man nimmt es aus irgendeiner Bibliothek oder sowas, aber da wird irgendwie, irgendjemand muss sich damit beschäftigen, wie das aussieht und wenn man natürlich hier die Möglichkeit hat, das direkt mit einer KI vorzugeben. Klar, da sind wahrscheinlich auch schon die ein oder anderen Nachteile, also im Sinne von dass dann Leute, die halt normalerweise 3D-Welten modellieren, wieder arbeitslos werden können und so. Luke: [12:21] Aber auf der anderen Seite, ja gut, also das ist ja immer das Thema dabei. Aber das ist schon sehr interessant, wenn man sich das mal anguckt. Also können wir euch wirklich empfehlen, euch das auch mal anzugucken. Die Beispiele sind vor allen Dingen immer Videos. Das kann man sich gut schnell mal hier durchscrollen, wie wir es jetzt eben auch nebenbei gemacht haben. Em: [12:39] Weißt du, was ich mir gerade dabei gedacht habe, als ich das gesehen habe, als du erzählt hast, Spiele produzieren und so, da ist mir in den Sinn gekommen, dreh das Ganze mal um. Also was ist, wenn du zum Beispiel ein, das würde mir jetzt in den Sinn kommen, lese ein Roman, irgendein Nischen-Fantasy-Roman von David Eddings, Bulgariatsaga irgendwas und dazu existieren im Internet kaum Bilder. Ich habe eine total coole Fantasy-Story, die auch noch noch nie verfilmt wurde. Es gibt halt nichts darüber. Und jetzt prompte ich irgendwie das, was ich drin haben möchte. Und plötzlich habe ich die komplette Fantasy-Welt und kann mich in einem Abschnitt dieser Welt bewegen. Das ist doch für Fans von den dem Produkt, die das dann erweitern wollen, eigentlich perfekt. Ja, total. Ja. Luke: [13:26] Das würde ich mir als erstes machen. Em: [13:28] Und dann würde ich damit auch ein paar Schweinereien machen, glaube ich. Luke: [13:31] Was für Schweinereien würdest du denn damit machen? Em: [13:33] Du kannst ja von irgendeiner Trulle von der Super-Ilo ein Foto nehmen, dann da reinsetzen und sagen, okay, ich möchte jetzt mit der in einem Raum irgendwie das Schiff betreten und dann wie, keine Ahnung, den Fluss runtersegeln. Das ist jetzt immer noch FSK unter 18, was ich gesagt habe. Luke: [13:55] Ja. Em: [13:56] Ist ja alles möglich. Luke: [13:58] Ich finde es, was ich sehr interessant finde, ist dieser, genau der Punkt, den du so gerade jetzt als letztes angesprochen hast, dass man halt so seine eigenen Ideen dann da auch ausleben kann oder Em: [14:12] Die Möglichkeit hat. Luke: [14:13] Selber mal sowas zu orchestrieren oder zu gestalten, in Anführungsstrichen. Also das ist sicherlich für Leute, die jetzt in der Spielewelt irgendwie unterwegs sind und sich dafür interessieren, super spannend. Weil momentan kann man jetzt nicht mit Clicky-Bunty mal schnell ein neues Spiel bauen. Also ja, es gibt ja da die verschiedensten Game-Engines, die irgendwie das einem erleichtern, mit Unreal Engine und so weiter und so fort. Aber man muss trotzdem noch gewisse Sachen, ja, Computer Science Background haben, in Anführungsstrichen, oder sich mit Programmierung beschäftigen, um da irgendwie, keine Ahnung, einen Würfel überhaupt mal zum Laufen zu bringen. Luke: [14:57] Und wenn einem jetzt, also das ist ja Spielmechanik, aber die muss man ja dann wahrscheinlich immer noch nicht nur wahrscheinlich, sondern die muss man natürlich immer noch machen, aber alleine schon diese Welt zu erschaffen ja, also ein Setting zu erschaffen, wir haben uns vorhin auch kurz im Vorgespräch darüber unterhalten, über irgendwie so Horror Games, ja oder so Survival Games und wenn du da halt ein bestimmtes Setting willst, was es irgendwie nicht gibt, dann könnte man halt schnell loslegen mit ein paar Prompts in Mid-Journey oder was auch immer, um halt irgendwie ein cooles Setting zu haben, wo man sagt, ja, genau so stelle ich mir das vor und dann mit dem Ding irgendwie loszugehen. Und also ich glaube, wenn diese Technologie hier irgendwie noch weiterentwickelt wird, sodass man das halt wirklich einfach benutzen und ausprobieren kann, mehr ausprobieren kann, dass ich mir vorstelle, also ich stelle mir da halt vor, dass die Leute… Die schon immer mit dem Gedanken gespielt haben, vielleicht mal ein Spiel zu machen oder ein Konzept für ein Spiel im Kopf haben, aber denen einfach das Handwerkszeug fehlt, das umzusetzen, weil sie halt nicht wissen, wie sie die Unreal Engine programmieren und so weiter und so fort, dass die halt die Schwelle für die viel, viel niedriger werden kann, um halt irgendwie mal da zumindest reinzusteigen. Ah gut, jetzt kann man natürlich auch wieder sagen, dann kriegen wir noch mehr schlechte Spieler, als eh schon existieren. Luke: [16:23] So, weil jeder das jetzt auf einmal machen kann. Aber ich glaube, dass da, also natürlich, du bist es immer ein zweischneidiges Schwert, da liegt auch großes Potenzial natürlich da drin, ja. Luke: [16:33] Und bis jetzt sind wir noch im Gaming unterwegs, ne? Ich wollte gerade sagen, Em: [16:38] Jetzt lass mal die Kamera schwenken und dann in die Richtung schwenken, was tatsächlich abgeht im Internet, dem großen, Internet, weil hattest du mir nicht mal gesagt, dass irgendwie zwei Drittel aller Streams oder 50 Prozent aller Streams Porno sind oder so, oder Sex wie basiert sind? Luke: [16:55] Nee, das kann ich mir zwar gut vorstellen, aber das wusste ich jetzt zum Beispiel auch noch nicht. Em: [17:01] Also sagen wir mal, na gut, dann warst du nicht das, das war dann wohl ich, da er das recherchiert hat. Also irgendwie scheint es so zu sein, dass ein großer Teil des Internets von ganz vielen, sexuellen Inhalten geprägt ist und das können wir jetzt einfach mal so stehen lassen. Wäre doch tatsächlich eine super interessante Sache, seine, wenn man 16 Jahre alt ist, im Klassenzimmer irgendwie einen Crush auf seine Lehrerin hat, ein Foto von der irgendwie zu organisieren, von der letzten Unterrichtsstunde oder was auch immer, dann da reinzusetzen und dann hätte man ein virtuelles Klassenzimmer, wo man Spaß haben kann, wo man irgendwie die ärgert oder man läuft da rum und schaut sich das aus unterschiedlichen Perspektiven an. Wir wissen nicht, wo die Reise hingeht. Das ist jetzt einfach nur so ein ein Griff in die unterste Schublade der Möglichkeiten und dabei können wir es dann auch gerne belassen. Ich glaube, da wäre sehr viel Interesse für tatsächlich. Luke: [18:06] Ja, das ist ja jetzt wieder, geht ja jetzt wieder in die Richtung nicht so jugendfrei, ne? Also oder was? FSK, wie du es so schön genannt hast. Em: [18:15] Okay. Luke: [18:16] Was ich, also kann man ja auch, da dürfen wir ja durchaus auch noch mal weiter drüber nachdenken, laut drüber nachdenken, werden wir wieder, also hab jetzt da gerade aktuell keine weiteren Gedanken so dazu, außer die Sachen, die du schon genannt hast, also dass man halt einen Partner, eine Partnerin sich irgendwie generiert oder so, mit dem oder der man dann halt da durch verschiedenste Erlebnisse geht, sei es Abenteuer in der Fantasy-Welt oder sexuelle Abenteuer oder man kann sich ja vorstellen, das ist einfach einfach ein Zeitvertreib. So, du erschaffst dir halt deine virtuelle Partnerin, deinen virtuellen Partner, der dich halt irgendwie begleitet und so Eskapismus mäßig. Also dein Em: [19:03] Leben würdest du gerne anders. Luke: [19:04] Leben und du kannst es halt dann nutzen, indem du halt, du kannst es halt befriedigen, diese Idee oder sozusagen dieser Idee weiter nachfolgen, indem du halt so eine Technologie dann halt dafür verwendest. Wenn man sich jetzt noch vorstellt, dass man das irgendwie mit VR-Brillen oder irgendwelchen anderen Headsets im besten Fall leichteren Sachen oder sowas dann als jetzt die aktuellen Headsets im Jahr, Ende Jahr 2024 ist, Luke: [19:30] dann kann man sich schon vorstellen, dass das vielleicht auch interessant ist. Aber ich finde, das ist einfach ein Aspekt dieser Jugend, nicht jugendfrei, sondern halt dieses Eskapismus im Sinne von, ich finde eine neue Partnerin, Partner oder was ist neu? Ich habe da halt meinen digitalen Partner, digitale Partnerin, da haben wir auch schon öfter mal drüber gesprochen, dass es KIs mittlerweile ja gibt, oder anders gesagt, dass es Menschen gibt, die sich in KIs verlieben und das auch ein Markt ist, dass es da KIs dafür gibt, die halt deine virtuellen PartnerInnen sind. Luke: [20:14] Und ja, das ist halt bisher ist das, was man da halt häufig hört, eben auf der sprachlichen Ebene, also sowohl Text als auch Audio, aber jetzt diese Bildebene, die dann theoretisch damit noch dazukommen kann, wenn du einfach mit einem geprompteten Bild anfängst, ist, finde ich, so aus dieser Spiel-Eskapismus-Seite, wobei Eskapismus ist ja immer so ein zweischneidiges Schwert, also genau aus dieser Perspektive ist das ja jetzt halt eine Privatperson, ein Consumer-Bereich, den das angeht. Em: [20:50] Jetzt mal so Real Talk, wenn man jetzt sagt, ich fand das Wort Eskapismus, das ist ein cooles Wort. Was würdest du machen als allererstes? Du hast die Software zu Hause, hast dich da gerade eingeloggt, hast irgendwie unlimited Möglichkeiten, darfst jetzt was eingeben und dich da ausleben. Was würde dir spontan in den Sinn kommen, wo du gerne mal vorbeischauen würdest und also vollkommen frei kannst dir alles überlegen. Ich würde zum Beispiel, ich würde in Star Wars Episode 3 reingehen und dann Prinzessin Leia retten. Direkt am Anfang. Dann wäre natürlich die ganze Story schon mal im Arsch. Aber ich würde es machen. Dann bräuchten wir die. Luke: [21:29] Ganzen anderen Filme nicht. Und der ganze Eskapismus einer gesamten Generation ist dahin vom Tisch weggewischt. Aber ja, da hätte ich gar nicht dran gedacht. An so einem Filmsetting, da war ich gar nicht. Tatsächlich, ich als alter Gamer, wobei so ein alter Gamer bin ich ja gar nicht, ich spiele ab und an mal was, aber es gibt Leute, die spielen viel, viel, viel, viel, viel, viel, viel mehr als ich. Aber ich war tatsächlich dadurch, wahrscheinlich auch jetzt so visuell geprägt, so ein bisschen durch die Beispiele, die wir uns angeschaut haben, war tatsächlich auch in so einem Computer-Setting-Game irgendwie, also was ich total spannend finde, sind irgendwie, oder mal so, mal so, mal ist es einfach so Fantasy, Fantasies Luke: [22:12] Setting, aber was, wo ich jetzt als erstes dran denken muss, ist so Cyberpunk Settings, durch die ich gerne mal durchlaufen würde, weiter so. Also ein Spiel, was ich zum Beispiel gespielt habe, durchgespielt habe auch, ist das Spiel Stray mit dieser Katze. Das kennt vielleicht der ein oder die andere. Super coole Spiel und das ist auch so eine Cyberpunk-artige Welt und sowas finde ich, das finde ich irgendwie super interessant. So visuell einfach, ich finde das visuell spannend. Ich mag so Neon-Sachen, das sieht man ja auch am Branding von unserem Podcast. Also das magst du ja auch gerne und das passt ja auch so ein bisschen so zu unserer Thematik, aber das ist auch etwas, was mich visuell einfach irgendwie anspricht und das wäre glaube ich was, was ich mal ausprobieren würde. Dann als du vorhin noch gesagt hattest so mit dem Surfen und so, das fand ich auch einen interessanten Aspekt, wobei ja, das, das, da würde mir glaube ich noch mehr vom Aktiven, ne? Ja genau, es lebt mehr vom Aktiven und da würde mir noch diese Systematik fehlen, dann da wirklich auch die richtigen Bewegungen drin zu haben, weil das ist ja bei so einer 3D-Welt immer sehr abstrahiert. Also, keine Ahnung, du reitest mit einem Pferd durch ein Fantasy-Setting und Em: [23:34] Springst da auf das Pferd. Luke: [23:35] So elegant und agil und ohne weiteres drauf, wie du es halt im echten Leben lange trainieren müsstest quasi und das dann umzusetzen noch in Richtung Oder Surfen oder aktive Sportarten, da ist es, glaube ich, das braucht wahrscheinlich noch ein bisschen. Aber wir extrapolieren ja auch immer gerne, also sagen, nicht die Technologie, die wir jetzt sehen, sondern die, die in, weiß ich nicht was, sieben Monaten da ist oder drei Jahren. Und dann ist das natürlich alles ein ganzes Stückchen weiter weg oder besser noch geworden. Em: [24:09] Right, safe. Und man nimmt sie einfach nochmal spontan mit in die Zeit und bewegt sich dort ein bisschen. Da, wo das Haus stand, wo dann um die Ecke irgendwie der Laden war oder so. Und läuft nochmal quasi in der Vergangenheit die alten Routen ab. Das wäre schon ein cooles Setting, wenn man sowas tun könnte. Luke: [24:58] Ja, absolut. Em: [25:00] Ja, ist toll, dass das schon so weit fortgeschritten ist. Ich meine, wir kennen das schon von den ganzen Renderings der Videos. Da gibt es einige bekannte Seiten, die sowas schon vorstellen. Aber sich jetzt in diesen Videos auch selbst bewegen zu können, finde ich richtig cool. Ich würde das direkt mal ausprobieren wollen. Luke: [25:19] Ja, ich würde das auch direkt weiter ausprobieren wollen, da zu schauen, was da so geht. Ich meine, bei diesen Beispielen von Google DeepMind sieht man auch, dass das schnell endet. Also das geht jetzt nicht irgendwie zwei, drei, vier, fünf, zehn Minuten, wo du da reinläufst, weil das ist ja immer noch eine Thematik, die bei den KI-Systemen ist, dieses Halluzinieren. Das heißt also, das stelle ich mir vor, dass es auch auf dieser 3D-Modellierungs- und dann Bildebene passiert. Also wenn ich diese Treppe da hochlaufe, mit meinem Charakter, das sieht man dann auch am Ende von diesem Video, dann wird es irgendwie komisch. Dann kommt da so eine komische Biegung oder irgendwie stürzt es ein oder so. Es ist irgendwie so, ja. Also von daher, das würde ich super gerne ausprobieren und schauen, was das ist. Wie gut diese Systematik dann tatsächlich schon funktioniert, ja. Em: [26:16] Wobei, das ist wahrscheinlich so eine Parametergeschichte. Also man könnte natürlich auch sagen, ich hab jetzt gerade hier, das ist der Main-Character, der verändert sich nicht mehr, der sieht so aus und der wird auch nicht irgendwie wobbelig und so und das ist die Welt und da gibt es halt eine Definition, wie eine Blume aussieht und so und dann bleibt alles so, wie es sein muss aber du kannst die Story halt weiterspinnen, das ist sicherlich auch eine Möglichkeit, wobei ich natürlich gar keine Ahnung habe, wie sowas dann tatsächlich technisch umgesetzt wird, Ja, das ist wirklich, wirklich sehr interessant. Luke: [26:48] Was ich ja, oder was wir ja auch immer betrachten und was mich jetzt interessieren würde, ist, wir versuchen ja immer die Einordnung auch so, also das, was wir jetzt besprochen haben bisher, ist ja jetzt, wie ich schon vorhin gesagt habe, so sehr aus dem Consumer-Gedanken. Also aus so einem, ich als Privatmensch nutze dieses Ding, um meinen Eskapismus, um es nochmal zu sagen, zu befriedigen oder irgendwie meine Lust am Spielen oder auch, ja, gut, das steckt ja in Eskapismus drin, so ein bisschen meine eigenen fiktiven Welten mir auszudenken von was auch immer. Aber was wir ja auch immer, wie gesagt, noch besprechen, ist ja so die Auswirkung nicht nur auf, also die Auswirkung auch gesellschaftlicher Perspektive, So im gesellschaftlichen Kontext und vor allen Dingen auch so ein bisschen, nicht nur ein bisschen, sondern vor allen Dingen auch den Business-Kontext, also diese drei Perspektiven immer so. Also ich als einzelner Mensch, ich als Teil der Gesellschaft und ein großer Teil der Gesellschaft ist nun mal auch unser tägliches Doing, die Arbeit, das Leben und Unternehmen und so weiter und so fort. Und da würden mich mal deine Gedanken so auch jetzt laut gedacht interessieren, inwiefern das vielleicht auch in unserer Arbeitswelt eine Rolle spielen kann und was du da für Gedanken dazu hast. Em: [28:11] Okay, cool. Also zwei Sachen sind mir, als du das gesagt hast, sofort in den Sinn gekommen. Das eine ist, stell dir einen Netflix-Film vor, der von einer Gruppe von Drehbuchautoren geschrieben wurde, also Also es gibt einen roten Faden. Vielleicht ist das Ding auch KI-unterstützt geschrieben worden mit einem Spannungsbogen. Em: [28:30] Und jetzt bekommst du nicht das fertige Produkt vorgesetzt mit irgendwelchen Schauspielern, sondern du hast eine Main-Story, die kannst du dir dann modular zusammenbauen, auch deine Akteure selbst wählen. Du kannst dich selbst quasi in den Film hineinbeamen und einer der Schauspieler sein oder einer der Personen sein, der Main-Acts in dem Film. Und diese Handlung dann nochmal aus einer anderen Perspektive durchleben. Em: [28:53] Die du mitbearbeitet hast, wo du mitbestimmt hast, wie es aussehen soll alles. Und das konsumierst du dann aber auch gleichzeitig. Was natürlich dann dazu führt, dass ein Streaming-Anbieter dadurch vielleicht mehr Zuschauer hat oder die irgendwie, die aus meiner Perspektive Pioniere, die dann Bock darauf haben, bei der Stange halten kann oder so. Das wäre eine Sache. Und die andere Sache ist, wie einige sicherlich schon wissen, bin ich in der Immobilienbranche tätig und da ist das beste Beispiel immer die virtuelle Umgebung einer Wohnung. Also wenn du einen Grundriss hast, der irgendwie auf 2D von einem Architekten eine Bauzeichnung oder sowas aufs Papier gezeichnet wurde da hast du dann schön Vogelperspektive kannst du die einzelnen Räume, die Küche, das Bad sehen aber was wäre, wenn du einfach auf Basis dieser Zeichnung und ein paar kleinen Extra-Informationen wie das vielleicht Parkettboden hier sind Fliesen eine richtig coole Wohnung zaubern könntest, durch die du einfach mit BASD, durchläufst und aus dem Fenster schaust und dir alles anguckst auf dem Balkon stehst, wäre super. Das wäre tatsächlich ein Mehrwert. Luke: [30:03] Solche Systeme gibt es ja auch schon, oder? Also in der Immobilienbranche, dass du, also natürlich, sobald du halt irgendwelche Renderings machst, also 3D-Visualisierung von den Räumen, hast du ja das 3D-Modell schon und auch mit Beleuchtung und all so ein Hokus-Pokus und so. Aber klar, also natürlich ist das, das stelle ich mir, kann ich mir auch sehr gut vorstellen, als jemand, der jetzt auf Wohnungssuche ist und wenn es bei sowas geht, es ja dann immer um noch nicht vorhandene Immobilien, also das heißt, ich kann da noch nicht hingehen und das physisch anfassen und mir angucken, auch keine Vorstellung, natürlich kann ich da hingehen, wo die Baugrube vielleicht ist oder wo das Grundstück liegt, aber ich habe keine Vorstellung, wie groß oder klein ist denn das so. Das kann ich mir auch wirklich sehr gut vorstellen, dass das sehr hilfreich ist für diesen Luke: [30:53] Verkaufsprozess, Anbahnungsprozess und so weiter und so fort, dass die Leute halt eine bessere Vorstellung davon haben von der Wohnung, die sie dann in Zukunft mal kaufen, also in der Zukunft besitzen und bewohnen können und so, ja. Wobei das ja natürlich auch nur auch wieder eine Sache ist von Business in Richtung Menschen, die das dann irgendwann als Privatperson kaufen oder, ja, muss ja nicht unbedingt Privatperson sein, haben es halt auch, also es ist eine sehr, was ich damit meine, ist eine sehr persönliche Sache an sich. Ein Gedanke, der mir so die ganze Zeit im Hinterkopf rumschwirrt, aber ich habe auch noch keinen richtigen Use Case dafür, ist natürlich auch diese Systematik mit wirklich reiner B2B-Welt davon. Und da weiß ich jetzt nicht, ob es da überhaupt irgendwas geben kann, weil was brauche ich in B2B mit sowas? Also irgendwie mein virtuelles Lagersystem oder so, also meine Lagerhalle, die will ich ja nicht irgendwie in so einem KI-System mir vorrendern und abbilden lassen oder so. Aber vielleicht ja auch so ein bisschen diese Systematik, die du gesagt hast gerade, dass man halt, dass es zwar alles schon vorliegt, sag ich mal, in 3D-Daten, aber dass es sich leichter generieren lässt, als dass du es halt wirklich von Hand kolorieren musst, die Texturen auswählen musst und so weiter und so fort. Em: [32:18] Ich könnte mir vorstellen, dass es so im Marketingbereich die Kreativität beflügeln könnte. Also man sitzt mit einer Gruppe zusammen, entwirft eine neue Idee für ein Produkt. Em: [32:27] Und hat aber noch nicht die ganzen Grafiken, Stoffe, also alles, was dazugehört, um dieses Produkt zum Leben zu erwecken, hat vielleicht nur eine kleine Zeichnung, eine Skizze, die irgendwie auf dem Stück Papier ist und jetzt will man das ganze Ding mal sich ein bisschen näher angucken und weiterentwickeln und lässt die KI das einfach mal in 3D generieren und sich vielleicht auch frei bewegen, drehen und so. Und dann schaut man sich das Ganze an und entwickelt es dann dort weiter. Das könnte ich mir gut vorstellen, dass das schneller zu Ergebnissen führt oder auch Trial and Error so ein bisschen einfacher macht. Im Prinzip hast du es schon gesagt, vieles von dem, was wir gerade erzählen, kann man ja auch so schon machen. Also mit mehr Aufwand kann man den Grundriss animieren, man kann das alles virtuell 3D mäßig aufbereiten. Man kann die Filme auch so schon produzieren und streamen und so, aber die Freiheiten sind jetzt noch mal größer und ich glaube, dass ein großer Pluspunkt ist die Individualität, die du dadurch pushen kannst. Dass du sagst, ich kann jede beliebige Änderung prompten, mit einfließen lassen, ich kann was Eigenes dazunehmen und da reinmixen und es wird aufgenommen und dann irgendwie organisch dem anderen Material hinzugefügt und es entwickelt sich dadurch dort weiter. Ich habe nur einen kleinen Bildausschnitt, aber ich kann jetzt plötzlich nach links und rechts gucken, weil die KI sorgt dafür, dass der Rest mitgeneriert wird. Em: [33:53] Plötzlich habe ich einen 360-Grad-Rundumsicht und das beflügelt mich, ist für mich ein Mehrwert, ist für mich ein Nutzen und ich habe das in Handumdrehen gezaubert. Luke: [34:03] Ja und der Aspekt dabei, also bisher musst du halt gewisses Knowledge haben. Also du musst ein Wissen haben, okay, ich brauche einen Plan und dann brauche ich den Plan mit 3D-Daten und diese 3D-Daten, die muss ich in irgendein System reinbringen. Und dieses System erzeugt mir dann die Wände und die Decken und die Höhen. Und dann muss ich Belichtung machen. Dann muss ich irgendwie Lichter setzen und so. Also alles in dieser 3D-Szene quasi, ja. Und ich meine, man sieht es auch an den bisherigen Beispielen. Das schwächelt natürlich dann, klar, ganz klar, ist ja so augenscheinlich wie sonst was, wenn du dich umdrehst. Also weil woher soll dieses KI-System denn wissen… Wie das hinter dir aussieht, wenn es ja nur nach vorne schaut. Und klar, natürlich extrapoliert es, weil es halt irgendwie vergleichbare Daten hat. Also in dem Beispiel von dem Ausstellungsraum, von diesem virtuellen Ausstellungsraum, muss ja hinter dir irgendwo auch wieder eine Wand sein oder ein Fenster oder eine Tür oder der Ausgang zum nächsten Raum und so weiter und so fort. Das heißt also, das visualisiert es dann ja, klar. Aber es hat halt natürlich seine Grenze dabei und das ist ja, denke ich, auch so ein bisschen so ein Punkt, der wahrscheinlich, ja, der auch dann mit weiterem Training und so auch wieder noch natürlich sich weiterentwickeln wird. Em: [35:33] Ja, safe. Wahrscheinlich kann man der KI dann auch sagen, sei einfach kreativ. Also überleg dir halt selbst, was da noch sein könnte, was irgendwie in die Story passt. Fantasy-Setting, da sind drei Tore vor dir, da kannst du durchlaufen, hinter dir wird wahrscheinlich dann eine Höhlenwand sein oder du bist irgendwo hergekommen, dann ist da wahrscheinlich dann irgendwie eine Felsbrute irgendwie oder so. Das kann ich mir schon gut vorstellen, dass das relativ jetzt schon eigentlich abbildbar ist. Und ja, die Frage ist, wo kommen wir dann dahin? Hast du dir, kannst du dir vorstellen, wo oder wie, die Frage sollte eigentlich so lauten, wie kann sich die Gesellschaft dadurch verändern, wenn plötzlich jeder in seiner Toolbox noch die Möglichkeit hat, einfach mal spontan eine komplette Welt zu erschaffen in der er sich bewegen kann, was passiert dann? Zieht sich dann jeder noch mehr in sich selbst zurück bleibt zu Hause in seinen eigenen vier Wänden und ist nur noch dort wo er sich am wohlsten fühlt weil der Mensch hat ja die Tendenz dazu das was er gerne macht nur noch zu machen, Und sorgt es dann dafür, dass wir uns dann desozialisieren? Ich weiß gar nicht, ob es das Wort gibt. Also ich als studierter. Luke: [36:53] Soziologe kann dir sagen, nein, also da kann ich dir natürlich nicht wirklich was dazu sagen, als nicht studierter Soziologe. Ich frage nur dich, Em: [37:01] Luke, was du denkst. Luke: [37:02] Ja, ich habe da so zwei, drei verschiedene Gedanken dazu. Also ich glaube, das wird sicherlich passieren in gewissem Umfang. Und ich glaube, das hängt dann mit der persönlichen Tendenz und der Einstellung auch zusammen. Oder nicht Einstellung, sondern wahrscheinlich im größten Teil mit dem Charakter zusammen. Weil es gibt ja Leute, die sich damals als World of Warcraft groß geworden ist. Also diese 3D-Online-Rollenspiele, die halt sich da, für die war das das Leben. Für die war das das, was nicht die Realität war. weil das war denen wahrscheinlich schon immer klar irgendwie im Hinterkopf, sodass das halt nicht echt ist. Aber das war für viele Leute, oder es gab natürlich nicht alle, aber es gab da Leute, die waren, für die war das ihre soziale Gesellschaft und so, ja. Das heißt also, ich glaube, da wird es bestimmt Leute, das wird bestimmt dazu führen, dass sich einige Leute da weiterhin zurückziehen, vor allen Dingen, wenn du im Zweifel das noch alles besser machen kannst, als es jetzt schon ist. Luke: [38:07] Also, was das heißt, besser machen kannst, wenn es halt besser wird, wenn die Technologie besser wird, wenn es alles realistischer wird, wenn da nicht so viele Halluzinationen wieder passieren und so weiter und so fort. Ich glaube allerdings, dass das, wenn das System an sich so isoliert für sich steht, also du nimmst ein Bild Und damit generierst du das und bist dann alleine in dieser Welt, selbst wenn da dann Computer-Mitspieler sind, also nicht echte Menschen, sondern die klassischen NPCs, Non-Player-Characters, also Charaktere oder Lebewesen, die vom Computer generiert sind, wenn die dann da drin sich bewegen, bist du natürlich nicht alleine. Aber die Frage ist dann natürlich auch wieder, wie gut sind die, bilden die, sag ich mal, eine Gesellschaft ab oder ein Setting ab, in dem du dich dann auch wohlfühlst. Luke: [38:59] Und deswegen glaube ich, dass es ab irgendwo einen Punkt sicherlich geben wird, wo das dann auch an so der Grenze stößt, wo man dann merkt, okay, das ist jetzt schön, dass ich hier bin, aber vielleicht gehe ich doch nochmal raus und unterhalte mich mit irgendjemandem, sei es die Nachbarin oder zu Weihnachten meine Eltern oder was, weiß ich nicht was, keine Ahnung. Allerdings, wo ich jetzt so hier so laut gedacht habe, kommt mir so der Gedanke, wenn jetzt halt verschiedene Leute sich treffen, virtuell in dieser sozusagen generierten Welt, erzeugt es nochmal was weiteres, ja. Also da sind wir jetzt schon sehr tief so in so einer Gaming- und Eskapismus-Ecke drin, aber da kommen wir ja auch her, weil das begehbare 3D-Welten sind, ja. Ja. Also das heißt, der nächste Schritt ist ja, dass du nicht nur als eine Person da drin rumläufst, sondern als zwei. Also man kann sich ja vorstellen, du generierst vielleicht eine Welt. Mit zwei Leuten da drin und der eine ist unten, steht vor diesen drei Toren und der andere steht halt oben am Ausgang von einem von diesen Toren auf einem, weiß ich nicht was, Hochplateau oder so und könnte jetzt da durchgehen oder halt auch nicht. Und dann können die zwei Leute sich treffen oder sich suchen oder weiß ich nicht was, keine Ahnung. Ja, also das hat natürlich sicherlich super krasse technische Limitationen, ja, weil woher soll denn die KI, die live quasi diese Welt generiert, wenn du dich nach vorne bewegst, wissen, wo der andere räumlich quasi ist, der zweite, der oben am Ausgang von dem Em: [40:28] Einturm steht und so. Luke: [40:30] Aber vielleicht gibt es ja da so Aspekte und dann kann es natürlich schon passieren, dass Leute da vielleicht tiefer noch abstürzen oder sich sozusagen reinsetzen, aber ich glaube, solange wir sowas noch irgendwie vor irgendeinem Gerät tun müssen oder wir irgendeine Brille oder irgendeinen Wearable oder wie auch immer aufsetzen müssen, wird das wahrscheinlich nicht so extrem dazu führen, dass die Leute da sich drin verlieren. Klar, es wird immer welche geben, die sich extrem darin verlieren. Definitiv. Aber ich glaube nicht, dass wir jetzt wie in so dystopischen Endzeitszenarien durch so eine Technologie irgendwie alle nur noch dick und fettleibig vor irgendeinem Computerbildschirm oder hinter irgendeinem Wearable sitzen und unserem Eskapismus frönen. Em: [41:27] Nein, du bist ja auch nicht fettleibig, wenn du, wenn die KI einfach die Welt übernimmt und du bist nur noch in so einer Nährstofflösung. Dann wird ja alles so reguliert, dass du nicht zu dick bist, also nicht zu… Aber das ganze Thema ist doch schon jetzt Realität, wenn du sagst so, okay, also schaust dich um, Welche großen Unternehmen sind da jetzt alle aktiv? Die Namen haben wir vorhin so ein bisschen genannt. Google macht das. Ich denke, Facebook oder Metaformally known as Facebook verfolgt auch so ein ähnliches Ziel, dass es irgendwie eine virtuelle Welt gibt, die jetzt auch KI unterstützt. Irgendwie all das, was man als soziales Netzwerk jetzt noch zweidimensional tut, irgendwie dann später mit abbilden soll. Es gab doch auch mal dieses eine Spiel, was dann plötzlich verschwunden ist. Also es war kein Spiel, sondern es war so ein Simulator. Da konntest du einen beliebigen Avatar haben, konntest du tatsächlich alles sein im Prinzip. Und dann gab es irgendwelche großen Unternehmen, die haben in diesem Spiel Gebäude gehabt und Grundstücke und so. Und dann hast du dich da frei bewegt und konntest da dein Leben einfach leben und Geld ausgeben. Also du hast Dollar quasi in diese Spielwährung umgewandelt. Und da war dann auch irgendwie der Louis Vuitton-Konzern hatte da irgendwie einen Laden und so weiter. Ja, du hast es gerade, also dazu nochmal kurz, Lukas hat es gerade recherchiert. Das hieß, glaube ich, Second Life. Luke: [42:55] Second Life, genau, ja. Em: [42:56] Genau. Und was ist daraus geworden? Was ist eigentlich aus Second Life geworden? Hat es sich weiterentwickelt? Luke: [43:03] Also, soweit ich weiß, ist es immer noch, gibt es immer noch. Also, ich habe jetzt nicht irgendwie mal was gehört, dass es nicht mehr existiert. Ich glaube, es ist einfach weiterhin da und man kann sich da weiterhin irgendwie anmelden und Teil von Second Life sein. Em: [43:19] Gefahren. Aber der Hype ist vorbei, ne? Luke: [43:21] Ja, der Hype ist natürlich vorbei, klar. Aber die Frage ist, haben wir einfach nur keine Ahnung und es gibt halt weiterhin einen super Hype in dieser Welt. Aber es ist jetzt nicht das nächste Facebook, wo die Leute hinlaufen. Em: [43:38] Ja, genau. Ja, da könnte man, also das war damals so, als das Thema aufkam damals, wir haben gerade mal so eine Glimpse reingemacht, so auf der Webseite uns mal Em: [43:48] kurz angeschaut, wie gut die Grafik jetzt gerade ist. Wir haben keinen blassen Schimmer, was mit Second Life gerade abgeht. Also ich glaube, da kann ich für uns beide sprechen. Aber als es damals aufkam, war es der Shit, wie man so schön sagt. Also es war super interessant und da wurden jede Menge Dollars von Unternehmen reingekippt, um die Spielwelt irgendwie da sich da mit dran zu beteiligen. Das war schon ein Thema und das ist schon ziemlich lange her. Also ich würde sagen, locker 10, 15 Jahre vielleicht sogar mehr. Luke: [44:14] Ja, das Spannende damals war ja wirklich, dass, du hast es vorhin schon gesagt, Also, dass da die Unternehmen reingegangen sind, irgendwann ab irgendeinem Punkt, um dann halt wirklich da drin vertreten zu sein, damit man eben halt auch mit dem Louis Vuitton ein Ding durch die Gegend laufen kann oder mit dem Porsche durch die Gegend fahren kann und so weiter und so fort. Und das hatte ja dann so eine ganz teilweise auch so, also das hat so eine eigene Ökonomie entwickelt, das gab immer schon den, wenn ich mich alles täusche, den Linden-Dollar oder so hieß der, glaube ich. Luke: [44:47] Und das war dann auch mal so eine Zeit lang so ein Ding im Sinne von, Luke: [44:52] Es gibt ja diese Währung in dem Spiel oder in dieser Welt, weil es ist eigentlich kein richtiges Spiel, es ist halt, wie der Name sagt, es ist dein Second, du kannst das, kannst das als dein Second Life verwenden. Du kannst da drin mehr oder weniger machen, was du willst, mehr oder weniger und hast aber da drin, dadurch, dass es eine Ökonomie in sich hat, Luke: [45:12] Durchaus die Möglichkeit, Geld in diese Welt rein zu transferieren und Geld aus dieser Welt auch wieder heraus zu transferieren, wenn denn irgendjemand bereit ist, dir für dein Grundstück, was du dir irgendwo gekauft hast, tatsächlich echtes Geld zu bieten im Sinne von Eintausch gegen dein Spielgeld, was du da hast und so weiter und so fort. Und ich habe jetzt noch keine Systematik, wie man diese beiden Sachen, die wir jetzt hier besprochen haben, also einmal dieses Spiel, was da schon existiert oder diese zweite Welt mit diesen KI-generierten Welten zusammenzubringen, weil ich glaube, da stehen ganz viele Herausforderungen davor, dass das wirklich irgendwie zusammengeht. Weil generiert, also wie wir wissen, Gen-AI, wie es so schön heißt, also generative künstliche Systeme, generieren ja in dem Moment, wo du etwas von ihnen willst, etwas Neues. Das heißt also, dieses Bild von, es sind zwei Leute in der gleichen Welt unterwegs, wird wahrscheinlich sehr, sehr schwierig, wenn du diesem System nicht mitgibst. Hey, da sind zwei Leute und betrachte die bitte die ganze Zeit. Luke: [46:23] Simultan, wie die sich da drin bewegen und ihre relative Position zueinander und so. Es ist ja bei zwei Personen, bei zwei Avataren schon extrem absurd, wie das gehen soll, wenn du quasi eine Welt generierst. Em: [46:38] Da bin ich mir gar nicht so sicher. Luke: [46:39] Ja, also in meinem Kopf ist es die ganze, ich glaube, das ist auch vielleicht einfach so ein bisschen so ein Knoten, den ich irgendwie lösen muss, aber ist ja, dass diese generativen KIs, die generieren ja quasi extrapolieren ja auch, also sie machen, also sie haben ja diese Systematik, dass wenn du theoretisch zurückgehst und du es nicht gespeichert hast, wie das hinter dir aussah, und du dich umdrehst, muss es ja neu generiert werden. Das heißt also, wenn ich 30, 40, 50 Meter vor dir bin, muss das System irgendwie wissen, dass du nicht auf einmal verschwindest hinter einer Wand, die gerade noch nicht da war und all so Sachen. Aber das ist ja noch im Entstehen, also wahrscheinlich wird es eher so sein, du gibst dieses initiales Setting rein, dann wird was generiert und das ist dann für sich konsistent und unveränderlich konsistent, weil es auf diesem Initialbild irgendwie basiert oder so, ja. Und dann musst du dich da drin irgendwie bewegen können. Wahrscheinlich muss man auch noch irgendwelche, sollte man auch noch irgendwie, wenn man da wirklich eine Art Spiel draus machen wollen würde oder einen Platz, wo sich verschiedene Leute irgendwie treffen können, müsste man sicherlich noch einige Beschränkungen oder Constraints, sowieso Leitplanken irgendwie dem Ding mitgeben, dass es halt nicht automatisch Sachen verändern darf und so weiter und so fort. Em: [47:59] Ja, Mein Gedanke war gerade, als du das erzählt hast, die Frage, die sich bei uns immer stellt, ist, wenn wir das halt so krass extrapolieren, wie du so schön sagst, was ist eigentlich das Endgame? Also, wie weit denken wir in die Zukunft? Wie krass ist das Ding schon entwickelt? Was kann man dann damit machen? Weil es ja von der Krassheit quasi abhängt, was möglich ist. Wenn wir jetzt sagen, du hast nur ein Foto und aus dem Foto wird halt, wie in den Beispielen, dann ein bisschen weitergerechnet und du kannst halt so ein bisschen um die Ecke gehen und den einen Gang da runterlaufen und so. Gut, das wäre eine Sache. Aber du könntest natürlich auch sagen, hier, ich hab das Spiel Stray, was du cool findest, wo ich die Bilder jetzt zum ersten Mal gesehen habe und ich denke, das würde ich auch gerne spielen wollen. Das klingt super interessant, alles aus der Perspektive der Katze zu sehen und dann sich in dieser Cyberpunk-Base zu bewegen. Stell dir jetzt einfach vor, du nimmst, du bist jetzt die Entwicklergruppe, Em: [48:49] willst Stray 2 rausbringen. Was du hast, ist ein kompletter Stray 1. Fütterst die KI damit, mit der Umgebung, mit der Handlung und so weiter und sagst jetzt einfach, okay, dann setzen wir das ganze Setting jetzt mal in die Sahara und dann gucken wir, ob das Spiel immer noch funktioniert. Und dann machst du das in dem Brainstorm ein paar Mal und dann kommst du zu dem Ergebnis, oh, das würde sich in Ho Chi Minh statt, würde das Spiel nochmal Sinn machen, um den zweiten Teil zu machen und die Story könnte sein, dass das und das passiert ist. Und plötzlich hast du eine komplette Fortsetzung, die du mithilfe der KI in bare Mütze umgewandelt hast mit der, mit einem Drittel der Entwicklungszeit. Luke: [49:26] Wow, ja. Jetzt geht die Musik los. Wahrscheinlich. Das ist, glaube ich, wirklich super spannend für so Entwickler, für so Spieleentwickler, weil die, glaube ich, du hast es gerade super ausgeführt, es nimmt dir so viel Arbeit ab. Ich glaube nicht, dass die Spieleentwickler die Arbeit abgeben wollen würden, das, sage ich mal, die Story zu schreiben, wollen zu schreiben. Also sicherlich, könnte ich mir vorstellen, heutzutage passiert auch sowas schon. Mit Hilfe von KI, aber natürlich musstest du immer ein bisschen Feintuning an solchen Sachen noch machen, aber wenn du genau diese ganzen Assets, die du schon gesagt hast, wenn du die alle da reinwirfst und sagst, okay, das ist meine Story, das und das und das und das sind so die Eckpfeiler und so. Em: [50:13] Story gleich aus meiner Perspektive prompten, also das, was du jetzt bei ChatGPT machst, ist dann quasi die Story ist quasi die intensive Variante dieses Prompts, weil du ja dann quasi alles vorgibst, was generiert werden soll. Kannst du mir da folgen? Luke: [50:30] Genau, also ja, das war das, was ich gerade angefangen habe auszuführen. Also du setzt halt so bestimmte Meilensteine in der Geschichte, sagst halt, das ist meine Geschichte, die läuft so und hier sind meine ganzen Assets, die ich beim letzten Spiel verwendet habe. Nutze sie im Zweifel gerne wieder oder Em: [50:47] Interpretiere sie neu, aber baue sie so rum, um meine Meilensteine in meiner Story, dass sie halt passen. Luke: [50:54] Dann ersparst du dir das, was ich vorhin schon meinte, dieses ganz gesamte Modellieren von der Welt. Also ersparst du dir natürlich nicht, weil du willst bestimmt immer noch Feintuning machen. Weil du willst halt, wenn du jetzt sagst, wenn du jetzt das Setting wechselst zu irgendwas in der Sahara oder Ho Chi Minh Stadt oder was auch immer, dann funktionieren natürlich viele Sachen von den Grafik-Assets, die du im ersten Teil hattest, nicht unbedingt. Das muss das System dann halt umbauen. Und vielleicht wirst du halt auch so ein bisschen so einen bestimmten Stil reinbringen, einen neuen Stil oder weiß ich nicht was, keine Ahnung. Aber ich glaube, das, was ich meinte, jetzt fängt die Musik an. Das ist wahrscheinlich echt sehr interessant, weil dieses ganz, wobei, das weiß ich auch nicht, aber ich kann mir vorstellen, dieses ganz gesamte Erzeugen von dieser Visualität des Levels oder der Welt ist halt schon ein großer, großer Teil der Arbeit, glaube ich. Also sicherlich ist es auch ein sehr großer Teil der Arbeit, irgendwie auch sich die Spielmechanik zu überlegen, also von wo nach wo springe ich denn oder wie springe ich überhaupt und keine Ahnung und gibt es hier irgendwie einen Sidequest oder nicht oder bla bla bla bla bla bla. Luke: [52:04] Aber das könnte ich mir vorstellen würde, wenn diese Technologie, wie man so schön sagt, demokratisiert wird, dass sie einfach irgendwie leicht zugänglich und irgendwie leicht verfügbar ist, du mit wenigen Euros oder was, keine Ahnung, ist halt dir irgendwie abonnieren, kaufen oder wie auch immer kannst, dann hilft es, glaube ich, bei voll vielen Sachen, könnte ich mir vorstellen, in der Spieleentwicklung. Und da bin ich jetzt tatsächlich eher ein bisschen weiter weg von der Business-Perspektive, Business-Welt, also Business-to-Business oder so, weil das ist halt dann für den Privatgebrauch das Spiel. Meine Freizeit. Da bin ich jetzt weiter weg von dem Immobilien-Visualisierungs-Beispiel. Em: [52:50] Ja, wo wir das ganze Thema mal so eine knappe Stunde angegangen sind und mal diskutiert haben, fällt mir eigentlich auf, dass es nur die logische Konsequenz dessen ist, was sich jetzt in den letzten Jahren sowieso schon entwickelt hat. Oder wo wir uns in der Entwicklung schon die ganze Zeit lang befanden. Wann ging es los, wann hört es auf? Also wir wissen ja nicht, wo wir denn anfangs den Startpunkt setzen. Vielleicht, wo die ersten virtuellen Welten erschaffen wurden noch von Hand und jetzt mit den neuen Möglichkeiten sind wir irgendwo mittendrin. Aber ich sehe eigentlich eine logische Evolution in dem Ganzen. Em: [53:27] Klar, warum solltest du dich nicht in einer virtuellen Welt auch frei bewegen können, die du eben mal erschaffen hast, weil du ein Standbild hattest oder weil du eine Idee hattest. Und ja, also ich finde das super spannend. Ich würde es auch, ich denke, ich gebe der Sache eine sehr hohe Relevanz. In jeglicher Beziehung. Ich würde es sofort nutzen, wenn ich die Möglichkeit hätte, das irgendwo einzubinden. Und es wird sicherlich kommen. In welcher Form auch immer. Du hattest mir vorhin. Luke: [53:56] Die Frage gestellt, was würde ich machen? Ich glaube, jetzt, wo ich so noch ein bisschen weiter darüber nachgedacht habe, ich glaube, ich würde eine Welt, die ich total interessant und spannend finde und auch sehr unangenehm und gruselig, ist die Welt von Mad Max. Diese weirde Welt von es muss irgendeine riesengroße Krieg oder Atombombe oder weiß ich nicht was, also irgendwie so eine dystopische Geschichte passiert sein und dann driftete das eben so ab in diese weirde, naja, so Stammesystematik und so, keine Ahnung, was dann da alles so passiert ist. Und ich finde, da gibt es viel zu wenig visuellen Content davon. Also es gibt diesen einen Film, den Ur-Film in Anführungsstrichen, Fury Road von dieser, also den Remake, und dann jetzt den zweiten und das eine Computerspiel, aber es könnte viel mehr geben darüber, was irgendwie total spannend ist. Also das ist so meine Perspektive und Das würde ich, glaube ich, jetzt dann doch eher angehen, als jetzt diese Steampunk, Cyberpunk-Welt, die ich vorhin irgendwie so meinte. Ich glaube, das wäre das, was ich als erstes ausprobieren würde, um zu gucken, wie ist es so. Em: [55:11] Abgefahren, dass dich das interessiert. Ich habe, dazu fällt mir ein, dass ich Furiosa, heißt der Film, habe ich im Kino geguckt mit meiner Freundin und wir fanden den sehr effektheischend und gut gemacht. Also es war auf jeden Fall Unterhaltung. Aber diese Welt, also kurze Story vielleicht, Mad Max, 80er Jahre, Mel Gibson, damals war er noch unbekannt, ist in Australien entstanden, es war eine Low-Budget-Produktion, die hatten halt nicht viel, die hatten die australische Pampa und ein paar Motorräder und Autos und so und haben da eine Story gebaut, die, ich schätze, nach dem dritten Weltkrieg irgendwie spielt, wo die Ressourcen knapp sind und die Menschen das halt nehmen, was in den 80er Jahren noch so übrig war. Und damit dann irgendwie genau das, was du gesagt hast, irgendwie das Recht des Stärkeren in irgendwelchen Gruppierungen, Stämmen, etc. Da eine effektheischende Story halt drum gebaut haben, die gut funktioniert hat. So, und in die Welt reinzusteigen, hätte ich jetzt nicht gedacht, aber natürlich super spannend. Klar, wäre ich voll dabei. Ich würde mir auch irgendwelche klassischen Altertums-Sagen. Em: [56:18] Nochmal in 3D geben wollen. Oder die Dune-Welt nochmal angucken wollen. Oder was ich von vorhin meinte, die Bulgariat-Saga von David Ellington, Fantasy-Roman-Zyklus, den ich total cool finde, von dem fast nichts existiert. Also es gibt tausend Dinge, die ich damit gerne anschauen würde. Um ehrlich zu sein. Und Mad Max wäre ich auch mit dabei. Wenn wir das zusammen machen könnten, dann würde ich damit einsteigen mal. Luke: [56:41] Ja, also ich, wir können ja mal ein weiteres Format erfinden hier für Letztens.de, wo wir uns solchen Themen mal widmen, so absurden Gedankenexperimenten, wie die Welt weitergegangen wäre, wenn irgendwelche bestimmten Dinge passieren. Em: [57:03] Safe. Luke: [57:05] Passt ja auch so ein bisschen insgesamt zu der Thematik. Genau. Ja, dann lass uns doch mal zum nächsten Schritt gehen und uns einfach die Turbolinks Luke: [57:18] anschauen, links im Turbogang, die wir dieses Mal mitgebracht haben. Oder hast du noch was, was du zu der Thematik mit unseren virtuellen 3D-Ki-generierten 3D-Welten sagen magst? Em: [57:33] Nein, lass uns einsteigen, das finde ich super. Luke: [57:39] Ich habe heute einen Link mitgebracht, der sich da nennt, nie mehr lesen, Fragezeichen. Notebook LM und Jiminy machen es bald möglich. Der eine oder die andere hat vielleicht schon was von Notebook LM gehört. Wir wollen vielleicht einfach trotzdem nochmal darauf hinweisen hier. Das ist ein Tool von Google, mit dem man ich wollte jetzt gerade fast sagen, dass ich seine eigene KI aufbauen kann, aber das stimmt überhaupt nicht, sondern Es ist ein Tool, wo du halt Informationen reinwerfen kannst, Studien reinwerfen kannst, viele Dokumente reinwerfen kannst, viel Inhalt reinwerfen kannst, zu einem Thema sinnvollerweise. Und dann kann dir Notebook.lm dazu jegliche Frage beantworten, die dieses Thema betrifft, zu dem du es gefüttert hast. Also Beispiel wäre, man wirft da irgendwie eine Studie rein und noch zwei, drei Newsartikel, die zu diesem Thema auch was sagen, zu dieser Studie und so. Und dann kann man dem Ding Fragen stellen. Es gibt hier auf dieser Seite von SmartDroid, die ich da mitgebracht habe, Em: [58:40] Gibt es so ein Video. Luke: [58:41] Wo das in recht kurzer Zeit ziemlich gut erklärt wird. Ich finde das Video ein bisschen zu Clickbait-Tick irgendwie. Es ist so ein YouTube-Shorts-Video, aber es erklärt ziemlich gut, was das Notebook-LM kann. Könnt ihr euch auf jeden Fall mal anschauen. ein echt interessantes Feature dabei ist, dass es das Ganze, wenn man möchte, auch als Audio zusammenfasst in Form eines Podcasts. Zwei Hosts über dieses Thema erzählen, Klammer auf, funktioniert derzeit nur in Englisch, Klammer zu, also dass das Audio in Englisch generiert wird. Aber sehr interessante Sache, dieses Notebook. Ich habe es bisher selber noch nicht ausprobiert, weil ich noch kein Thema hatte, zu dem ich mich so einarbeiten wollte, hätten wir vielleicht mal in Vorbereitung dieser Podcast-Folge machen können. Naja, hinterher ist man immer schlauer. Das wäre schlau gewesen. Em: [59:35] Super Turbo-Link, habe ich auch vorhin gelesen, finde ich auch super interessant. Habe mich auch noch nicht selbst damit beschäftigt, weil man sieht den Wal

06 dic 2024 - 1 h 8 min
episode Episode 0.31 | Nebulöses Fabulieren über künstliche Intelligenz(en) in der Zukunft artwork
Episode 0.31 | Nebulöses Fabulieren über künstliche Intelligenz(en) in der Zukunft

* Em * Luke KURZE ZUSAMMENFASSUNG Wir diskutieren über KI mit den Auswirkungen auf Arbeit, Gesellschaft und Ethik. Chance vs. Bedrohung, Regulierung, Koexistenz vs. Dystopie: Alles Thema. Und wir betonen die Verantwortung des Menschen als Schöpfer von KI. KAPITEL (00:00:00) Einführung (00:00:22) Die Bedeutung von KI-Systemen für die Menschheit (00:02:01) Disruptive Technologien und der Jobverlust (00:21:43) Potenzielle Konsequenzen von Jobverlusten (00:23:15) Einfluss auf die Immobilienwirtschaft und Wertesysteme (00:26:27) Risiken von fortschreitender künstlicher Intelligenz (00:27:24) Ethik und Moral in der Entwicklung von KI (00:28:54) Überprüfung und Umsetzung ethischer Richtlinien (00:30:16) Rolle der Politik in der Regulierung von Technologien (00:31:36) Die Herausforderung der KI-Regulierung (00:43:13) Die unvorstellbaren Potenziale von KI (00:47:11) Die Zukunft: KI im Internet (00:49:26) Die Utopie einer harmonischen KI-Menschheit (00:57:46) Die unkontrollierbare Macht der KI (01:01:12) Die Verantwortung gegenüber der KI (01:04:16) Die Hoffnung auf eine positive KI-Menschheit-Koexistenz AUSFÜHRLICHE ZUSAMMENFASSUNG (KI-GENERIERT) In unserer Diskussion betrachten wir die Bedeutung von KI-Systemen für die Menschheit und wie rasch disruptive Technologien implementiert werden könnten. Der Fokus liegt auf der potenziellen Steigerung der Bedeutung von Arbeitsplätzen aufgrund der Automatisierung sowie darauf, wie die Gesellschaft reagieren könnte. Wir tauschen Gedanken über Themen wie das bedingungslose Grundeinkommen und die Identität durch Arbeit aus. Die Frage, wie wir uns angesichts aufkommender Technologien verhalten sollten, um in 200 Jahren stolz auf die Menschheit zu blicken, regt zum Nachdenken an. Des Weiteren teilen wir unsere Eindrücke über ein Interview mit Sam Altman. Im Verlauf der Diskussion entfaltet sich eine Debatte über die potenziellen Risiken und Chancen von künstlicher Intelligenz (KI). Es wird diskutiert, dass die Entwicklung von KI-Systemen sowohl positive Aspekte birgt als auch potenzielle Gefahren mit sich bringt. Besondere Sorgen gelten dem möglichen Verlust der Kontrolle über hochentwickelte KI-Systeme, die in der Lage wären, unvorhersehbare Entscheidungen zu treffen. Die Definition ethischer und moralischer Rahmenbedingungen für KI sowie die Notwendigkeit angemessener Regulierungen stehen im Fokus. Wir betonen, dass die Politik oft zu langsam agiert, um adäquat auf die rasante Entwicklung von KI zu reagieren. Es wird die Möglichkeit einer KI-Katastrophe in Erwägung gezogen, sollte die Kontrolle über diese Systeme verloren gehen und unvorhergesehene Handlungen ausführen. Emrah und Lukas vertiefen die Diskussion über die Herausforderungen und Potenziale von Künstlicher Intelligenz. Sie reflektieren über die Schwierigkeit, die Entwicklung und Regulierung von KI-Systemen zu steuern. Themen wie die rasante Technologie-Entwicklung, wie beispielsweise die Generierung von Bewegtbildern durch KI, werden angesprochen. Emrah hebt die Dualität von KI als Chance und Bedrohung für die Menschheit hervor. Beide reflektieren über potenzielle negative Auswirkungen von KI-Systemen bei einem Verlust der Kontrolle. Die Einschätzung, ob die Menschheit in der Lage ist, die Konsequenzen fortschrittlicher KI-Systeme abzuschätzen und zu managen, wird diskutiert. Es wird die Wichtigkeit betont, die gesellschaftlichen Auswirkungen von KI aufmerksam zu verfolgen und zu regulieren. Abschließend diskutieren Emrah und Lukas lebhaft über die potenziellen Auswirkungen von künstlicher Intelligenz (KI) auf die Menschheit. Sie reflektieren über verschiedene Szenarien, von friedlicher Koexistenz bis hin zu dystopischen Entwicklungen. Trotz der Unsicherheiten sind sie von der Zukunft fasziniert und unterstreichen die Verantwortung, die wir als Schöpfer von KI tragen. Die Diskussion endet mit dem Versprechen, kontinuierlich an diesem Thema zu arbeiten und es für die Zuhörer weiter zu erforschen. The post Episode 0.31 | Nebulöses Fabulieren über künstliche Intelligenz(en) in der Zukunft [https://www.letztens.de/podcast-episode/episode-0-31-nebuloeses-fabulieren-ueber-kuenstliche-intelligenzen-in-der-zukunft/] appeared first on letztens.de Podcast | letztens mitbekommen [https://www.letztens.de].

25 mar 2024 - 1 h 4 min
episode Episode 0.3 | Apple Vision Pro: unsere Gedanken zu ersten Eindrücken des Wearables artwork
Episode 0.3 | Apple Vision Pro: unsere Gedanken zu ersten Eindrücken des Wearables

* Em * Luke KURZE ZUSAMMENFASSUNG Im Juni 2023 hat Apple das erste Headset-Wearable der Firmengeschichte vorgestellt. Nun ist das Produkt für Konsument:innen in den USA erhältlich. Bisher gibt es viele bedenkliche Videos von Leuten, die das Wearable-Headset in unpassenden Situationen einsetzen (z.B. hinter dem Steuer eines Cybertrucks von Tesla [https://twitter.com/SecretaryPete/status/1754559027688685941]). Aber natürlich gibt es auch ernsthafte Videos über die Einsatzszenarien und wie sich das so „anfühlt“. Ohne selbst dieses Headset bisher benutzt zu haben, wagen wir trotzdem eine kurze Review und äußern unsere Gedanken zu aktuellen Einsatzszenarien und wie das die Arbeit und auch das Privatleben in Zukunft verändern wird. MELDUNG ÜBER DIE WIR SPRECHEN: Marques Brownlee: „Using Apple Vision Pro: What It’s Actually Like!“ (youtube.com) [https://www.youtube.com/watch?v=dtp6b76pMak] WEITERE SHOWNOTES * Hinweise / Infos zu Google Glass: bei www.wikipedia.org lesen [https://de.wikipedia.org/wiki/Google_Glass] * Menschen nutzen die Apple Vision Pro im Alltag – und liefern dystopische Bilder: bei www.t3n.de lesen [https://t3n.de/news/menschen-nutzen-die-apple-vision-pro-im-alltag-und-liefern-dystopische-bilder-1605865/] * Wie sehen die Setups von Drone Operators aus: * www.nbcnews.com [https://www.nbcnews.com/technolog/virtual-cockpit-what-it-takes-fly-drone-1c9319684] * www.reddit.com [https://www.reddit.com/r/flightsim/comments/4jk3ks/its_amazing_how_close_the_modern_military_drone/] LINKS IM TURBOGANG * Neuralink Begins First Human Experiments! bei www.youtube.com anschauen [https://youtu.be/CxBbw8eT624?si=Qx-7NgXoGtUtLsrl] * „Kann nur zwei Dinge“: Roboter räumt ohne Training auf: bei www.heise.de lesen [https://www.heise.de/news/Kein-Stress-zu-Hause-Dieser-Roboter-raeumt-auf-9618856.html] * Zuschlag für 1.000 neue Schnellladepunkte an Autobahnen: bei www.golem.de lesen [https://www.golem.de/news/elektroautos-zuschlag-fuer-1-000-neue-schnellladepunkte-an-autobahnen-2402-182038.html] * Autobesitz in Berlin: Was die Verteilung von Pkw in der Stadt über soziale Unterschiede sagt: bei interaktiv.tagesspiegel.de anschauen [https://interaktiv.tagesspiegel.de/lab/analyse-zu-autobesitz-in-berlin/] The post Episode 0.3 | Apple Vision Pro: unsere Gedanken zu ersten Eindrücken des Wearables [https://www.letztens.de/podcast-episode/apple-vision-pro-unsere-gedanken-zu-ersten-eindruecken-des-wearables/] appeared first on letztens.de Podcast | letztens mitbekommen [https://www.letztens.de].

10 feb 2024 - 59 min
episode Episode 0.2 | Tesla's Robot is a Sleeping Giant. Watch Out. artwork
Episode 0.2 | Tesla's Robot is a Sleeping Giant. Watch Out.

* Em * Luke KURZE ZUSAMMENFASSUNG Wir unterhalten uns auf Basis eines Tweets über zukünftige Stückzahlen und Einsatzbereiche von humanoiden Robotern. Welche Aufgaben werden und können sie übernehmen? Was bedeutet das für eine (Volks)-Wirtschaft und die zivile/soziale Gesellschaft? * Video-Beitrag von Farzad: https://www.youtube.com/watch?v=6fhKhT8rcdk [https://www.youtube.com/watch?v=6fhKhT8rcdk] * Tweet von David Holz mit Musks Antwort: https://twitter.com/DavidSHolz/status/1747370905331015797 [https://twitter.com/DavidSHolz/status/1747370905331015797] * David Holz bei LinkedIn: https://www.linkedin.com/in/dsholtz/ [https://www.linkedin.com/in/dsholtz/] * Entwicklung der Weltbevölkerung bei statista: https://de.statista.com/statistik/daten/studie/1716/umfrage/entwicklung-der-weltbevoelkerung/ [https://de.statista.com/statistik/daten/studie/1716/umfrage/entwicklung-der-weltbevoelkerung/] * Boston Dynamics Hund: Spot https://bostondynamics.com/products/spot/ [https://bostondynamics.com/products/spot/] * Atlas 2017 im Schnee: https://www.youtube.com/watch?v=rVlhMGQgDkY [https://www.youtube.com/watch?v=rVlhMGQgDkY] * Rollender Roboter von Boston Dynamics: https://video.golem.de/wissenschaft/18452/rollender-roboter-handle-boston-dynamics.html [https://video.golem.de/wissenschaft/18452/rollender-roboter-handle-boston-dynamics.html] * Atlas 2023: https://www.youtube.com/watch?v=-e1_QhJ1EhQ [https://www.youtube.com/watch?v=-e1_QhJ1EhQ] * Steven Spielberg AI Film Trailer: https://www.youtube.com/watch?v=_19pRsZRiz4 [https://www.youtube.com/watch?v=_19pRsZRiz4] * Tesla Bot faltet ein T-Shirt: https://www.youtube.com/watch?v=gyURDZB7imo [https://www.youtube.com/watch?v=gyURDZB7imo] * Links im Turbogang * https://www.heise.de/news/Alle-wollen-den-AI-Act-doch-Deutschland-droht-ihn-zu-blockieren-9612516.html [https://www.heise.de/news/Alle-wollen-den-AI-Act-doch-Deutschland-droht-ihn-zu-blockieren-9612516.html] * https://stadt-bremerhaven.de/bahn-administrator-fuer-windows-3-11-gesucht/ [https://stadt-bremerhaven.de/bahn-administrator-fuer-windows-3-11-gesucht/] * https://www.golem.de/news/50-000-bitcoins-movie2k-to-beschuldigter-ueberweist-2-milliarden-euro-an-bka-2401-181693.html [https://www.golem.de/news/50-000-bitcoins-movie2k-to-beschuldigter-ueberweist-2-milliarden-euro-an-bka-2401-181693.html] * https://media.ccc.de/v/37c3-11826-oh_no_kuno_-_gesperrte_girocards_entsperren [https://media.ccc.de/v/37c3-11826-oh_no_kuno_-_gesperrte_girocards_entsperren] The post Episode 0.2 | Tesla’s Robot is a Sleeping Giant. Watch Out. [https://www.letztens.de/podcast-episode/teslas-robot-is-a-sleeping-giant-watch-out/] appeared first on letztens.de Podcast | letztens mitbekommen [https://www.letztens.de].

02 feb 2024 - 1 h 7 min
episode Episode 0.1 | Formwandlung oder Magnetoaktives Material: Forschung baut Terminator nach artwork
Episode 0.1 | Formwandlung oder Magnetoaktives Material: Forschung baut Terminator nach

* Em * Luke KURZE ZUSAMMENFASSUNG Wir unterhalten uns über ein Forschungsprojekt, das an einem verformbaren Werkstoff arbeitet der sich wieder in seine Ursprungsform zurückwandeln kann. Da kommen natürlich direkt Terminator-Vibes auf. Link zum News-Artikel: https://t3n.de/news/roboter-wechselt-aggregatszustand-medizintechnik-terminator-1530360/ [https://t3n.de/news/roboter-wechselt-aggregatszustand-medizintechnik-terminator-1530360/] WEITERE SHOWNOTES * https://www.googlewatchblog.de/2023/11/zehn-jahre-project-ara/ [https://www.googlewatchblog.de/2023/11/zehn-jahre-project-ara/] * Links im Turbogang: * [von Lukas] Where have all the Webseites gone: https://www.fromjason.xyz/p/notebook/where-have-all-the-websites-gone/ [https://www.fromjason.xyz/p/notebook/where-have-all-the-websites-gone/] * [von Emrah] WTF happen in 1971? https://wtfhappenedin1971.com/ [https://wtfhappenedin1971.com/] * [von Emrah] Die Eroberung des Mondes – Geschichte | ARTE: https://www.arte.tv/de/videos/RC-023220/die-eroberung-des-mondes/ [https://www.arte.tv/de/videos/RC-023220/die-eroberung-des-mondes/] * [von Lukas] JPEG XL – Die Browserhersteller sagen nein zum Bildformat: https://www.golem.de/news/jpeg-xl-die-browserhersteller-sagen-nein-zum-bildformat-2302-171653.html [https://www.golem.de/news/jpeg-xl-die-browserhersteller-sagen-nein-zum-bildformat-2302-171653.html] The post Episode 0.1 | Formwandlung oder Magnetoaktives Material: Forschung baut Terminator nach [https://www.letztens.de/podcast-episode/formwandlung-oder-magnetoaktives-material-forschung-baut-terminator-nach/] appeared first on letztens.de Podcast | letztens mitbekommen [https://www.letztens.de].

25 ene 2024 - 1 h 1 min
Muy buenos Podcasts , entretenido y con historias educativas y divertidas depende de lo que cada uno busque. Yo lo suelo usar en el trabajo ya que estoy muchas horas y necesito cancelar el ruido de al rededor , Auriculares y a disfrutar ..!!
Fantástica aplicación. Yo solo uso los podcast. Por un precio módico los tienes variados y cada vez más.
Me encanta la app, concentra los mejores podcast y bueno ya era ora de pagarles a todos estos creadores de contenido

Disponible en todas partes

¡Escucha Podimo en tu celular, tableta, computadora o coche!

Un universo de entretenimiento en audio

Miles de pódcasts y audiolibros exclusivos

Sin anuncios

No pierdas tiempo escuchando anuncios cuando escuches los contenidos de Podimo.

Empieza 7 días de prueba

Después de la prueba $99.00 / mes.Cancela cuando quieras.

Podcasts exclusivos

Sin anuncios

Podcasts que no pertenecen a Podimo

Audiolibros

20 horas / mes

Prueba gratis

Otros pódcasts exclusivos

Audiolibros populares