top of page

Transkript für Folge 23 von "Pippo & Paul talken Innovation"

  • Spotify
  • Apple Music
  • Youtube

Paul Wesendonk: [00:00:04] Robert, Robert.

Philipp Hoffmann: [00:00:09] Und damit herzlich willkommen zu Folge der einundzwanzig von PIPPOL und POWL Talk Innovation. Und heute geht's ein bisschen KI. Wir haben grade in der Formsprechung über ganz viele KI Themen gelabert und dann gesagt, okay, scheiß drauf, wir machen jetzt einfach eine kurze KI Folge mit dem, was uns gerade umtreibt und heute lohnt es sich auf jeden Fall auch mal auf Youtube reinzugucken, weil ich gleich auch mal Screensharing anmache und Paul was zeigen will und da reden wir son bisschen drüber. Ansonsten Paul, wie geht's dir denn heute?

Paul Wesendonk: [00:00:38] Ach, mir geht's eigentlich ganz ganz gut. Das Wetter ist grau, das Ruhrgebiet ist grau. So. Privat gibt's 'n paar ganz schöne Dinge, von denen ich bestimmt irgendwann auch mal erzählen werde. Ja. Das cool.

Philipp Hoffmann: [00:00:53] Okay, top. Ja, geil. Ja, wir haben grad in der Vorbesprechung son bisschen gequatscht, weil ich ja für gerade son KI KI Influencer bau und heute Nacht von Midjourney das neue Character Consistency Character Consistency Feature gedroppt wurde. Das heißt, Du kannst mit einer Referenz auf ein Originalbild da draus sozusagen mit dem gleichen Charakter dann weitere Bilder erstellen. Und das ist ziemlich mindblowing, weil ich mich jetzt in den letzten Wochen auch schon voll viel mit beschäftigt hab, auf Upwork da verschiedene Freelancer angefragt hab, das mal durchzuspielen Und die Tools, die man bisher benutzt hat, das hinzukriegen, die waren einfach von den Workflows her sehr viel komplexer und jetzt Spam Drop Mid Journey das Feature und auf einmal geht das halt direkt in Mid Journey ohne großen Aufwand und da wollen wir mal reingucken, wo es da so die ersten Beispiele sind. Gucken auch gleich mal auf Discord und so, was da so abgeht. Aber es ist auf jeden Fall mindblogen, also so viel kann ich schon verraten.

Paul Wesendonk: [00:01:56] Dann will ich kurz eine eine Gegenteil Story dazwischen schieben, weil Du dich jetzt schon tiefer und länger mit KI tatsächlich beschäftigst und ich das immer nur so on the Surface mache. Ich hab ich nutze

Philipp Hoffmann: [00:02:10] Hey, Paul, warte mal ganz kurz. Hörst Du den Kleingrund, meine, dass jemand noch noch telefoniert?

Paul Wesendonk: [00:02:16] Jetzt, wenn Du's sagst, habe ich da 'n kleines Flüstern gehört, aber ich glaube, unsere Gäste

Philipp Hoffmann: [00:02:21] Dann erwarten's mir, dass sie dass sie nicht lauter rückt.

Paul Wesendonk: [00:02:25] Dann sprechen die ja Spanisch, dann können Sie uns sagen, was da passiert. Genau. Genau, ich hab gestern Abend mit GPT-4 versucht für, weil ich bau ich bau für für Xaper immer wieder Angebote und mag es eigentlich, die visuell zu Dingen. Und eigentlich hat die's ganz gut raus, dass die in 'nem ähnlichen sind und die im im Styling und so ähnlich sind. Was aber so gar nicht klappt, ist Diagramme. Ich wollte eine Double Diamond haben, der son bisschen futuristisch nice in dem Farbenspiel aussieht. Und GPT-4 hat mir immer gesagt, so, hier sind zwei Quadrate schräg nebeneinander und das waren sechs und sie waren ganz anders als die viel dachte. Ja. Das heißt, vielleicht kann man das damit auch mal probieren.

Philipp Hoffmann: [00:03:10] Da merkt man dann, dass es so die Prävention sind, gell? Ich hab das auch gemerkt am Wochenende, ich hab relativ viel gecoodet am Wochenende und da merkt man dann halt, wenn's dann drum geht, so API Calls zu machen, da merkt man dann, okay, da fängt jetzt halt das Tool an zu halluzinieren. Also sowohl Flow drei UFOS als auch als auch g-tv-vier fangen da an zu halluzinieren, weil die halt nicht raffen, was eine API Dokumentation ist oder quasi nicht auf die aktuellste API Dokumentation zugreifen können. Und dann fangen wir an halt irgend 'n Quatsch zu erzählen und da muss man dann sagen, okay, kommt halt so nix, ne. Also das funktioniert so lange gut, wie Du generischen Content Code schreibst, aber sobald es dann quasi bisschen tiefer geht, ist da halt Ende. Und da war dann zum Beispiel Klo drei Opus war dann so, ja nö, sorry, kann ich dir nicht helfen? Und bei GPT vier kann ich halt sagen, hier ist der Link zu der aktuellen Pipedrive API Dokumentation, arbeite jetzt genau damit. Und das funktioniert dann aber, wenn das Tool halt kein oder wenn das Modell kein kein Webbrowser kann, dann funktioniert's halt nicht.

Paul Wesendonk: [00:04:18] Ja, das ist was, was wir bei Xaper auch son bisschen machen und bisschen umgehen. Eigentlich ist unsere Aussage ja, dieses ganze Halluzinieren ist irgendwie ganz nett, aber wenn Du was rausfinden willst, was vorher noch nie nirgendwo stand, Dann war also Kundeninterviews oder so gut. Das ist vielleicht unser unser Hauptbeispiel. Du kannst zwar sagen, hey, stell dir vor, Du wärst Persona x y, aber das kannst Du halt auch mich oder dich fragen. Und klar, ist es 'n bisschen besser, aber jetzt noch nicht so viel. Was wir jetzt aber gemacht haben trotzdem, weil es einfach so viel Spaß macht, ist quasi basierend auf ganz viel Tablet Transkripten ein Persona Bot zu erstellen, der dann son bisschen dazu erfindet, aber eben basierend auf den Daten, die man ihm gibt. Mhm. Und das Da bin ich sehr gespannt, wie das wie das so ankommt im im Feld.

Philipp Hoffmann: [00:05:09] Ja, cool. Und wie läuft generell bei Xaper? Du hast vorhin schon 'n bisschen erzählt.

Paul Wesendonk: [00:05:15] Also gut bis sehr gut. Wir haben, wir nähern uns immer mehr, glaub ich, den Fit.

Philipp Hoffmann: [00:05:24] Mhm.

Paul Wesendonk: [00:05:25] Unser ursprüngliches Kernprodukt ist immer noch 'n wichtiges Produkt, dieses Chats und Transkripte und Interviews führen und so, weil es einfach viel schneller geht und einfach die Erkenntnisse sehr gut sind. Wir merken aber, dass die Transkriptanalyse, also irgendjemand hat in, oder irgendetwas hat Interviews geführt und runtergeschrieben, dann wird's halt nervig. Und das Produkt, was wir da gebaut haben, wie das Analytics Dashboard ist das, was grade, ich will nicht sagen, durch die Decke geht, aber zumindest mal durchs Zimmer fliegt.

Philipp Hoffmann: [00:06:01] Mhm.

Paul Wesendonk: [00:06:02] Weil das wirklich relativ schnell bessere Erkenntnisse liefert, als dass jemand irgendwie coole Handarbeit tut.

Philipp Hoffmann: [00:06:12] Wir haben ja noch unsere, also jetzt vom letzten Jahr haben wir wieder so fünfzig Expertengespräche oder sowas zum Thema Corporate Innovation, die wir halt geführt haben und da deutet es mir auch noch die auszuwerten und dann wieder ein White Paper neue Version zu schreiben und so weiter. Also vielleicht wär das mal ganz geil. Ist halt alles in oneote drin, aber wahrscheinlich könnte man das irgendwie rüber Copy pasten und dann generiert ihr da die Erkenntnisse oder so. Das wär mal 'n ganz geiler Case.

Paul Wesendonk: [00:06:38] Ja, wenn wir die Transkripte haben, kannst Du ja deinen deinen dein, wie heißt 'n das? Der Promo Code Hippo zehn, manche guten Deal.

Philipp Hoffmann: [00:07:00] Okay, das heißt, Ihr Abbauten Analytics Dashboard. Ich hab letztens hatte ich so den Gedanken, ach so ja genau, jetzt weiß ich wieder. Ich hatte so eine Idee, weil mir, weil ich 'n Call hatte mit mit 'nem Lead für KI Themen so und da war klar, okay, das ist irgendwie eher 'n Data Science Projekt und dann habe ich gedacht, all das wär schon megageil, weil ich von Data Science eigentlich gar keine Ahnung hab. Wär schon megageil, wenn ich jetzt einfach quasi die Callnotizen mach, während ich mit dem telefoniere und dann in dem Moment mir quasi 'n Tool sagt, hier stell doch noch die und die schlaue Frage zu dem Input, den Du gerade gekriegt hast oder stell doch noch sag doch noch das und das intelligente dazu. Und da hab ich son bisschen angefangen, das in auch wieder zu coden mit mit GPT und so weiter. Bin dann aber auch wieder an den an den API Calls gescheitert. Genau, aber long story short, ich hab das dann dem Kunden erzählt, TDK, mit denen ich gerade immer mal wieder arbeite und die meinten so, oh, wir machen auch so Interviews in sonem Bereich, wo wir uns selber eigentlich gar nicht so gut auskennen und da wär das Tool megageil, quasi in Realtime unsere Interviewfragen zu zu verbessern, also explorative Interviews besser zu führen. Und da musste ich auch so dran musste ich auch an selber denken, weil das ja 'n bisschen auch euer Ding ist so, Interviews machen und so weiter. Aber der Spin war natürlich noch mal ein bisschen anderer, also dass jemand schon sagt, okay, ich will selber Interviews machen, aber ich will halt bessere Interviews machen, Fand ich auch irgendwie ganz geil, die Idee.

Paul Wesendonk: [00:08:34] Ja, Die

Philipp Hoffmann: [00:08:35] Waren dann auch gleich so, ja.

Paul Wesendonk: [00:08:36] Natürlich aufpassen, ne, wenn Du dann omnikompetent im ersten Call bist und dann aber nix auf die Reihe kriegst weil Du

Philipp Hoffmann: [00:08:42] Ja gut das ist ja immer so oder? Im besten Fall hast Du halt over promise und Over Delivernd so und alles dafür tun, dass Du dann auch Over Delivernd kannst und in der Regel hat das bei uns bisher gut geklappt, aber das heißt natürlich immer, dass Du halt auch eine Lernklofer hast so.

Paul Wesendonk: [00:09:01] Learning by Learning by Learning by

Philipp Hoffmann: [00:09:05] Ja, genau. Ich hab ich hab mal eine geile Studie gelesen zum Thema Overpromissen und Overdelivern Und zwar das da ging's immer die Bewertung von Arbeitsergebnissen, ne. Und zwar, wenn jemand ein Arbeitsergebnis produziert, nachdem er vorher Underpromised hat, dann wird dieses Arbeitsergebnis quasi auch als schlechter wahrgenommen, als wenn er Overpropommised hat. Wenn er Overpropommised hat, so wird das Arbeitsergebnis als besser wahrgenommen und zwar unabhängig davon, wie gut das Arbeitsergebnis tatsächlich ist. So, das heißt, das Learning fürn Sales ist eigentlich, das Beste ist over promiscen und dann natürlich auch, weil dann hast Du natürlich so das Beste. Aber wenn Du und dann nur sie Medium deliverst, dann ist es trotzdem ist es trotzdem gut.

Paul Wesendonk: [00:09:57] Ja, weil Du dann Also da da treffen eigentlich zwei Biases aufeinander, ne. Da trifft zum einen der der Biases, wenn Du einmal 'n Weg eingeschlagen hast, dann willst Du dir nur noch, also Du willst eigentlich dein Denkmuster über etwas nicht wieder ändern. Mhm. Das heißt, wenn Du eine hohe Erwartung hast, dann willst Du, dass die erfüllt werden.

Philipp Hoffmann: [00:10:16] Mhm.

Paul Wesendonk: [00:10:17] Andererseits ist Zufriedenheit normalerweise die Differenz aus Erwartung und Ergebnis.

Philipp Hoffmann: [00:10:23] Ja. Aber

Paul Wesendonk: [00:10:25] Dann schlägt das Erste das Zweite. Ja. Ich das ist ja, das find ich spannend. Was ich auch witzig finde, ist, wenn Du viel versprichst, dann wird auch viel gefordert. Wir haben so ein ein Projekt irgendwie vor vor 'ner Weile mal gehabt, wo wir relativ viel versprochen haben und dann auch viel geliefert haben. Und dann war so, weiß ich nicht, zehn Minuten vor Ende so, hey, könnt ihr noch mal irgendwie, seid doch so schnell. Dann hast Du die Erwartungen so hoch gesetzt. Kannst Du

Philipp Hoffmann: [00:10:51] Aber eben

Paul Wesendonk: [00:10:51] Hier da und da und da machen.

Philipp Hoffmann: [00:10:53] Ja, okay.

Paul Wesendonk: [00:10:54] Das ist auch 'n bisschen gefährlich.

Philipp Hoffmann: [00:10:56] Ja, okay.

Paul Wesendonk: [00:10:59] Aber wir sind noch nicht beim ersten Thema angekommen, ne. Ich will eigentlich was sehen.

Philipp Hoffmann: [00:11:02] Ach so, ja. Okay, warte mal, ich mach mal Screensharing an. Also vielleicht halt Du

Paul Wesendonk: [00:11:09] Musst dir so so Kapitel Kapitel einsetzen, damit man da hinspringen kann. Willst Du die nächsten siebzehn Minuten überspringen und damit sehen, was das Team gebastelt hat?

Philipp Hoffmann: [00:11:20] Wir haben ja auch ganz am Anfang an so Kapitelmarkern gemacht, auch auf Spotify und so weiter und dann habe ich das irgendwann gelassen, weil ich dachte okay, Deeper Hörer, die werden keine Kapitelmarker nutzen, also fuck it. Nur was

Paul Wesendonk: [00:11:32] Haben wir hören.

Philipp Hoffmann: [00:11:35] Genau, also so jetzt noch mal Ausgangspunkt, ja. Mid Journey hat heute Nacht das Thema das Feature Character Consistency gedroppt, so und bisher war das halt relativ aufwendig, dass das hinzukriegen, weil Du halt 'n Haufen verschiedener Tools verwenden musstest und jetzt kannst Du das halt ganz easy in in Midjourney machen. Das funktioniert so, dass Du halt Mid Journey hier diese Anweisung mitgibst, den Parameter minus minus c ref. Da machst Du dann 'n Link zu dem Bild rein, also zum Beispiel dieses Bild hier von soner indischen, weiß ich nicht, Frau und dann sagst Du CW einhundert und das determiniert quasi, wie stark sich mit Germany in dem Ausgangsbild orientiert, so. Und wenn Du eine exakte Kopie haben willst, möglicherweise so sogar inklusive der Klamotten und des Kopfschlubs hier in dem Fall und so weiter, dann machst Du halt CW einhundert und kannst das dann aber auch variieren. So, ich hab jetzt bis jetzt

Paul Wesendonk: [00:12:30] Wobei das oben links, wo ist 'n da vorne?

Philipp Hoffmann: [00:12:33] Ja, das ist son bisschen creepy, gell? Das ist son bisschen der Exorzist mäßig.

Paul Wesendonk: [00:12:38] Das finde ich auch gut, aber ja.

Philipp Hoffmann: [00:12:41] Aber ja genau, also das ist das so. Und ich hab ja jetzt hier unseren unsere KI KI Influencerin Emilia gebaut. Emilia Modosini. Wie ich jetzt hier auf LinkedIn gerade am Laufen hab, son bisschen zu gucken, kann man mit der KI Content generieren? Wie kommt der an? Und so weiter und so fort. Und im Großen und Ganzen kommt es auch an. Ich hatte letztens

Paul Wesendonk: [00:13:07] Einen einen

Philipp Hoffmann: [00:13:08] Typen, der geschrieben hat.

Paul Wesendonk: [00:13:10] Das wird natürlich ausgeblendet im Video.

Philipp Hoffmann: [00:13:13] Hä, warum? Was denn?

Paul Wesendonk: [00:13:18] Das hochsensible Personenbezug Daten.

Philipp Hoffmann: [00:13:21] Ach so, okay, ja, das stimmt natürlich. Na ja, ist auch egal. Also auf jeden Fall letztens hatte ich einen, der hat gesagt, so hey dein Bild sieht irgendwie KI generiert aus, aber halt einer von dreihundert ne. Okay. Dann Bild sieht irgendwie KI generiert aus. Vielleicht solltest Du das im Profil noch mal klarer daten dass Du eine KI Person bist na ja auf jeden Fall long story short

Paul Wesendonk: [00:13:42] Ja, aber Follower muss man erst mal, also da hab ich neue Nerven gebracht oder so.

Philipp Hoffmann: [00:13:46] Drei Wochen, ne.

Paul Wesendonk: [00:13:47] Nämlich viel Arbeit.

Philipp Hoffmann: [00:13:49] Ja. Genau, aber auf jeden Fall ist das hier die Emilia im Moment und wo hab ich dieses Bild von Emilia her? Das hab ich damals auf auf Midjourney hat jemand halt Charakter generiert und ich dachte, oh, die ist irgendwie sweet, die nehm ich als Emilia. So, das passt irgendwie gut zu dem, was ich mir vorstelle. Hab dann in Midjourney einen Screenshot gemacht und verwende seitdem diesen niedrig aufgelösten Screenshot als Bild von Emilia. So und das Ziel war jetzt immer und deshalb habe ich dann auch mit Upwork rumgespielt, vielleicht kann ich dir das auch noch kurz zeigen, Das Ziel war dann immer, Emilia quasi nachzubauen und da haben wir dann son bisschen rumgespielt. Da kamen auch irgendwie Ergebnisse bei raus, aber eben also so was hier, ne. Aber das ist dann eben, also man sieht Clearly, dass das nicht die gleiche Emilia ist, die wir jetzt schon auf LinkedIn haben, sondern dass das jemand komplett anderes ist. Na ja und so auf dem Level hätten wir jetzt Fotos generieren können, aber die haben natürlich eben auch noch so diese Bildfehler, die man dann halt ab und zu kennt, ne, hier so komische Spinnennetze, hier hinten irgendwie Fokusfehler in der Pflanze und so weiter. Und so 'n Bild zu erstellen, würde quasi pro Bild da funktioniert das alles 'n bisschen einfacher.

Philipp Hoffmann: [00:15:17] Und was ich jetzt als Erstes mal gemacht hab, ist, dass ich gesagt hab, okay, ich will halt dieses niedrig aufgelöste Bild von Emilia, was ich schon hab, das will ich jetzt erst mal hoch aufgelöst haben in geiler Qualität, damit ich das dann wiederum sozusagen als Referenz verwenden kann für alle weiteren Bilder. Und das hab ich jetzt heute Morgen einfach mal angefangen und da würd ich jetzt dir eigentlich nur mal die Ergebnisse zeigen, die ich bis jetzt erzeugt hab, son bisschen von dir mal 'n Feedback zu kriegen, wen würdest Du denn jetzt als als Referenz sozusagen verwenden? Oder wen würdest Du jetzt weiterverwenden, welches Bild? So, die hab ich jetzt hier, glaub ich, schon mal geöffnet. Und das die? Das die? Na doch, das sind die. Genau, also dann können wir die mal hier jetzt in Größe angucken. Ich mach noch mal das Vergleichsbild auf. So, also rechts hier ne das mich richtig aufgelöste Vergleichsbild und dann hab ich halt gesagt, okay, generiere mir jetzt mal hoch aufgelöste Bilder von Emilia. Der genaue prompt war, She as Italian and 1 of the grand parents is von Northhan Africa, with out make up, fulloper body, Daylight, smiley with visible teath, fifi millimeter s lens, Focus eins Punkt zwei, Bildverhältnis neun zu sechzehn und dann eben die Referenz auf das LinkedIn Bild und CW einhundert, also so das Ding soll gucken, dass es möglichst nah dran ist.

Philipp Hoffmann: [00:16:52] Das Geile ist jetzt halt, ne, das generiert quasi jetzt dieses Ausgangsbild nach. Das heißt, die hat auch sone gelbe Seidenblusel irgendwie an und so weiter. Und jetzt wollt ich eigentlich mit dir mal besprechen, so was würdest Du sagen, welches Bild ist am nächsten dran? Welches Bild lasse ich quasi abscellen und und arbeitet damit dann weiter. So, das ist hier Nummer eins. Das ist sehr gut, würd ich sagen so, aber halt auch Also zum Beispiel die die Kinnpartie ist halt irgendwie anders. Dadurch sieht man, es schon irgendwie 'n anderer Charakter ist so, ne. Ich glaube, wenn ich das jetzt als als Bild auf LinkedIn posten würde, das würde kein Mensch, also wenn ich das Profilbild auf LinkedIn austauschen würde, das würde kein Mensch auffallen, weil's halt dann, weil weil Emilia sozusagen als Person einfach nicht bekannt genug ist jetzt in dieser Followerschaft, würde das glaube ich nicht auffallen, aber ja, das ist das zweite Bild, Das würde ich sagen, ist schon näher dran so auch so von also vom Kinn, von der Gesichtsform und so weiter. Genau, dann haben wir noch das hier.

Paul Wesendonk: [00:17:57] Mhm. Das ist wahrscheinlich schon zu symmetrisch perfekt, oder?

Philipp Hoffmann: [00:18:03] Ja, das ist die Frage. Ich hab versucht son bisschen über die diese Frackels und so weiter da son bisschen, ne, was reinzukriegen, was son bisschen unperfekt ist und so. Und ich hab ja gesagt, no Make-up, aber da hält sich halt mit Journey auch nicht dran, weil zum Beispiel die Augenlider hier, die sind schon clearly Make-up. Genau und dann gibt's noch das, aber hier sind die die Frackels irgendwie ganz seltsam aufm Gesicht. Aber sonst ist es doch 'n Mindblowing, oder?

Paul Wesendonk: [00:18:32] Ja, ist völlig einfach 'n Mindblowing. Also für die Leute, die uns jetzt nur aus Spotify hören und nur nur hören, dass wir sagen, Also es ist ein Bild, was echt klein aufgelöst ist und ich sehe hier ein anderes Bild in krass hoher Auflösung. Und wahrscheinlich, wenn man das kleinaufgelöste in hoher Auflösung hätte, würde man sagen, so, ja, könnte könnte schon noch mal 'n bisschen jemand anders sein. Aber für LinkedIn reicht's.

Philipp Hoffmann: [00:19:04] Mhm.

Paul Wesendonk: [00:19:06] Weil's eben in kleiner auch einfach in Ordnung ist. So.

Philipp Hoffmann: [00:19:12] Ja, also ich kann mich wiederholen, ist auch meine. Punkt. Guck dir das mal an, Alter. What the

Paul Wesendonk: [00:19:21] Fuck? Wahnsinn.

Philipp Hoffmann: [00:19:23] Absolut Wahnsinn. Echt irre. Also ich kann wirklich jeder, der jetzt hier nur auf auf Spotify zuhört, geht mal auf LinkedIn, geht mal auf YouTube, zieht euch das da mal rein. Es ist halt leider einfach mal ein Bleuymder, muss das so sagen. Und das ist das Krasse ist ja, ich hätte halt gedacht, ne, das Ausgangsbild ist zu niedrig aufgelöst, dass quasi die die KI da gar nichts mit anfangen kann,

Paul Wesendonk: [00:19:45] Weil

Philipp Hoffmann: [00:19:45] Da quasi zu wenig Bildinformationen drin sind. Aber dass das halt irgendwie aus diesem Pixel Matsch, also sieht man ja jetzt hier rechts, ne, das ist ja das Originalbild, das ist und das ist achthundert mal achthundert Pixel, glaube ich. Aber das ist aus diesem Pixel Matsch, aus dem Screenshot, den ich auf Mid Journey irgendwann mal gemacht hab, dass es da draus quasi dieses Bild generiert und irgendwie so die wesentlichen Eigenschaften irgendwie so beibehält und schafft zu unterstreichen. Also ich find das geisteskrank.

Paul Wesendonk: [00:20:14] Ja, wo ich jetzt gespannt bin, ist, ich mein, das ist mega cool und das kann man gut, kannst Du gut für für Emilia auf LinkedIn benutzen. Und wenn Du die als Basis nimmst, kannst Du natürlich dann auch die am Schreibtisch und die im, was weiß ich, im Büro und die in 'nem Workshop und sie beim Taxi rufen und keine Ahnung, alles machen.

Philipp Hoffmann: [00:20:33] Ja.

Paul Wesendonk: [00:20:36] Wie frustriert irgendwo sitzend, Selfie mäßig LinkedIn Selfie mäßige Pseudo Pseudo Tiefe. Ich bin gerade son bisschen am überlegen, was sind die die Dinge, die quasi, also so krass wie das technisch ist, so wenige Anwendungsfälle sehe ich auch außerhalb von Fotografie und Grafikdesign und so.

Philipp Hoffmann: [00:21:02] Ja, aber vielleicht reicht das ja auch ganz normal, ne? Ja, also mein Ziel ist jetzt natürlich LinkedIn Content und so. Und ich glaub, dafür kann es auch für generell funktionieren, dass Du halt sagst, okay, hier, das ist jetzt halt keine Ahnung, ich mach nicht mehr Fotos von mir, sondern ich lass die halt generieren. Weil für LinkedIn ist es letztlich auch egal, ob das wirklich passiert ist oder nicht. Aber die Oder nee, das klingt falsch, aber wir haben am Wochenende drüber diskutiert mit mit Freunden, die wir da hatten, so, was macht diese ganze KI Bildgenerierung und so weiter mit unserer Wahrnehmung von der Realität, ne? Und ist es jetzt zum Beispiel, angenommen, Du hast, keine Ahnung, jetzt kam ja SORA zum Beispiel raus, ne, hier von OpenAI, dieses Videogenerierungstool. So, was ist, wenn jetzt in 'nem Jahr jemand ankommt und sagt, so, ich hab jetzt hier mal eine Naturdoku gedreht über lösen in der Savanne und das besteht aber nur auf SORA Content so. Ist das dann irgendwie macht es die Naturdoku irgendwie weniger wertvoll oder ist die trotzdem wertvoll, weil es halt ja trotzdem irgendwie was zeigt, welche Viecher irgendwo zeigt beim Jagen oder was auch immer. So und wie verändert sich halt unsere Wahrnehmung von Realität dadurch, dass halt 'n Teil der Realität vielleicht so nie stattgefunden hat? Und wie wichtig ist es, dass Realität tatsächlich stattgefunden hat dafür, ob wir, ja, also wie wichtig ist das für unser Gehirn, dass etwas tatsächlich stattgefunden hat?

Paul Wesendonk: [00:22:34] Ja, oder entsteht quasi eine Sehnsucht nach etwas, was es gar nicht gibt? Ich glaub, das ist normal. Wenn Du 'n Buch liest, wenn Du 'n Film guckst, wenn Du dir eine Geschichte erzählst, dass Du dir Dinge vorstellst in diesem Universum. Aber bisher war's halt sehr selten Es war schon sehr viel Aufwand,

Philipp Hoffmann: [00:22:55] Mhm.

Paul Wesendonk: [00:22:56] Das in einer solchen Art und Weise und Qualität zu tun. Mhm. Und Du kannst halt jetzt Dinge tun, die sonst, mit mit CGI kannst Du auch Frame für Frame irgendwie Dinge oder mit Ja. Wie auch immer. Aber es ist halt so absurd viel Aufwand gewesen. Ja. Und Emilia jetzt im Auto im Urlaub zu begegnen, keine Ahnung. Wird halt nie passieren können, weil's den Personavergleich gibt. Mhm. Das ist natürlich absurd. Du wirst niemandem von diesen Leuten jemals begegnen und Du wirst wahrscheinlich noch mehr zugespannen mit Leuten, die so perfekt aussehen.

Philipp Hoffmann: [00:23:32] Mhm.

Paul Wesendonk: [00:23:32] Aber nicht im Sinne von symmetrisch perfekt und so, wie wie man sich halt perfekt was zeichnen würde, sondern mittelfristig perfekt überzeugend, dir was zu verkaufen.

Philipp Hoffmann: [00:23:48] Ja. Ja. Ja.

Paul Wesendonk: [00:23:54] Das ist 'n bisschen wie wahrscheinlich wie so Pornografie fürs Gehirn nicht so geil ist, weil es dir was vorgaukelt, was nicht existiert. Könnte ich mir vorstellen, dass mittelfristig son ähnlicher Effekt auch, weiß ich nicht, für nichtsexuelle Beziehungen passiert.

Philipp Hoffmann: [00:24:11] Mhm.

Paul Wesendonk: [00:24:12] Weil Du kannst interagieren mit perfekten Versionen von Dingen.

Philipp Hoffmann: [00:24:17] Ja, das stimmt. Spannend. Ich hab mir auch gedacht letztens, als jetzt so die Apple Vision Pro dann so gehypt wurde und so, da siehst Du ja im Prinzip die Welt auch nur. Also Du siehst eigentlich, Du siehst nicht mehr die echte Welt, sondern Du siehst quasi das, was das Gerät aufnimmt und die als echte Welt darstellt. Und heute ist es natürlich so, dass es sozusagen einfach nur die echte Welt filmt und dir dann zeigt, was es filmt. Aber wer sagt denn, dass das dass das Tool, dass das Gerät zukünftig nicht Warte mal ganz kurz.

Paul Wesendonk: [00:24:52] Ja, das ist im Hintergrund.

Philipp Hoffmann: [00:24:57] Ah, okay. Also wer sagt dir denn, dass das Gerät nicht zukünftig, sagen wir mal, nur 'n Filter drüber legt und die Realität sieht auf einmal halt 'n bisschen leuchtender aus als in echt? Oder dass es auf einmal Apple nicht hergeht und sagt, so, wir blenden jetzt alle Obdachlosen aus, die Du sonst in der Stadt sehen würdest oder so was, ne? Wie verändert sich Gibt's

Paul Wesendonk: [00:25:14] Die neue Folge zu, wo irgendwie so zwei zwei Welten gegeneinander kämpfen und die Echt? Haben so Brillen auf, die alle Feinde quasi als Monster zeigen.

Philipp Hoffmann: [00:25:26] Krass, okay.

Paul Wesendonk: [00:25:27] Und dann nimmt nimmt einer irgendwann die Brille ab und das sind dann irgendwelche armen Lloyd so.

Philipp Hoffmann: [00:25:31] Ja, okay.

Paul Wesendonk: [00:25:32] Die sehen immer aus der Brille aus wie 'n Monster und dann ballern die alle weg.

Philipp Hoffmann: [00:25:36] Ja. Ja, das meine ich. Also wie verändert sich da sozusagen unsere Wahrnehmung von der Realität und und was macht das mit unseren Gehirn und so? Ich weiß es nicht. Ich denk nur so, wenn ich mir alles angucke, was jetzt grade passiert, dann wird es auf jeden Fall dadrauf hinauslaufen, dass wir alle eine andere Realität sehen als das, was was jemand anders vielleicht sieht. Also die Realitäten weisen sich sozusagen auf.

Paul Wesendonk: [00:26:04] Und zwar nicht erst agieren, sondern schon auf der Retina.

Philipp Hoffmann: [00:26:07] Ja, genau. Und natürlich kann man immer sagen, so ja, es gibt halt nur die eine physische Realität, aber letztlich ist ja auch eine eine digitale Realität, die dir halt vorgegaukelt wird, basiert ja auf den gleichen Atomen und Photonen und so weiter wie die physische Realität. So, das heißt, ja, es splittet sich halt auf in viele Realitäten. Ja. Oh,

Paul Wesendonk: [00:26:31] Das wird noch richtig scheiße.

Philipp Hoffmann: [00:26:34] Ja, aber auch richtig scheiße. Ja, genau, also wie mit allem, ne? Es gibt immer Technologiefolgen, die wir nicht absehen können heute, die Dinge viel, viel schlimmer machen, als sie heute vielleicht sind, aber gleichzeitig werden auch viele Dinge passieren, die halt dann mega geil sind. Ja. Also ich find's echt, das ist sone crazy time to bear live und es passieren ja so viele Sachen parallel ne heute Nacht irgendwie in den USA für Tesla full selfdryding Beta Version zwölf Punkt drei rausgekommen und Elon Musk hat bei irgendwem auf Twitter kommentiert so das müsste eigentlich das ist so ein krasser Release das müsste eigentlich Version dreizehn sein. Und er hat nicht geschrieben Version dreizehn Beta, sondern er hat geschrieben Version dreizehn. Das heißt, da bin ich mal gespannt, was da passiert und auch das ist ja gerade auch auf 'ner exponentiellen Lernkurve sozusagen, ne, wie das System besser wird. Also auch das ist eigentlich Mindblowing. Keine Ahnung, je Krypto geht wieder hoch ohne Ende und so. Also überall passieren crazy Sachen und ja, mein Blowing.

Paul Wesendonk: [00:27:43] Das, ja, das ist schon auch witzig, das in diesem Alter ungefähr mitzukriegen, finde ich. Weil Du ja oft so sagst, okay, also meine Tochter, die wächst halt damit auf, für die ist das völlig normal. Das ist für die, ja, ist für die normaler als für uns Computer.

Philipp Hoffmann: [00:27:59] Ja, genau. Auch so dieses Ding, ja, die Kids lernen halt nicht mehr, mit normalen Rechnern umzugehen, weil die alle nur am Smartphone hängen und so. Wo ich intuitiv sagen würde, das ist nicht gut, so die müssen eigentlich lernen mit Computern umzugehen, aber wahrscheinlich ist es einfach scheißegal, weil die halt nur noch prompen werden in Zukunft und überhaupt nichts mehr tun.

Paul Wesendonk: [00:28:19] Ja, wo meine Großeltern überhaupt nicht checken, wie 'n Computer funktioniert, werde ich überhaupt nicht checken, was nach dem Smartphone kommt.

Philipp Hoffmann: [00:28:28] Ja oder wie wie neuer Link funktioniert und warum sich Leute das implementieren lassen. Das denke ich auch mal so. Das brauch ich nicht noch. Das

Paul Wesendonk: [00:28:35] Boah, Opa. Du musst doch hier einfach nur so mit den Augen zucken. Genau.

Philipp Hoffmann: [00:28:41] Das ist 'n ganz kurzer Eingriff und der funktioniert bei neunundneunzig Prozent der Menschen problemlos.

Paul Wesendonk: [00:28:46] Boah, Hofer, jetzt stell dich nicht so an.

Philipp Hoffmann: [00:28:49] Komm, ich ich schieß dir jetzt son Neuralink rein, okay?

Paul Wesendonk: [00:28:52] Ja, wie ich meinen Großeltern damals 'n E-Mail-Konto gemacht hab. Deshalb find ich's halt eigentlich cool, jetzt irgendwo in den Dreißigern unterwegs zu sein, weil das 'n Alter ist, in dem man neue Dinge noch geil findet. Mhm. So, das ist jetzt so, wow, mindbloiden, crazy, mega. Ja. Wie meine Eltern son bisschen mit Internet waren. Ja. Stimmt. Wo ich mit draufgewachsen bin, wo die gesagt haben, oh krass, guck mal, jetzt kann ich hier mir Bücher angucken, die gar nicht hier sind.

Philipp Hoffmann: [00:29:25] Mhm. So

Paul Wesendonk: [00:29:28] Ungefähr. Guck, überleg mal, was das für Möglichkeiten sind.

Philipp Hoffmann: [00:29:31] Ja, ja. Aber cool, dass deine Eltern da auch so drauf waren, weil das ja dann auch für dich bedeutet, dass Du wahrscheinlich diesen Spirit aus sonem Sinn benimmst.

Paul Wesendonk: [00:29:39] Ja, ist überhaupt nicht so. Ich also meine stehe, ich ich tu jetzt so, als hätten meine Eltern das genauso gesagt, aber ich stell mir das ziemlich genauso vor mit meiner Tochter. Mein Opa ist der, der der so unterwegs war immer.

Philipp Hoffmann: [00:29:53] Ja, bei Benviewer auch. Die alten Computer

Paul Wesendonk: [00:29:56] Habe ich immer von dem gekriegt.

Philipp Hoffmann: [00:29:57] Ja genau witzig. Mein Opa hat auch noch so digitale Fotos dann bearbeitet und so weiter. War da offensichtlich vorne mit dabei. Und ganz genau. Genau, genau.

Paul Wesendonk: [00:30:08] So, wir wollen jetzt Feriensschwärmen kommen.

Philipp Hoffmann: [00:30:10] Genau, Schluss für heute. Du musst weiter. Ich werd mich wieder in mit Journey reinstürzen und wir hauen die Volk raus und genau.

Paul Wesendonk: [00:30:21] Nächste Mal hat Spaß gemacht.

Philipp Hoffmann: [00:30:24] Ja außer irgendwas crazy Neues bei bei irgendwelchen KI Themen passiert. Genau. Wir werden wir werden mal gucken, was die Ausrichtung des Podcasts, wie die langfristig durch KI verändert wird. Okay. Nur noch sag's dir, in 'nem halben Jahr ist es so weit, dass wir wirklich nur noch 'n Skript schreiben und dann haben wir so zwei Avatare sitzen, die miteinander reden. Das könnten wir echt mal machen. Ich glaub, das wär

Paul Wesendonk: [00:30:53] Nicht das Skript selber schreiben würde. So.

Philipp Hoffmann: [00:30:59] Ja, heute schon nicht. Nee, cool. Also mir hat's Spaß gemacht heute, auch wenn's mal wieder 'n bisschen was anderes war. Paul, Hallo. Schönen Tag und bis bald.

Paul Wesendonk: [00:31:09] Ja. Tschüss.

Philipp Hoffmann: [00:31:10] Will Segen.

bottom of page