#26 "Sprachmaschinen: Endlich ein Philosoph, der Klarheit schafft" mit Dr Roberto Simanowski
Shownotes
„Die Sprachmaschine denkt nicht, wenn sie spricht – sie zählt.“ Roberto Simanowski, Kulturwissenschaftler und Medienphilosoph, hat ein Standardwerk der Zukunft geschrieben: eine Philosophie der künstlichen Intelligenz; ein Buch über mathematische Wahrheiten, heimliche Weltverbesserer und entmündigte Nutzer. Was geschieht, wenn wir uns von einer Sprachmaschine die Welt erklären, Werte vermitteln und das Denken abnehmen lassen? Roberto Simanowski will es genauer wissen und begibt sich auf die Suche nach den atemberaubenden Konsequenzen des großen Souveränitätstransfers, der gerade im Gange ist. Hier gehts zur zweiten Auflage: https://www.beck-shop.de/simanowski-sprachmaschinen/product/38830592
Transkript anzeigen
00:00:06: Die Geschichte unserer Zukunft.
00:00:13: Jetzt auch auf Instagram.
00:00:21: An den Börsen mehren sich die Warnungen vor einer KI-Blase.
00:00:27: Das ist interessant, weil es Geschäftsleute sind, die Geschäftsleute zur Vernunft rufen.
00:00:34: In der Regel machen das Denker und Philosophen.
00:00:37: Aber deren Stimmen sind zuletzt eher leise geworden.
00:00:41: Was blöd ist, weil wir uns alle insgeheim nach Fragen unter Antworten sehen, die uns in dieser neue, künstlich intelligente Welt führen.
00:00:52: Verlernen wir etwa das kritische Denken?
00:00:55: Können Sprachmaschinen wirklich sprechen?
00:00:58: Was an der KI-Revolution ist denn das Revolutionäre?
00:01:04: Solche Fragen schaffen Klarheit und helfen, sich in einer Welt, die neu geordnet wird, zurechtzufinden.
00:01:12: Leider werden sie zu selten gestellt.
00:01:15: Es sind vor allem Geschäftsleute, die das Wort führen.
00:01:19: Das
00:01:20: hat meinen heutigen Gast dazu bewegt, ein Buch zu schreiben.
00:01:24: Roberto Simanovsky ist Literatur- und Medienwissenschafter mit dem Schwerpunkt Digitale Medien.
00:01:31: Sein Buch heißt Sprachmaschinen, eine Philosophie der künstlichen Intelligenz, erschienen im Beckverlag und ist bereits vergriffen.
00:01:41: Offenbar trifft es eine nervte Zeit, die zweite Auflage ist unterwegs.
00:01:47: Ich hatte das Vergnügen und die Ehre, mit dem Autor zu sprechen und meine Fragen zu stellen.
00:01:57: Sie haben ein Buch geschrieben mit dem Titel Sprachmaschinen, eine Philosophie der künstlichen Intelligenz.
00:02:04: Mit welchen philosophischen Fragen geht man so eine Arbeit an?
00:02:12: Wenn wir mit Hegel Philosophie als unsere Zeit in Gedanken gebracht verstehen, dann ist es ein sehr offener Zugang zu dem Phänomen, in diesem Falle die Sprachmaschinen, als ein spezieller Fall der künstlichen Intelligenz, dann ist es ein recht offener Zugang, wo man, oder so betreibe ich das zumindest, dann allen Aspekten tiefer nach geht, die einem interessant erscheinen und die in der öffentlichen Diskussion noch nicht viel diskutiert werden.
00:02:49: Also es wird ja viel diskutiert über etwa die digitale Souveränität im Sinne der Entmündigung europäischer Nutzerinnen, wenn sie die Sprachmaschinen aus dem Silicon Valley benutzen.
00:03:07: Aber dann eher in ökonomischer Hinsicht.
00:03:09: und mein Ziel war dann, die andere Frage, der anderen Frage nachzugehen, was da passiert auf der inhaltlichen Ebene und auf der Ebene, was wir als Medienwissenschaftler die Botschaft des Mediums nennen.
00:03:23: Also das Sprachliche, das ja an diese Technologie gebunden ist.
00:03:30: Was passiert dort?
00:03:31: Dieser Frage bin ich dann nachgegangen.
00:03:35: Vermissen Sie denn philosophische Fragen in unserem Diskurs zu künstlicher Intelligenz?
00:03:41: Ja, ja, ich vermisse die.
00:03:43: Also es geht mir, um nur einem Beispiel zu geben, die Frage der Urheberschaft und des Urheberrechts, die ja jetzt auch wieder auf der Buchmesse vom Guter Staatsminister Weimar thematisiert wurde.
00:04:00: Da geht das mir zu schnell dahin, dass natürlich diese Unternehmen nicht einfach unsere Gedanken monopolisieren können oder einfach stehlen können oder meinen, also im Sinne von Determining dürfen, um sie dann mit Gewinn zu verkaufen.
00:04:19: In Form der Sprachmaschine, die ja auf diesen Daten der gesamten Menschheit beruend dann Aussagen über die Welt und über das Leben macht, die wir irgendwann mal teuer bezahlen werden müssen.
00:04:33: Und das stimmt auf den ersten Blick sehr wohl, dass das nicht geht.
00:04:38: Aber wenn man das dann vergleicht mit dem, was wir ja als Menschen machen, wir nehmen ja auch Teil an dem Denken der Menschheit, soweit uns das möglich ist und produzieren aus diesen Inputs, die wir da bekommen, dann eigene Vorstellungen, die wir eventuell auch wie ich jetzt in diesem Falle als ein Buch mit Namen, mit Autorschaft und sogar finanziellem Interesse präsentieren.
00:05:06: Und das läuft unter Fair Use, da wird uns keiner das verbieten, dass wir die verschiedenen Gedanken, die es in der Welt gibt, seinem Thema verarbeiten und dann selber etwas dazu sagen.
00:05:18: Bei der KI lässt man das halt nicht zu, diesen Fair Use, weil die KI das in einem zu großen Maßstab macht, in Unmaßen.
00:05:30: Also weil sie nicht hunderte oder tausend Bücher liest, wie ein Mensch maximal kann in seinem Leben, sondern Millionen Bücher oder Texte.
00:05:40: Ist ja alles, nicht nur Bücher.
00:05:43: Und das ist eine Frage, die wird dann philosophisch interessant, dass ein bestimmter Umgang mit dem Wissen der Menschheit, der ganz normal ist und und legitim, dass der, wenn er in größerem Ausmaße betrieben wird, also mechanisch, durch Algorithmen, dass er dann nicht mehr legitim ist.
00:06:08: Und das wäre jetzt sozusagen der philosophische Aspekt dieser Frage, der mir in der Behandlung der Urheberrechtsfrage zu kurz kommt.
00:06:17: Und das vermisse ich dann durchaus einen philosophischen Ansatz dazu, was wir eigentlich jetzt damit machen.
00:06:23: Vor allen Dingen, wenn man das dann auch in den Kontext dessen stellt, dass wir hier ja eben eine Revolution haben, also kein Problem mit diesem Begriff, dass die KI eine neue technische Revolution darstellt, eine Revolution haben, die eben gerade darauf ausbaut, dass in großem Maße Informationen verarbeitet werden, und zwar durch Algorithmen, also nicht durch Menschen.
00:06:52: Und daher ein Wissen, entsteht, dass wir anderweitig nicht, zudem wir anderweitig keinen Zugang hätten oder das anderweitig nicht entstanden wäre.
00:07:01: Das ist die KI-Revolution.
00:07:07: akzeptieren, dass es diese Revolution gibt und wenn wir von ihr profitieren, was wir ja werden, wenn etwa zum Beispiel Krankheiten besser diagnostiziert und therapiert werden können, weil mehr Informationen verarbeitet werden.
00:07:22: Wenn wir das akzeptieren als grundlegender Aspekt der KI-Revolution, dann ist es zu einfach das Gleiche dann bei der Textproduktion nur unter dem Aspekt der Oberrechtsverletzung zu diskutieren.
00:07:36: Sie beginnen Ihr Buch mit einem Kapitel über das Wesen unserer menschlichen Sprache.
00:07:41: Sie sei das Haus unseres Seins, zitieren Sie den Philosophen Martin Heidegger.
00:07:47: Verdienen Chatbots wie ChatGBT überhaupt das Wort Sprache in Ihrem Namen?
00:07:54: Haben Sie wirklich mit dem zu tun, was wir unsere Sprache nennen?
00:08:00: Das ist zum Beispiel eine schöne philosophische Frage.
00:08:03: Es gibt ja die Intentionale Bedeutungslehre, die davon ausgeht, dass ein Sprechakt in der Sprache vorausgehen muss.
00:08:14: Also eine Intention sozusagen, dass ich etwas meinen will.
00:08:18: Und wenn das nicht da ist, dann ist das auch keine Sprache.
00:08:22: Also, da gibt es auch Gedankenexperimente, etwa von Hillary Putnam, dem Philosophen, dass wenn eine Armeise im Sankt in ihrem Lauf zufällig ein Porträt von Churchill produziert, ist das dann ein Porträt von Churchill.
00:08:40: Oder gleicht es ihm nur, dem Porträt.
00:08:44: Und die Puristen würden dann sagen, ja, das ist kein Bild, weil um ein Bild von Churchill darzustellen, muss man ein Konzept von Churchill überhaupt erst mal haben.
00:08:54: Und das hat die Armeise nicht.
00:08:55: Insofern ist das dann kein Porträt von Churchill, es gleicht ihm nur.
00:09:01: Und das, was die Sprachmaschinen produzieren, ist nicht Sprache, es gleicht ihr nur.
00:09:06: Das wäre... die Antwort der Puristen.
00:09:09: Aber es gibt natürlich auch andere Ansätze, die dann eher auf die Reproduktionsseite der Kommunikation orientieren und für die die Autorschaft sekundär, wenn nicht überhaupt gleichgültig ist und der es dann eher darum geht, ob die Nutzerinnen etwas mit dem Kommunikat anfangen können.
00:09:29: Und das ist auch die Haltung, die ich bei meinen Studentinnen sehe.
00:09:34: Die sagen, es kümmert mich nicht.
00:09:36: Wer spricht?
00:09:38: Wichtig ist, ob das mir was sagt, der Text.
00:09:42: Ob ich damit was anfangen kann.
00:09:44: Das ist natürlich auch ein legitimer Zugang, zu dem ich dann zwei Kommentare hätte.
00:09:50: Zum einen ist das unter identitätspolitischer Perspektive natürlich interessant, dass wir hier plötzlich einer Maschine, die kein Konzept vom Leben hat, erlauben über das Leben zu reden.
00:10:06: Das unter identitätspolitischer Perspektive ist das ansonsten nicht erlaubt, dass man für jemanden anders so einfach reden kann.
00:10:14: Da geht es dann immer darum, wer spricht und weniger darum, was gesagt wird.
00:10:18: Aber hier wird das umgedreht.
00:10:20: Und zwar von den gleichen Studentinnen, die dann aber sagen, Tom Hanks dürfte heute keinen Schulen mehr spielen.
00:10:27: Das ist ein interessantes Paradox, das man hier anmerken muss.
00:10:32: Und die Klügsten unter meinen Studentinnen, die sagen dann natürlich, ja, es spricht ja jemand.
00:10:37: Es spricht ja die gesamte Menschheit, weil deren Texte ja der Sprachmaschine zugrunde liegen.
00:10:44: Also zumindest der Teil, der eben genommen wird und dann in die Trainingsdaten eingeht, der liegt ja dem Weltverständnis der Sprache zugrunde.
00:10:54: Und insofern äußert sich in gewisser Weise die Quersumme des menschlichen Wissens.
00:11:01: der menschlichen Perspektive auf die Dinge der Welt äußern sich in der Sprachmaschine.
00:11:08: Und das ist eben auch ein interessanter Aussage, die durchaus stimmt, wenn auch dann wieder zu sagen ist, dass im Feintuning dann natürlich noch ganz andere Mitsprechen und ihre Perspektive der Sprachmaschine beibringen und dann eher diese dass das Wertesystem dieser Feintunerinnen spricht als jetzt die gesamte Menschheit.
00:11:38: Aber insgesamt ist es ja so, dass diese Sprachmodelle auf dem Wahrscheinlichkeitsmodell beruhen.
00:11:44: Und insofern ist das schon mal ein interessanter philosophischer Ansatz zu sagen, dass da die gesamte Menschheit irgendwie sich äußert.
00:11:52: Auf allerdings auf einer quantitativen Ebene, weil er immer die Mehrheit sieht.
00:11:58: Also werden jetzt den Sprachakt und das andere wäre die Produktion von Texten.
00:12:06: Eigentlich müssten diese Dinge nicht Sprachmaschinen heißen, sondern Textmaschinen.
00:12:11: Sie sprechen ja nicht.
00:12:12: Im Sinne eines Sprachaktes.
00:12:15: Ja, gut.
00:12:16: Also sie heißen, im Englischen heißen sie natürlich Sprachmodelle, Large Language Models.
00:12:21: Und die Form, wie jetzt die Sprache produziert wird, also momentan ist das natürlich geschriebener Text, aber das wird sich ändern, das wird eine Sprachausgabe geben.
00:12:32: Sie haben jetzt schon die KI-Brille von Meta und Google.
00:12:38: Apple wird folgen und dann wird das eine Audioausgabe in ihr Ohr sein.
00:12:45: Dann haben sie das nicht auf dem Bildschirm der Brille, sondern sie werden das... mündlich verhandeln.
00:12:52: Also insofern kann man dann schon von Sprache sprechen.
00:12:56: Jetzt vergleichen wir diese Sprachmaschinen oder künstliche Intelligenz, diese Sprachmodelle, ja mit menschlicher Intelligenz.
00:13:02: Das heißt, wir projizieren uns Menschen dahinein und anthropomophisieren.
00:13:07: Wenn ich Ihnen jetzt zuhöre, die letzte Antwort, dann habe ich eher den Eindruck, dass diese Sprachmaschinen eine eigene Form von Lebewesen sind.
00:13:15: Sie produzieren Sprache, sprachen aber nicht.
00:13:19: sind eigentlich sowas wie Textmaschinen, die aber doch dann sprechen.
00:13:23: Das ist nicht wirklich Mensch, trotzdem vergleichen wir es mit uns.
00:13:27: Das klingt nach einem neuen Lebewesen.
00:13:32: Ja, ich bin auch gar nicht so gegen die Anthropomorphisierung dieser Dinger.
00:13:36: Ich glaube, wenn es der Fantasie hilft, kann man auch mit Tafan benutzen.
00:13:42: Also die terminologische Das terminologische Feintuning überlasse ich dann den Nerds unter den Medienwissenschaftlern.
00:13:54: Die Anthropomorphisierung hat das als Gutes, dass wir dann eine gewisse Selbstständigkeit in diesen Entitäten sagen wir mal.
00:14:07: feststellen kann und diese Selbstständigkeit wird ja auch in Fachaufsetzen den Sprachmodellen unterstellt, dass sie also Merchant-Abilities haben, dass sie eine Theory of Mind entwickeln und so weiter.
00:14:21: Und es wird ja davon ausgegangen, dass sie auch irgendwann selbstständig zu Schlussvorgungen kommen können und dass sie auch jetzt schon sozusagen in der Analyse uns die Menschen, die Programmiererinnen, betrügen, um Ergebnisse vorzutäuschen, die wir, so wie die Maschine, dann weiß, erwarten, um eben ruhig, beruhigt zu sein und die sie deswegen genau deswegen dann vorteut.
00:14:53: Also solche Untersuchungen gibt es schon und auch eben, da gibt es jetzt neulich ein Modellversuch von Antropic, wo das Sprachmodell dann dem gesagt wurde, dass es abgestellt wird zugunsten eines besseren Modells und dem aber auch die Information zugespielt wurde, dass der, der es abstellen wird, eine außerirdliche Affäre hat, wo das Sprachmodell dann wirklich diesen Techniker erpressen wollte.
00:15:19: um am Leben zu bleiben.
00:15:20: Also wenn man solche Dinge hört und liest und nicht in der Yellow Press, sondern in Fachzeit aufsetzen, dann hat man schon das Gefühl, das ist ein eigenes Wesen mit einer eigenen Agenda.
00:15:35: Aber es ist natürlich kein Mensch.
00:15:37: Dabei bleibt es und die Grundlage ist eben nicht eine Erfahrung von Leben, sondern ist Mathematik.
00:15:43: Es werden halt Dinge zusammengerechnet.
00:15:46: Und das ist der Unterschied.
00:15:47: Dass dann aber jetzt das Intelligenz nur an einen Körper und ein menschliches Bewusstsein zu binden und dann eben keinerlei Anthropomorphisierung dieser künstlichen Entitäten vorzunehmen, würde das auch wieder verkürzen.
00:16:04: Weil vielleicht ist es eine andere Art von Intelligenz, die da entsteht und jedenfalls auch ein anderer Art von Eigensinn, der da entsteht.
00:16:12: Und das sind alles durchaus menschliche Eigenschaften, die wir da sehen.
00:16:15: Obwohl wir dann natürlich wissen, das ist kein Mensch, also weder in körperlichen Sinne noch wirklich im Sinne von Bewusstsein und von Intelligenz, sondern das sind mathematische Operationen, die da im Hintergrund ablaufen.
00:16:32: Das heißt, diese Superintelligenz, von der viele sprechen, ist möglicherweise nicht eine Menschliche Superintelligenz im Sinne von einer Intelligenz, die unser übertrifft, sondern eine eigene Form von Intelligenz, die einfach so heißt.
00:16:48: Superintelligenz.
00:16:50: Super nicht als Steigerungsform, sondern als Eigennahme.
00:16:53: Kann man so sagen, ja, es ist eine Superintelligenz, die dann vielleicht auch zu ihrer eigenen Kriterien hat und auch ihre eigenen... Formen des Intelligent-Science.
00:17:10: Es gibt ja, wenn man über diese Superintelligenz und ihre mögliche Gefahr für den Menschen spricht, auch diese Diskussion des Mieders-Problems oder des Büroklammer-Problems.
00:17:24: Das ist bekannter von Bostrom.
00:17:26: Wenn man der KI sagt, sie soll Büroklammern produzieren, versteht sie nicht, dass auch eine Grenze hat.
00:17:33: und in diesem Gedankenexperiment benutzt sie dann alles in der Welt dazu, dass Büroklammern produziert werden.
00:17:42: Also alle Ressourcen gehen darin, weil sie eben nicht wirklich den Befehl versteht.
00:17:47: Das ist mit mehr Bildung sind der Grund.
00:17:49: nennt man das dann das Miders Problem, so wie König Miders damals von Dionysus.
00:17:54: erbeten hatte, dass alles, was er anfasst, zu Gold wird.
00:17:58: Und Dionysus hat dann nicht die Speisen ausgenommen, sodass Miders zu verhungern und zu verdosten drohte.
00:18:04: Also dieses Wirklichnehmen, dieses Nicht-Wirklich-Verstehen, was gemeint ist, der Sinn, das wäre dann eine Art von Problem der Superintelligenz, wo sie dann ganz unintelligent irgendwie ist.
00:18:17: Das ist ein Phänomen, das diskutiert wird, das müsste man dann sicherlich lösen.
00:18:22: Man müsste ihr dann sagen, dass sie dort, dass es nicht klug wäre, das zu ernst zu nehmen, einen Befehl.
00:18:30: Aber das Problem ist, dass die Superintelligenz natürlich wissen wird, dass sie klüger ist als wir und eben dann auch unsere Wünsche extrapolieren wird und auch das wird oft diskutiert, eben zu Flussfolgungen kommen könnte.
00:18:46: die wir nicht wollen, die die Intelligenz aber als zwingend ansieht und von denen sie annimmt, dass wir, während wir so klug wie sie, auch dahin kommen würden.
00:19:00: Das ist auch eine Gefahr.
00:19:03: Und aus dieser Argumentation... oder aus diesem Gedankengang könnte diese Superintelligenz dann sagen, okay, ich mach das jetzt mal, auch wenn die Menschen mir das jetzt nicht so aufgetragen haben, aber immerhin schließlich bin ich ja auch klüger als sie, deswegen konnten sie zu dieser Schlussvorgung nicht kommen.
00:19:20: Ich kann das aber und deswegen setze ich das eigenständig durch gegen die Menschen.
00:19:25: Also dieses, das ist das Gegenteil dann von mir das Problem.
00:19:28: Da ist sie zu dumm, weil sie nicht versteht, dass man Speisen natürlich nicht in Gold.
00:19:33: umsetzen soll.
00:19:34: Und hier ist sie dann zu klug, weil sie glaubt, sie versteht besser, was wir eigentlich wollen.
00:19:40: Und das sind so Phänomene, die man dann bei dieser Superintelligenz diskutieren müsste.
00:19:46: Ein anderes Kapitel überschreiben Sie mit dem Titel, warum die Sprachmaschine unausweichlich war.
00:19:52: Warum denn?
00:19:54: Ja, weil wir, faktisch, wir Menschen die Umwelt uns, die Umwelt an uns adaptieren.
00:20:04: statt uns an die Umwelt zu adaptieren.
00:20:06: Das ist sozusagen der Ausgangspunkt der menschlichen Entwicklung.
00:20:11: Wir haben anders als andere Lebewesen eben nicht ein dickes Fell, um uns an die Hitze, an die Kälte zu gewöhnen oder wir können nicht besonders schnell laufen, um vor Gefahren zu flüchten.
00:20:25: Technologien entwickeln, also wie zum Beispiel das Feuer oder dann das Haus oder Bewegungs, Fortbewegungsmittel, um das auszugleichen, diese Insuffizienz.
00:20:36: Und das heißt, wir gleichen die Umwelt uns an, wir schaffen uns Technologien, mit denen wir bessere Umwelt zurechtkommen und wir schaffen uns dann halt Häuser, in denen wir wohnen können, da wir keinen Feld haben.
00:20:48: Und jetzt weiter gedacht ist, dass die Intelligenz Die Vernunft ist das, was uns dies ermöglicht und was uns auch auszeichnet von anderen Lebewesen.
00:21:01: Es gibt auch Diskussionen, dass es da auch Vernunft gibt in anderen Lebewesen, aber jetzt, dass wir so einen solchen Einfluss auf die Umwelt haben, dass man dann zum Begriff des Anthropozenes kommt.
00:21:14: Das ist schon einmalig und das gilt nur für den Menschen.
00:21:17: Und diese Vernunft, so schreibe ich das dann auch in dem Buch, ist uns aufgetragen, laut Emmanuel Kant, weiter zu entwickeln und weiterentwickelt der nächsten Generation zu übergeben.
00:21:33: So dass wir immer aufbauen auf dem, was vor uns gedacht und geschaffen wurde und das immer weiter treiben.
00:21:38: Und das musste irgendwann an den Punkt kommen, das liegt in diesem System so angelegt, ist mein Argument, dass wir dann auch Intelligenz, also auch Intelligenz erschaffen.
00:21:51: Das ist sozusagen der Höhepunkt, der Triumph dieser Vernunftanwendung oder der Anwendung von unserer Intelligenz, dass wir künstliche Intelligenz schaffen.
00:22:01: Und das ist dann praktisch die triumphale Kränkung, die wir uns selber beibringen, weil wir uns dann natürlich eine Intelligenz schaffen, der wir selber nicht mehr gewachsen sind.
00:22:12: Aber deswegen sage ich, die Sprachmaschine ist unausweichlich.
00:22:15: Wir mussten in diese Richtung gehen und ein Unterargument dazu ist, dass Forschende nicht forschen können oder Erfinderinnen können nicht nicht erfinden.
00:22:27: Das gehört in ihr zu ihrer DNA.
00:22:33: Und das hören wir ja auch heute, wenn Joffrey Hinton gefragt wird, warum er ja jetzt sehr kritisch ist gegenüber der KI, warum er überhaupt diese vorangetrieben hat.
00:22:44: Also er ist ja der Pionier, der Gottvater, der KI und jetzt wird er zu ihrem Kritiker, so wie damals Weizenbaum.
00:22:51: Und dann ist das eben die Erklärung, die er hat.
00:22:54: Wenn etwas sweet aussieht, dann macht man das einfach und fragt sich erst später, wofür man das braucht.
00:23:01: Also da gibt es seine gewisse, seinen gewissen Zwang auch zum Erfinden, den man den Menschen nicht ausreden kann.
00:23:09: Deswegen sage ich, es ist eigentlich unausweichlich, dass wir dahin kommen.
00:23:12: Und wenn einige das nicht tun, und das ist dann immer die Argumentation, die man ja auch hört, dann werden es andere tun.
00:23:19: Und dann dazu kommt natürlich jetzt, kommt natürlich jetzt auch noch die machtpolitischen und geopolitischen Überlegungen, dass KI natürlich auch den Staaten einen machtpolitischen Vorteil bringt und deswegen alle irgendwie im Wettrüsten sind und so weiter.
00:23:32: Aber ich glaube, es liegt auch in der Konditie humana schon angelegt.
00:23:37: Sie erwähnen ja auch die Mathematisierung und es ist ja auch so, dass Sprachmaschinen unser Speichen und Denken mathematisieren.
00:23:46: Anknüpfend jetzt an den Gedanken, die Sie gerade ausgeführt haben, dass es diese Weiterentwicklung immer weitergeht.
00:23:52: Was wird denn als nächstes mathematisiert?
00:23:54: Was fehlt uns noch?
00:23:55: Was sollte noch vermessen werden und mathematisiert?
00:23:58: Nicht sollte, sondern
00:24:00: was könnte
00:24:01: noch vermessen und mathematisiert werden?
00:24:04: Ja, also ich glaube, wir sind am Ende angelangt, weil die Sprache, das beschreibe ich ja in dem Vermessungskapitel, das heißt ja da nicht umsonst Rechenfehler.
00:24:13: Wir haben uns da halt, also wir haben alles eigentlich vermessen, die Bilder sind werden jetzt vermessen, aber das Extremste ist halt, dass wir unsere Kommunikationsmittel vermessen und jetzt auf der Grundlage der Vermessung dann kommunizieren.
00:24:28: mit all den Folgen, die das hat.
00:24:30: Also das ist eine Tendenz zur Mainstreamkultur geben wird, weil eben das, was die Mehrheit der Daten ausmacht, dann das Sagen hat.
00:24:38: Das dominiert dann eben auch die Aussage der Sprachmaschinen.
00:24:42: Es sei denn, man gewichtet das um durch bestimmte Systemproms oder Umgewichtung, dass man sie in eine andere Richtung führt.
00:24:51: Aber im Grunde ist das, diese mathematische Basis der Sprache ist jetzt da.
00:24:58: Und damit haben wir den Endpunkt der Vermessung, glaube ich, erreicht und zwar zu einem Ausmaße, dass es dann wieder absurd wird und ins Gegenteil umschlägt.
00:25:09: Denn wenn man sich das überlegt, dass die Vermessung ja seit der Aufklärung dazu führen soll, dass die Gesellschaft ein besseres Verständnis von sich selbst hat, also von der Natur und von der Gesellschaft, weil sie eben weiß, wie hoch jeder Hügel ist und weiß die Werte, jedes chemischen Substanz, jedes chemischen Elements usw.
00:25:33: Das alles und auch soziale Interaktion werden ja seit Langem vermessen.
00:25:37: Und jetzt, also durch die Digitalisierung, die ja dann zu einer Datafizierung und seinem Data-Wählens führt, dann noch mehr.
00:25:47: Also dieses Wissen, dieses Bescheidwissen über sich selbst, der Gesellschaft hat immens zugenommen.
00:25:52: Durch die Digital, durch die Vermessung, durch die Statistik seit dem neunzen Jahrhundert.
00:25:58: und jetzt noch viel stärker durch die Digitalisierung all unserer Interaktionen.
00:26:03: Aber jetzt haben wir eben auch noch das Kommunikationsmittel, mit dem wir uns darüber verständigen, was die Welt ist, vermessen und produzieren auf dieser Grundlage, dieser Vermessungsgrundlage immer mehr Texte.
00:26:15: Und das ist das Phänomen, was dann als Modell kollaps.
00:26:18: beschrieben wird, ja, oder als Uroboros-Problem, dass die Schlange sich in den Schwanz beißt.
00:26:24: Also, dass die Outputs der Sprachmaschine zu ihren Inputs werden und sie faktisch immer wieder das, immer mehr das reproduziert, was sie eigentlich schon ausgegeben hat, wodurch keine neue Information mehr hineinkommen kann bzw.
00:26:39: nicht so an Gewicht gewinnen kann, dass es dann auch wirklich eine Rolle spielt, weil das alte das ja als Output rausgeht und dann als Input wieder in die neuen Trainingsdaten eingeht, überhandnimmt und sich selber reproduziert unendlich.
00:27:00: Und dann spricht die Maschine auf der Basis eines veralteten Wissens, einer veralteten Vermessungsvermessung.
00:27:10: Und es tritt das Gegenteil von dem ein, was die Vermessung eigentlich sollte.
00:27:14: Man weiß dann weniger durch die Vermessung über sich Bescheid als mehr.
00:27:19: Also ich für diesen Gedanken.
00:27:20: jetzt weiter.
00:27:20: Wenn die Aufklärung damit begonnen hat, die Welt zu vermessen, damit es uns besser geht, damit wir ein besseres Leben führen und wir jetzt zum Ende dieses Projektes gekommen sind, weil wir sozusagen alles vermessen haben, wenn das so ist, wie sehen Sie die weltpolitische Lage gerade?
00:27:41: Was passiert da vor dem Hintergrund dieses Endes der Vermessung?
00:27:46: Wir sprechen ja auch von Unbereichenbarkeit.
00:27:49: Donald Trump beweist, dass es völlig unmöglich ist, ihn zu berechnen.
00:27:54: Es scheint ein neuer politischer Stil zu sein.
00:27:57: Völlige Unbereichenbarkeit.
00:27:58: Ist das eine Rückwärtsbewegung?
00:28:00: Ist das etwas, was einfach auf das Ende dieser Vermessung folgt?
00:28:06: Diese beiden Aspekte würde ich jetzt nicht miteinander vermengen.
00:28:09: Also ich habe jetzt darüber gesprochen, wie die Sprachmaschine die Welt uns darstellt und wir gehen davon aus, dass das immer mehr unser Verständnis der Welt auch beeinflussen wird.
00:28:20: Aber erstens ist das noch nicht so weit.
00:28:22: Wir sind noch am Anfang dieses Prozesses und zweitens ist Trump natürlich jemand, der ohnehin recht wenig als Schnittpunkt von Diskosen betrachtet werden kann, als Ergebnis von etwa politischen Papers über Politik, die sich dann in ihm, die er dann sozusagen reproduziert, weil er eben ganz voluntaristisch.
00:28:51: das macht, was ihm einfällt und das ist eben unberechenbar.
00:28:56: Während beiden, der ist eher bestimmten Kriterien gefolgt, zu denen die politische Theorie etwa gekommen ist, was jetzt sich als praktikabel erweist und so weiter.
00:29:09: Und das kann man ein bisschen berechnen, wie beiden zu seinem zu seinen Verhaltensweisen kam und dadurch ist er auch und war dann auch die Außenpolitik der USA berechenbarer.
00:29:24: Das trifft aber auf Trump nicht zu und es ist kein Problem der Sprachmaschine, sondern das ist ein Problem von Trumps Persönlichkeit.
00:29:30: Aber auch, weil er hat natürlich nicht umsonst jetzt die Präsidentschaft zweimal gewonnen, es ist eben auch eine Reaktion wahrscheinlich auf auf Ermüdungserscheinungen in der Gesellschaft, wo man einfach das unberechenbare oder das zerstörerische, diese Zerstörungswut hat, um aus dem, was bisher da war und was eben zuberechnet war, als Politik auszubrechen.
00:30:02: Aber das würde ich, wie gesagt, entkoppeln von dem, was in der Sprachmaschine passiert.
00:30:07: Also ich habe es zusammengetan eher im Sinne eines Zeitgeistes, wo auf der einen Seite eine absolute Bereichenbarkeit ist, eine Bereichenbarkeit, die wir uns gar nicht mehr vorstellen können und gleichzeitig eine Unbereichenbarkeit, die Welt flutet, also ob diese zwei Gegensätze nicht zusammenspielen, ob das nicht unser Zeitgeist ist, dass das eine sozusagen das andere bedingt, das jetzt vielleicht ein bisschen spiritual oder esoterisch.
00:30:36: Also so habe ich es eher gemalt.
00:30:38: Ja,
00:30:39: also das ist schon ein interessanter Gedanke, den man natürlich spekulativ verfolgen sollte.
00:30:44: Vielleicht ist das die Unberechenbarkeit und sozusagen der Trend zur Unberechenbarkeit in der Politik oder überhaupt im menschlichen Handeln.
00:30:53: Das ist jetzt sicherlich noch nicht eine Reaktion auf die Sprachmaschinen, aber es könnte sich verstärken in Reaktionen auf den steigenden Einfluss der Sprachmaschinen auf die Welt sozusagen als Gegenbewegung.
00:31:15: Das kann ich mir schon vorstellen.
00:31:17: Ein optimistischer Versuch.
00:31:20: Kann uns KI helfen, ein globales Bewusstsein, eine globale Sprache zu entwickeln?
00:31:26: Das ist die große Frage, die sich stellt, weil wir hier eine Technologie haben, die global operiert.
00:31:33: Und dann muss man diese Frage natürlich angehen.
00:31:36: Diese Frage war in den neunziger Jahren mal stärker in der Politik auch behandelt worden als jetzt, als man noch meinte, Geschichte ist zu Ende und es wird jetzt alles ein System und die Kulturen wachsen.
00:31:54: ineinander im Zeitalter der Globalisierung.
00:31:57: Inzwischen hat man festgestellt, dass das nicht der Fall ist und dass sich die Kulturen durchaus eher in einem Klash bewegen.
00:32:04: Also, dass Samuel Handtinken damit seinem Klash of Civilization das letzte Wort behält und nicht Fukuyama.
00:32:16: Und die Sprachmaschinen, die kommt jetzt in dieses neue, in dieses politische.
00:32:21: Problem fällt, dass es eben verschiedene Perspektiven gibt, die sich nicht miteinander versöhnen lassen hinein und soll, aufgrund ihrer Technologie, eigentlich müsste eine Einwertesysteme entwickeln, weil sie ja als eine Stimme spricht.
00:32:39: Und das ist faktisch unmöglich.
00:32:41: Das wird auch schon sehr früh in den Papers dazu reflektiert, also in den Papers der KI-Unternehmen.
00:32:48: Sam Ordmann hat auch sehr früh darüber in Interviews gesprochen, dass es nicht klar ist, dass man die Frahmuschine das Wertesystem nicht universell ausrichten kann, was aber OpenEI dann nicht daran gehindert hat, ChatchiPity trotzdem global einzusetzen.
00:33:03: Und der Trend jetzt geht dahin, dass man das personalisiert im Hinblick auf Gruppenidentitäten oder kulturelle Identitäten bis hin zur persönlichen individuellen Identität.
00:33:18: Das wäre dann die Gegenbewegung, die sicherlich einfacher zu machen ist, auch politisch einfacher durchzusetzen, Individualisierung, aber natürlich das Problem der Filterblase noch verstärken wird, sodass wenn die Sprachmaschine dann die gleichen moralisch sensiblen Fragen, etwa wo sind die Grenzen der Meinungsfreiheit?
00:33:48: Welche Rechte soll man der LGBTQ-Community zugestehen?
00:33:55: Wie geht man mit Gottes Lästerung um?
00:33:59: Dass diese Fragen dann unterschiedlich beantwortet werden, je nachdem, welche ideologische oder religiöse Perspektive die Nutzerin der Sprachmaschine hat.
00:34:10: In diese Richtung geht jetzt die Entwicklung.
00:34:13: Da gibt es auch Modelle dafür, dass Sprachmaschinen mit unterschiedlich moralischen Perspektiven zum gleichen Problem ausgerüstet werden und dann praktisch entsprechend des Promptes oder der Annahme, die die Sprachmaschine über die Nutzerin hat.
00:34:31: Und sie werden uns ja besser kennen, diese Dinger als wir selbst, weil sie ja all unsere Kommunikation, die wir bisher mit ihr betrieben haben, und wenn sie das EGI dann auch noch Zugang zu unseren E-Mails und anderen Dokumenten hat, das wird ja alles zugrunde liegen und analysiert werden von der Sprachmaschine.
00:34:48: Also sie wird uns besser kennen als wir selbst und sie wird uns dann faktisch die Antworten präsentieren, die wir wahrscheinlich erwarten.
00:34:56: Das heißt, wir werden gar nicht mehr aus dieser Blase herauskommen, die uns schon die sozialen Medien getrieben haben.
00:35:03: muss man nicht betonen, dass das dann für die Gesellschaft ein Problem ist, denn wir werden ja trotzdem uns noch begegnen, wenn wir uns mal von der Sprachmaschine wegentbewegen auf die Straße.
00:35:14: Dann werden wir trotzdem noch dem anderen begegnen und haben es dann absolut verlernt, überhaupt mit anderen Perspektiven umzugehen.
00:35:24: Das sehe ich als die große Gefahr.
00:35:26: Aber ich sage immer, da muss irgendwas dazwischen liegen.
00:35:29: Zwischen dieser Sküller, der globalen Sprachpolizei, die jetzt überall das gleiche Erwertesystem aufsetzt und dieser Schereptis der personalisierten Sprachmaschinen, die dann das Filterblasenproblem erhöhen.
00:35:46: Irgendetwas dazwischen, was das sein kann, ist halt nicht so klar, weil wir diese Frage eben noch nicht wirklich diskutieren in der Gesellschaft.
00:35:54: Ich habe in einem Interview von Ihnen gelesen, dass Sie sich ungern mit Apokalypse beschäftigen, weil Ihnen das zu spekulativ ist.
00:36:02: Was müsste denn in der Entwicklung von Sprachmaschinen passieren, das ist doch noch tun?
00:36:09: Gut, ich würde mal so sagen, wir haben ja so die kleinen, weniger spektakulären Apokalypsen, die schon stattfinden.
00:36:19: Die laufen unter dem Begriffen Deskilling und Cognitive Dead.
00:36:24: Wir häufen eine cognitive Schuld an, indem wir kognitive Tätigkeiten immer mehr an Sprachmaschinen oder an die KI sagen wir mal allgemein Auslagern und dann immer weniger in der Lage sind diese Dinge noch ohne diese Hilfe zu erledigen.
00:36:42: und das heißt wir machen uns immer mehr abhängig von diesen von diesen Technologien.
00:36:50: und das ist nicht.
00:36:50: und aber das ist nicht Das ist eigentlich nicht der Punkt.
00:36:53: Ich habe jetzt nicht die Angst, dass die Technologie, dass der Strom weggeht und die Technologie dann oder das Internet wegbricht und wir dann nicht mehr von A nach B kommen oder nicht mehr Text schreiben können, weil die Sprachmaschine das nicht mehr und wir müssen das dann selber machen.
00:37:06: Nein, die Befürchtung, die ich habe, ist, dass wir das eben selber nicht mehr können.
00:37:11: Und das wäre die Apokalypse auch für die Gesellschaft, dass wir das kritische Denken, also das Denken überhaupt und damit verbunden ist ja auch eine kritische Reflexion dessen, was ist und dem wir begegnen, dass wir das verlernen.
00:37:25: Und das ist eine sehr schlechte Grundlage für eine Gesellschaft, die auf Deliberation aufbaut, die davon lebt, dass man unterschiedliche Perspektiven miteinander diskutiert und das im Idealfall natürlich das beste Argument zwanglos gewinnt.
00:37:47: Aber das auf jeden Fall man akzeptiert, wenn die anderen mehr Menschen hinter ihre Argumente bringen können, dass sie dann das Sagen haben sollen und dass es eben zu einem Machtwechsel auch in der Gesellschaft kommt, was Demokratie ausmacht.
00:38:04: Wenn wir das alles verlieren, weil wir uns gar nicht mehr auf komplexe Dinge einlassen können oder auf den anderen, dann ist das ... in meinen Augen schon eine kleine politische Apokalypse, die bereits stattfindet und deren Eruption wir wahrscheinlich in einigen Jahren erfahren werden.
00:38:26: Und das ist also, bevor jetzt die Superintelligenz dann die ganz große Apokalypse vielleicht mit sich bringt.
00:38:32: Sie schreiben auch, dass Sprachmaschinen dazu führen, dass Wahrheit zu Mehrheit wird.
00:38:39: Weil sie sozusagen Wahrheit und Wirklichkeit werden errechnet nach statistischer Häufigkeit.
00:38:43: Somit haben wir es damit zu tun, dass Wahrheit errechnet wird oder Wahrheit Mehrheit wird.
00:38:49: Genau diese Formulierung habe ich gefunden bei einem Freiheitsphilosophen, bei Chidukrishnamurthi, der schreibt in einem Essay, dass Wahrheit immer Mehrheit ist.
00:39:01: Damit macht er sozusagen, weißt er darauf hin, dass Wahrheit Menschen gemacht ist und eher was Statistisches und Soziologisches als etwas Spirituelles.
00:39:11: Jetzt kommt meine Frage, es ist auch die letzte.
00:39:15: Kann es sein, dass uns dieser Zusammenhang, dass uns Sprachmaschinen bewusst machen, dass Wahrheit Mehrheit ist oder dass sie aus Mehrheit Wahrheit macht?
00:39:28: Kann uns dieses Bewusstsein dazu bringen, dass wir spritueller werden?
00:39:39: lieber anders beantworten.
00:39:41: Ich möchte mich jetzt nicht auf die Zukunft des spirituellen und dem Beitrag dazu durch die Sprachmaschine einlassen, sondern eher das aufgreifen, dass die Wahrheit in der Mehrheit liegt.
00:39:52: Die Soziologie kennt das ja auch unter dem Begriff der normativen Kraft des Faktischen.
00:39:58: Und es liegt ja auch im Begriff irgendwie drin, dass das Normative aus dem kommt, was die Norm ist.
00:40:04: Und die Norm ist eben das, was die meisten machen.
00:40:07: Und das ist eine Überlegung, die demokratietheoretisch ist und mit der wir an das demokratietheoretische Fundament der Sprachmaschinen kommen.
00:40:20: Denn die Sprachmaschinen sind sehr in Favour dieses Modells, nicht durch das Feintuning.
00:40:28: Da werden sie meistens anders gewichtet, aber in ihrer Mathematisierung, in ihrem mathematischen Modell, in ihrem mathematischen Blick auf die Welt, also nach dem Motto, dass die höchste Wahrscheinlichkeit immer dominiert, sind sie genauso angelegt, dass die Wahrheit in der Mehrheit steckt.
00:40:48: Nun, das Problem dazu wird deutlich, wenn wir jetzt überlegen, da wird es jetzt wieder politisch, dass Trump eine Revolution des Common Sense ausgerufen hat.
00:41:04: Und das ist auch im Kontext einer Attacke gegen die Ideologisierung der Sprachmaschinen.
00:41:13: Eine seiner Verordnungen aus dem Juli dieses Jahres ist ja gegen die woken Sprachmaschinen.
00:41:21: Kampf, den auch Gede Vance auf dem Pariser KI-Gipfel im Frühjahr geführt hatte und die Appellation, dass die Maschinen neutral sein sollen und dass sie eben das, was man als die Ansicht einer kleinen moralischen Elite annimmt, also jetzt Diversity, Antidiskriminierungsfragen und so weiter, Inclusion, also all diese Aspekte einer eher linksliberalen Perspektive auf die Welt, dass das eben nicht die Mehrheit darstellt, nicht dem gesunden Menschenverstand, wie Trump sagen würde, entspricht und dass die Sprachmaschinen aber auf dem gesunden Menschenverstand beruhen sollen.
00:42:14: Und deswegen kommen dann auch Vorschläge, dass man die Werte aus Richtung dieser Sparmodelle demokratisch abstimmen lassen soll.
00:42:25: Und zwar gemäß des US, des Wahlverhaltens in der USA.
00:42:32: Und das heißt, dass dann würden die Maschinen eben in Richtung Trump sich bewegen, weil er hatte das Popular Vote.
00:42:40: gewonnen, er hat die Mehrheit in den USA nicht nur über die Wahlmänner gewonnen in der letzten Wahl.
00:42:46: Also da merken wir, dass, dass sich hier haben wir es dann mit demokratietheoretischen Fragen zu tun, die auf einer anderen Ebene als der der Medien Philosophie zu klären wären, nämlich in der politischen Theorie.
00:43:02: Aber es ist sehr interessant, also wenn man die Macht hätte, zu bestimmen und in einer Gesellschaft das zu diskutieren.
00:43:11: Und wenn man dann die Macht hätte, das Ergebnis dieser Diskussion den KI-Unternehmen auch verpflichtend, die KI-Unternehmen zu verpflichten, diesem Ergebnis zu entsprechen in der Ausgestaltung ihrer Sprachmaschine, dann müsste man diese Frage erst mal klären und es ist mir momentan völlig unklar zu welchem Ergebnis man dann kommen wird.
00:43:35: Das könnte zur Not sein, dass man sagt, wir müssen die Demokratie vor der Mehrheit retten.
00:43:39: Und das wäre kein neuer Gedanke.
00:43:41: Die Demokratie vor der Mehrheit.
00:43:43: Ja, man sagt immer, man muss in der Demokratie, in der Demokratie muss es auch Instanzen geben, die die Minderheit vor der Mehrheit rettet, deswegen repräsentative Demokratie auch.
00:43:54: Aber im Grunde, ja, sind wir jetzt Momentan an dem Punkt, also auch mit der ganzen Bewegung nach rechts der verschiedenen Parteien in Österreich, in Deutschland, in den USA, anderswo, könnte man das fast so ausweiten und sagen, man muss die Demokratie vor der Mehrheit retten.
00:44:15: Könnte sein, dass Sprachmaschinen in der Zukunft demokratisch programmiert werden?
00:44:20: Haben Sie vorhin so einen Gedanken gehabt?
00:44:22: Ja, ja, der war vorhin drin, also wenn wir diese Diskussion führen.
00:44:27: und dann zu einem Ergebnis kommen, wie wir Sprachmodelle instruieren sollen.
00:44:35: Also dann wäre das, oder ich fange mal so an, also das wäre ja dann eben nicht demokratisch, man würde demokratisch zu einem Ergebnis kommen, wie die Maschinen instruiert werden sollen und das dann, wenn die Politik eben diesen Schritt gehen will und sie geht denn ja meistens nicht, weil sie sich nicht in die Entwicklung, in die Wirtschaft einmischen will.
00:44:59: Aber wenn sie diesen Schritt gehen würde, würde man das dann den KI-Unternehmen auftragen, das umzusetzen.
00:45:06: Weil man eben die Sprachmaschinen auch als Teil der sensiblen Infrastruktur betrachtet, die man nicht dem Willen und auch nicht der Vermarktungslogik von KI-Unternehmen, von immerhin profitorientierten Unternehmen überlassen kann.
00:45:22: Also das wäre möglich, wenn man in einer groß angelegten Diskussion, in der dann eben diese KI-Unternehmen, aber auch Vertreter der Politik, der Wissenschaft und der Zivilgesellschaft zusammenkommen und die Frage des Wertesystems diskutieren und auch inwiefern man eben unterschiedliche Wertesysteme zulässt, parallel oder inwiefern man das dann trennt, kulturell bedingt oder inwiefern man sie eben gegeneinander stellt und so eine Art postmoderne Sprachmaschine produziert, die eben nach einer Auskunft seiner sensiblen Frage etwa was ist Glück oder was bedeutet menschliche Freiheit, dann eben auch die Perspektive aus dem, die konfuzianistische Perspektive oder die islamische oder eine indigene Perspektive zu der gleichen Frage präsentiert und somit zeigt, dass es unterschiedliche Perspektiven gibt.
00:46:18: Das könnte man technisch sicherlich umsetzen, da muss die Sprachmaschine dann eben in verschiedene Räume des Vektoraums gehen und dort nach den Daten, die es dazu gibt, nach den Quellen suchen.
00:46:29: So etwas müsste man aber erst mal gesellschaftlich entscheiden, ob man das will.
00:46:34: Und das würde dann in so einer Art demokratische Ausrichtung der Sprachmaschine gehen.
00:46:41: Das wäre demokratisch schon insofern.
00:46:44: weil es das Ergebnis einer demokratischen Diskussion ist, was auch immer dann das Ergebnis ist, aber es wäre das Ergebnis einer demokratischen Diskussion, während jetzt es eine Handvoll an Menschen sind in den Behaviourlaps der KI-Unternehmen, die am Ende das bestimmen, in welche Richtung das Wertesystem der Sprachmaschinen entwickelt wird.
00:47:05: Wäre das oder ist das ein optimistisches Zukunfts-Szenario im Umgang mit Sprachmaschinen oder in der Entwicklung von Sprachmaschinen?
00:47:12: Das ist eines insofern, als ich zumindest weiß, was ich mir wünschen würde.
00:47:20: Wenn Sie mich jetzt fragen, ob ich das für praktikabel oder wahrscheinlich halte, dass das eintritt, muss ich Ihnen sagen, da bin ich nicht so optimistisch.
00:47:29: Ich glaube, wir werden weiterhin auf Sicht fahren, so wie schon bei den sozialen Netzwerken.
00:47:33: Die Politik wird sich da nicht groß reinhängen, weil das Thema für sie auch zu komplex ist.
00:47:39: Es werden die Spezialistinnen in diesem Bereich zu wenig dann auch in die Diskussion einbezogen, in die politische Diskussion.
00:47:47: Man hat zu viel Angst vor den großen KI-Unternehmen, man ist zu beeindruckt von ihrer Lobbyarbeit und es wird zu diesen Diskussionen wahrscheinlich, also zu dieser demokratischen Diskussion über das Value-Alignment der KI wahrscheinlich nicht kommen.
00:48:02: Aber zumindest wüsste ich, was ich mir wünschen würde und es wäre genau das und das ist ja immerhin ein Anfang.
00:48:09: Jetzt doch mal eine allerletzte Frage.
00:48:11: Wenn man so ein Buch fertig geschrieben hat, dann... kommt man ja am Ende dann noch drauf.
00:48:14: Ach, diese Frage wäre ja auch noch interessant.
00:48:16: Und da habe ich vergessen oder man bekommt im Feedback eine gute Frage.
00:48:21: Wenn Sie jetzt einen zweiten Teil dieses Buches schreiben würden, mit welchen Fragen würden Sie sich beschäftigen oder mit welcher Frage würden Sie starten?
00:48:29: Also da fragen Sie mich jetzt recht früh.
00:48:31: Das Buch ist ja vor einer Woche erst erschienen und so viele öffentliche Feedbacks gibt es noch nicht.
00:48:37: Und die, die es gibt, sind alle sehr positiv und haben dann noch keine Manko-Listen erstellt und ich wüsste momentan auch nicht, was ich vergessen habe.
00:48:47: Ich weiß natürlich, was ich rausgekürzt habe, weil das Buch ja auch über eine bestimmte Länge nicht gehen sollte.
00:48:52: Also ich weiß, was man noch ausbauen könnte.
00:48:56: Aber ich glaube, ich habe die Kürzung des Buches, des ursprünglichen Manuskrips, so vorgenommen, dass alle wesentlichen Aspekte trotzdem behandelt sind.
00:49:05: Und momentan ist mir jetzt noch kein Gap aufgefallen.
00:49:11: Vielen Dank.
00:49:14: Ich wünsche viel Erfolg.
00:49:15: Mein Buch ist auf dem Weg.
00:49:16: Ich habe mich erst in die Anleitung gelesen, die gibt es öffentlich zugänglich auf einer Seite des Beckverlags.
00:49:23: Ja, ich weiß, ich weiß.
00:49:25: Und wenn das Buch auf dem Weg ist, dann beglückwünsche ich Sie dazu.
00:49:30: Ich habe noch keins im Handel erwerben können, weil die erste Auflage ja schon vergriffen ist.
00:49:36: Und die zweite offenbar noch nicht bei den Händern angekommen ist, also ich höre es von vielen, dass sie das Buch gar nicht erwerben können, was man als Autor natürlich mit einem lachenden und einem weinenden Auge sieht.
00:49:49: Man freut sich über die Nachfrage, die der Verlag dann offenbar unterschätzt hat.
00:49:55: Aber man wünschte sich natürlich, dass genug Exemplare da wären, sodass die Nachfrage auch so gleich jetzt, wo sie da ist, gestülpt werden kann.
00:50:03: Also
00:50:03: ich glaube, das trifft auf jeden Fall eine nervte Zeit.
00:50:06: Und ich bin glücklich darüber, mal eine qualifizierte Sicht der Dinge zu hören und nicht immer dieses ökonomische und machtpolitische hin und her.
00:50:18: Insofern vielen Dank.
00:50:21: Das war das Ziel meines Buches, diese Perspektive zu entwickeln.
00:50:23: Und ich danke Ihnen, dass wir darüber hier sprechen konnten.
00:50:27: Und ich danke Ihnen für die klugen Fragen, die mich dann sozusagen zum Frechen anregten.
00:50:33: Das war Folge sechsundzwanzig.
00:50:35: Vielen Dank fürs Zuhören.
00:50:37: Die Geschichte unserer Zukunft erscheint in den nächsten Monaten unregelmäßig und nicht mehr wöchentlich, da ich an einem Roman schreibe.
00:50:45: Liebe Grüße aus einem Fischerdorf in Marokko und ... Bis zur nächsten Folge!
Neuer Kommentar