Wie wir verhindern, dass KI uns versklavt... - Human Compatible von Stuart Russell

Fabian Rittmeier (00:00.271)
Und wir sind live! Hallo und herzlich willkommen zu einer neuen Folge schwarz auf weiß, eure Bücher Podcast. Mein Name ist immer noch Fabi und auf der anderen Seite hört ihr wie immer den Simon.

Simon (00:02.826)
Maschine!

Simon (00:15.72)
Und heute haben wir euch ein Buch mitgebracht, was euch endlich dabei helfen wird und auch diese Folge euch dabei helfen wird. KI und die Gefahren davon und wie wir auch diese Gefahren vorbeugen können, ähm, quasi zu verstehen und auch mal ein bisschen zu wissen, ey, was reden die hier alle, was ist hier mit der Zeitung, muss ich hier wirklich so Angst haben, da schon mal voraus, nein, so viel Angst muss man nicht haben, wie aktuell teilweise geschürt wird. Doch, bevor wir reinstarten, erst mal noch eine kleine Werbung für etwas, was nichts mit Computern zu tun hat, sondern ganz im Gegenteil.

mit sehr viel schöner Natur und zwar GEMS Jäger .ch. Unser Freund Maxi baut nachhaltige Schier aus Holz. Sie sind noch gerade dabei, dass sie mit dem Pfauenhofer Institut gemeinsam eine Klebebindung entwickeln, dass quasi auch der Kleber alles nachhaltig ist. Also ihr könnt dann am Ende sogar sagen, hey, wenn ich jetzt die Schier 10 Jahre, 15 Jahre irgendwie gefahren hab, jetzt brauche ich sie nicht mehr, schneide ich sie in zwei, schmeiße sie auf meinen Kompost und die werden dann gut da quasi von Schnecken und so weiter verdaut.

Also das Nachhaltigste was ihr am Berg haben könnt, sieht geil aus, flitzt richtig schön runter. Müsst ihr schauen auf Gemsjäger, gemsjäger mit ae .chi. Ja das ist auch ein Domain und packen wir euch auch gerne in die Show Notes. Und jetzt aus der Werbung rein in die Folge.

Fabian Rittmeier (01:26.319)
Genau, und der Auto startet auch erstmal rein ins Buch mit den fünf größten Events, die seiner Meinung nach in der Zukunft der Menschheit passieren können. Und dazu gehört eben, wir sterben alle, zum Beispiel durch einen Asteroid -Einschlag. Wir leben alle für immer. Wir erobern das ganze Universum, weil wir schneller als Lichtgeschwindigkeit reisen können. Wir werden besucht von superintelligenten Aliens oder wir entwickeln eine superintelligente

KI und darum soll es in diesem Buch gehen. Was könnte das für Auswirkungen haben? Wie könnten wir vielleicht zu dem Punkt kommen? Was können wir tun, zu verhindern, dass die super intelligente KI uns vielleicht am Ende alle umbringen möchte? Vorweg, wir gehen so auf die erste Hälfte des Buchs ein, weil hinten raus wird es am Ende irgendwie nur noch eine Kritik an den Werken anderer Autoren. Das hat irgendwie keine Relevanz für das Thema meiner Meinung nach, deswegen einfach nur...

Simon (02:10.728)
Aus Versehen vor allem.

Fabian Rittmeier (02:24.399)
auf die Facts und die Meinung des Autors selber. Wie können wir verhindern, dass die Super KI uns alle umbringen wird? Ihr erfahrt's gleich.

Simon (02:32.839)
Und als erstes starten wir mal ein bisschen damit rein, wie überhaupt oder mit dem Problemstatement, mit dem Problem quasi was passieren könnte, wenn wir KI erschaffen, die intelligenter ist als der Mensch oder genauso intelligent oder auch nur annähernd so intelligent. Also es gibt ja immer diese Idee von dieser AGI im Englischen, die General Intentions, also du kannst ja etwas, was alles nachdenken kann, weil aktuell ist es so, wir haben jetzt schon KI -Systeme, die intelligenter sind als der Mensch.

Fabian Rittmeier (02:34.958)
Khm.

Simon (02:59.783)
Schon lange, seit den 80ern haben wir das. Das ist euch gar nicht aufgefallen, wenn ihr keine Schach -Nerds seid, weil da in den 80ern war es so, dass quasi der erste Schach -Computer den Menschen im Schach immer wieder geschlagen hat. Also heutzutage ist es einfach klar, der Mensch ist schlechter als der Computer im Schach. Also haben wir quasi schon eine Schach -Superintelligenz. Aber wovor es eigentlich immer geht, was quasi, was...

Also wovon wir immer sprechen, wenn wir von allgemeiner künstlicher Intelligenz sprechen, ist etwas, was quasi verschiedenste Bereiche abdecken kann. Also nicht nur quasi einen Bereich besser machen kann als der Mensch, zum Beispiel das Schach, sondern quasi allgemein, wie der Mensch auch sagt, okay, jetzt möchte ich neben dem Schach, möchte ich gerne Reiten lernen, das möchte ich mir Gedanken übers Universum machen und neue Mathematikregeln erfinden und so weiter und so fort. Darum geht es immer, wenn wir quasi von künstlicher Intelligenz sprechen.

Denn in einzelnen Bereichen haben wir schon etwas, was mehr kann als der Mensch. Viel mehr.

Fabian Rittmeier (03:50.287)
Genau, du hast es jetzt auch schon gesagt. Das Problem von der aktuellen KI ist, dass es sehr fokussiert ist immer auf ein nichiges Thema. KI kann eben nicht breit mehrere Aufgaben lösen, sondern immer nur ein Thema sehr gut. Man sieht das jetzt auch gerade aktuell im Kontext von ChatGPT zum Beispiel. ChatGPT kann eben sehr gut Sprache verstehen und zurückgeben. Wir müssen aber zunächst noch mal einen Schritt zurücktreten, glaube ich, und sagen, was Intelligenz überhaupt ist, zumindest nach der Auffassung des Autors.

hat der Auffassung des Autors, ist Intelligenz nämlich beim Menschen etwas, dass unsere Handlungen, unsere Ziele erreichen können. Und jetzt ist es auch schwieriger, auf einmal mit dieser Definition zu sagen, eine Maschine ist intelligent oder nicht, weil eine Maschine an sich erstmal kein eigenes Ziel hat. Das heißt aber jetzt, wenn das Beispiel von einem Schachcomputer jetzt ist, den Menschen im Schach zu besiegen, hat die Maschine ein Ziel.

und die Handlungen, die sie da hinführen, dieses Ziel zu erreichen, machen die Maschine intelligent. Das ist so ein bisschen die Begriffsdefinition, mit der wir hier spielen müssen. Da kommen wir nämlich gleich noch drauf zu sprechen, was passiert, wenn wir der Maschine eigene Ziele geben, die vielleicht gegen unsere Ziele sprechen oder wie man es schaffen kann, der Maschine Ziele zu geben, die uns gut tun, sag ich jetzt mal nett.

Simon (05:11.399)
Da vielleicht, also lass uns das doch gleich machen, weil es kommt doch gleich auf Seite 8 des Buches, also ganz am Anfang, ist quasi dieses Problem, dass der Mensch Sachen vorgibt und die Maschine aber dann auf dem Weg zur Lösung dieses Problems, dieses vorgegebenen Problems, Kollateralschäden hat. Und da finde ich ein Beispiel, was sehr gut ist, weil es schon lange so quasi eingesetzt wird, ist mit Social Media Algorithmen. Die Aufgabe eines Algorithmus von TikTok, von Facebook, von Instagram und so weiter und so fort

ist es, dass ihr mehr auf Werbung klickt. Das ist die einzige Aufgabe, weil Facebook und alle anderen Firmen sind gewinnorientiert, die wollen mehr Geld und mehr Geld verdienen die, wenn ihr auf die Werbung klickt. Und jetzt ist die Aufgabe des Algorithmus, das hinzubekommen, dass ihr mehr auf Werbung klickt. Jetzt ist aber ein Kollateralschaden davon, von diesen intelligenten Machine Learning Algorithmen.

dass es einfacher ist, euch auf Werbung klicken zu lassen, wenn ihr als Menschen einfacher denkt oder polarisierter denkt. So ist es nämlich leichter, Menschen einzukategorisieren, wenn ich genau weiß, es gibt zwei Spektren, zum Beispiel in den USA diese zwei großen politischen Spektren, heißt der Algorithmus hat ein Interesse daran,

die Leute immer mehr und mehr in die Radikalität, an die verschiedenen beiden politischen Enden des Spektrums quasi zu bringen, in dem Content angezeigt wird, der quasi das bevorzugt. Das ist noch nicht mal Absicht. Das ist keine intelligente KI -Maschine, die sagt, okay, ich mach das die Menschheit schlecht, sondern ist einfach so, ach, ich hab gemerkt, oder was heißt gemerkt, ist ja auch nur Mathematik, aber, cool, das erkennt so je mehr und mehr, wann solche euch Post ausspielt, desto mehr klickt ihr danach auf irgendwelche, keine Ahnung, Axtwerfe, Tutorials, die Werbung dafür, wie auch immer, weil ihr euch irgendwie vorbereiten wollt,

das Kapitol zu stürmen, wenn wir in den USA bleiben. Und das ist eben leider so ein Kollateralschaden, der halt passiert, wenn man das Ziel ungenau definiert oder als Mensch einfach sagt, ich habe dieses eine Ziel und alles andere auf dem Weg ist mir egal. Und was leider bei diesem Social Media Algorithmen passiert und dadurch die Gesellschaft immer weiter polarisiert wird.

Fabian Rittmeier (07:12.43)
Du hast das Ziel gerade schon angesprochen und Ziel ist insofern ein gutes Stichwort, weil wir natürlich auch immer eine gewisse Unwahrscheinlichkeit berücksichtigen müssen bei der Zielerreichung. Das heißt, wenn wir zum Beispiel, ich mach jetzt mal ein anderes Beispiel auf, wenn wir zum Beispiel zum Flughafen fahren wollen, weil wir in Urlaub fliegen, wir fahren ja, sagen wir, der Flieger geht 14 Uhr und ich müsste jetzt hier bei mir zu Hause, sagen wir mal

10 Uhr losfahren, dann habe ich 4 Stunden Seitenstunde, dann brauche ich zum Flughafen vorher einchecken und so weiter, dann ist auf jeden Fall genug Puffer da. Aber wer sagt mir denn jetzt, dass die S -Bahn fährt? Wer sagt mir denn jetzt, dass ich überhaupt zur S -Bahn hin komme, ohne von einem Auto angefahren zu werden? Also die Wahrscheinlichkeit ist sehr hoch, dass ich meinen Flug erwische, aber sie ist nicht bei 100%. Wenn ich die Wahrscheinlichkeit erhöhen wollte...

müsste ich also für mich unbequemere Maßnahmen einleiten, vielleicht einen Tag früher zum Flughafen anreisen oder so was, die Wahrscheinlichkeit zu erhöhen, dass es mit Sicherheit eintrifft. Und genau diese Abwägung machen Maschinen eben auch. Und das ist auch ein bisschen der Knackpunkt, wo sich die Maschine schwer tut, vielleicht im Vergleich zu uns. Wir haben Erfahrungsentscheidungen, Bauchentscheidungen, was man aber zum Beispiel durch Maschinen -Learning wiederum der Maschine trainieren kann.

ist diese Entscheidung gut oder schlecht. Also quasi diese Kosten -Nutzen -Funktion nennt das der Autor, die zu maximieren sozusagen. Das ist immer das Ziel, was wir eigentlich als Menschen tun und was eigentlich wir der Maschine zeigen müssen, wie es geht.

Simon (08:49.284)
kommt was ins Spiel, das nennt sich Spieletheorie, wo es quasi darum geht, dass verschiedene Akteure eben auch Einfluss haben und diese Akteure nicht vorhersehbar sind. Also genau das, was Fabian spricht, im Sinn von, okay, ich fahre zum Flughafen und werde irgendwie die S -Bahn -Felde aus oder es wird gestreikt für höhere Löhne. Das weiß ich vorher nicht. Also ich als Menschenagent und ich muss dann quasi auf diese Situation reagieren. Also es gibt quasi keine Blase in meinem Leben, wo nur ich

Dinge tue, wie zum Beispiel bei einem Schachcomputer, da gibt es halt wirklich nur der Gegner macht einen Zug, dann mache ich einen Zug und das war's. Da gibt es außenrum nichts von irgendwie Icarp Hunger oder irgendwie das Gebäude, wo Schach gespielt wird, brennt ab und so weiter und so fort. Das ist quasi alles in sehr kleinem Rahmen und je mehr quasi äußere Faktoren dazukommen, desto mehr Probleme haben wir durch Abwägungen. Auch zum Beispiel, wir haben intelligente Haushaltsroboter, die uns quasi helfen. Zum Beispiel Simon möchte gerne irgendwie den Einkauf

Möglichst schnell haben dann ist für den robot haben sinnvoll zu sagen ich ich laufe auf dem weg so schnell ich kann Quasi springen vor alle autos die werden schon irgendwie bremsen ich schmeiß fußgänger und so weiter sofort das will man auch wiederum nicht also man hat die Komplexität unserer welt ist nicht mit diesen einzelnen Vorgaben mit diesen einzelnen zielen Erklär also abbildbar das ist bei uns genauso wir haben zwar das ziel ich möchte möglichst schnell einkaufen aber dann kommt unser moralen spiel dann kommt unsere ziehung ins spiel von ja ok

aber ich sollte trotzdem an der Ampel vielleicht bei Rot stehen bleiben. Aber ich darf irgendwie der alten Dame vor mir in der Schlange keinen Ellenbogen ins Gesicht geben, damit ich vor ihr quasi an die Kasse rankomme und so weiter. Und diese ganzen sind alles einzelne Ziele, die wir quasi im Laufe des Lebens aufnehmen, die wir an der Maschine mitgeben müssten.

Fabian Rittmeier (10:38.606)
Und du hast es gerade gesagt, also diese Komplexität führt dazu, dass wir eben nicht eine einfache mathematische Funktion haben, wo wir sagen A plus B gleich C, sondern es gibt wahnsinnig viele Faktoren und die Berechnung sozusagen dieser Kosten -Nutzen -Kurve wird immer komplexer und komplexer. Was wir dafür jetzt brauchen, ist Rechenleistung. Und jetzt ist es so, dass in den letzten Jahren die Rechenleistung natürlich exponentiell zugenommen hat. Also man redet davon, das nennt sich Moore's Law.

Das heißt, dass die Rechenleistung von Computerchips sich roundabout alle zwei Jahre verdoppelt. Also vereinfacht gesagt. Das Moore's Law sagt eigentlich genauer, dass sich die Anzahl der Transistoren, also der einzelnen Schalter, wenn ihr so wollt, auf dem Chip verdoppelt. Aber wir machen jetzt mal equivalent Rechenleistung, dann kann man sich das besser vorstellen. Und dadurch, dass es sich alle zwei Jahre verdoppelt, haben wir eben so eine exponentielle Wachstumskurve in der

Rechenleistung die zur Verfügung steht und deswegen ist es auch möglich jetzt zum Beispiel bereits auf einem Handy, sagen wir mal so ein iPhone 15 hat, dass man da ein KI -Modell laufen lässt auf seinem Telefon. Das ist halt vor fünf Jahren überhaupt nicht möglich gewesen, weil die Rechenleistung dafür nicht zur Verfügung stand. Und jetzt kommen wir zu dem Punkt, wie machen wir diese Maschinen intelligent oder beziehungsweise noch mal was ist Intelligenz, weil da gibt es eigentlich eine ganz schöne Definition von einem der größten Informationstechniker, Mathematiker.

Wegbereiter der Informatik, nämlich Alan Turing. Den sogenannten Turing -Test, der im Prinzip sagt, wenn die Maschine dem Menschen vorgaukeln kann, ein Mensch zu sein, dann ist es eine intelligente Maschine. Ganz vereinfacht gesprochen. Das kann zum Beispiel so aussehen, dass ihr euch jetzt mit einem Chet GPT unterhaltet und glaubt, Chet GPT ist ein echter Mensch. Dann hat es den Turing -Test bestanden und somit wäre es nach der Definition eine intelligente Maschine.

nur ihr merkt die Definition ist wirklich sehr schwammig also wenn ich jetzt einen Schachcomputer habe der auch intelligent ist, ist der nach dem Masterclass halt nicht intelligent weil er mir nicht vorgaukeln kann ein Mensch zu sein

Simon (12:44.739)
Es kommt auch immer sehr auf den Fragesteller an, weil wir wollen allgemeine Intelligenz testen.

Dann muss ich da halt den Simon hinsetzen, der halt vielleicht irgendwie ein paar Informatikfragen fragt. Dann kommt aber vielleicht auch ein Physikprofessor, der halt das Universum mit diesem Chatbot diskutieren möchte und halt dann erkennt er, ja, okay, gut, das Universum versteht das Ding nicht. Oder dann kommt ein Mathematikmensch und lässt das Teil ein bisschen was rechnen und so weiter und so fort. Also man muss halt ganz viele Leute auch fragen. Also wenn ich sage, ich habe quasi eine einzelne Person, die das glaubt, dann ist es noch nicht vollständig. Aber das ist so ein bisschen...

Ja, da muss man, also da ist man da wirklich eine allgemeine Intelligenz. Also könnte man jetzt schon sagen, okay, JetGBT oder alles quasi von diesen Large Language Models sind halt KI -intelligente, KI -Maschinen, weil sie halt ein paar Menschen irgendwie überzeugen können, aber wenn man dann jemanden hinsetzt, der dann Spezialwissen mit denen vertestet, merkt man halt doch so, ja, okay, gut, alles können die dann doch wiederum nicht.

Fabian Rittmeier (13:39.405)
Und man kann relativ einfach, sag ich mal, also mathematisch bestimmen, ist eine Intelligenz sozusagen generell oder nicht, indem man eben verschiedene Probleme der Intelligenz gibt, diese versucht lösen zu lassen. Und wenn die Intelligenz halt bei allen Problemen in der Nähe der optimalen Lösung liegt,

dann kann man von einer generellen Intelligenz sprechen. Aber da sind wir tatsächlich noch weit davon entfernt, auch wenn das Menschen wie Elon Musk oder Sam Altman von OpenAI uns gerne anders vermitteln würden.

Simon (14:10.689)
verkaufen wollen schon fast sagen wir es mal so Was ich hier noch einen guten guten Zitat finde aus dem Buch ist einen schlechten oder einen nicht allwissenden Algorithmus einfach schneller laufen zu lassen hilft halt nicht dass man eine bessere Antwort bekommt, sondern bekommt nur die falsche Antwort schneller also auch alles so das war jetzt alles was quasi weiterentwickelt wird und so weiter ist halt ja es ist halt doch immer noch so dass wir nicht genau verstehen wie menschliche Intelligenz funktioniert also können wir es in eine Maschine auch noch nicht einbauen und jetzt nur zu sagen

Fabian Rittmeier (14:12.428)
Hehehehe

Simon (14:40.594)
Ich mache irgendwie diese Large Language Models, JetGBT, einfach immer größer, größer, größer, schneller, schneller, gibt mir halt nur potenziell die schnelle Antwort falscher und das ist halt so was, wo okay. Vermutlich diese Art von Künstlich -Intelligenz -Text -Erzeugungsmodellen noch nicht das Ende der Fahnenstange ist.

Fabian Rittmeier (15:02.317)
Sprechen wir ein bisschen über das Thema Training, was wir heute schon machen können. Wie wird ein KI -Modell überhaupt intelligent? Das ist nämlich dieser entscheidende Step, was wahnsinnig viel Geld kostet aktuell, die Unternehmen ihre KI -Modelle zu trainieren. Eine Methode, die sich da durchgesetzt hat, ist das sogenannte Reinforcement Learning. Das lässt sich im Prinzip genauso beschreiben, wie wenn jetzt einem

Hund einen Trick beibringen wollt. Ihr sagt dem Hund Sitz und wenn der Hund sich hinsetzt, gebt ihr ihm Leckerli und das verstärkt sozusagen dieses Learning von dem Hund. Genauso macht ihr das bei einer KI. Ihr gebt der KI einen Input, die KI gibt euch einen Output zurück und ihr sagt, ja, ist gut oder schlecht und die KI lernt sozusagen mit jeder Info, die ihr reingebt sozusagen dazu, was für einen Output gewünscht ist oder korrekt ist.

Simon (15:59.005)
Da das ganze kann supervised oder unsupervised funktionieren, also überwacht und nicht überwacht. Nur die englischen Begriffe werden meistens in diesem Bereich benutzt. Überwacht heißt genau das was Fabi eben angesprochen hat im Sinn von ich habe genau das Modell, das gibt mir irgendwie halt, ich sag hey, ich geb ein Bild von einem Hund rein, sag mal was da für ein Tier drauf ist und es kommt halt Katze zurück, dann sag ich hey, das ist falsch und muss aber ein paar Hand Ja und Nein machen.

Fabian Rittmeier (16:01.293)
Höhö

Simon (16:26.206)
Das erlebt ihr auch in eurem echten Leben aktuell, wenn ihr wieder bleibt. Wir bleiben jetzt bei dem Beispiel, weil es das bekannteste KI -Beispiel aktuell ist, aber bei JetGBT gibt es so diesen Daumen hoch, Daumen runter, wenn quasi eine Antwort euch gefällt oder nicht gefällt, unten in diesem kleinen Menü. Und genau das macht ihr da. Ihr helft quasi dann OpenAI das Modell besser zu machen, weil ihr halt sagt, hey, auf diesen Input hat mir die Out, hat mir die Antwort nicht gefallen und macht genau das, dass ihr dem Modell quasi sagt, hey, das war falsch, was du hier gemacht hast. Oder ihr macht das Ganze unsupervised, unüberwacht,

Und da hat man quasi, muss man einmal diese Daten vorher haben. Zum Beispiel ihr habt ein großes Daten -Set von Bildern, wo ihr genau wisst, hier sind Hunde drauf, hier sind Katzen und so weiter. Und dann lässt man das quasi einfach selber, das Daten -Set durchlaufen, testet es, ohne es quasi per Hand immer ja nein sagen zu müssen. Sagen wir das einmal vorher gelabelt oder dann gibt es noch viele weitere Möglichkeiten das Ganze zu machen. Zum Beispiel benutzt man zwei KI -Modelle, die sich gegenseitig so ein bisschen verbessern. Das eine sagt zum Beispiel, hey, ja das ist eine Katze, das andere weiß schon, ne Katze macht hier keinen Sinn, ich glaube Katze ist falsch.

dann gibt es so ein Ping Pong hin und her, da quasi halt rauszufinden, ja ok, wie kann man das Modell verbessern. Eine richtig coole Sache da fand ich, ich finde die auch visuell ganz spannend, ist man hat quasi, man möchte ein Modell darauf trainieren, dass es ein Bild von einem Pferd nimmt und daraus ein Bild von einem Zebra macht, also quasi schwarze und weiße Felsstreifen hinzufügt und dann hat man dieses eine Modell, was das tut und es gibt das zweite Überwachungsmodell, dieses für uns Super -Wise Learning, was

darauf trainiert ist Pferde zu erkennen und solange quasi das Pferde erkennen Model sagt hey das ist ein Pferd dann weißt du okay das Zebra erstellen Model hat noch nicht gut geklappt und so kämpfen die quasi gegeneinander versucht den anderen zu verarschen und wenn es dann geklappt hat dann weißt du irgendwann okay gut ich kann anscheinend jetzt gut Pferde in Zebras umwandeln also da gibt es schon wirklich viele lustige interessante Möglichkeiten damit herum zu spielen mit diesem supervised und unsupervised reinforcement learning

Fabian Rittmeier (18:24.047)
Ich glaube der Aspekt, der euch wahrscheinlich in der Anwendung am meisten interessiert, weil man ihn sich auch sehr gut vorstellen kann, ist dieses Thema selbstfahrende Autos. Und da kommen wir jetzt auch wieder so ein bisschen in dieses Komplexitätsthema rein, weil es gibt bereits seit den 80er Jahren Autos, die selbst fahren können, die die Spur halten können, die abbremsen können, die vielleicht auch einen Spurwechsel selbstständig durchführen können.

weil das alles auf der Autobahn bei geringem Verkehr einfach relativ einfach sind. Die Spielregeln sind relativ klar. Rechtsverkehr, wir haben die langsameren rechts, die schnelleren links und wir können über Sensoren relativ gut rausfinden. Bremst der vor mir ab zum Beispiel. Also dieses Level an selbstfahrend ist halt trivial. Aber wenn dann so Sachen dazu kommen wie, okay, wir müssen navigieren.

Ja, von A nach B zu kommen. Es sind vielleicht in der Stadt Fußgänger oder ganz viele einzelne Akteure unterwegs. Nicht große Autos, die man leichter erfassen kann, die sich schnell bewegen, die sich in verschiedene Richtungen bewegen. Wetter ist ein Thema. Vielleicht auch Baustellen auf der Route. Und auf einmal wird dieses einfache Selbstfahren riesig komplex, weil so viele Parameter wieder mit dazu kommen, dass wir es immer noch nicht geschafft haben. Komplett selbstfahrende Autos zuverlässig in

Serie zu bringen. Also klar, es gibt diese Modelle jetzt von Mercedes -Benz zum Beispiel, von Tesla, von BYD, die alle einen gewissen Grad Autonomie haben, aber halt noch nicht quasi diese Zuverlässigkeit erreicht haben, zumindest nach dem menschlichen Standard, also eigentlich noch schlechter performen als der Mensch, so dass wir die Aufgabe noch nicht an die Maschine abgeben wollen.

Simon (20:11.994)
Und da ist ein Problem, dass wir selbst nicht genau verstehen, wie unser Hirn Aufgaben runterbricht. Also z .B. auch sagen, wie kann ich diese vielen Input irgendwie immer auf das mich fokussieren, was gerade wichtig ist. Und da fand ich auch aus dem Buch eine Sache sehr gut, wo quasi Intelligenz von HI, KI ein bisschen anders definiert wird, von einem Herrn Whitehead, der quasi sagt, okay, man ist umso intelligenter, je mehr Sachen man machen kann, ohne darüber nachzudenken.

Also zum Beispiel jetzt hat hier während des Aufnehmen des Podcasts, denke ich über meine Worte nach, ich denke nach was ich euch sage, vielleicht auch nochmal in die Kamera zu schauen, aber dass ich jetzt gerade hier stehe, also dass mein Körper gerade dieses ganze Rumstehen und so irgendwie gerade hier einfach selber ohne Nachdenken vor sich irgendwie halt selbst erledigt.

Das ist halt schon eine Form von Intelligenz, okay, das kann ich einfach abgeben. Oder wenn ich sage, ich fahre im Auto, ich muss gar nicht mehr dran denken, wie mache ich das mit dem Lenkrad, wie mache ich das mit der Schaltung und so weiter. Ich fokussiere mich auf andere Sachen. Das fand ich eine ganz gute Definition von Intelligenz. Je mehr Dinge man machen kann, ohne groß darüber nachzudenken. Finde ich passt ein bisschen besser als dieses, okay, spielende Menschen vor, dass du ein Mensch bist. Weil man da einfach noch mehr Sachen irgendwie reinbauen kann.

Fabian Rittmeier (21:25.741)
Kommen wir jetzt mal zu dem Konzept von der Superintelligenz, was wir bis jetzt noch nicht haben. Also wir haben gerade ein bisschen die Hürden kennengelernt, wo stehen wir aktuell technisch. Jetzt kommt eigentlich der Step, wie können wir das auf das nächste Level bringen und wann könnte das passieren? Wann ist nach der These des Autos relativ klar, wir sind noch nicht so nah dran. Er denkt Mitte dieses Jahrhunderts, also 2050 rum, könnte es möglich sein, super intelligente Maschinen zu bauen.

und Superintelligenz in der Form... Ja, ist noch ein bisschen Zeit. Bis dahin sind wir Alzimun. Superintelligenz heißt jetzt in dem Fall eigentlich erst mal nur, intelligenter als der Mensch. Und die Hypothese ist, wenn es eine Maschine gibt, die intelligenter als der Mensch ist, dann kann diese Maschine wiederum Maschinen, andere Maschinen bauen, die noch mal ein Stück intelligenter sind. Und dann haben wir auf einmal diesen...

Simon (21:55.929)
Na gut, nur noch 20 Jahre.

Simon (22:03.001)
Hehehehe

Fabian Rittmeier (22:22.765)
Diese Intelligenz -Explosion, glaub ich, nennt der Autor das. Wo er auf einmal auch wieder, wie vorhin erklärt, bei den Computerchips ein exponentielles Wachstum bei der Intelligenzkurve der Maschinen haben. Und dann stellt sich die Frage, wie könnten die jetzt zum Beispiel physisch aussehen? Und da ist die Theorie zum Autor zum Beispiel, dass die eben nicht alle ihre Rechenkapazität lokal bei sich tragen, wie wir uns das immer vorstellen, wie wir unser Gehirn auf dem Kopf haben, sondern eben...

Simon (22:26.681)
Mhm.

Fabian Rittmeier (22:50.094)
die Maschinen alle vernetzt sind über das Internet und permanent im Datenaustausch miteinander stehen und vielleicht die Superintelligenz auf irgendwelchen Rechenzentren in irgendwelchen Clouds drinnen liegt und dort eigentlich für die lokalen Arbeiterbienchen, sag ich jetzt mal, die Kalkulationen übernimmt.

Simon (23:09.466)
Und da ist auch so ein bisschen, also es gibt ein paar Thesen, die wir jetzt in diesem Blog besprechen müssen, vor allem auch diese ganze Sache wie von euch, was machen wir, wenn das passiert, wenn die Maschine böse wird, wie können wir uns verteidigen? Aber eine Sache davor, was relativ sicher ist, ist, dass wenn wir irgendwann mal eine super intelligente Maschine, eine super intelligente KI erfinden, dann wird es die letzte Maschine sein, die wir je erfunden haben.

müssen oder werden. Also das ist Wissen ob man positiv drauf schaut oder negativ.

Weil dieses, okay, die Maschine kann selbst wiederum eine intelligentere Version von sich erstellen. Da reden wir vermutlich von Sekunden. Also ist dann einfach so, okay, wir haben es einmal geschafft, intelligenter als der Mensch zu sein, irgendwas zu bauen, was selbst quasi selber Sachen bauen kann, die intelligenter sind als das Ding selbst. Also wir Menschen haben dann Sachen gebaut, die intelligenter sind als wir. Und dann dauert es halt eine Sekunde später, das ist doppelt so intelligent und so weiter und so fort. Vermutlich geht es nicht bis in die Unendlichkeit weiter, weil Intelligenz für sich keinen Mehrwert liefert.

Also irgendwann ist quasi der Nachteil von mehr Intelligenz zum Beispiel Energieverbrauch und so einfach irgendwann gesehen, dass die Maschine vermutlich sagt, okay, ich bin jetzt intelligent genug, es hat keinen Vorteil quasi noch intelligenter zu werden.

Wie bei uns halt zum Beispiel auch. Also wir können eigentlich als Menschen, so das Gehirn kann nicht noch sehr viel größer werden, weil sonst passt es gar nicht mehr durch den Beckenboden einer Frau durch bei der Geburt. Deswegen werden Menschen ja schon so unfertig geboren und müssen noch ewig lang irgendwie 15 Jahre lang irgendwie weiter wachsen, weil unser Hirn so groß sein soll. Aber dieses riesen Hirn, dieser Riesenkopf muss ja auch irgendwie bei der Geburt irgendwo durchkommen. Von daher ist das alles immer noch sehr klein und wächst weiter im Vergleich zu anderen Tieren, die schon komplett fertig auf die Welt kommen. Wird es da auch sein, dass es irgendwann so ist,

Simon (24:53.833)
intelligent stagniert, weil es einfach keinen Sinn macht mehr intelligenter zu werden. Und eben ist die letzte Maschine, die wir hier bauen, weil die Maschine wird dann entweder für uns alles andere lösen.

Krebs und so weiter und so fort also kann sein dass es dann gut ist und einfach wir eben ab dem punkt keine probleme mehr haben weil die Maschine hat sagt ok so und so ist es quasi dass wir die probleme der Menschheit lösen das natürlich das ob der optimal fall das negative kann auch sein vielleicht hat die also das dann gibt es noch die neutrale variante die Maschine lebt einfach neben uns her so die Maschine hat kein interesse an uns also vielleicht ähnlich wie wir sagen ok ja gut wir menschen sind einfach irgendwie arschlöcher so aber ich meine eigentlich ist es halt so ja ok wir leben halt vor uns hin und eigentlich ist uns egal was vögel machen so abgesehen davon

dass wir sie irgendwie töten und so weiter. Aber eigentlich so, dass die Maschine da ist, macht ihr Ding, denkt übers Universum nach, macht ihr Stuff und lässt die Menschen einfach weiter Menschen sein. Oder halt der negative Punkt, die Maschine ist halt, der Mensch ist irgendwie ein Problem, der Mensch ist ein Zootier, der Mensch ist irgendwie etwas, was ich kontrollieren, was ich zerstören möchte. Das ist natürlich das, wovor wir alle Angst haben und wo es darum geht, von wie können wir das vorbeugen oder wie können wir uns dagegen verteidigen.

Fabian Rittmeier (26:00.588)
Du hast den Begriff Zoot hier gerade angesprochen. Der Autor nennt das ganze Gorilla Problem. Das heißt quasi das Problem, wie wir unsere Autonomie behalten können in einer Welt, die eben von einer Superintelligenz kontrolliert wird und vielleicht auch quasi unsere die Überhand sozusagen über die Superintelligenz behalten können, obwohl sie intelligenter ist. Und er nennt das ganze Gorilla Problem, weil im Prinzip

Gorillas das gleiche Schicksal haben wie wir in der Zukunft mit diesen intelligenten Maschinen Gorillas sind, weiß ich nicht, evolutionär glaube ich vor zehn Millionen Jahren ungefähr entstanden und sind halt jetzt quasi in den Lebensräumen in denen wir ihnen erlauben zu sein, in der Populationsdichte in denen wir ihnen erlauben zu sein. Der Mensch kontrolliert alles was diese Tiere angeht und nicht nur Gorillas sondern eigentlich grundsätzlich fast über alle Lebewesen auf dieser Erde haben wir die ja traurige

Hoheit, sag ich mal. Wir sind ganz oben in der Nahrungskette. Und was würde passieren, wenn jetzt über uns plötzlich eine Superintelligenz auftaucht? Eigentlich ein Problem, quasi dieses Problem, oder der erste Lösungsansatz für dieses Problem ist zu sagen, wir geben den superintelligenten Maschinen Ziele, die mit unseren übereinstimmen. Also ich nenne jetzt mal ein paar Beispiele.

Weiterexistenz der menschlichen Rasse sicherstellen. Wir wollen vielleicht Lebensqualität stärken, vieler Menschen global gesehen. Wir wollen Leiden verringern. All diese strebenswerten Ziele, sag ich mal, kann die KI aber plötzlich auch sehr stark misinterpretieren. Weil wenn die KI sagt, okay, nehmen wir mal, weiß ich nicht, irgendein armes Land in Asien,

Vietnam oder so, oder gibt es sicherlich noch ärmere. Aber wie können wir die Lebensqualität von den Menschen erhöhen? Na ja, ihr da drüben im Westen, ihr müsst jetzt weniger konsumieren. Ihr müsst weniger Treibhausgasemissionen in die Luft blasen. Und plötzlich wird da unsere Lebensqualität eingeschnitten. Was vermutlich das Richtige wäre, ja, global gesehen. Aber in dem Fall dann...

Fabian Rittmeier (28:18.732)
die KI sozusagen sich gegen die Menschen auf der einen Seite wendet, die Menschen auf der anderen Seite zu schützen, zu stärken, wie auch immer. Und das ist eben ein Problem, was wir mit diesen gemeinsamen Zielen trotzdem noch haben. Wir können dieses Problem dadurch nicht lösen, nur weil wir der Maschine die gleichen Ziele geben, wie der Menschheit global gesehen.

Simon (28:38.452)
Das gleiche Problem, was wir vorhin eben auch bei diesem Algorithmus hatten. Von eigentlich wollten wir nur, dass wir ein bisschen mehr Geld verdienen, ein bisschen mehr Werbung, aber der Nebeneffekt ist halt, dass die ganzen Gesellschaften quasi auseinanderdriften und quasi sich immer mehr radikalisieren. Das gleiche da halt auch. Also wir wissen halt nicht, wie die Maschine das lösen würde. Und dann können wir halt ganz, ganz viele...

Ja, macht das so, macht das so, macht das so quasi einbauen. Dann ist aber der nächste Problem, ist halt, ja, wir haben jetzt was geschaffen, was intelligenter ist als wir und vermutlich sehr viel intelligenter ist als wir. Wieso sollte sich die Maschine an diese von uns vorgegebenen Regeln halten? Weil sie könnte auch einfach sagen, ja, okay, gut.

Der Mensch will, dass ich das Gute für die ganze Menschheit tue, hat sich aber hier vertan, dass das Fortbestehen der Menschheit davon ein Teil sein muss. Ich ignoriere diese Regel oder ich verändere sie und am besten ist es für die Menschen, wenn wir einfach nur noch 10 Menschen auf der Welt haben in einem kleinen Menschenzoo. Ich denen immer gut schön Futterchen gebe, mich die kümmere, wenn die krank sind, pack ich die irgendwie, gebe ich denen Antibiotikum und so weiter und alle anderen Menschen müssen vernichtet werden. Also dieses, wir wissen einfach nicht, was die Maschine machen wird, genauso wenig wie der Gorilla.

wusste was der Mensch macht und was wir quasi wie wir dann irgendwie mit den Sachen umgehen und wir sagen, gut dies was diese kleinen dummen Menschen sich gedacht haben, das macht ja gar keinen Sinn und da gibt es halt immer noch diese Idee, gut dann machen wir halt einen großen roten Knopf hin, den wir irgendwie drücken können, da gibt es halt irgendwie keine Ahnung, die die wichtigen Führer der Welt dürfen halt dann diesen Knopf irgendwie hin und sagen, hey wir machen jetzt die KI wieder aus

Und dann ist halt das erste Problem, die KI wird uns halt, weil die ist ja intelligenter als wir, also wird sie verhindern, dass wir den Knopf drücken. Man kann natürlich auch sagen, okay gut, dass der Mensch den Knopf drücken soll. Das ist irgendwie auch immer halt als ein wichtiges Ziel. Und dann kommt man in ganz, ganz viele auch wieder sehr interessante Gedankenspiele rein. Weil wie macht man das? Man muss ja quasi dann der Maschine sagen, hey, ich gebe dir das Ziel, mach alle Menschen der Welt gesund und ich gebe dir das Ziel,

Simon (30:35.186)
Wenn ich will, dann muss ich dich ausschalten können. Wenn ich jetzt diesen Ziel eine Ungleichgewichtung gebe, zum Beispiel sage ich, okay Menschheit ist wichtig.

Punkt 2 ist mit dem Knopf, dann wird die Maschine alles tun, dass ich den Knopf nicht drücke, weil wenn ich den Knopf drücke, schafft sie ja ihr Ziel nicht, die Menschheit gesund zu machen. Jetzt mache ich es andersrum, weil ich sage, ich will immer auf jeden Fall die Maschine ausmachen können. Dann sage ich, okay, ich mache den Knopf als wichtigstes Ziel und dann die Menschheit gesund machen als zweitwichtigstes Ziel. Dann wird die Maschine alles versuchen, mich zu überzeugen, diesen Knopf zu drücken, weil eigentlich ihr wichtigstes Ziel ist, ausgeschaltet zu werden. Also dann gibt es wirklich, also packen wir euch mal ein YouTube Video auch hier in die Show.

unter dieses YouTube Video, Numberphile, wo sie das ganze durchgehen mit so einem Roboter, der sich dann die ganze Zeit selber ausmacht oder versucht den Menschen, dann sagt man irgendwie, okay, dann macht den Knopf irgendwo hin, wo die Maschine nicht selber ausmachen kann, beim Roboter irgendwie auf den Rücken, dass er damit den Händen nicht hinkommt, dann wird die Maschine alles versuchen, den Menschen zu überzeugen, diesen Knopf zu drücken. Und dann, nächstes Problem, dann sagt der Mensch vielleicht, okay gut, ich will den Knopf, du kannst mich nicht verarschen, so ich drück den Knopf nicht, dann fängt die Maschine ganz bewusst an, irgendwie böse zu agieren.

die ersten Menschen zu töten, damit der Mensch wieder darum sagt, boah fuck, wir müssen die Maschine ausmachen, den Knopf zu drücken. Also das ist so eine, wir können uns gar nicht vorstellen, was da alles für Szenarien reinkommen. Und ich glaube so ein Hauptding, was halt diese Klammer zu diesem Kapitel und auch ganz viel zu dem Buch irgendwie halt schafft, wir kommen gleich noch auf eine Methode, die der Autor vorschlägt, dieses Problem zu lösen, was wir dann so ein bisschen bewerten werden, aber ist halt...

Dieses Problem, eine Superintelligenz zu kontrollieren, ist ungelöst. Und was passieren kann, ist, dass wir leider...

Simon (32:16.402)
vielleicht schneller sind darin eine super intelligente zu bauen als ein weg zu erfinden sie zu kontrollieren was halt super dumm wäre weil wir dann haben wir halt was gebaut was wir nicht mehr kontrollieren können und haben so ein bisschen dieses atom bomben problem so von eigentlich wollten wir von heute auf morgen nur so ein bisschen irgendwie halt sauberer energie wie auch immer und jetzt haben wir auf einmal die mächtigste waffe der menschheit geschaffen und ganz neue probleme also von da das ist auch das wieso ist wie so es sich viele kaib researcher dafür aussprechen sagen hey wir sollten vielleicht erstmal jetzt mal die nächsten zehn jahre fokus darauf machen wie können wir das

den kontrollieren bevor wir es immer weiter und weiter entwickeln weil vielleicht haben wir sonst irgendwie aus versehen irgendwer in einem Keller der dann irgendwie was rausfindet und dann eine super Intelligenz baut und dann ist halt vorbei

Fabian Rittmeier (32:56.524)
Damit hast du eigentlich auch schon den zweiten Teil des Buchs so ein bisschen angeteasert, auf den wir jetzt gar nicht genau eingehen wollen, weil da geht es im Prinzip nur darum, dass er irgendwelche Argumente zerpflückt von Leuten, die sagen, hey, ich habe das Problem gelöst und er sagt, nee, nee, aber du hast das und das und das nicht bedacht, war auch nicht so geil zum Lesen. Der erste Teil war wesentlich, wesentlich besser, muss ich sagen, weil es halt auch sehr anschaulich beschrieben war und das, was du jetzt gerade noch mal erzählt hast, quasi was passiert eben, wenn...

die Ziele von der Maschine beziehungsweise der Zweck der Maschine, der Existenzzweck nicht der gleiche ist oder nicht 100 % gleich ist wie der des Menschen und das nennt er König Midas Problem. Dieses be careful what you ask for, sei vorsichtig vor dem was du dir wünscht. Wir wollen einerseits natürlich eine super intelligente Maschine, die für uns alle Probleme der Erde lösen kann. Keine Ahnung, saubere Energie, Überbevölkerung, Naturkatastrophen und so weiter und so weiter.

Aber auf der anderen Seite, wenn wir es nicht schaffen diese Maschine zu kontrollieren, haben wir eine wahnsinnig große Gefahr. Und du hast es gerade auch schon angesprochen, wenn wir diese Diskussion nicht mehr in den Fokus rücken, weil ich meine der Hype ist immer noch da, hey geil, wir haben hier die neueste technische Erfindung und hier sind wir noch besser geworden und mein GPT kann jetzt noch mehr Zero -Shot mir zurückgeben und und und.

dann haben wir eben genau dieses Problem immer noch. Was passiert, wenn es da ist? Wir sind nicht vorbereitet und es macht Sinn, absolut die Debatte auch ein Stück weit zu überführen. Und der Auto hat jetzt einen ganz, ja, ich finde jetzt nicht besonders originellen Ansatz, sage ich mal, aber es ist ein Ansatz, der zumindest vor dem, wie er das beschreibt, Sinn macht. Der Auto schlägt quasi vor, der Maschine erst mal das Ziel zu geben, hey, du bist unperfekt.

genauso wie dein Erschaffer. Richte dich nach den Vorlieben und Zielen und Anweisungen deines Erschaffers und versuche deinem Erschaffer oder deinem Chef, also er spricht jetzt zum Beispiel von einem Roboter, der eben im Haushalt mithilft, möglichst gut zu gefallen und alles zu tun, ihn zufriedenzustellen.

Simon (35:09.201)
Und da ist halt vor allem der große Unterschied zu was wir gerade besprochen haben, ist es gibt keine klare Vorgabe, weil wir jetzt eigentlich, was auch immer wir euch gerade erzählt haben ist, wenn es eine klare Vorgabe gibt, wird es Kollateralschaden auf dem Weg geben zu diesem klar definierten Ziel und die Maschine hat aber nur dieses Ziel vor Augen, also das Ziel eben, ich muss den Knopf ausmachen oder ich muss möglichst viele Werbung verkaufen auf Facebook und so weiter.

und quasi arbeitet nur auf dieses Ziel und alles andere fällt weg und was quasi die Idee ist zu sagen, hey, die Maschine kennt kein Ziel. Also dass man sagt, man nimmt dieses Problem weg, dass wenn der Mensch Ziele vorgibt, werden die Ziele immer Nebeneffekte haben, die wir nicht vorhersehen und die dann schlecht für uns sind. Und da ich dass die Maschine quasi kein Ziel kennt, kann sie nicht vollgas in eine Richtung rennen, sondern muss immer wieder schauen, okay,

Was glaube ich denn, was der Mensch will und dadurch quasi so defensiver agiert und sagt, okay, ich glaube jetzt gerade der Mensch will, dass ich ihm beim Wäsche machen helfe.

im Vergleich zu ich sage du musst mir am wäsche machen helfen und es läuft irgendwie mein dreijähriges kind vorbei und das ziel ist wäsche machen und das ding knallt aber dieses kind rollt über dieses kind drüber weil ziel ist halt wäsche machen wenn ich aber diese und dieses immer wieder nachdenken immer dieses wieder hinterfragen was will der mensch von mir drin habe dann

geht der Auto davon aus, dass die Maschine, die KI, die Situation immer wieder neu bewertet. Also zum Beispiel eben, ich glaube der Mensch will jetzt, dass ich beim Wäsche machen helfe. Rollt los, sieht das Kind, ich glaube er will aber auch von mir, dass ich das Kind, irgendwie, dass ich das wickel und so weiter. Also das ist die ganze Zeit quasi so eine, so ein...

Simon (36:49.489)
so ein Wabern ist von was will der Mensch, dadurch wird die Maschine vermutlich für diese eine Aufgabe, die sie machen soll ineffektiver, aber dadurch hoffentlich sicherer. Muss man auch sagen, vermutlich je sicher die Maschine ist, desto weniger mächtig ist sie. Das ist genau die Idee, dass wir sagen, wir nehmen der super intelligenten Maschine irgendwie halt Macht weg. Ist halt auch die Frage, also das gibt es zum Beispiel, das ist ein Begriff, den es beim Computerspielen gibt, Buffing, dass man sagt, okay, man hat zum Beispiel einen Spielehersteller, hat eine neue Funktion und die ist viel zu stark.

irgendwie in irgendeinem Ballerspiel wird eine neue Waffe hinzugefügt und die ist einfach die Oberwaffe, die ist ultra krass so und jetzt will ich aber, dass es irgendwie fairer ist und dann mach ich die quasi wieder schlechter, ja ok gut dann ist die Waffe nicht mehr so stark. Das gleiche bei der KI auch, also natürlich wenn ich sag, sie darf nicht so viel, muss immer nachfragen, vielleicht ist sie dann gar nicht mehr super intelligent, also vielleicht ist genau die Lösung, die der Autor quasi vorschlägt, lasst uns einfach keine super intelligenten Maschinen bauen, das war glaube ich so die zweite Ebene, die mir dann noch gekommen ist.

Fabian Rittmeier (37:47.177)
Genau, und wenn wir auf dem Dampfer eigentlich schon unterwegs sind, können wir uns auch gleich überlegen, ob es Sinn macht, überhaupt daran weiter zu forschen. Aber wir reden halt hier von einer Industrie, die potentiell halt 300, Größenordnung 300 Billionen US -Dollar potentiell an Optimierung und Wirtschaftsleistung erschaffen könnte, weil man natürlich immer mehr automatisieren könnte.

wenn man eine generelle Intelligenz hat, weil man kann die ja dann für alle Einsatzzwecke verwenden. Also ich kann die dann zum Beispiel statt einem Menschen ans Fließband stellen und Autos zusammenschrauben lassen, beziehungsweise gerade in der Autoindustrie gibt es eh schon viel Roboterfertigung oder Teilschritte, die von Robotern übernommen werden. Und der Mensch würde halt dann einfach eine nebensächliche Rolle quasi spielen. Und dann ist eben auch noch die Frage ungeklärt, was macht man mit diesen

ganzen Menschen. Also was tun die dann? Bekommen die dann so eine Art Bürgergeld oder wie würde unsere Gesellschaft aussehen? Würde das überhaupt noch funktionieren? All diese Fragen sind noch nicht beantwortet. Wir können sie euch auch nicht beantworten. Wir können euch nur empfehlen, den Podcast zu abonnieren, wenn ihr es noch nicht getan habt. Lasst uns gerne einen Like da, ein Abo da, wenn ihr uns auf YouTube zuguckt. Auch gerne einen Kommentar. Wir lesen alle Kommentare.

Simon (38:57.999)
Leider.

Fabian Rittmeier (39:10.185)
und versuchen immer schnellstmöglich zu antworten. Oder ihr teilt einfach diese Folge mit euren Freunden. Hey, guck mal hier, KI, alles was du wissen musst. SW Podcast hat es für dich zusammengefasst. Wir freuen uns über alle neuen Hörer und über alle bestehenden Hörer ganz viel Liebe an euch und wir hören uns in zwei Wochen wieder dann mit einer neuen Folge. Macht's gut, ciao.

Simon (39:30.287)
Liebe Geht raus, ciao!

Simon (39:34.639)
Tipptopp. Gute Folge für das Buch, finde ich, haben wir gut gemacht.

Wie wir verhindern, dass KI uns versklavt... - Human Compatible von Stuart Russell
Ausgestrahlt von