Podcast "Selbstbewusste KI"

Kann Künstliche Intelligenz ein Bewusstsein entwickeln? Wie könnte das überhaupt funktionieren, und was würde das für uns bedeuten? 12 Folgen, 12 Gespräche mit Expertinnen und Experten und eine gemeinsame Abschlussrunde. Autor: Karsten Wendland, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS), Karlsruher Institut für Technologie (KIT)

Podcast-Episoden

#23 Christian Hugo Hoffmann: Verantwortung aufteilen in Mensch-Maschine-Teams

Der Unternehmer, Philosoph, Ökonom und Publizist Christian Hugo Hoffmann sieht blinde Flecken in der KI-Entwicklung. Gemeinsam sprechen wir über Unterschiede der Intelligenz von Menschen, Tieren und Maschinen und wie diese Differenzen ihn zu seinem neuen Buch motiviert haben. Weiter geht es darum, inwiefern sich die Intelligenzforschung auf falschen Pfaden befindet, um Alleinstellungsmerkmale menschlicher Intelligenz sowie über die Simulationstheorie. Für die Zukunft sieht Christian Hugo Hoffmann die Zuschreibung von Verantwortung nicht nur beim Menschen oder nur der Maschine, sondern auch in Mensch-Maschine-Teams. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY In dieser Episode genannte Quellen:  Website von Christian Hugo Hoffmann: https://www.christian-hugo-hoffmann.com The Quest for a Universal Theory of Intelligence: https://www.degruyter.com/document/doi/10.1515/9783110756166/html Human Intelligence and Exceptionalism Revisited by a Philosopher: 100 Years After 'Intelligence and its Measurement': https://www.ingentaconnect.com/content/imp/jcs/2022/00000029/f0020011/art00003 Judea Pearl: http://bayes.cs.ucla.edu/jp_home.html Causality von Judea Pearl: http://bayes.cs.ucla.edu/BOOK-2K/ The Book of Why von Judea Pearl: http://bayes.cs.ucla.edu/WHY/ Yuval Noah Harari: https://www.ynharari.com/de/ Reality Plus von David Chalmers: https://www.suhrkamp.de/buch/david-j-chalmers-realitaet-t-9783518588000 Alpha Go: https://deepmind.google/technologies/alphago/ Technological Brave New World? Eschatological Narratives on Digitization and Their Flaws von Christian Hugo Hoffmann: https://scholarlypublishingcollective.org/psup/posthuman-studies/article-abstract/6/1/53/343530/Technological-Brave-New-World-Eschatological?redirectedFrom=fulltext

Erschienen: 27.11.2023
Dauer: 01:09:52

Weitere Informationen zur Episode "#23 Christian Hugo Hoffmann: Verantwortung aufteilen in Mensch-Maschine-Teams"


#22 Sebastian Rosengrün: Wiederverzauberung der Welt statt zauberhafter Technik?

Der Philosoph und Linguist Sebastian Rosengrün arbeitet zu Chancen und Gefahren Künstlicher Intelligenz im Wechselspiel mit der Gesellschaft. Er warnt davor, Chatbots als moralische Instanzen anzuerkennen und pocht darauf, der Gesellschaft mögliche Konsequenzen solcher Zuschreibungen aufzuzeigen. Statt uns magischer Science-Fiction-Geschichten hinzugeben sollten wir uns mit realen Fehlentwicklungen konfrontieren – um sie abzuwenden. Gemeinsam sprechen wir über Essays, die von Chatbots geschrieben wurden, welche Irrtümer man in KI-Entwicklung hineinprojizieren kann, und warum man den Podcast Selbstbewusste KI hören sollte. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Lizenz: CC-BY In dieser Episode genannte Quellen: Sebastian Rosengrün (2021): Künstliche Intelligenz zur Einführung. Junius Verlag. Sebastian Rosengrün bei der CODE University Berlin. Max Tegmark (2017): Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz. John R. Searle (1980): Minds, brains, and programs. Joseph Weizenbaum (1966): ELIZA – A Computer Programm For the Study of Natural Language Communication Between Man And Machine. Joseph Weizenbaum (1978): Die macht der Computer und die Ohnmacht der Vernunft. Suhrkamp Verlag.  F. Geier, S. Rosengrün (2023): Die 101 wichtigsten Fragen – Digitalisierung.  Hilary Putnam (1960): Minds and Machines. Raymond „Ray“ Kurzweil, der US-amerikanische Autor, Erfinder, Futurist und Leiter der technischen Entwicklung bei Google.

Erschienen: 14.11.2023
Dauer: 00:55:49

Weitere Informationen zur Episode "#22 Sebastian Rosengrün: Wiederverzauberung der Welt statt zauberhafter Technik?"


#21 Karl Olsberg: Unkontrollierte bösartige KIs erwarte ich eher als die Lösung des Alignment-Problems

In seinen Romanen beschreibt der Science-Fiction-Autor Karl von Wendt (Pseudonym Karl Olsberg) zukünftige Welten, in den Menschen mit moderner Technik konfrontiert sind. Er zeigt, wie ihnen die Kontrolle über diese Technik entgleitet - bis hin zur Gefahr der völligen Vernichtung unserer Spezies. Anders als in seinen Romanen lässt sich in unsere realen Welt jedoch kein Held hineintexten, der die Menschheit vor dem Untergang retten kann. Karl von Wendt blickt mit Sorge auf zukünftige KI-Entwicklungen, insbesondere auf die Herausforderungen des Alignments von KI an verschiedenartige Wertekonzepte unterschiedlicher Menschengruppen. Seine Romane sollen die Leser zwar unterhalten, aber auch mahnen. So erzählt er auch, warum er das Moratorium zum 6-monatigen KI-Entwicklungsstopp des Future of Life Institutes mitunterzeichnet hat.  Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann In dieser Episode genannte Quellen: Aktuelles Buch von Karl Olsberg: Virtua Website von Karl Olsberg (aka Karl von Wendt. Das Moratorium zum 6-monatigen Stopp der KI-Entwicklung des Future of Life Institute. Der kanadische Informatiker und KI-Forscher Yoshua Bengio. 8 Schreibregeln des US-amerikanischen Science-Fiction-Schriftstellers Kurt Vonnegut. Wie ist es, eine Fledermaus zu sein? Vom US-amerikanischen Philosophen Thomas Nagel. Der Film Matrix in der International Movie Database IMDb. Das Jugendbuch Infernia von Karl Olsberg, in welchem die Figuren im Videospiel ein Bewusstsein haben. Der Open-AI Gründer Sam Altman. Die KI AlphaFold, die die Faltungsstruktur von Proteinen vorhersagen kann.

Erschienen: 08.11.2023
Dauer: 00:51:57

Weitere Informationen zur Episode "#21 Karl Olsberg: Unkontrollierte bösartige KIs erwarte ich eher als die Lösung des Alignment-Problems"


#20 Helen Piel & Rudolf Seising: In der deutschen KI-Geschichte ging viel um „Geist" und wenig um Bewusstsein

Helen Piel und Rudolf Seising sind Wissenschaftshistoriker am Deutschen Museum in München. Gemeinsam sprechen wir darüber, wie sich Forschung im Bereich der Künstlichen Intelligenz über die vergangenen Jahrzehnte verändert hat. Wir sprechen über die Entstehung des Begriffs Künstliche Intelligenz auf der Dartmouth-Konferenz 1956, den KI-Winter Anfang der 1970er und Versuche der Etablierung von „Intellektik“ als verbindende Fachwissenschaft zwischen Informatik und Kognitionswissenschaften. Es geht um blinde Flecken in der Wissenschaft, warum oft Jahrzehnte in falsche Richtungen geforscht wurde und wird, und wie alte Ideen wieder neu ins Zentrum der Relevanz rücken können. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY In dieser Folge erwähnte Quellen: Anmeldung zur Abschlussveranstaltung des IGGI-Forschungsprojekts in München: https://forms.gle/Lu38A9YZTTPi9xS7A Helen Piel: https://www.deutsches-museum.de/forschung/person/helen-piel-2 Rudolf Seising: https://www.deutsches-museum.de/forschung/person/rudolf-seising-2 IGGI – Ingenieursgeist und Geistesingenieure: Eine Geschichte der Künstlichen Intelligenz in der Bundesrepublik Deutschland: https://www.deutsches-museum.de/forschung/forschungsinstitut/projekte/detailseite/iggi-ingenieur-geist-und-geistes-ingenieure IGGI-Teilprojekt: Verarbeitung von Bildern von Dinah Pfau: https://www.deutsches-museum.de/forschung/person/dinah-pfau-2 Dartmouth Conference 1956: https://aitoolsexplorer.com/ai-history/the-dartmouth-conference-the-event-that-shaped-ai-research/ René Descartes „Theorie der zwei Welten“ (Dualismus): https://www.dasgehirn.info/entdecken/meilensteine/rene-descartes-vater-der-leib-seele-theorie Wolfgang Bibel: http://www.intellektik.de/index/WolfgangBibel.htm  Studienführer KI (Bibel/Eisinger/Schneeberger/Siekmann): https://link.springer.com/chapter/10.1007/978-3-642-72963-8_1 Perceptron von Frank Rosenblatt: https://blog.hnf.de/frank-rosenblatt-und-das-perceptron/ Mythos Golem: https://www.nzz.ch/nzzas/nzz-am-sonntag/kultur-mythos-golem-ld.120179 Josef „Sepp“ Hochreiter: https://www.jku.at/institut-fuer-machine-learning/ueber-uns/team/sepp-hochreiter/ H. Piel, R. Seising (2023): Perspectives on Artificial Intelligence in Europe. IEEE Annals of the History of Computing. https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=10197444

Erschienen: 01.11.2023
Dauer: 01:07:08

Weitere Informationen zur Episode "#20 Helen Piel & Rudolf Seising: In der deutschen KI-Geschichte ging viel um „Geist" und wenig um Bewusstsein"


#19 Joachim Keppler: Nicht das Gehirn ist Sitz des Bewusstseins – seine Kopplung an das Bewusstseinsfeld generiert bewusste Zustände.

Der theoretische Physiker Joachim Keppler forscht zu Bewusstsein mit strengen naturwissenschaftlichen Ansprüchen. Der Direktor des DIWISS-Instituts erläutert im Podcast, wie Bewusstsein in die Physik passt, dass Bewusstsein seinen exklusiven Ort gar nicht im Gehirn hat, und warum es sich vielmehr lohnt, das Hirn als Koppler an ein physikalisch beschreibbares Bewusstseinsfeld zu betrachten. Wir diskutieren die Frage, inwiefern man ein solcherart verstandenes Bewusstsein manipulieren oder gar hacken könnte, und natürlich, inwiefern Künstliches Bewusstsein auf diese Art möglich wäre.  Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY  In dieser Folge erwähnte Quellen: Forschungsinstitut DIWISS: https://www.diwiss.de Wissenschaftliche Konferenz "The Science of Consciousness 2023": https://tsc2023-taormina.it/ Keppler, Joachim (2023): Scrutinizing the Feasibility of Macroscopic Quantum Coherence in the Brain: A Field-Theoretical Model of Cortical Dynamics. Frontiers in Physics 11:1181416. doi: 10.3389/fphy.2023.1181416 (June 2023) https://www.frontiersin.org/articles/10.3389/fphy.2023.1181416/full Keppler, Joachim (2021): Building Blocks for the Development of a Self-Consistent Electromagnetic Field Theory of Consciousness. Frontiers in Human Neuroscience 15:723415. doi: 10.3389/fnhum.2021.723415 (September 2021) https://www.frontiersin.org/articles/10.3389/fnhum.2021.723415/full Keppler, Joachim (2020): The Common Basis of Memory and Consciousness: Understanding the Brain as a Write-Read Head Interacting With an Omnipresent Background Field. Frontiers in Psychology 10:2968. doi: 10.3389/fpsyg.2019.02968 (January 2020) https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02968/full Originalarbeit zum Sender-Empfänger-Modell von Shannon und Weaver: A Mathematical Theory of Communication. By C. E. SHANNON (1949) https://web.archive.org/web/19980715013250/http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf Zero-Point-Field: https://www.scientificamerican.com/article/follow-up-what-is-the-zer/#    

Erschienen: 24.10.2023
Dauer: 00:55:57

Weitere Informationen zur Episode "#19 Joachim Keppler: Nicht das Gehirn ist Sitz des Bewusstseins – seine Kopplung an das Bewusstseinsfeld generiert bewusste Zustände."


#18 Florian Arnold: KI-Segnungsroboter für verlorene Schäfchen - delegiertes Genießen, Mediengag oder Dehumanisierung?

Der Philosoph und Designtheoretiker Florian Arnold positioniert sich kritisch gegenüber modernen Segensrobotern oder KI-Religionen wie Way of the Future. Gemeinsam sprechen wir darüber, was Menschen dazu bewegt, solche Angebote anzunehmen, wie eine Gottheit funktioniert, die aus einem Quellcode besteht, wie diese Strukturen entstehen, sowie über die Zukunft der Kirche. Außerdem sprechen wir über Interpassivität, wie GPT einen Gottesdienst geschaffen hat und warum man einem KI-Gott nicht einfach den Stecker ziehen kann. Redaktion, Aufnahmeleitung und Produktion: Annelie Hirth, Robin HerrmannHerausgeber: Karsten Wendland Licence: CC-BY In dieser Folge erwähnte Quellen: Way of the Future church: https://techcrunch.com/2021/02/18/anthony-levandowski-closes-his-church-of-ai/ BlessU-2-Segensroboter:https://www.ekhn.de/aktuell/gluecksegen/ueber-den-segen/segensroboter-blessu-2.html K Allado-McDowell: https://www.kalladomcdowell.com KI-generierte Predigt auf Evangelischem Kirchentag 2023: https://www.businessinsider.de/leben/ki-gottesdienst-diese-predigt-wurde-von-chat-gpt-geschrieben/ Bruno Latour: http://www.bruno-latour.fr

Erschienen: 17.10.2023
Dauer: 01:12:23

Weitere Informationen zur Episode "#18 Florian Arnold: KI-Segnungsroboter für verlorene Schäfchen - delegiertes Genießen, Mediengag oder Dehumanisierung?"


#17 Sascha Benjamin Fink: Mitleid könnte eine sinnvolle technische Funktion für Maschinen sein

Sascha Benjamin Fink kennt sich aus mit Schmerzerleben, Bewusstsein und Psychedelika. Der Professor für Neurophilosophie an der Universität Magdeburg forscht zu Neurophänomenalem Strukturalismus und kann verstehen, warum man darunter leiden kann, niemals einen Ferrari zu besitzen. Wir sprechen über die Möglichkeit leidensfähiger Maschinen und das „harte Problem“ des Bewusstseins. Außerdem berichtet er aus seinem neuen Forschungsprojekt PsychedELSI, das erste beeindruckende Ergebnisse in kontrollierter Therapie mit Psychedelika hervorbringt. Gemeinsam überlegen wir, inwiefern dies perspektivisch auch etwas für bewusste KI-Systeme sein könnte – High AI. Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY   In dieser Folge erwähnte Quellen:   Website von Sascha Benjamin Fink: http://finks.de Neurophänomenaler Strukturalismus: https://philosophymindscience.org/index.php/phimisci/article/download/9154/8692 PsychedELSI:  https://psychiatrie-psychotherapie.charite.de/forschung/suchterkrankungen/psychedelic_substances_research_group/research_projects/psychedelsi/ Sein-Sollen-Differenz: https://www.spektrum.de/lexikon/philosophie/sein-sollen-differenz/1840 Ebbinghaus-Illusion: https://www.newworldencyclopedia.org/entry/Ebbinghaus_illusion Müller-Lyer-Täuschung: https://www.spektrum.de/lexikon/neurowissenschaft/mueller-lyer-taeuschung/7991 EROWID Datenbank: https://www.erowid.org Projekt COGITATE Accelerating Research on Consciousness: https://www.arc-cogitate.com Bernstein Center for Computational Neuroscience Berlin:  https://www.bccn-berlin.de

Erschienen: 10.10.2023
Dauer: 01:06:09

Weitere Informationen zur Episode "#17 Sascha Benjamin Fink: Mitleid könnte eine sinnvolle technische Funktion für Maschinen sein"


#16 Wir sollten Technik schaffen, die rückholbar ist. Im Gespräch mit Vincent C. Müller.

„Humane KI“ steht im Leitbild von Vincent C. Müller, dem Direktor des Centre for Philosophy and AI Research (PAIR) an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Technik müssen wir so gestalten, dass wir sie ggf. auch wieder zurückholen können, wenn unvorhergesehene Technikfolgen eintreten oder Werte und Ziele sich ändern, so dass die Technik nicht mehr passt. Für den Humboldt-Professor gehört ethische Reflexion zum professionellen Handeln aller, die Technik entwerfen und in die Welt setzen. KI und Digitale Systeme sollten wir einsetzen, um die grundsätzlichen Herausforderungen der Menschheit aktiv anzugehen.   Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY, DOI: folgt.  In dieser Folge erwähnte Quellen: Centre for Philosophy and AI Research (PAIR) an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU): https://www.pair.fau.eu Alan Turing Institute, https://www.turing.ac.uk MÜLLER, Vincent C.; AYESH, Aladdin. Revisiting Turing and His Test: Comprehensiveness, Qualia, and the Real World. 2012. https://philpapers.org/archive/MLLRTA.pdf Zum Ford Pinto Skandal: https://www.encyclopedia.com/science/encyclopedias-almanacs-transcripts-and-maps/ford-pinto-case  

Erschienen: 03.10.2023
Dauer: 01:10:19

Weitere Informationen zur Episode "#16 Wir sollten Technik schaffen, die rückholbar ist. Im Gespräch mit Vincent C. Müller."


#15 Die Entwicklung bewusster Systeme ist nicht besonders sinnvoll. Im Gespräch mit Klaus Mainzer.

Der Mathematiker, Physiker und Philosoph Klaus Mainzer hält es nicht für besonders sinnvoll, Maschinen zu bauen, die über ein Ich-Bewusstsein verfügen. Ihm ist es hingegen wichtig, dass in der Bevölkerung ein stärkeres Bewusstsein für Technik entsteht, dass Funktionsprinzipien besser verstanden und auch Grenzen besser eingeschätzt werden können. So könnte es gelingen, die breite Technikskepsis zu überwinden. Bezugspunkte im Gespräch sind u.a. Leibniz, Hilbert, Gödel, Penrose und natürlich aktuelle technische KI-Entwicklungen.   Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Karsten Wendland Licence: CC-BY, DOI: folgt.  In dieser Folge erwähnte Quellen: Klaus Mainzer, Reinhard Kahle: Grenzen der KI – theoretisch, praktisch, ethisch. Springer 2022.  Alan Turing: On computable numbers, with an application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, 2, 42 (1937), S. 230–265. Online-Fassung Gottfried Wilhelm Leibniz: Theodizee (Originaltitel: Essais de Théodicée). Amsterdam 1710. Chat GPT: https://chat.openai.com Grundrechte: https://www.bundestag.de/gg/grundrechte Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematik und Physik. 38, 1931, S. 173–198, doi:10.1007/BF01700692.  Ungelöste Probleme der Mathematik: https://mathworld.wolfram.com/topics/UnsolvedProblems.html Pause Giant AI Experiments: An Open Letter, https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Roger Penrose: Computerdenken: die Debatte um künstliche Intelligenz, Bewußtsein und die Gesetze der Physik: Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Physik. Spektrum 2009. 

Erschienen: 26.09.2023
Dauer: 01:12:43

Weitere Informationen zur Episode "#15 Die Entwicklung bewusster Systeme ist nicht besonders sinnvoll. Im Gespräch mit Klaus Mainzer."


#14 Trailer zu Staffel 2

Trailer zur zweiten Staffel unseres Wissenschaftspodcasts Selbstbewusste KI Wir sind zurück, wir schreiben nun das Jahr 2023, und unser Wissenschaftspodcast „Selbstbewusste KI“ geht in die zweite Runde.  Wieder mit hochkarätigen Gästen und mit unterschiedlichen Perspektiven auf unsere Frage, inwiefern Künstliche Intelligenzen - oder allgemeiner: Synthetische Systeme – zu eigenem Bewusstsein befähigt sein könnten – und was das dann für uns bedeuten würde. Autor: Karsten Wendland. Licence: CC-BY.

Erschienen: 21.09.2023
Dauer: 00:05:59

Weitere Informationen zur Episode "#14 Trailer zu Staffel 2"


Podcast "Selbstbewusste KI"
Merken
QR-Code