Argumentationsanalyse: Gefahren der AI
Dieses Repository wurde archiviert. Es wird seit längerer Zeit nicht mehr gewartet.
- Im Ordner Argdown findet Ihr alle Argdown-Dateien.
- In Quellen findet Ihr die Textgrundlagen, d.h. alle zitierten Papers
- in res befinden sich zusätzliche ressourcen wie die bibtext-Bibliothek, die wir verwenden oder der Zitationsstil
- in output findet ihr die Karten. Auch die zoom-bare Web-Component
- Auf der obersten Ebene befinden sich nur Notizen, unser Projektbeschrieb und das Journal.
Beschreibung
Die Artificial Intelligence (AI) gewinnt zunehmend an Wichtigkeit in unserer Gesellschaft. Obschon die Forschung bezüglich AI schon in den 50er-Jahren begonnen hatte, ist das Thema erst in den letzten Jahren hochaktuell geworden. Gründe dafür sind technologischer Fortschritt, aber auch Notwendigkeit in Industrie, Kommerz, Militär und Gesellschaft. Das positive Ertragspotential solcher Technologie ist immens. Und so sind auch die Gefahren. Es lässt sich nur schwer prognostizieren, wie sich die Menschheit mit der Verwendung von AI entwickeln wird. Klar ist aber, dass sich die AI schon in der heutigen Welt nicht mehr wegdenken lässt. Zukünftige Generationen der AI-Technologien werden wirtschaftlich effizienter und mächtiger werden. Viele Personen aus der Politik, Industrie und Akademie haben sich dazu geäussert. Neben Proponenten der AI gibt es auch sehr kritische Ansichten, die eine oft dystopische Zukunft voraussagen. Im Jahr 2015 verfassten Wissenschaftler des Institutes «Future of Life» einen «Open-Letter»; das Papier «Research Priorities for Robust and Beneficial AI», welches auf die verschiedenen Gefahren und Chancen in der AI-Entwicklung hinweist. Dieses 10-seitige Dokument benutzen wir als Einstiegshilfe und mithilfe von Artikeln und Papern aus der ausführlichen Bibliografie, auf die sich dieser "Open Letter" stützt und als Textgrundlage dient, können wir die verschiedenen Argumente rekonstruieren. Wir untersuchen dabei die Gefahren der AI-Entwicklung.