Prüfungsorganisationssätze
Prüfungsnummer |
Semester |
Termin |
Prüfer/-in |
Abschluss |
151003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
82
105
20
|
17010
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E1
BWI
14
|
16010
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E4
BWI
14
|
19010
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
19003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
121005
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
82
105
14
|
15002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E3
BWI
14
|
17002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
17001
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
LH
977
11
|
16002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E4
BWI
14
|
17010
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
17003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
19002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
14
|
151004
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
82
105
20
|
16002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E3
BWI
18
|
17002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E1
BWI
14
|
16003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E3
BWI
18
|
15004
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
18
|
15002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E1
BWI
18
|
15003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
18
|
15003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E1
BWI
18
|
18001
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
L2
127
11
|
18001
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
L2
127
18
|
15002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E2
BWI
18
|
15010
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E3
BWI
14
|
121004
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
82
105
14
|
151002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
82
105
20
|
16002
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E4
BWI
18
|
16003
|
20231
|
01
|
Näger,
Paul
(Dr.)
(574158)
|
E4
BWI
18
|
Inhalt
Kommentar |
Die stetig wachsenden Anwendungsfälle künstlicher Intelligenz (KI) – seien es Kundenbewertungen, dynamische Preisanpassungen, Assistenzprogramme für Anwälte, selbstfahrenden Autos oder autonome Waffensysteme – werfen eine Reihe von ethischen Fragen auf, die nicht technisch sondern nur philosophisch beantwortet werden können. Wie viel menschliche Kontrolle ist nötig, wenn man ein KI-System ethisch relevante Bewertungen vornehmen oder Entscheidungen treffen lässt? Wie kann man in tiefen neuronalen Netzwerken Transparenz garantieren? Wer ist verantwortlich, wenn ein KI-System zu moralisch oder rechtlich unzulässigen Ergebnissen führt? Welche ethischen Prinzipien oder Präferenzen sollen in eine KI eingebaut werden, wenn diese z.B. entscheidet, wer bei unvermeidbaren Unfällen durch ein selbstfahrendes Auto verletzt wird? Wie kann man verhindern, dass KI rassistisch wird, wenn die Trainingsdaten es sind? Diese und ähnliche Fragen behandeln wir in diesem Seminar und runden unsere Überlegungen ab durch einen Blick auf die langfristigen ethischen Folgen von KI (z.B. Massenarbeitslosigkeit) und auf die Frage, ob es Umständen gibt, unter denen man KI personalen Status und damit Rechte zuschreiben sollte. Das Seminar setzt auch eine Freude an der Beschäftigung mit den technischen Hintergründen von KI voraus.
|
|
Bemerkung |
Die Anforderungen an Studien- und Prüfungsleistungen unterscheiden sich für Master- und Bachelorstudierende. Bei Bachelorstudierenden dient die Veranstaltung der Vermittlung grundlegender Kenntnisse und Kompetenzen, bei Masterstudierenden dient sie der Vertiefung und Erweiterung.
|