Episode 12: Rechtliche und ethische Fragen

KI-Seminare

 

Episode 12: Rechtliche und ethische Fragen

 

Isaac Asimov postulierte 1942 die drei Gesetze der Robotik:

Erstes Gesetz: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit die Verletzung eines Menschen zulassen.

Zweites Gesetz: Ein Roboter muss die Anweisungen eines Menschen befolgen, es sein den, dies führt zu einem Konflikt mit dem ersten Gesetz.

Drittes Gesetz: Ein Roboter muss sich selbst erhalten, solange dies nicht in Konflikt zum ersten oder zweiten Gesetz steht.

 

Asimov – kein Informatiker, sondern berühmter Science-Fiction-Schriftsteller – wir heute noch von vielen KI-Experten zitiert, als handle es sich bei den drei Gesetzen der Robotik um Naturgesetze. Leider vermitteln diese Regeln ein naives und ehrer romantisches Bild. An drei Beispielen besprechen wir, wie es in Realität aussieht.

 

Wir auf folgende Fragestellungen ein:

  • Können Maschinen moralische Entscheidungen treffen?
  • Wie können gesellschaftliche Werte und Rechtsvorschriften beim Systementwurf berücksichtigt werden?
  • Was passiert, falls Unternehmen und Regierungen das Verhalten von Kunden bzw. Bürgern vorhersagen können?
  • Wer trägt die Verantwortung, falls KI-Systeme versagen?
  • Praxisbeispiel: Autonomes Fahren, Chatbots und digitale Angriffe auf KI-Systeme

_Beispiel autonomes Fahren
_d

Breaking neural networks with adversarial attacks