Ethik in der KI beschreibt die moralischen Grundsätze, nach denen Systeme entwickelt, trainiert und eingesetzt werden. Sie soll sicherstellen, dass Technologien dem Menschen dienen und nicht schaden.
Dabei geht es um grundlegende Werte: Transparenz, Fairness, Verantwortung und Datenschutz.
Eine KI sollte nachvollziehbar handeln, niemanden diskriminieren und Entscheidungen so treffen, dass sie gesellschaftlich vertretbar sind.
Ein Beispiel: Wenn ein Algorithmus über Kredite entscheidet, muss sichergestellt sein, dass er nicht unbewusst Menschen wegen Herkunft, Geschlecht oder Alter benachteiligt. Hier zeigt sich, dass ethische Prinzipien nicht nur theoretische Ideen sind, sondern konkrete Auswirkungen auf das Leben von Menschen haben.