Verborgene Vorurteile – Wie KI unsere Entscheidungen prägt

Wir schreiben das Jahr 2025 und ihr vertraut bei eurer Wahlentscheidung für die Bundestagswahl auf die Hilfe von ChatGPT. Aber was passiert, wenn die KI unbewusste Vorurteile hat? In der neuen Episode Bits&Pieces gehen wir der Frage nach, wie Vorurteile in großen Sprachmodellen wie ChatGPT entstehen und welche Auswirkungen sie haben. Wir tauchen gemeinsam in die faszinierende Welt der KI-Systeme ein und diskutieren über ihre Herausforderungen und Chancen.

Hört rein am Mittwoch, 4. Dezember 2024 um 9 Uhr und erfahrt, wie ihr in eurem Alltag am besten mit diesen Vorurteilen umgehen könnt.

Shownotes

Es ist allgemein bekannt, dass Menschen Vorurteile haben – doch wie steht es um Künstliche Intelligenz? In dieser Episode werfen wir einen Blick auf Szenarien, in denen Bias in KI-Systemen weitreichende Auswirkungen haben kann, wie bei medizinischen Entscheidungen oder geschlechtsspezifischen Berufserwartungen. Wir diskutieren die Hintergründe und Auswirkungen von Bias in großen Sprachmodellen wie ChatGPT. Dabei spricht Clara Hillerkuß mit Matthias, einem Informatikstudenten des KIT, über die spannenden Herausforderungen, die Vorurteile in großen Sprachmodellen wie Google Gemini mit sich bringen. Zum Schluss gibt es auch noch ein paar hilfreiche Tipps, wie ihr euch im Umgang mit diesen Herausforderungen wappnen könnt.

Hier findet ihr den angesprochenen Europäischen Ansatz für künstliche Intelligenz, der sich unter anderem auch mit Bias in KI-Systemen auseinandersetzt. Falls ihr mehr speziell zu Large Language Models erfahren möchtet, könnt ihr auch bei dem erwähnten YouTube-Kanal von Andrej Karpathy vorbeischauen.

Falls Ihr Feedback zu der Folge habt, könnt Ihr dieses gerne per Mail an clara.hillerkuss@student.kit.edu abgeben.

Credits: