『ThinkDENK 38 - Künstliche versus menschliche Intelligenz』のカバーアート

ThinkDENK 38 - Künstliche versus menschliche Intelligenz

ThinkDENK 38 - Künstliche versus menschliche Intelligenz

無料で聴く

ポッドキャストの詳細を見る

今ならプレミアムプランが3カ月 月額99円

2026年5月12日まで。4か月目以降は月額1,500円で自動更新します。

概要

Warum die künstliche Intelligenz niemals die menschliche übertreffen kann. Wie verhält sich die Intelligenz zu unserem Denken? Was meinen wir damit, wenn wir sagen: „Uns geht ein Licht auf?" Und welche Bedeutung hat in diesem Zusammenhang das Bewusstsein. Auf diese Fragen geben wir dieses Mal Antworten.

Quellen:

1.

Die 7 Intelligenzen nach Howard Gardner

2.

Fachtagung „KI – Zwischen Transparenz und Teilhabe", St. Virgil, Salzburg, am 08. Mai 2025

Wenn bei dieser Fachtagung von bis zu 70 % Verzerrung gesprochen wurde, geht es vermutlich um den hohen Anteil nicht-repräsentativer oder strukturell verzerrter Trainingsdaten, nicht um bis zu 70 % „falsche Antworten" von KI-Systemen.

1. Datenverzerrung (Data Bias)

KI-Systeme werden mit vorhandenen Daten trainiert – und diese Daten enthalten häufig:

  • gesellschaftliche Ungleichheiten
  • Überrepräsentation bestimmter Gruppen
  • kulturelle oder sprachliche Schieflagen

Ein großer Anteil der Trainingsdaten kann strukturell verzerrt sein– teilweise in der Größenordnung von 60–70 %, wenn man globale Repräsentation (z. B. westliche Perspektiven im Internet) betrachtet.

2. Globale Datenungleichheit

Ein Beispiel:

  • Ein Großteil öffentlich verfügbarer Trainingsdaten stammt aus Nordamerika und Europa.
  • Viele Regionen (Globaler Süden, Minderheitensprachen) sind stark unterrepräsentiert.

In diesem Kontext kann man sagen, dass ein erheblicher Anteil der Datengrundlage nicht global repräsentativ ist.

3. Wichtig: Kontextabhängigkeit

Die „70 %" sind:

  • keine standardisierte wissenschaftliche Messgröße
  • kein global anerkannter Durchschnittswert
  • eher eine zugespitzte, erklärende Größenordnung zur Illustration des Problems

In diesem Zusammenhang sehr zu empfehlen: Bernd Resch, er ist Professor für GeoSoziale KI an der IT:U Interdisciplinary Transformation University und Visiting Scholar an der Harvard University (USA). https://it-u.at/de/research/professors/bernd-resch/

3.
Zentrale Studien zu Bias in KI:

  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610–623. https://doi.org/10.1145/3442188.3445922
  • Bolukbasi, T., Chang, K.-W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. Advances in Neural Information Processing Systems, 29.
  • Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15.
  • Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183–186. https://doi.org/10.1126/science.aal4230
  • Dodge, J., Gururangan, S., Card, D., Schwartz, R., & Smith, N. A. (2021). Documenting large webtext corpora: A case study on the Colossal Clean Crawled Corpus. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP).
  • Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342
adbl_web_anon_alc_button_suppression_c
まだレビューはありません