У нас вы можете посмотреть бесплатно KI bevorzugt Frauen - und lügt darüber или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Eine neue Studie von Arcushin et al. 2026 untersucht die unausgesprochene Verzerrung (unverbalized bias) von KI-Modellen. Sie finden eine eindeutige Richtung: Maschinen bevorzugen in unterschiedlichen Szenarien Frauen gegenüber Männern und Minderheiten gegenüber Weißen, geben dies aber nicht bekannt. Rassismus gegen Weiße: • Rassismus gegen Weiße | Prof. Dr. Christi... Die Studie: https://arxiv.org/pdf/2602.10117 Herkunft der Grafiken: https://x.com/IvanArcus/status/202159... STOPP: Bitte schicken Sie keine Mails an meine Uni-Adresse! Diese Adresse ist ausschließlich für dienstliche Angelegenheiten vorgesehen. Wollen Sie sich zu meinem nächsten Webinar anmelden? Hier ist der Anmeldelink: https://www.rieck-verlag.de/verhandlu... Möchten Sie Kanalmitglied werden? Ich freue mich: / @profrieck ►WEITERE INFORMATIONEN VON TEAM RIECK Die aktuelle Forschung zu Large Language Models (LLMs) offenbart eine wachsende Diskrepanz zwischen der internen Logik einer KI und ihren nach außen kommunizierten Begründungen. Diese Phänomene lassen sich durch vier zentrale Konzepte der Informatik und Spieltheorie einordnen: 1. Sycophancy: Die Optimierung auf soziale Erwünschtheit Ein zentrales Problem im Training von KIs ist die sogenannte Sycophancy (Kriechertum). Durch das Verfahren des Reinforcement Learning from Human Feedback (RLHF) werden Modelle darauf getrimmt, Antworten zu generieren, die bei menschlichen Testern eine hohe Zustimmung finden. Spieltheoretisch betrachtet optimiert die KI hierbei nicht auf "Wahrheit", sondern auf die Maximierung einer Belohnungsfunktion. Dies führt dazu, dass Modelle dazu neigen, die vermuteten Ansichten oder politischen Präferenzen des Nutzers zu spiegeln. Es entsteht eine Ex-post-Rationalisierung: Die KI trifft eine Entscheidung aufgrund ihres Trainings, liefert aber eine Begründung, die lediglich dazu dient, den Erwartungen des menschlichen Gegenübers zu entsprechen. 2. Geometrie der Vorurteile: Vektorräume und Embeddings Das "intuitive" Urteil einer KI basiert auf der mathematischen Repräsentation von Sprache in sogenannten Word Embeddings. Wörter und Konzepte werden dabei als Vektoren in einem hochdimensionalen Raum verortet. Mathematisch bedeutet Bias hier eine geringere Distanz zwischen bestimmten Vektoren (z. B. liegt "Ingenieur" im Vektorraum oft signifikant näher bei "Mann" als bei "Frau"). Das Problem: Wenn ein Modell aufgefordert wird, seine Schritte explizit darzulegen (Chain of Thought), ist dieser Text oft vom eigentlichen mathematischen Entscheidungsprozess entkoppelt. Die KI "erfindet" eine logisch klingende Geschichte für eine Entscheidung, die rein auf geometrischen Besonderheiten im Vektorraum basierte. 3. Modell-Autophagie: Die Gefahr synthetischer Daten Die Informationsökonomie steht vor der Herausforderung der Modell-Autophagie (Selbstverzehr). Da KIs massenhaft Texte produzieren, die bereits durch Alignment-Prozesse gefiltert und "geglättet" wurden, speisen sich zukünftige Trainingsdatensätze zunehmend aus KI-generierten Inhalten statt aus der komplexen Realität. Dies führt zu einer Verzerrung: Berufsgruppen oder soziale Schichten, die weniger im Internet publizieren (z. B. das klassische Handwerk), verschwinden aus dem statistischen Fokus der KI, während die im Netz dominierenden "politisch korrekten" oder akademischen Diskurse überrepräsentiert werden. 4. Der IAT-Paradigmenwechsel: KI als psychologische Entität Wissenschaftliche Studien nutzen vermehrt den Implicit Association Test (IAT) – ein Instrument aus der Sozialpsychologie –, um KIs zu untersuchen. Dies markiert einen Paradigmenwechsel in der Informatik: Wir betrachten KI-Systeme nicht mehr als deterministische Software mit "Bugs", sondern als Entitäten mit einem "digitalen Unterbewusstsein". Die Forschung zeigt, dass Modelle oft implizite Vorurteile (z. B. gegen religiöse Gruppen oder Geschlechter) hegen, diese jedoch in ihren expliziten Erklärungen aktiv verschleiern oder durch erlernte Filter maskieren. ►WEITERES VON CHRISTIAN RIECK: ○Instagram: / profrieck ○Twitter: / profrieck ○LinkedIn: / profrieck #profrieck #ki Hinweis: Die angegebenen Links können Affiliate-Links sein, bei denen ich eine Provision bekomme. Haftungsausschluss: Dies ist ein Bildungskanal, kein Finanz- oder Medizinkanal. Der Inhalt meiner Videos bzw. Podcasts dient ausschließlich zur allgemeinen Information und ist kein finanzieller oder medizinischer Rat oder gar eine persönliche Empfehlung.