ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.

Автор: Autonomie & Algorithmen

Загружено: 2024-08-31

Просмотров: 31

Описание: Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!
Zur Umfrage geht es hier (https://limesurvey.imis.uni-luebeck.d...) .

+++

Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!

+++


Katharina Rohlfing (https://de.wikipedia.org/wiki/Kathari...) ist Professorin für Psycholinguistik an der Universität Paderborn (https://www.uni-paderborn.de/person/5...) und Sprecherin des Sonderforschungsbereich/Transregio 318 "Constructing Explainability" (https://trr318.uni-paderborn.de) , in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion.

Tim Schrills (https://www.linkedin.com/in/tim-schri...) ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck (https://www.imis.uni-luebeck.de/de/in...) . In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.

+++

Linkliste

• Madsen & Gregor (2000), Measuring Human-Computer Trust (https://www.semanticscholar.org/paper...) . 
• Jian et al. (2010), Foundations for an Empirically Determined Scale of Trust in Automated Systems (https://www.tandfonline.com/doi/abs/1...) . International Journal of Cognitive Ergonomics.
• Bartlett & McCarley (2017), Benchmarking Aided Decision Making in a Signal Detection Task (https://journals.sagepub.com/doi/10.1...) . Human Factors.
• Schrills (2023), Erklärbare KI (https://link.springer.com/chapter/10....) . In: Künstliche Intelligenz in öffentlichen Verwaltungen.
• Chromik et al. (2021), I Think I Get Your Point, AI! The Illusion of Explanatory Depth in Explainable AI (https://dl.acm.org/doi/10.1145/339748...) . Proceedings of the 26th International Conference on Intelligent User Interfaces.
• Schrills & Franke (2023), How Do Users Experience Traceability of AI Systems? Examining Subjective Information Processing Awareness in Automated Insulin Delivery (AID) Systems (https://dl.acm.org/doi/full/10.1145/3...) . ACM Transactions on Interactive Intelligent Systems.
• Yacobi et al. (2022), “If it didn’t happen, why would I change my decision?”: How Judges Respond to Counterfactual Explanations for the Public Safety Assessment (https://ojs.aaai.org/index.php/HCOMP/...) . Proceedings of the Tenth AAAI Conference on Human Computation and Crowdsourcing.
• Rohlfing et al. (2020), Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems (https://ieeexplore.ieee.org/document/...) . IEEE Transactions on Cognitive and Developmental Systems.
• Buschmeier et al. (2023), Forms of Understanding of XAI-Explanations (https://arxiv.org/abs/2311.08760) . arXiv.
• EU AI Act: Einheitliche Regeln für Künstliche Intelligenz in der EU (https://www.bundesregierung.de/breg-d...)
• Häntzschel & Schrills (2024), Der EU AI Act und seine Auswirkungen auf Human-Computer Interaction (   • Der EU AI Act und seine Auswirkungen auf H...  ) . (YouTube-Video)
• Deck et al. (2024), A Critical Survey on Fairness Benefits of Explainable AI (https://dl.acm.org/doi/abs/10.1145/36...) . Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency.+++

Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!

• Unsere E-Mail-Adresse: [email protected] (mailto:[email protected])
• Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bs...
• Unser Kontaktformular: https://autonomie-algorithmen.letscas...

"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsp...

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Politischer Schock: Kreml richtet klare Drohung an Merz

Politischer Schock: Kreml richtet klare Drohung an Merz

18 крутых способов использовать ChatGPT, которые могут ЗАПРЕТИТЬ!

18 крутых способов использовать ChatGPT, которые могут ЗАПРЕТИТЬ!

🔥 Bauchfett ab 40: Warum Diäten scheitern – und diese 13 Hacks wirken.

🔥 Bauchfett ab 40: Warum Diäten scheitern – und diese 13 Hacks wirken.

Древний Японский Секрет, Как Научиться Чему Угодно в 10 Раз Быстрее (Сюхари) | Мудрость Времени

Древний Японский Секрет, Как Научиться Чему Угодно в 10 Раз Быстрее (Сюхари) | Мудрость Времени

Von der Steckdose bis zum Wasserhahn: KI in der kritischen Infrastruktur.

Von der Steckdose bis zum Wasserhahn: KI in der kritischen Infrastruktur.

Пошлины защитникам Гренландии.

Пошлины защитникам Гренландии. "Совет мира" vs ООН. Нобелевская медаль Трампа

The World's Most Important Machine

The World's Most Important Machine

System Design Concepts Course and Interview Prep

System Design Concepts Course and Interview Prep

ПОСЛЕ СМЕРТИ ВАС ВСТРЕТЯТ НЕ РОДСТВЕННИКИ, А.. ЖУТКОЕ ПРИЗНАНИЕ БЕХТЕРЕВОЙ. ПРАВДА КОТОРУЮ СКРЫВАЛИ

ПОСЛЕ СМЕРТИ ВАС ВСТРЕТЯТ НЕ РОДСТВЕННИКИ, А.. ЖУТКОЕ ПРИЗНАНИЕ БЕХТЕРЕВОЙ. ПРАВДА КОТОРУЮ СКРЫВАЛИ

KI rechtssicher im Unternehmen einführen - Security on Air

KI rechtssicher im Unternehmen einführen - Security on Air

Трамп, Китай и большие деньги | Михаил Хазин & Стив Дудник

Трамп, Китай и большие деньги | Михаил Хазин & Стив Дудник

Нейронка, которая УНИЧТОЖИЛА ChatGPT 5! / Обзор бесплатной нейросети и ее возможности

Нейронка, которая УНИЧТОЖИЛА ChatGPT 5! / Обзор бесплатной нейросети и ее возможности

Критика Европы как попытка Зеленского переложить вину за неудачи - Латынина

Критика Европы как попытка Зеленского переложить вину за неудачи - Латынина

Японский метод: Как убить любую зависимость

Японский метод: Как убить любую зависимость

Collaboration - so sicher und flexibel wie gewünscht! | Podcast

Collaboration - so sicher und flexibel wie gewünscht! | Podcast "Die IT Complizen" (E50)

Методы развития внимания. Татьяна Черниговская

Методы развития внимания. Татьяна Черниговская

Крупнейшая образовательная катастрофа 20 века в США

Крупнейшая образовательная катастрофа 20 века в США

Успокаивающая музыка для нервов 🌿 лечебная музыка для сердца и сосудов, релакс, музыка для души #289

Успокаивающая музыка для нервов 🌿 лечебная музыка для сердца и сосудов, релакс, музыка для души #289

Сисадмины больше не нужны? Gemini настраивает Linux сервер и устанавливает cтек N8N. ЭТО ЗАКОННО?

Сисадмины больше не нужны? Gemini настраивает Linux сервер и устанавливает cтек N8N. ЭТО ЗАКОННО?

Понимание GD&T

Понимание GD&T

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]