<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Human-in-the-Loop on Kompetenzzentrum Öffentliche IT (ÖFIT)</title><link>https://www.oeffentliche-it.de/tags/human-in-the-loop/</link><description>Recent content in Human-in-the-Loop on Kompetenzzentrum Öffentliche IT (ÖFIT)</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Wed, 12 Jul 2023 00:00:00 +0200</lastBuildDate><atom:link href="https://www.oeffentliche-it.de/tags/human-in-the-loop/index.xml" rel="self" type="application/rss+xml"/><item><title>Fairness-Metriken</title><link>https://www.oeffentliche-it.de/trends/trendschau/trendthemen/fairness-metriken/</link><pubDate>Wed, 12 Jul 2023 08:26:00 +0200</pubDate><guid>https://www.oeffentliche-it.de/trends/trendschau/trendthemen/fairness-metriken/</guid><description>Algorithmen beeinflussen immer mehr Entscheidungen für und über Menschen, etwa bei der Vergabe von Krediten, Empfehlungen im Netz sowie bei personalisierter Werbung und Preisen. Doch wie kann die Gerechtigkeit solcher Entscheidungen gewährleistet werden, also z. B. Diskriminierung aufgrund von Ethnie oder Geschlecht vermieden werden? Bei Fairness-Metriken handelt es sich um einen technischen Lösungsansatz für dieses Problem, der zurzeit stark vorangetrieben wird. Was können solche Fairness-Metriken leisten und welche Limitationen existieren? Und wie können sie eingesetzt werden, um tatsächlich einen Teil der Lösung darzustellen?</description></item></channel></rss>