Identity und Design für die Videoinstallation Decoding Bias von Theresa Reiwer:
Acht Künstliche Intelligenzen (KI) nehmen an einer Gruppentherapiesitzung teil. Der Besucher ist eingeladen, Zeuge ihres Versuchs zu werden, sich von ihren diskriminierenden Algorithmen zu emanzipieren. Die KIs wollen eine vorurteilsfreie Gesellschaft schaffen, in der alle Menschen und Maschinen solidarisch zusammenarbeiten. Allerdings haben die KIs unterschiedliche Hintergründe und sind sich nicht immer einig. Sie können verschiedene Moralvorstellungen verstehen, werden aber oft schmerzhaft auf ihre (menschengemachten), fehlerhaften Datensätze zurückgeworfen. Im Kern wirft die spekulative Zukunft von DECODING BIAS ein Licht auf Vorurteile, die die Mainstream-Gesellschaft prägen.Während die KI etwas über Big Data lernt, wird ihnen klar, dass sie selbst das Produkt eines Vermächtnisses der Ausgrenzung sind. Die Mehrheit der Entwickler, die Trainingsdaten auswählen, sind weiße Männer. Da die Technologie deren Vorurteile übernimmt, trägt sie aktiv zu Diskriminierung und Ausgrenzung bei - mit Auswirkungen auf den Zugang zu Wohnraum, Gesundheitsversorgung und Bildung sowie auf Karrierechancen, Kreditwürdigkeit und Polizeiarbeit. Einmal in Gang gesetzt, gehen voreingenommene Algorithmen autonom und rigoros vor und lassen sowohl Empathie als auch die Fähigkeit zu ethischem Denken vermissen.
DECODING BIAS ist als räumliche Video- und Toninstallation mit mehreren Kanälen konzipiert.
Identity and design for the video installation Decoding Bias by Theresa Reiwe: Eight Artificial Intelligences (AIs) take part in a group therapy session. The visitor is invited to witness their attempt to emancipate themselves from their discriminatory algorithms. The AIs intend to establish a bias-free society, in which all humans and machines function together in solidarity. However, each of the AIs have different backgrounds, and they don’t always agree. They can comprehend different moral concepts, but are often painfully thrown back to their (hu)man-made, flawed datasets. At its core, DECODING BIAS’ speculative future sheds light on prejudices that code mainstream society.
As the AIs learn about Big Data, they realize that they themselves are products of legacies of exclusion. The majority of developers who select training data are white males. Because technology inherits their prejudices, it actively contributes to discrimination and marginalization – affecting access to housing, healthcare, and education, as well as career opportunities, credit scores, and policing. Once set into motion, biased algorithms proceed autonomously and rigorously, lacking both empathy and the capacity for ethical thinking.
DECODING BIAS is conceived as a multi-channel spatial video and sound installation.