Dass Algorithmen häufig als neutral gelten, setzt voraus, sie zunächst von ihren jeweiligen sozialen Kontexten der Entstehung und Wirkung abzutrennen. Im Vortrag möchte ich – aus der Tradition der Geschlechterforschung heraus – Unsichtbares sichtbarer machen und damit Problematiken dieses Neutralisierungstricks verdeutlichen. Im Fokus stehen Verzerrungen, die als sexistisch, rassistisch oder anderweitig ungerecht bezeichnet werden können. Zugleich geht es mir darum, ein performatives Verständnis von Algorithmen vorzustellen, welches diese Kontextualisierungen theoretisch zu fassen sucht. Ziel ist es, damit Möglichkeiten der Analyse ungerechter und der Gestaltung sozial gerechterer Algorithmen zu eröffnen.