Zillow veröffentlicht seinen Open-Source Fair Housing Classifier, der Leitplanken zur Förderung eines verantwortungsvollen und unvoreingenommenen Verhaltens in Immobiliengesprächen mit Hilfe von Large Language Model (LLM) Technologie aufstellt. Viele KI-Tools missachten die Anforderungen des fairen Wohnungsbaus und können, wenn sie eingesetzt werden, Voreingenommenheit verewigen und die Fortschritte untergraben, die beim Eintreten für fairen Wohnraum erzielt wurden. Der Fair Housing Classifier von Zillow konzentriert sich darauf, das Risiko illegaler Lenkung zu verringern - die Praxis der Beeinflussung eines Käufers bei der Wahl der Gemeinde auf der Grundlage der gesetzlich geschützten Merkmale des Käufers gemäß Bundesgesetz.

Der Fair Housing Classifier dient als Schutzmaßnahme, um mit Hilfe von KI-Technologie gerechtere Gespräche zu fördern. Er erkennt Fragen, die zu diskriminierenden Antworten über rechtlich geschützte Gruppen in Immobilienerlebnissen führen könnten, z. B. bei der Suche oder bei Chatbots. Der Klassifikator identifiziert Fälle von Nichtkonformität in der Eingabe oder der Ausgabe und überlässt den Systementwicklern die Entscheidung, wie sie eingreifen sollen.

Die Entscheidung, den Fair Housing Classifier als Open Source anzubieten, unterstreicht das Engagement von Zillow für Transparenz, Gerechtigkeit und fairen Wohnraum in der Immobilienbranche. Organisationen, die den Fair Housing Classifier übernehmen möchten, können auf den Code und das umfassende Framework auf GitHub zugreifen. Vertrauenswürdige Partner, die zu dem Klassifikator beitragen und ihn verbessern möchten, können sich an den E-Mail-Alias auf der GitHub-Seite wenden, über den sie nach Vorlage eines echten Anwendungsfalls Zugang zu den Trainingsdaten und einem vorab trainierten Modell anfordern können.

Diese Transparenz ist der Schlüssel zur Förderung von Beiträgen zur Verbesserung des Modells. Verbesserungen am Fair Housing Classifier können über den Standard-Anfrageprozess auf GitHub eingereicht werden.