Der Einsatz von KI bei der Immobilienbewertung nimmt zu – wir brauchen jedoch mehr Transparenz und Vertrauen

Neuseelands Wirtschaft wurde beschrieben als „Wohnungsmarkt mit Kleinigkeiten„Der Kauf und Verkauf von Immobilien ist ein Nationalsport, der durch den steigenden Wert von Häusern im ganzen Land angetrieben wird.

Die breite Öffentlichkeit hat jedoch wenig Verständnis dafür, wie diese Immobilienbewertungen erstellt werden – obwohl sie für die meisten Banken ein wichtiger Faktor bei der Entscheidung darüber sind, wie viel sie bereit sind, für eine Hypothek zu leihen.

Automatisierte Bewertungsmodelle (AVM) – Systeme, die auf künstlicher Intelligenz (KI) basieren und riesige Datensätze verarbeiten, um sofortige Immobilienwerte zu ermitteln – haben wenig dazu beigetragen, die Transparenz in diesem Prozess zu verbessern.

Diese Modelle begannen Anfang der 2010er Jahre in Neuseeland an Bedeutung zu gewinnen. Die frühen Versionen nutzten begrenzte Datenquellen wie Immobilienverkaufsunterlagen und Gemeindeinformationen. Die fortschrittlicheren Modelle von heute umfassen hochwertige Geodaten aus Quellen wie Landinformationen Neuseeland.

KI-Modelle haben eine verbesserte Effizienz. Doch die proprietären Algorithmen hinter diesen AVMs können es für Hausbesitzer und Branchenexperten schwierig machen, zu verstehen, wie bestimmte Werte berechnet werden.

In unserem laufende ForschungWir entwickeln ein Framework, das diese automatisierten Bewertungen auswertet. Wir haben uns angeschaut, wie die Zahlen zu interpretieren sind und welche Faktoren den KI-Modellen möglicherweise entgehen.

Auf einem geografisch und kulturell so vielfältigen Immobilienmarkt wie dem Neuseelands sind diese Punkte nicht nur relevant, sondern von entscheidender Bedeutung. Bei der schnellen Integration von KI in die Immobilienbewertung geht es nicht mehr nur um Innovation und Geschwindigkeit. Es geht um Vertrauen, Transparenz und einen robusten Rahmen für die Rechenschaftspflicht.

KI-Bewertungen sind eine Blackbox

In Neuseeland ist die Immobilienbewertung traditionell ein arbeitsintensiver Prozess. Gutachter würden in der Regel Immobilien inspizieren, Marktvergleiche anstellen und ihr Expertenurteil anwenden, um zu einer endgültigen Wertschätzung zu gelangen.

Dieser Ansatz ist jedoch langsam, teuer und anfällig für menschliche Fehler. Da die Nachfrage nach effizienteren Immobilienbewertungen zunahm, stieg der Einsatz von KI brachte dringend benötigte Veränderungen.

Doch der Aufstieg dieser Bewertungsmodelle ist nicht ohne Herausforderungen. Während KI Geschwindigkeit und Konsistenz bietet, bringt sie auch einen entscheidenden Nachteil mit sich: mangelnde Transparenz.

AVMs fungieren oft als „Black Boxes“ und bieten kaum Einblick in die Daten und Methoden, die ihren Bewertungen zugrunde liegen. Dies wirft ernsthafte Bedenken hinsichtlich der auf Konsistenz, Objektivität und Transparenz dieser Systeme.

Was genau der Algorithmus macht, wenn ein AVM den Wert eines Hauses schätzt, ist unklar. Eine solche Undurchsichtigkeit hat reale Konsequenzen und führt zu anhaltenden Marktungleichgewichten und Ungleichheiten.

Ohne einen Rahmen zur Überwachung und Korrektur dieser Diskrepanzen besteht die Gefahr, dass KI-Modelle den Immobilienmarkt weiter verzerren, insbesondere in einem so vielfältigen Land wie Neuseeland, wo regionale, kulturelle und historische Faktoren den Immobilienwert erheblich beeinflussen.

Transparenz und Verantwortlichkeit

Ein aktuelles Diskussionsforum mit Insidern der Immobilienbranche, Rechtsforschern und Informatikern KI-Governance und Immobilienbewertungen betonte die Notwendigkeit einer größeren Rechenschaftspflicht bei AVMs. Transparenz allein reicht nicht aus. Vertrauen muss in das System eingebaut werden.

Dies kann dadurch erreicht werden, dass KI-Entwickler und -Benutzer verpflichtet werden, Datenquellen, Algorithmen und Fehlermargen hinter ihren Bewertungen offenzulegen.

Darüber hinaus sollten Bewertungsmodelle ein „Konfidenzintervall“ beinhalten – eine Preisspanne, die zeigt, wie stark der geschätzte Wert variieren könnte. Dies bietet Benutzern ein klareres Verständnis der mit jeder Bewertung verbundenen Unsicherheit.

Eine wirksame KI-Governance bei der Immobilienbewertung kann jedoch nicht isoliert erreicht werden. Es erfordert die Zusammenarbeit zwischen Regulierungsbehörden, KI-Entwicklern und Immobilienfachleuten.

Bias-Korrektur

Neuseeland braucht dringend einen umfassenden Bewertungsrahmen für AVMs, der Transparenz, Rechenschaftspflicht und Voreingenommenheitskorrektur in den Vordergrund stellt.

Hier kommt unsere Forschung ins Spiel. Wir führen wiederholt eine Neuabtastung kleiner Teile der Daten durch, um Situationen zu berücksichtigen, in denen die Immobilienwertdaten keiner Normalverteilung folgen.

Dieser Prozess generiert ein Konfidenzintervall, das einen Bereich möglicher Werte rund um jede Immobilienschätzung zeigt. Benutzer sind dann in der Lage, die Variabilität und Zuverlässigkeit der KI-generierten Bewertungen zu verstehen, selbst wenn die Daten unregelmäßig oder verzerrt sind.

Unser Rahmenwerk geht über Transparenz hinaus. Es beinhaltet einen Bias-Korrekturmechanismus, der ständig über- oder unterbewertete Schätzungen innerhalb der AVM-Ausgaben erkennt und anpasst. Ein Beispiel hierfür sind regionale Unterschiede oder die Unterbewertung bestimmter Immobilienarten.

Indem wir diese Vorurteile beseitigen, stellen wir sicher, dass Bewertungen nicht nur rechenschaftspflichtig oder überprüfbar, sondern auch fair sind. Ziel ist es, langfristige Marktverzerrungen zu vermeiden, die durch unkontrollierte KI-Modelle entstehen könnten.

Der Aufstieg der KI-Prüfung

Doch Transparenz allein reicht nicht aus. Die Prüfung von KI-generierten Informationen wird immer wichtiger.

Neuseelands Gerichte verlangen nun eine qualifizierte Person, die von KI generierte und anschließend in Gerichtsverfahren verwendete Informationen überprüft.

Ähnlich wie Finanzprüfer die Genauigkeit der Buchhaltung sicherstellen, werden KI-Prüfer eine entscheidende Rolle bei der Wahrung der Integrität von Bewertungen spielen.

Basierend auf früheren Untersuchungen prüfen wir die Schätzungen des künstlichen Bewertungsmodells, indem wir sie mit den am Markt gehandelten Preisen derselben Häuser im gleichen Zeitraum vergleichen.

Dabei geht es nicht nur darum, den Algorithmen zu vertrauen, sondern auch darum, den Menschen und Systemen dahinter zu vertrauen.

Bereitgestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.

ph-tech