Die Studie untersucht die komplexen Zusammenhänge zwischen Management-Feedback und kreativen Ergebnissen

Die wachsende Beliebtheit von Crowdsourcing und anderen Formen offener Innovation spiegelt den dringenden Bedarf von Unternehmen an kreativen Ideen wider, die über das Gleiche in der Organisation hinausgehen.

Aber wenn Sie einfallsreiche Außenstehende haben, die bereit sind, Ihnen ihre Zeit und Aufmerksamkeit zu schenken, wie entlocken Sie ihnen dann neuartige und nützliche Beiträge? Es stellt sich heraus, dass es sowohl um strategische Kommunikation als auch um die Qualität Ihres Talentpools geht.

Kürzlich veröffentlichte Forschungsergebnisse von Pallab Sanyal, Professor und Bereichsleiter für Informationssysteme und Betriebsmanagement (ISOM) an der George Mason University, und Shun Ye, außerordentlicher Professor und stellvertretender Bereichsleiter für ISOM an der George Mason University, in Informationssystemforschung konzentriert sich auf zwei Arten von Feedback, das Crowdsourcing-Teilnehmer üblicherweise erhalten.

Das Ergebnis-Feedback bewertet die wahrgenommene Qualität der Einreichung ohne zugrunde liegende Erklärung („Dieses Design ist nicht gut.“). Das Prozess-Feedback verrät oder gibt Hinweise darauf, wonach Wettbewerbsorganisatoren suchen („Ich bevorzuge einen grünen Hintergrund“).

Sanyal und Ye analysierten Daten einer Crowdsourcing-Plattform zu fast 12.000 Grafikdesign-Wettbewerben im Zeitraum 2009–2014. Der Datensatz umfasste die Wettbewerbsparameter, zeitgestempelte Einreichungen und Rückmeldungen, Gewinnerentwürfe usw. Außerdem konnten die Forscher die Aktivitäten wiederholter Teilnehmer von Wettbewerb zu Wettbewerb in der gesamten Stichprobe verfolgen.

Dies versetzte sie in eine gute Position, um zu messen, wie sich die Wahl eines Feedback-Typs gegenüber dem anderen auf die Wettbewerbsergebnisse auswirkte – jedoch nicht im Hinblick auf die „Qualität“, wie sie traditionell von Forschern definiert wird.

Sanyal sagt: „Ich habe an einer Universität einen Vortrag gehalten, bei dem ich 25 verschiedene Einsendungen aus einem Crowdsourcing-Wettbewerb gezeigt und die Leute gebeten habe, auszuwählen, welche die höchste Qualität aufweist. Und jeder in diesem Raum hat sich für eine andere entschieden. Nicht nur das, das Eine.“ das letztendlich den Wettbewerb gewann, wurde von niemandem ausgewählt.

„Die Moral der Geschichte ist, dass Schönheit im Auge des Betrachters liegt. Wer auch immer der Wettbewerbsinhaber oder Kunde ist, was auch immer er für das Beste für sein Geschäftsziel hält, das ist die höchste Qualität.“

Mit dieser Arbeitsdefinition im Hinterkopf entwickelten Sanyal und Ye ein KI-Tool zur Bewertung aller Einsendungen nach visueller Ähnlichkeit mit der letztendlich siegreichen Einreichung. „Wir verwenden den Algorithmus, um den Abstand zwischen diesen Bildern und dem Bild mit der höchsten Qualität zu berechnen und ihm einen Wert, einen Qualitätsfaktor, zwischen null und eins zu geben“, erklärt Sanyal.

Sie fanden heraus, dass das Prozess-Feedback die Affinität der Entwürfe tendenziell erhöhte, d. h. sie ähnelten im Durchschnitt eher dem vom Kunden gewählten Siegerentwurf. Im Gegensatz dazu steigerte das Ergebnis-Feedback die Vielfalt der Designs.

Sanyal und Ye gehen davon aus, dass eine präzise Anleitung in Form von Prozess-Feedback Unklarheiten verringern und Wettbewerbern helfen kann, den Suchraum einzugrenzen, während Ergebnis-Feedback den Suchraum erweitert, weil es viel Raum für Interpretationen lässt.

Sehr spät im Wettbewerb verschwand jedoch die positive Beziehung zwischen Prozess-Feedback und Einreichungsaffinität und hat sich möglicherweise sogar ins Negative gewendet; Die Professoren vermuten, dass dies auf einen demotivierenden „Jetzt sag es mir“-Effekt zurückzuführen sein könnte.

Sanyal und Ye wechselten von der Qualität zur Quantität und stellten fest, dass sowohl das Prozess- als auch das Ergebnis-Feedback insgesamt zu mehr Einreichungen führte. Allerdings taten sie dies auf unterschiedliche Weise. Das Prozess-Feedback lockte neue Mitwirkende zum Wettbewerb; Das Ergebnis-Feedback führte zu mehr Einsendungen pro Mitwirkendem. Aber auch diese beiden Effekte wurden abgeschwächt, als spät im Spiel Feedback gegeben wurde. Interessanterweise widerspricht dies früheren Studien, die darauf hindeuten, dass frühes Feedback neue Mitwirkende vom Beitritt abhält. Shun und Ye weisen darauf hin, dass diese Studien nur numerisches Feedback verwendeten. „Wir zeigen, dass Text-Feedback schon früh im Spiel gegeben werden sollte“, sagt Ye.

Er kommentiert außerdem: „Was wir hier finden, lässt sich sehr gut auf einen traditionellen Kontext anwenden, in dem beispielsweise in einem organisatorischen Umfeld ein Manager eine kreative Lösung wünscht oder eine Brainstorming-Sitzung abhält.“

„Wenn Manager das Gefühl haben, dass sich die Einsendungen sehr schnell angleichen, sie sich aber innovativere Lösungen wünschen, können sie Feedback zu den Ergebnissen geben. Oder sie bemerken: ‚Wow, die Einsendungen sind überall Ich habe im Sinn.‘ Dann ist es am besten, damit zu beginnen, Prozess-Feedback zu geben.“

Für welche Art von Feedback sie sich auch entscheiden, Manager sollten es zeitnah geben, um die Wirkung zu maximieren. Gleichzeitig sollten sie darauf achten, ihre Präferenzen nicht durch stark formuliertes Prozessfeedback in selbsterfüllende Prophezeiungen umzuwandeln.

Sanyal verwendet ein anschauliches Beispiel aus seinem eigenen Leben: „Wenn meine Kinder mit etwas nicht weiterkommen, höre ich sie oft und sage: ‚Sie sind auf dem richtigen Weg. Ich werde Ihnen die Lösung nicht verraten, ich werde sie nur erzählen.‘ Sie, dass Sie auf dem richtigen Weg sind.‘ Geben Sie also einige allgemeine Ideen an, aber schränken Sie den Lösungsraum nicht zu sehr ein.“

Mehr Informationen:
Pallab Sanyal et al., Eine Untersuchung der Dynamik von Crowdsourcing-Wettbewerben: Rolle des Feedback-Typs, Informationssystemforschung (2023). DOI: 10.1287/isre.2023.1232

Zur Verfügung gestellt von der George Mason University

ph-tech