Crowdsourcing

Wie rekrutiere ich Arbeiter*innen für einmalige Aufgabenstellungen, ohne gleich neues Personal einzustellen? Wie kann ich sicherstellen, dass die Arbeitskräfte qualitativ zufriedenstellende Arbeit leisten? Auf Online-Plattformen, wie z.B. Amazon Mechanical Turk, bearbeiten Millionen von Menschen - die sogenannte „Crowd“ - online verschiedenste von Auftraggebern inserierte Aufgaben für eine vergleichsweise überschaubare Bezahlung. Die möglichen Aufgabenstellungen für die Crowd sind hierbei sehr vielfältig und reichen von Aufgaben mit einer geringen Komplexität, wie z.B. die Kategorisierung von Bildern, über Softwaretests bis hin zu komplexen Aufgaben, wie die Entwicklung und Bewertung innovativer Produkte/Dienstleistungen oder gar ganzer Geschäftsmodelle. In unserer Forschung zielen wir darauf ab, verhaltenstheoretisch fundiert und basierend auf empirischen Studien einen Beitrag für den effektiven und effizienten Einsatz von Anreizstrukturen und Design-Elementen bei der Bearbeitung von Aufgaben (z.B. bei der Generierung und Bewertung von Ideen) durch eine Crowd zu leisten. 

Auf den Plattformen stellen die Auftraggeber eine Vielzahl verschiedener Aufgabenstellungen bereit. So können Crowdworker*innen beispielsweise für ein bestehendes Geschäftsmodell neue Ideen generieren oder bereits entwickelte Ideen hinsichtlich ihrer Kreativität bewerten. Basierend auf einer Vorschau der Aufgabenstellung sowie der zugehörigen Belohnungsstruktur können die Arbeiter*innen den resultierenden Nutzen schätzen und frei entscheiden, welche Aufgaben sie bearbeiten wollen. Zusätzlich kann sich die Gestaltung der Aufgabe auch auf die Qualität der gelieferten Ergebnisse auswirken. Die Aufttraggeber*innen stehen vor der Herausforderung, möglichst ansprechende Aufgaben zu entwerfen, ohne dabei das Verhältnis von Kosten und Nutzen zu vernachlässigen. Eine geschickte Kombination von motivierenden Design-Elementen und Anreizstrukturen kann dafür sorgen, dass hochqualitative Ergebnisse zu einem vergleichbar niedrigem Preis erzielt werden.

  • Wie sollte das Design einer Bewertungsaufgabe für eine Crowd gestaltet werden?
  • Welcher Anreizmechanismus (z.B. fixe Bezahlung oder qualitätsabhängige Bezahlung) einer Ideengenerierungsaufgabe führt zu qualitativ möglichst hochwertigen Ergebnissen?
  • Kann eine Crowd die Qualität von innovativen Ideen genauso gut bewerten wie Experten? 
  • Beeinflusst die Anzeige von vorherigen Bewertung das Bewertungsverhalten der Crowd?

Zur Erforschung dieser Fragen nutzen wir insbesondere unsere Kompetenzen im Bereich der Durchführung von Online-Experimenten.

  • Görzen, T. 2020. “What’s the Point of the Task?” Exploring the Influence of Task Meaning on Creativity in Crowdsourcing. To appear in: International Journal of Innovation Management.
  • Görzen, T., Laux, F. 2018. Extracting the Wisdom from the Crowd: A Comparison of Approaches to Aggregating Collective Intelligence, in: Tagungsband der Multikonferenz Wirtschaftsinformatik 2018 (MKWI), Lüneburg, Germany.
  • Görzen, T., Kundisch, D. 2017. When in Doubt Follow the Crowd: How Idea Quality Moderates the Effect of an Anchor on Idea Evaluation in: Proceedings of the 38th International Conference on Information Systems (ICIS), Seoul, South Korea.
  • Görzen, T. 2017. "What is it Good for – Absolutely Nothing?" Exploring the Influence of Task Meaning on Creativity in Crowdsourcing, in: Proceedings of the 38th International Conference on Information Systems (ICIS), Research-in-Progress, Seoul, South Korea.
  • Görzen, T., Kundisch, D. 2016. Can the Crowd Substitute Experts in Evaluation of Creative Ideas? An Experimental Study Using Business Models, in: Proceedings of the 22nd Americas' Conference on Information Systems (AMCIS), San Diego, USA.

Die vollständige Publikationsliste des Lehrstuhls finden sie hier.

  • Smart-GM – Intelligentes Assistenzsystem zur Unterstützung der digitalen Transformation von Geschäftsmodellen
  • SICP – Software Innovation Campus Paderborn