Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Foto: Adelheid Rutenburges

Crowdsourcing

Seit einigen Jahren stehen leistungsfähige Online-Plattformen zur Verfügung, auf denen Menschen weltweit verteilt ihre Arbeitskraft anbieten können. Auf Plattformen, wie z.B. Crowdflower oder Amazon Mechanical Turk, bearbeiten Millionen von Menschen - die sogenannte „Crowd“ - online verschiedenste von Auftraggebern inserierte Aufgaben für eine vergleichsweise überschaubare Bezahlung. Die möglichen Aufgabenstellungen für die Crowd sind hierbei sehr vielfältig und reichen von Aufgaben mit einer geringen Komplexität, wie z.B. die Kategorisierung von Bildern, über Softwaretests bis hin zu komplexen Aufgaben, wie die Entwicklung und Bewertung innovativer Produkte/Dienstleistungen oder gar ganzer Geschäftsmodelle. Hierbei nehmen sowohl das Design der Aufgaben als auch die entsprechenden Anreizmechanismen für die Crowd zentrale Rollen ein, um das Potenzial der Crowd nutzen zu können. Gleichzeitig sind das Design der Aufgaben und die Anreizmechanismen für einen zielgerichteten Einsatz der Crowd bislang unzureichend untersucht.  Das Ziel unserer Forschung ist es – primär basierend auf experimentellen Studien – einen Beitrag zum effektiven und effizienten Einsatz bei der Generierung und Bewertung von Ideen durch eine Crowd zu leisten.  

Beispielhafte Forschungsfragen:

  • Wie sollte das Design einer Bewertungsaufgabe für eine Crowd gestaltet werden?
  • Welcher Anreizmechanismus (z.B. fixe Bezahlung oder qualitätsabhängige Bezahlung) einer Ideengenerierungsaufgabe führt zu qualitativ möglichst hochwertigen Ergebnissen?
  • Kann eine Crowd die Qualität von innovativen Ideen genauso gut bewerten wie Experten? 
  • Welcher Auswahlmechanismus (z.B. Rating oder direkter Vergleich) eignet sich zur Identifikation guter Ideen?

Ausgewählte Publikationen:

  • Görzen, T., Kundisch, D. 2017. Using Information Cues to Identify High Quality Ideas in Crowd Evaluation, contribution at: 2nd Workshop on Information Systems Design and Economic Behavior (ISDEB), St. Gallen, Switzerland.
  • Görzen, T., Kundisch, D. 2016. Can the Crowd Substitute Experts in Evaluation of Creative Ideas? An Experimental Study Using Business Models, in: Proceedings of the 22nd Americas' Conference on Information Systems (AMCIS), San Diego, USA.
  • Görzen, T., Kundisch, D. and Herrmann, P. 2014. Irrational Herding in Crowdfunding Markets? An Experimental Design. Working Paper, Paderborn University.

Ausgewählte Partner & Projekte:

Die Universität der Informationsgesellschaft