Kom i gang. Det er Gratis
eller tilmeld med din email adresse
Citizen Science af Mind Map: Citizen Science

1. Kategorisierungsebenen

1.1. Material

1.1.1. geospatial

1.1.2. text

1.1.3. numerical / statistical information

1.1.4. sound

1.1.5. image

1.1.6. video

1.1.7. ephemera / cultural heritage

1.2. Verfahren

1.2.1. collaborative tagging

1.2.2. linking

1.2.3. correcting / modifying content

1.2.4. transcribing

1.2.5. recording / creating content

1.2.6. commenting / responding / preferring

1.2.7. categorising

1.2.8. cataloguing

1.2.9. contextualisation

1.2.10. mapping

1.2.11. georeferencing

1.2.12. translating

1.3. Aufgabe

1.3.1. mechanical

1.3.2. configurational

1.3.3. editorial

1.3.4. synthethic

1.3.5. investigative

1.3.6. creative

1.4. Ergebnis

1.4.1. original text

1.4.2. transcribed text

1.4.3. corrected text

1.4.4. enhanced text

1.4.5. transcribed music

1.4.6. metadata

1.4.7. structured data

1.4.8. knowledge / awareness

1.4.9. funding

1.4.10. synthesis

1.4.11. composite digital collections with multiple meanings

1.5. Methoden

1.5.1. Gamification

2. Projekt-Typen nach Wiggins/Crowston (Nawi)

2.1. Action

2.1.1. sozialer/politischer Aktionismus, nicht primär wissenschaftlich, kleinräumig erfolgreich, awareness-raising, bottom-up Zugang, wenig Technologie, mehr face-to-face

2.2. Conservation

2.2.1. Erhaltung von xyz im Fokus, regional orientiert, Grundlagendatenerhebung, awareness-raising, Langzeitprojekte, Technologieeinsatz wie auch face-to-face

2.3. Investigation

2.3.1. wiss. Forschungsziele, die über Datensammlung aus phys. Umgebung erreicht werden sollen; typ. citizen science; lehrhafter Hintergrund; regional-international; Validierungsmechanismen (entry form validation, algorithmic flagging for expert review); top-down Organisation; oft umfangreich und aufwändig; technologielastig

2.4. Virtual

2.4.1. wissenschaftszentriert, virtuell realisiert; Herausforderung: wiss. relevante Ergebnisse, Mitarbeitendenmotivation; top-down Organsiation; wenig Belege für Benutzerweiterbildung; technologiezentriert

2.5. Education

2.5.1. geografisch fixiert, Mitarbeitenden(aus)bildung steht im Mittelpunkt (institutionalisiert vs. freiwillig); keine typische citizen science; top-down; technologielastig; usability-orientiert

3. Planung (nach Holly / Herrmann)

3.1. Aufgabenstellung

3.1.1. klares Ziel (einzelne Zwischenziele spezifizieren)

3.1.2. große Herausforderung

3.1.3. Fortschritt (dokumentieren / visualisieren)

3.1.4. Ergebnisse (dokumentieren / visualisieren)

3.2. technische Umsetzung

3.2.1. leicht und lustig

3.2.2. zuverlässig und schnell

3.2.3. intuitiv

3.3. Mitarbeitendenmotivierung

3.3.1. anerkennen

3.3.2. belohnen

3.3.3. Wahlmöglichkeiten

3.3.4. Team-Unterstützung

3.3.5. Vertrauen

3.3.6. Aktivität der Auftraggeber

3.3.7. Community-Aktivitäten

3.4. Material

3.4.1. interessant

3.4.2. neu

3.4.3. große Mengen

3.4.4. Geschichte / Naturwissenschaft

3.5. Checkliste

3.5.1. Wahl des richtigen Crowdsourcing-Modells

3.5.2. Auswahl der passenden 'Crowd'

3.5.3. den passenden Ansporn bieten

3.5.4. einfach halten und in Einzelschritte untergliedern

3.5.5. "The Community is always right"

3.5.6. Ask Not What The Crowd Can Do for You, But What You Can Do for The Crowd

4. bereitgestellt von

4.1. Helmut W. Klug

4.2. Georg Vogeler

4.3. unter der Lizenz BY-NC-SA

4.3.1. http://creativecommons.org/licenses/by-nc-sa/4.0/

5. Terminologie

5.1. citizen science

5.1.1. science by the poeple / science with the people

5.2. community science

5.2.1. science for the poeple

5.3. Schwarmintelligenz

5.4. academic vs. commercial crowd-sourcing

5.5. crowd-sourcing / crowdsourcing / crowd sourcing

5.6. crowd-funding / crowdfunding

5.7. communitiy sourcing

5.8. crowd creation

5.9. crowd voting

5.10. peer production

5.11. Clickworker

5.12. NICHT: VRE, Web 2.0, Wikipedia, Kollaborative Arbeitsumgebung ...

6. Definitionsansatz (unvollständig!)

6.1. geisteswiss. Ausrichtung oder Forschungsfrage

6.2. frei zugängliche/definierbare Gruppe an Mitarbeitenden

6.2.1. div. Faktoren

6.2.1.1. Motivation

6.2.1.2. Zielgruppe

6.3. klar definierte / strukturierte Aufgabe

6.3.1. Anreichern oder Interpretieren von Quellenmaterial

6.4. skalierbare Arbeitsaufgabe (Menge / Anforderung)

6.5. Feedback

7. key factors

7.1. Mitgliederwerbung

7.2. Bildungsauftrag

7.3. Mitarbeitendenmotivierung / -management

7.3.1. Rollenzuweisung

7.3.2. Wettbewerb

7.3.3. Belohnungen

7.3.4. Interesse

7.4. Qualität vs. Quantität

7.5. Renommee der Auftraggeber

7.6. Integration der Mitwirkenden

7.7. rechtliche Struktur: CC, OA

7.8. Zugang zu Forschungsdaten

7.9. Qualitätsmanagement

8. Ziele

8.1. Wissensgenerierung

8.2. Geld sparen?

8.3. Zeit sparen

8.4. schwer zugängliches Wissen erschließen

8.5. Wissens- und Kompetenzenvermittlung

8.6. Erweiterung der Methoden

8.7. Demokratisches Ideal: "Jeder Bürger ist Wissenschaftler"

9. Literatur

9.1. y: ... data\shared\citizen science

9.2. Hedges, Mark, Dunn, Stuart: Crowd-Sourcing Scoping Study: Engaging the Crowd with Humanities Research. Projektbericht. Arts and Humanities Research Council 2012.

9.3. Wiggins, Andrea, Kevin Crowston: From Conservation to Crowdsourcing: A Typology of Citizen Science. Presented at: Proceedings of the 44th Hawaii International Conference on System Sciences (HICSS ‘10), January 2011. Zuletzt geändert: 2011. Url: http://crowston.syr.edu/content/conservation-crowdsourcing-typology-citizen-science [24.09.2015].

9.4. Herrmann, Elisa: Gemeinsam mehr erreichen: Citizen Science und Crowdsourcing in Wissenschaft und Wirtschaft. 2013. Zuletzt geändert: 29.10.2013. Url: http://www.ibi.hu-berlin.de/de/bbk/podcast/herrmannf [24.09.2015]

9.5. Blogs / online

9.5.1. http://crowdsourcing.typepad.com/cs/2006/06/crowdsourcing_a.html

9.5.2. http://www.digitalhumanities.cam.ac.uk/Methods/Crowdsourcing

9.5.3. http://blogs.lse.ac.uk/impactofsocialsciences/2013/03/21/more-than-a-business-model-crowd-sourcing-and-impact-in-the-humanities/

9.5.4. http://www.citizen-science.at/citizen-science/was-ist-citizen-science

9.5.5. http://science.orf.at/stories/1754489/

9.6. Engaging the Public: Best Practices for Crowdsourcing Across the Disciplines May 6 - 8, 2015 • University of Maryland http://www.crowdconsortium.org/wp-content/uploads/crowdconP.pdf

10. Beispiele

10.1. Portale

10.1.1. http://www.citizenscience.org

10.1.2. http://scistarter.com/

10.1.3. http://www.citizen-science.at/

10.1.4. http://buergerschaffenwissen.de/

10.2. Referenzprojekte

10.2.1. http://blogs.ucl.ac.uk/transcribe-bentham/

10.2.2. http://www.galaxyzoo.org/

10.2.3. http://www.oldweather.org/

10.2.4. https://fold.it/portal/

10.2.5. http://stardustathome.ssl.berkeley.edu/

10.3. Andere Beispiele

10.3.1. Sprachatlantendigitalisierung (Kundmann, München)

10.3.2. Schweizer Dialekt App

10.3.3. ReCaptcha

10.3.4. Great War Archive

10.3.5. Letters of 1916

10.3.6. Finnische Zeitung

10.3.7. DTA

10.3.8. Projekt Gutenberg

10.3.9. Holländ: z.B. MONK

10.3.10. ARTIGO

10.3.11. Bodleian: Drucker

10.3.12. Genealogendatenbank

10.3.13. Topothek

10.3.14. USA Census

10.3.15. Schottische Dialekte

10.3.16. Europeana/ÖNB 1914-18

10.4. https://www.zooniverse.org

10.4.1. https://anno.tate.org.uk/#/artists

10.4.1.1. https://github.com/zooniverse/annoTate

10.4.2. HowToBuildAProject

10.4.2.1. Project

10.4.2.2. Workflow

10.4.2.2.1. Tasks

10.4.2.2.2. Typen

10.4.2.2.3. Anzahl Beiträge bevor das Objekt "fertig" ist

10.4.2.3. Subjects

10.4.2.3.1. All of your images in a single folder along with a manifest file

10.4.3. https://github.com/zooniverse/annoTate

10.4.4. https://github.com/zooniverse/Scribe

11. Software

11.1. https://github.com/zooniverse

11.2. http://edutechwiki.unige.ch/en/List_of_citizen_science_software

11.3. https://web.ornl.gov/registration_resumes/Brovelli_Minghini_Zamboni.pdf

11.4. http://web.ornl.gov/sci/gist/workshops/2014/docs/Maria%20Antonia%20Brovelli-%20Free%20and%20Open%20source%20Software%20for%20citizen%20science%20applictations.pdf