Episode 39: Philosophie, Aktivismus und Educational Theory

Wir sind nach ein paar Wochen Abstinenz wieder da und besprechen Markus’ Antrittsvorlesung, ein wenig #2017DML, aber auch und vor allem den Artikel von Ben Williamson “Who owns educational theory?” – warum das wichtig besprechen wir auch direkt.

Was wir trinken

Markus: Mineralwasser Medium 
Christian: Kaffee & Leitungswasser

Feedback

Sebastian Horndasch: wir diskutieren manchmal ohne Leute vorher abzuholen; siehe Kommentare Episode 38
Marke 3:45

Was wir gemacht haben

Markus

Marke 21:10
Marke 25:05

Christian

Marke 39:30

Was wir gelesen haben

Ben Patrick Williamson, Who owns educational theory? Big data, algorithms and the expert power of education data science http://journals.sagepub.com/doi/abs/10.1177/2042753017731238?journalCode=ldma
Marke 1:15:15
Marke 1:20:00
Martin Lindner, Inhaltsverzeichnis “Die Bildung und das Netz” https://drive.google.com/file/d/0B02ckrj_3q0MdnNpZEQ1TXl6eEU/view
Marke 1:22:45
OER Action Plan vom zweiten OER Weltkongress in Ljubjiana https://en.unesco.org/sites/default/files/ljubljana_oer_action_plan_2017.pdf 
Marke 1:28:45

Größter Blödsinn der Woche

Marke 1:29:55

Was wir tun werden

Markus 
EduCamp in Hattingen
Christian

12 Replies to “Episode 39: Philosophie, Aktivismus und Educational Theory”

  1. Zwei kurze Links zu Markus Argumentation “Das ist das Gegenteil von Wissenschaft” und der Möglichkeit der Überprüfung/Widerlegung/(Reproduktion?) bestimmter Ergebnisse. Fand ich spannend, würde ich generell zustimmen und wäre auch meine Maxime/Idealvorstellung, aber in vielen wissenschaftlichen Feldern ist das meiner Wahrnehmung nach ja derzeit überhaupt keine Realität bzw. war es nie?

    a) Besitz/Zugang zu Gerätschaften: Den LHC hat nicht jeder unter der Tiefgarage. Die Daten werden mit Embargofrist von 2 Jahren rausgegeben und nun gibt es auch eigene Erkenntnisse von externen Wissenschaftler*innen auf Basis der Daten: https://www.engadget.com/2017/10/02/large-hadron-collider-public-data-discovery/
    (Da wäre ja meine Idealvorstellung, dass die Daten sofort verfügbar sind, wenn das zu Teilen staatlich finanziert wird? https://www.quora.com/Where-did-CERN-get-most-of-its-funding-for-the-Hadron-Collider-and-how-much-did-it-cost-to-build)
    LHC ist natürlich ein Mammutprojekt, aber auf den Ebenen darunter sieht es nicht besser aus vermute ich? Open Data ist ja keine gelebte Praxis und die Diskussion um Datenschutz vs. Offene Daten im qualitativen Forschungsbereich wird meiner Einschätzung nach noch überhaupt nicht geführt, obwohl sie jetzt mehr als dringend wäre? (Wenn ich nie Interviewdaten kriege bei qual. Forschungsprojekten – wie soll ich die dann widerlegen?)

    b) Letztendlich kommt man auch hierbei raus, egal ob spezielle Gerätschaften/Labore/Forschungsgruppen oder eben Plattformen: “Flaschenhals sind die Daten”
    https://www.piqd.de/technologie-gesellschaft/der-flaschenhals-sind-die-daten
    Warum wird Twitter so oft untersucht im Gegensatz zu Kommunikation auf Facebook, welche eigentlich viel relevanter für den deutschsprachigen Raum ist? Meine Einschätzung: Weil man eben auch öffentlich per Webseite und nicht über die API (Schnittstelle, die Plattform anbietet für Analyse) an die Daten ran muss. Und weil das als “öffentlicher Raum” gewertet wird und forschungsethisch besser zu argumentieren ist. Müsste man über die API-Schnittstelle, dann legt Twitter/Facebook/etc. hier die Limits der Auswertung (maximale Anzahl der Datenabrufe pro Sekunde z.B.) fest. Wer fragt an / bekommt schon direkt Zugang zu den Plattformdaten? Facebook beschäftigt ja auch eigene Wissenschaftler*innen, da kommt dann teilweise sowas bei raus: https://web.archive.org/web/20170204034110/http://insights.fb.com/2017/02/03/what-mends-a-broken-heart-on-facebook/

    Bzgl. Homo digitalis & Co – bleib bitte dran! Dan Verständig und Jens Holze haben ihre Dissertationen in diesem Kontext gerade abgeschlossen:
    https://pixelspace.org/2017/09/dissertation-abgeschlossen/
    https://log.jensholze.de/2017/10/digitales-wissen-bildungsrelevante-relationen-zwischen-strukturen-digitaler-medien-und-konzepten-von-wissen-dissertation/

    Da kann die Debatte um Bildung (wie auch immer man ihn nennen möchte) im deutschsprachigen Raum deutlich mehr differenzierte Impulse vertragen imho! 🙂

    Grüße und danke für eure anregenden Episoden!

  2. Ich springe mal spontan zu Matthias auf den Zug auf. Habe bisher allerdings nur den Abschnitt im Podcast gehört und den Artikel noch nicht gelesen. Falls da also etwas zu meinem Punkt gesagt wird, bitte mit damit folgendermaßen vorgehen “Durchstreichen, Idiot dranschreiben!”
    Es ist kein Geheimnis, dass ich ein großer Freund von Reproducible Research bin. Das ist nach meinem Verständnis eigentlich ein Pleonasmus, und genau so argumentiert ja auch Markus. Gerade deshalb würde ich aber nachhaken wollen, wann denn die empirische Wissenschaft der letzten Jahrzehnte dem Anspruch der Reproduzierbarkeit genügt hat? In welchem Grade wurden denn dort die verwendeten Daten und ggf. Algorithmen beschrieben und offen zur Verfügung gestellt? Ich wage zu behaupten: nicht ganz so ausgiebig. Ich sehe also sehr wohl das Problem, aber nicht “Big Data”™ als treibende Kraft — wenngleich (oder zumal?) hier die Bereitstellung der Daten schwieriger ist. Es ist in der Wissenschaft immer blöd, wenn die Daten nicht zur Verfügung stehen, um die Ergebnisse reproduzieren bzw. überprüfen zu können — oder es ist womöglich nicht einmal Wissenschaft (vgl. oben den Einwurf zum Pleonasmus)?

  3. Wie ihr vielleicht auch in der Aufzeichnung bemerkt habt: ich habe zwar eine Vorstellung von Wissenschaft und gucke auch dabei zu, wie andere ihr nachgehen. Im klassischen Sinn bin ich aber kein Wissenschaftler. Deswegen fällt es mir leicht euch auch beizupflichten, meine Frage nach dem status quo ging im Podcast ja auch in die Richtung. Ob die Theoriefindung nur deswegen transparenter, leichter nachvollziehbar und replizierbar wird weil sie ‘analog’ im Elfenbeinturm stattfindet, wage ich auch zu bezweifeln. Begreifbarer vielleicht weil Vorgang und Methode weniger komplex sind. Davon abgesehen halte ich mich brav zurück und übergebe an meinen Podcast-Kompagnon – der ist schließlich der Wissenschaftler von uns beiden.

  4. Muss noch kurz einen Nachtrag liefern: Mein Kommentar war etwas voreilig geschrieben aus Zeitmangel in direkter Reaktion auf “Gegenteil von Wissenschaft”, habe den Abschlussteil noch mal konzentriert nachgehört: Die Offenlegung des Herangehens bei “klassischer Theoriebildung” ist nachvollziehbarer (wie von Christian herausgestellt), was ein gutes Abgrenzungsmerkmal sein kann zu “theoriebefreiten”(?) Arbeiten. Wenn danach in einer klassisch-ordentlichen Arbeit trotzdem empirische Daten ausgewertet werden, auf welche ich keinen Zugriff habe, dann führt mich das trotzdem zu Olivers Ausführung: Natürlich kann ich die Arbeit dann aber besser einordnen hinsichtlich dahinterliegender Theorie, Methodik, etc. – die Datenanalyse kritisieren kann ich trotzdem nicht. Stellt sich für mich die Frage, wie hier die Gewichtung ist. (Die Ausrede “Ich kann ja nicht alle Daten drucken / per Post verschicken” fällt ja inzwischen weg ;)).

    Ich musste übrigens kurz schmunzeln als Markus sagte, “Empathie kann man nicht messen”, weil ich mir sicher war, dass mir die Google-Ergebnisse danach ein anderes Bild liefern würden bzw. diese Aussage von manchen Leuten vermutlich eher als Herausforderung/Ansporn angesehen wird 😉 https://goo.gl/PrXFe3 (Deswegen wird imho dann auch der gesamtgesellschaftliche Konsens schwierig?)

    Die “Reproducibility crisis”-Debatte hat da ja aber meiner Einschätzung nach auch nochmal den Finger tief in die Wunde gedrückt, speziell in der Psychologie, was eure Argumentationen in Bezug auf die Grenzen der Quantifizierbarkeit ja in dem Sinne bestärkt. Fand die differenzierte Auseinandersetzung von euch und auch die Frage nach dem Status Quo sehr gut!

    1. Nur ein ganz kurzer Zwischenruf: Messbarkeit kenne ich vor allem aus der Psychologie, Empathie z.B. wird da ja auch “gemessen”. Mit Messen meint man ja letztendlich immer quantifizieren, etwas wird in einer best. Qualität ausgedrückt / reduziert. Und Psychologen tun sich unheimlich schwer damit, etwas komplexes wie Empathie (oder Intelligenz, for that matter) in eine Zahl zu reduzieren. Was sie dann messen, ist sicher relevant aber nicht mehr das komplexe, große ganze. So auch bei Lernen. Wenn also jemand behauptet Lernen in seiner Fülle messbar zu machen, läuft er – so wie ich das verstehe – Gefahr sich der Scharlatanerie schuldig zu machen. Es sei denn er behauptet nicht Lernen, sondern zum Beispiel den Erfolg in einem best. Test zu messen.

      1. “Wenn also jemand behauptet Lernen in seiner Fülle messbar zu machen, läuft er – so wie ich das verstehe – Gefahr sich der Scharlatanerie schuldig zu machen.”

        Enorm wichtiger Satz/Einordnung! Vielleicht sollte der öfter mal auf Veranstaltungen rund um KI, Algorithmen, Bildung & Co als Zwischenruf genutzt werden. 🙂 (Bin mir immer nicht sicher, wie da die Prozentverteilung derer ist, die das ebenso einschätzen würden).

        VG,
        ein Bachelor of Arts. 😉

        1. Ja, dazu hatten wir auch in Episode 40 ein paar gute Links, glaube ich. AI as a one trick pony ist definitiv lesenswert.

  5. Vielen Dank euch für das Feedback. Ich bin bei der Aufzeichnung in den Rant-Modus gekommen:=)
    Die Problematik des “Black Boxing” bei der Datengenerierung, -erhebung und -auswertung könnte man systematischer angehen und dann aufzeigen, warum Transparenz wichtig ist. Allerdings sollte das auch kein Selbstzweck sein, sondern ist abhängig vom Kontext, Fragestellung, Methode…

    Am Thema Homo Digitalis bleiben wir/ich dran!

  6. Die Problematik des “Black Boxing” bei der Datengenerierung, -erhebung und -auswertung könnte man systematischer angehen und dann aufzeigen, warum Transparenz wichtig ist.
    Das haben wir gar nicht infrage gestellt. Ich habe allerdings nicht verstanden, was der Unterschied zwischen “heute mit Big Data” und “früher mit Small Data” sein soll (Es ist in der Wissenschaft immer blöd, wenn die Daten nicht zur Verfügung stehen, um die Ergebnisse reproduzieren bzw. überprüfen zu können).

  7. Zum “homo digitalis” als Vergleich: Webserie zum Begriff.

  8. Den Unterschied zwischen Small und Big Data hatte ich gar nicht so auf dem Schirm. Dadurch dass Big Data nun so populär geworden ist, bekommt auch die Transparenz bei der Datengewinnung eine Dimension. Das bedeutet natürlich nicht, dass es früher besser war (darauf sind wir in Ep 40 kurz eingegangen). Im Gegenteil, die Problematik wird nun noch deutlicher.

    Danke auch für die Anregung zur Webserie. Muss ich mal darüber nachdenken.

    1. Vielleicht noch ergänzend: mein Eindruck ist, dass auch die Datenverarbeitung und nicht nur die -Gewinnung bei ‘Big Data’ intransparenter wird, insbes. wenn es in Richtung predictive analytics geht.

Schreibe einen Kommentar