Statistiek op de schop?

13 nov 2013

Goed nieuws voor studenten sociale wetenschappen met een hekel aan het vak statistiek: nieuwe publicatievoorwaarden in Psychological Science – hét wetenschappelijk publicatietijdschrift onder psychologen – kunnen ervoor zorgen dat de inhoud van het vak verandert, stelt Fred Hasselman, onderzoeker bij het Nijmeegse Behavioural Science Institute. statistiek Dat de geloofwaardigheid en het nut van sociale wetenschappen al jaren onderwerpen zijn van debat is geen nieuws, wel dat er maatregelen aankomen om de bewijskracht van onderzoeken te vergroten. Het tijdschrift Psychological Science kondigde onlangs aan andere accenten te gaan leggen bij het accepteren van wetenschappelijke publicaties en met name de methodologische onderbouwing. De belangrijkste verandering is dat de nulhypothese toetsen niet langer heilig is in statistische testen, legt onderzoeker Fred Hasselman uit.  ‘Wanneer je de invloed van een bepaalde therapie tegen depressie wilt onderzoeken, doe je eigenlijk een voorspelling over de grootte van het effect van de therapie op depressie. Een significantietoets kan je  vertellen of een bepaald effect door toeval kan zijn ontstaan. De werkelijkheid is echter niet zo zwart-wit dat zo’n vraag met ja of nee te beantwoorden valt. Door een marge om het voorspelde en het waargenomen effect heen te bouwen kun je genuanceerder uitspraken doen.’ Onderwijs De wijziging kan ook van invloed zijn op het statistiekonderwijs dat de Radboud Universiteit aanbiedt. ‘Bij studenten heerst vaak al intuïtief een bewustzijn dat de nulhypothese hen weinig vertelt over hetgeen ze willen weten. We kunnen nu meer nadruk leggen op nadelen van deze vorm van statistiek.’ Met het in de sociale wetenschappen veelgebruikte statistiekpakket SPSS kunnen docenten niet direct op deze verandering inspelen. ‘Focussen op het significantieniveau speelt een kleinere rol als je iets wilt zeggen over de grootte van effecten. SPSS kent geen hypothesetoetsing met betrouwbaarheidsintervallen. We moeten dus kijken naar alternatieve methodes om de gevraagde manier van bewijsvoering aan te leren.’ De wijzigingen komen niet toevallig op dit moment. Volgens onderzoeker Hasselman vallen twee zaken samen. ‘Al sinds eind jaren zestig heerst er discussie over de juiste wijze waarop toetsende statistiek bewijs kan leveren voor de effecten die sociale wetenschappers in hun data menen te zien Tijdschriften bleven de klassieke school accepteren, waardoor er voor wetenschappers geen reden was te veranderen. Een reeks incidenten de afgelopen jaren (onder meer de affaire Stapel, red.) zorgde voor een publiek wantrouwen jegens deze vorm van wetenschap bedrijven. Dat heeft het invoeren van deze veranderingen in een stroomversnelling gebracht.’ / Jorg Leijten

17 reacties

  1. Eric Maris schreef op 14 november 2013 om 17:40

    Wat een vreemde bijdrage!

    1. Natuurlijk heeft de klassieke nulhypothese toetsing zijn beperkingen. Kom met een alternatief!
    2. Betrouwbaarheidsintervallen zijn onmiskenbaar beter dan p-waarden, maar dan alleen voor gemeten (afhankelijke) variabelen die intrinsiek belangrijk zijn (levensverwachting, kans op recidive, studiesucces, etc) maar niet voor gemeten variabelen die slechts als index fungeren voor een niet-observeerbaar construct (scores op vragenlijsten voor intimiteit, zelfvertrouwen, gezag, egoïsme, etc). Kom met een alternatief voor deze variabelen!
    3. Waarom wordt hier verwezen naar SPSS? In elk eerstejaars statistiekboek staan de formules voor alle courante betrouwbaarheidsintervallen.
    4. Waarom wordt hier de link gelegd met de recente incidenten binnen de sociale psychologie? De relatie tussen de statistiek en deze incidenten is wel te leggen, maar dan op een abstracter niveau (zie de paper van Simmons et al, 2011). In deze bijdrage wordt gesuggereerd dat de beperkingen van de nulhypothese toetsing mede verantwoordelijk zijn voor de genoemde incidenten. Met mijn excuses voor het geval ik iemand beledig, maar hier past maar één reactie: Wat een onzin!

    Eric Maris

    • FH schreef op 14 november 2013 om 20:53

      Beste Eric,

      de aanleiding voor dit nieuwsbericht zijn de aankondigingen van van het tijdschrift Psychological Science ( http://www.psychologicalscience.org/index.php/publications/observer/obsonline/whats-new-at-psychological-science.html )

      Een van de aankondigingen is de volgende:

      “Embracing the New Statistics. Null hypothesis significance testing (NHST) has long been the mainstay method of analyzing data and drawing inferences in psychology and many other disciplines. This is despite the fact that, for nearly as long, researchers have recognized essential problems with NHST in general and with the dichotomous (significant vs. nonsignificant) thinking it engenders in particular.”

      Het alternatief waar je om vraagt bestaat dus (volgens Psychological Science) uit interval voorspellingen (bijv. Cumming, 2012) in plaats van “er is een verschil”. Dat lijkt mij een hele grote vooruitgang. Wat hypothese toetsing dmv Effect-Size CI inhoudt en waarom de auteur “NHST is fatally flawed” vindt kun je hier lezen: The New Statistics: Why and How http://pss.sagepub.com/content/early/2013/11/07/0956797613504966.full

      In dat artikel wordt ook de link gelegd tussen NHST en de huidige vertrouwenscrisis in het empirische register van de sociale wetenschappen. Maar dat is verre van nieuwe, die relatie wordt al gelegd sinds de jaren 60, zie Nunnally, 1960; Rozenboom, 1960; Bakan, 1966; Meehl, 1967; Lykken, 1968; Meehl, 1990 en recenter Ioannidis, 2005; 2012; LeBel & Peters 2011; Fanelli, 2012, Fiedler et al., 2012.

      Er zijn meer alternatieven dan ESCI.

      Peter Klaren verwijst hierboven terecht naar Johnson, 2013 ( http://www.pnas.org/content/early/2013/10/28/1313476110.abstract ) waarin wordt aangetoond dat de distributie van gepubliceerde p-waarden op zijn minst merkwaardig te noemen is en adviseert (op basis van Bayes factor) om een evidentie niveau van .005 en .001 te gebruiken. De natuurwetenschappen (particle physics) gebruiken bijvoorbeeld 5sigma als “discovery level”, maar dat gaat dan ook nog eens om voorspellingen van meetuitkomsten t.o.v. van nul-model.

      Zie ook het werk van E-J Wagenmakers en collega’s, bijv. http://www.ejwagenmakers.com/submitted/BayesianReplicationTest.pdf

      Verder:
      – De journalist was geïnteresseerd in de gevolgen voor het onderwijs, dan is SPSS noemen niet vreemd. Het programma geeft geen betrouwbaarheidsinterval voor effectgroottes. Ik verneem graag de titel van een eerstejaars statistiek boek waarin wordt uitgelegd hoe dat werkt.

      – Er wordt in het stuk niets gesuggereerd over sociale psychologie. De incidenten die ik noemde waren o.a.: Bem, 2011 (Claim van evidentie voor ESP), Diverse beroemde effecten die niet repliceren, studies naar questionable research practices, studies naar publication bias (95% van de publicaties in de psychologie rapporteren positieve resultaten, Fanelli, 2010) en gevallen van fraude, twijfelachtige resultaten en retracties wat een interdisciplinair probleem is, zie o.a. http://retractionwatch.wordpress.com . De toevoeging is van de redactie.

      Met vriendelijke groet,
      Fred

      • manfred585 schreef op 14 november 2013 om 22:55

        Aan de orde is het oude probleem van de significantie en de relevantie, dat hoort thuis in elke statistiekcursus. SPSS heeft overigens wel degelijk BI berekeningen voor bepaalde effectgroottes (bv Pearsons r, beta’s ). Als het menu het niet heeft, kan het altijd nog met de syntax. Een analysetechniek zoals meta-analyse (ook in SPSS!) bouwt voort op kritiek op blind toetsen van nulhypotheses, maar je zult studenten toch eerst de fundamenten van de toetsende statistiek moeten uitleggen, inclusief BI, p-waarden en nulhypothese. Dat is in beginsel ook helemaal geen saaie en/of moeilijke materie of struikelblok. Wat een hardnekkige mythe is dat toch. Ten slotte, als mensen zelf data bij elkaar fabelen en dat toetsen dan gaan we toch niet de hypothesetoetsing de schuld geven?
        Vriendelijke groet, Manfred te Grotenhuis

      • FH schreef op 15 november 2013 om 00:12

        Hallo Manfred,

        bedankt voor de correctie mbt r en beta’s, je kunt dit inderdaad ook allemaal in Excel uitrekenen. Dat is het punt niet, het lijkt me niet controversieel te stellen dat er een focus ligt op de significante p-waarde als bewijsmiddel voor het aantonen van patronen in de data in bepaalde software pakketten.

        Het is uiteraard zo dat studenten de fundamenten van de toetsende statistiek moeten leren (overigens wordt Fisher gewoon versmolten met Neyman-Pearson in vrijwel alle statistiek boeken), maar dan graag ook de kritische reflectie op de manier waarop corroboratie van theoretische constructen plaatsvindt mbv dat systeem binnen de sociale wetenschappen.

        Toetsen tegen een nulhypothese die bij voorbaat al verworpen kan worden is zo’n punt waarvan studenten intuïtief aanvoelen dat het gekunsteld is, en als je gehoor kunt geven aan zo’n intuïtie lijkt me dat alleen maar winst voor iedereen.

        Bovendien, waarom alleen de frequentist benadering en niet ook informatietheoretisch (best model fit) en Bayesiaanse toetsing behandelen in het eerste jaar? Dat zijn zo ongeveer de smaken die studenten tegen kunnen komen.

        Tot slot, het is inderdaad zo dat de literatuur sinds de jaren 1950-60 laat zien dat we ook zonder “mensen die data bijelkaar fabriceren” de huidige mores mbt nulhypothese toetsing kunnen associeren met problemen als de zwakke theoretische kennisbasis in de sociale wetenschappen, het gebrek aan repliceerbaarheid van fenomenen en publicatie bias. Uiteraard is NHST niet de enige oorzaak, maar ik ben oprecht onder de indruk van de aankondiging van zo’n high-profile tijdschrift om te proberen NHST “uit te faseren” 🙂

        Vriendelijke groet,
        Fred

      • manfred585 schreef op 15 november 2013 om 08:53

        Dag Fred,

        Ik ben het met de verdere uitleg eens. Het was ook een beetje de ronkende titel in Fox en de mogelijke consequenties voor statistiekonderwijs en SPSS die mijn handen op het toetsenbord deed belanden.
        Op mijn terrein is ‘uitfaseren’ van NHST niet aan de orde en het lijkt me eerlijk gezegd ook niet wenselijk. Ik heb nog genoeg voorbeelden waarbij de nulhypothese niet verworpen kan worden.
        Ik weet niet of je eerstejaars-studenten al moet invoeren in de Bayesiaanse statistiek en modelfit benaderingen, dat lijkt me iets voor vervolgcursussen. Er is op LinkedIn een aardige discussie over het onthutsende gebrek aan inzicht in zoiets als een p-waarde, als eerstejaars op verantwoorde wijze, met de juiste techniek, een nulhypothese kunnen toetsen en tegelijk weten welke nadelen eraan kleven dan doen we het niet slecht. Ik geef zelf nog wel eens het voorbeeld waarbij onderzoekers 50 verschillend gekleurde snoepjes testen op bijwerkingen bij kinderen en dan 2 snoepjes als significant vinden bij alpha 5%. Als men dan meent dat rode en blauwe snoepjes de boosdoeners zijn, dan heeft men van NHST nog niet zoveel begrepen.

        Met vriendelijke groet en nulhypothesen toetsend,
        Manfred

      • V. schreef op 21 november 2013 om 10:34

        “Er is op LinkedIn een aardige discussie over het onthutsende gebrek aan inzicht in zoiets als een p-waarde…”

        Niet alleen bij studenten, zie b.v.

        http://iase-web.org/documents/papers/icots8/ICOTS8_8J4_CUMMING.pdf

        Misschien moet er een nieuw extra vak komen, waarin statistiek op een iets andere wijze geleerd wordt. Geen multi-level, dynamic systems, of SEM maar gewoon eerst zaken als: wat is een p-waarde eigenlijk? Wat zegt dat over de hypotheses?

        Misschien moet er eerst een stapje terug gemaakt worden: wat doen we eigenlijk, en wat zegt dat nu eigenlijk? Welke conclusies kun je trekken, welke niet? Wat is een effect size, wat is een confidence interval? Etc.

        (zie b.v. ook Levelt rapport, p. 52:

        “Een andere coauteur bleek geen notie te hebben van wat men nu eigenlijk ‘deed’ in een factoranalyse of wat de betrouwbaarheids-coëfficiënt alfa voorstelt, laat staan wat de berekende onbetrouwbaarheid van bijvoorbeeld de covariaten voor consequenties kan hebben voor de schatting van het experimentele effect. Ook werden in een bepaald geval de ruwe data vervangen door ‘geschatte data’, verkregen uit een of andere
        vorm van ‘smoothing’ of ‘curve fitting’. Deze werden voorgesteld als de echte ruwe data. De coauteur zag hier niet echt een probleem in en had overigens ook geen idee hoe dit gebeurd was: ‘via een optie in Excel’ (de statistici konden de geschatte data op geen enkele manier reproduceren of koppelen aan de oorspronkelijke data).” )

      • Eric Maris schreef op 16 november 2013 om 12:28

        Dag Fred,

        Het is er mij om te doen om (1) zaken te scheiden die conceptueel niet bij elkaar horen en (2) de nuttige aspecten van NHST niet weg te gooien zolang we geen alternatief hebben dat op alle aspecten beter is dan NHST.

        Jij schrijft: “… maar dan graag ook de kritische reflectie op de manier waarop corroboratie van theoretische constructen plaatsvindt mbv dat systeem binnen de sociale wetenschappen.”.

        Maar de statistiek (en dus ook NHST) gaat niet over theoretische constructen; die gaat over kansverdelingen van getallen en de verschillen daartussen.

        En verder: “Toetsen tegen een nulhypothese die bij voorbaat al verworpen kan worden is zo’n punt waarvan studenten intuïtief aanvoelen dat het gekunsteld is, en als je gehoor kunt geven aan zo’n intuïtie lijkt me dat alleen maar winst voor iedereen.”.

        Met gehoor geven aan die intuïtie ben je snel klaar. Nu nog het alternatief (dat ook werkt voor gemeten variabelen die niet intrinsiek belangrijk zijn).

        En verder: “… de huidige mores mbt nulhypothese toetsing kunnen associeren met problemen als de zwakke theoretische kennisbasis in de sociale wetenschappen, het gebrek aan repliceerbaarheid van fenomenen en publicatie bias.”

        Geen van de drie door jou genoemde punten hebben direct iets te maken met NHST.

        Verder deel ik jouw kritische houding t.a.v. de zeggingskracht van NHST voor de beantwoording van een deel van de onderzoeksvragen waarvoor ze ingezet wordt.

        prettig WE,

        Eric

      • FH schreef op 17 november 2013 om 23:58

        Hallo Eric,

        ik zou graag nog eens wat uitgebreider met je over deze materie spreken, ik heb het idee dat de verschillen niet zo heel groot zijn, behalve dat ik niet begrijp wat het theoretisch belang is van een (metafysisch) onderscheid in intrinsieke vs. niet-intrinsieke variabelen.

        Wat betreft het eerste punt, er staat “corroboratie van theoretische constructen”, volgens mij behoort de inferentiële statistiek tot de inductieve technieken die uiteindelijk theoretische constructen wetenschappelijk meer of minder geloofwaardig kunnen maken (verisimilitude). De kansverdelingen die je noemt en het formalisme dat dicteert of de kanstheorie en die verdelingen in fysische zin van toepassing zijn op het onderzoeksobject (de ergodische theorema’s) zijn uiteraard juist zelf theoretische constructen (en blijken vaak niet van toepassing op observabelen van levende complexe systemen).

        Uit het tweede punt leid ik af dat het inzetten van schattingen van effectgroottes om theorieën te evalueren zodat ze op den duur meetuitkomsten kunnen voorspellen geen goed alternatief is voor het voorspellen van het teken van een correlatie? (Eigenlijk is het natuurlijk zo dat NHST zoals toegepast in de sociale wetenschappen een noodgedwongen alternatief is voor de natuurwetenschappelijke axiomatisch deductieve methode om tot een voorspelling te komen die ‘confirmatory’ getest kan worden.)

        Wat betreft het derde punt: “Geen van de drie door jou genoemde punten hebben direct iets te maken met NHST”.

        Ik beweer geen directe relatie, ik zei “de huidige mores mbt nulhypothese toetsing … associeren met”, dus de mores, niet NHST op zichzelf, je zou kunnen zeggen dat het Higgs Boson met NHST is aangetoond (Fisher’s variant). Maar of die relatie nu direct of indirect is, ik denk dat het belangrijk is om een verband te onderkennen en te bestuderen. Die associaties heb ik overigens niet zelf gelegd zoals te zien is aan de lijst auteurs die zich hier in het verleden en heden over hebben uitgesproken.

        Belangrijkste punt is m.i. de epistemische ontkoppeling tussen theorie en de hypothesetoets met dichotomie uitkomst… en dat gaat volgens mij toch echt over hoe NHST wordt gebruikt als corroboratie van de voorspellingen van een theorie in de sociale wetenschappen.

        Zoals ik al zei, ik bespreek dit graag nog een keer.

        Vriendelijke groeten,

        Fred

      • V. schreef op 21 november 2013 om 12:39

        “Dat is in beginsel ook helemaal geen saaie en/of moeilijke materie of struikelblok. Wat een hardnekkige mythe is dat toch”

        Hier zijn vast gegevens van/over neem ik aan die aantonen dat statistiek wel of geen struikelblok is voor studenten (?).

      • manfred585 schreef op 21 november 2013 om 14:47

        Ja hoor, de slagingspercentages zijn bijvoorbeeld bij Maatschappijwetenschappen hoog, maar dat doet blijkbaar aan de mythe weinig afbreuk.

    • FH schreef op 14 november 2013 om 22:18

      Hallo Peter,

      Ik ben eigenlijk erg benieuwd naar een vergelijking van inferentie regels / standaarden tussen sociale wetenschappen en de natuurwetenschappen, belangrijkste verschil is uiteraard de aard van de voorspelling (in meetuitkomsten).

      Zie verder mijn reactie hieronder, de concrete aanleiding was een andere, maar het onderwerp is zeker heel actueel, interessant is bijvoorbeeld “The life of p: ‘Just significant’ results are on the rise” http://www.tandfonline.com/doi/abs/10.1080/17470218.2013.863371#.UoU53ZEyAwK

      Het artikel wordt hier kort besproken: http://retractionwatch.wordpress.com/2013/11/12/just-significant-results-have-been-around-for-decades-in-psychology-but-have-gotten-worse-study/
      Bevat ook links bevat naar recente publicaties over distributies van p-waarden die NHST noemen als oorzaak voor onder meer “dubious practices” en “publication bias”.

      Met vriendelijke groet,

      Fred

      • Peter Klaren schreef op 15 november 2013 om 12:25

        P < 0.05 rules, ook in de biowetenschappen.

        NHST blijft nodig, zeker gezien de kleine tot grote variatie in biologische metingen. Het gaat er dan niet zozeer om of je een H0 test die a priori onzinnig is, maar of je met enige mate van zekerheid kunt uitsluiten dat een meetuitkomst door het toeval, lees: samenstelling van de steekproef tot stand komt.

        Maar: effect size, ofwel de "oomph factor" hoort er gewoon bij, zoals ook Ziliak en McCloskey wat drammerig maar volledig terecht duidelijk maken in The Cult of Statistical Significance (http://www.deirdremccloskey.com/articles/stats/preface_ziliak.php).

        Peter

  2. P.S. schreef op 19 november 2013 om 16:34

    Ik vind het artikel:”Statistiek op de schop?” sensatie zoekend en van Telegraaf niveau. De titel wekt erg verkeerde verwachtingen en de inhoud deels ook. Bovendien worden er verkeerde relaties en verbanden gelegd. Ik begrijp uit de reacties van Fred dat hem dat niet aan te rekenen is.
    Ik sluit me aan bij Eric:”Wat een onzin.”

    Ik zie het zo (vandaag dan hè):
    Mijns inziens zijn er drie ‘entiteiten’ die met elkaar interacteren:
    A.het (wetenschappelijk) bouwsel van theorieën en modellen over een werkelijkheid,
    B.methoden (paradigma’s als je wil) om de koppeling tussen dat bouwsel en die werkelijkheid te onderzoeken en verifiëren
    C.wetenschappers, mensen aan wie niets menselijks vreemd is, die het werk doen.

    De volgende drie gebeurtenissen hebben volgens mij weinig te maken met geloofwaardigheid en nut van het bouwsel zelf:
    (1)De onjuiste toepassing van methoden en/of de toepassing van onjuiste methoden.
    (2)Dat er wetenschappers bestaan die de werkelijkheid geweld aandoen, oftewel
    verzinnen.
    (3)Dat er wetenschappers bestaan die de methoden (willens en wetens of uit onwetendheid) geweld aan doen door ze te gebruiken voor dingen waarvoor ze niet bedoeld of geschikt zijn en daarmee de relatie tussen werkelijkheid en bouwsel vertroebelen.
    (geloofwaardigheid en nut van het bouwsel zelf zou afgeleid kunnen worden uit mate van oa: interne consistentie, valide redeneringen, maatschappelijke relevantie)

    De geschiedenis leert ons, nu, dat de NHST-methode niet de handigste is als het bouwsel sociale wetenschappen betreft. Deze methode lijkt gevoelig te zijn voor de drie beschreven gebeurtenissen. Je zou kunnen zeggen dat dat komt door de wat onnatuurlijke wijze (het falsifiëren van iets waarvoor je helemaal geen belangstelling hebt). Hierdoor is de methode niet voldoende transparant.

    Ik vind het toe te juichen dat een vooraanstaand tijdschrift een iets andere koers wil varen.
    Wat ik merkwaardig vind is dat wetenschap, in plaats van theory-driven cq data-driven te zijn, dus journal-driven blijkt te zijn..

    Bayesiaanse methoden lijken een goed alternatief te bieden, omdat (onder andere)
    -de begrippen (bv credible interval) meer aanspreken
    -de toetsingsprocedure, conceptueel, eenvoudiger is en ongevoelig(er) is voor een aantal misbruiken (zoals ‘adding data’, multiple testing) die bij het NHST paradigma wel voorkwamen.

    Ik geloof niet dat de Bayesiaanse aanpak moeilijker is dan de frequentionist aanpak.
    Vanaf het moment dat iemand iets kan lezen en begrijpen wordt die persoon doordrenkt met de frequentionists aanpak; daarom zal het niet makkelijk zijn om een andere methode te aanvaarden. Maar moeilijker is het op zich niet.

    Fred:” een vergelijking van inferentie regels / standaarden tussen sociale wetenschappen en de natuurwetenschappen,”. Dat kan erg interessant en leerzaam zijn. Ik heb gemerkt dat beide groepen niet erg op de hoogte zijn van hoe het er bij elkaar aan toe gaat.

    “Het is uiteraard zo dat studenten de fundamenten van de toetsende statistiek moeten leren”; ja maar dat hoeft niet perse de frequentionist aanpak te zijn, en die hoeft ook niet vooraf te gaan aan een andere aanpak.

    groet, Pierre

    • V. schreef op 20 november 2013 om 14:39

      “Wat ik merkwaardig vind is dat wetenschap, in plaats van theory-driven
      cq data-driven te zijn, dus journal-driven blijkt te zijn..”

      En dan neemt u nog niet eens mee dat er rare dingen zijn als impact-factors, torenhoge rekeningen voor universiteiten die toegang tot journals willen hebben, en managers die alleen kijken naar in welk tijdschrift iets gepubliceerd wordt 🙂

  3. V. schreef op 20 november 2013 om 13:57

    Als een tijdschrift als Psychscience meer nadruk gaat leggen op effect sizes en confidence intervals houdt dat in dat je zou kunnen zeggen dat de statistische onderbouwing in dat tijdschrift verandert (vergeleken met hoe dat tot nu toe wordt gedaan) ?

    Als het antwoord daarop “ja” is, zou je dan kunnen zeggen dat dit er toe bij kan dragen dat deze zaken (effect sizes en confidence intervals) meer/uitgebreider besproken kunnen gaan worden in het statistiek onderwijs?

    Als een oud-student kan ik me niet herinneren dat ik ooit effect sizes en confidence intervallen heb horen besproken in statistiek lessen. De p-waarde wel. Als dit klopt (en ik dus goed opgelet heb), dan zou een toevoeging van (nadruk op) effect sizes en confidence intervallen wellicht een welkome toevoeging zijn aan het statistiek onderwijs (?). Eventueel samen met berichtgeving van een tijdschrift als Psychscience, APA richtlijnen (p. 30), of filmpjes zoals deze:

    http://www.youtube.com/watch?v=5OL1RqHrZQ8

Geef een reactie

Vox Magazine

Het onafhankelijke magazine van de Radboud Universiteit

lees de laatste Vox online!

Vox Update

Een directe, dagelijkse of wekelijkse update met onze artikelen in je mailbox!

Wekelijks
Nederlands
Verzonden!