Hej
Håber der er nogle kloge hoveder der kan hjælpe mig med lige at regne denne ud:
Et hypotetisk eksempel:
Jeg har 100 kollegaer, de 99 løser tilsammen 1 opgave i timen (dvs. 99 timer i alt for en opgave) og den sidste løser 99 opgaver i timen. Gennemsnittet vil så være (99+1)/100= 1 opgave i timen = 60 min. pr opgave.
Men hvis jeg anskuer det sådan at vi den ene er 60/99= 0,61 min. om at løse en opgave og de 99 resterende er 99*60/1=5940 min om det, så vil en gns. medarbejder bruge (0,61*1+5940*99)/100= 5881 min. pr opgave.
Hvad er mest korrekt, når man snakker gns., og er svaret måske afhængig af hvad man i situationen vil benytte gennemsnittet til?
Kan man sige noget ud fra forskellen i de to forskellige gennemsnit?
Håber I kan hjælpe :)
Matematik spørgsmål
du har 100 medarbejdere der løser 2 opgaver på en time = 30 min per opgave.
Kan godt være det er mig der simplificerer det for meget, men ser ingen grund til den anden udregning
Det første er hvor lang tid, det i gennemsnit tager at få en opgave løst i afdelingen.
Det andet er, hvor lang tid dine medarbejdere i gennemsnit bruger på at løse en opgave.
Så det kommer an på, hvad du vil finde ud af... Så stor spredning vil dog nok betyde, at en gennemsnitsudregning ikke er det fedeste uanset hvad (men nu er det også hypotetisk)
Hvis din population er lige nøjagtigt de 100 er det statistisk mest korrekt at smide den observation der er SÅ langt fra alle de andre ud (en outlier) - og så regne gennemsnit fra de resterende.
Hvis din population er noget større ville jeg nok nappe en ny sample og se om det ikke udligner sig lidt (nu er det et meget ekstremt eksempel du kommer med godt nok)
Jeg kan ikke se at du stiller det rigtigt op.
100 personer løser 102 opgaver på en time. Så må det være 102 opgaver/time eller hver person løser 1,02 opgaver/time i gennemsnit.
Din anden udregning giver ikke mening. De 99 er stadig 1 time om en opgaver og ikke 99*60...
Eller også misforstår jeg dine udregninger.
Ja, obv er der noget galt med udregning 1...
Der bliver lavet 101+1 opgaver i timen...
@ Zorro
Hvis det ene fortæller noget om hvor lang tid det gns. tager at løse en opgave og det andet hvor lang tid det gns. tager for en gns. medarbejder at løse en opgave, må jeg vel næsten kunne komme fra det ene til det andet tal på en simpel matematisk måde, eller hvad? Hvordan gøres det?
@ MichaelFabiano
Hvis de 100 er populationen skal jeg vel aldrig udelukke den ene ekstrem, da den så er repræsentativ? Altså vi VED at der er 1% som performer helt abnormt.
@ Badehat
Ja du misforstår, de 99 er en time hver om at løse én opgave, dvs. 99*1 = 99 timer i alt om at løse én opgave
@ zorro
Ja tak tastefejl - det er selvfølgelig (99+1)/100 = 1 i timen
Det passer da også meget godt...
100 medarbejdere er 60 minutter om én opgave.
Én medarbejder er 60*100 minutter = 6.000 minutter om én opgave. (så er der lidt afrunding i dit eksempel)
For at kunne bruge gennemsnittet til noget som helst bliver du nødt til at fjerne outlieren - hans præstation har jo absolut intet med den gennemsnitlige præstation at gøre - i tolkningen af snittet må vi så bare tage højde for at vi har smidt en helt absurd høj observation ud.
@Fabiano:
Hvis du fjerner outlieren får du jo et voldsomt misvisende gennemsnit?!? Et gennemsnit skal jo ikke være repræsentativt, men derimod et gennemsnit, så medmindre man har grund til at tro at der er noget galt med data, skal outliers da klart tages med i gennemsnitsbetragtninger!
At et gennemsnit uden en standardafvigelse/spredning ikke siger så meget er en anden diskussion, men at fjerne outliers før en gennemsnitsberegning er efter min mening meget misvisende.
Hvis 99 personer er 1 time om at løse en opgave så tager det da stadig kun 1 time at løse opgaven. Du skal jo ikke gange med 99. På 99 timer kan de løse 99 opgaver. Hver personer løser 1/99 opgaver i timen... Hvis 1 person skal løse en opgave, så går der rigtig nok 99 timer for den ene person før opgaven er løst.
Det er vel derfor man anvender median, netop fordi gennemsnit bliver influeret tungt af outliers
SkatKat skrev:
@Fabiano:
Hvis du fjerner outlieren får du jo et voldsomt misvisende gennemsnit?!? Et gennemsnit skal jo ikke være repræsentativt, men derimod et gennemsnit, så medmindre man har grund til at tro at der er noget galt med data, skal outliers da klart tages med i gennemsnitsbetragtninger!
At et gennemsnit uden en standardafvigelse/spredning ikke siger så meget er en anden diskussion, men at fjerne outliers før en gennemsnitsberegning er efter min mening meget misvisende.
Du får da et langt mere misvisende gennemsnit hvis du medtager den voldsomme outlier?
Antag at det er materiale der bliver præsenteret for en ny chef, der ingen ide har om fordelingen, men som kun får oplyst gennemsnittet. Så får han at vide at snittet er på 2 timer pr opgave, men opdager så at for 99 af hans medarbejdere er det ikke 2, men derimod 99timer det tager.
Fremfor at fortalle ham det latterligt høje gns og så samtidig fortælle at der en en enkelt outlier der tilsyneladende er superman..
MichaelFabiano skrev:
Hvis din population er lige nøjagtigt de 100 er det statistisk mest korrekt at smide den observation der er SÅ langt fra alle de andre ud (en outlier) - og så regne gennemsnit fra de resterende.
Hvis din population er noget større ville jeg nok nappe en ny sample og se om det ikke udligner sig lidt (nu er det et meget ekstremt eksempel du kommer med godt nok)
Lol, at slette outlieren er på ingen måde det samme som at korrigere for at outlieren :D
@OP
Du skal selvfølgelig have outlieren med, medmindre du vil have et meget misvisende gennemsnit
SpongeJoes skrev:
Det er vel derfor man anvender median, netop fordi gennemsnit bliver influeret tungt af outliers
This, hvis det er et datasæt du har, så ville jeg bruge quantile regression, hvis du har nogle tunge outliers