Redigerer
Menneskelige feil
Hopp til navigering
Hopp til søk
Advarsel:
Du er ikke innlogget. IP-adressen din vil bli vist offentlig om du redigerer. Hvis du
logger inn
eller
oppretter en konto
vil redigeringene dine tilskrives brukernavnet ditt, og du vil få flere andre fordeler.
Antispamsjekk.
Ikke
fyll inn dette feltet!
'''Menneskelige feil''' (på engelsk ''human errors'') er atferd eller manglende atferd som er utenfor normen på en måte som gjør at handlingen medfører en konsekvens.<ref>{{Kilde artikkel|tittel=A Framework for Identifying and Classifying Undergraduate Student Proof Errors|publikasjon=PRIMUS|doi=10.1080/10511970.2016.1199615|url=https://www.tandfonline.com/doi/full/10.1080/10511970.2016.1199615|dato=2016-11-25|fornavn=S.|etternavn=Strickland|etternavn2=Rand|fornavn2=B.|serie=10|språk=en|bind=26|sider=905–921|issn=1051-1970|besøksdato=2023-02-26}}</ref> Sagt på en annen måte defineres menneskelig feil som "en upassende eller uønsket menneskelig beslutning eller atferd som reduserer eller har potensial til å redusere systemeffektivitet, sikkerhet eller ytelse".<ref>{{Kilde artikkel|tittel=Human Factors in Engineering and Design982<i>Human Factors in Engineering and Design</i>. McGraw Hill International Editions, 1992. 790 pp, ISBN: 0‐07‐112826‐3 £22.99 Seventh edition|publikasjon=Industrial Robot: An International Journal|doi=10.1108/ir.1998.25.2.153.2|url=http://dx.doi.org/10.1108/ir.1998.25.2.153.2|dato=april 1998|fornavn=M.S.|etternavn=Sanders|etternavn2=McCormick|fornavn2=E.J.|serie=2|bind=25|sider=153–153|issn=0143-991X|besøksdato=2023-02-26}}</ref> Menneskelige feil inngår i fagfeltet [[menneskelige faktorer]]. Forskning på menneskelige feil kan deles inn i tre nivåer: individnivå, gruppenivå og organisasjonsnivå.<ref>{{Kilde bok|tittel=Human factors and ergonomics.|etternavn=Hassall, M., Xiao, T., Sandersen, P. og Neal, A.|utgiver=Wright, J. International Encyclopedia of the Social & Behavioral Sciences|år=2015|utgivelsessted=Orlando|side=(2.utg, 297-305).}}</ref> På individnivå er temaer som [[kognisjon]], [[Sansesystem|sanseopplevelser]], [[situasjonsbevissthet]] og [[beslutningstaking]] sentrale, ettersom det hjelper oss å forstå hvordan individer fungerer. På gruppenivå handler det om å forstå hvordan mennesker tenker og handler i samspill med hverandre. Her vil teori om [[Gruppeteori|grupper]], [[Gruppetenkning|gruppetenking]], [[Norm|normer]] og roller, samt [[kommunikasjon]] være viktig. På organisasjonsnivå er det innflytelse av organisasjonens [[ledelse]], strukturer og systemer som gjør seg gjeldende. == Bakgrunn == Den kognitive studien av menneskelige feil er et veldig aktivt forskningsfelt, inkludert arbeid knyttet til grenser for hukommelse og oppmerksomhet, samt [[beslutningstakingsstrategier]] som [[tilgjengelighetsheuristiske]] og andre [[kognitive skjevheter]].<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/29521798|tittel=Cognitive systems engineering|etternavn=Rasmussen|fornavn=Jens|dato=1994|utgiver=Wiley|isbn=0-471-01198-3|utgivelsessted=New York|oclc=29521798}}</ref> Slike heuristikker og skjevheter er strategier som er nyttige og ofte korrekte, men som kan føre til systematiske feil.<ref>{{Kilde oppslagsverk|tittel=Management Oversight and Risk Tree (MORT)|url=http://dx.doi.org/10.1002/9780470172230.ch11|utgiver=John Wiley & Sons, Inc.|oppslagsverk=Modern Accident Investigation and Analysis|besøksdato=2023-02-26|side=170–182}}</ref> Misforståelser som tema i menneskelig kommunikasjon har blitt studert i samtaleanalyse, for eksempel undersøkelse av brudd på samarbeidsprinsippet og griske maksimer. Organisasjonsstudier av feil eller dysfunksjon har inkludert studier av sikkerhetskultur. En teknikk for å analysere kompleks systemsvikt som inkluderer organisasjonsanalyse er risikotreanalyse for ledelsesovervåking.<ref>{{Kilde www|url=http://dx.doi.org/10.1037/e577192012-002|tittel=FAA Human Factors Workbench: Integration between research and system development|besøksdato=2023-02-26|dato=2004|fornavn=Dino|etternavn=Piccione|fornavn2=Glen M.|etternavn2=Hewitt|fornavn3=Peter M.|etternavn3=Moertl|verk=PsycEXTRA Dataset}}</ref> == Kategorier == Det finnes mange måter å kategorisere menneskelige feil på: <ref>{{Kilde bok|url=http://worldcat.org/oclc/243597064|tittel=Beyond human error : taxonomies and safety science|etternavn=Brendan.|fornavn=Wallace,|dato=2006|utgiver=CRC/Taylor & Francis|isbn=0-203-49117-3|oclc=243597064}}</ref> * interne eller eksterne feil (dvs. stammer utenfor versus inne i individet)<ref>{{Kilde bok|url=http://worldcat.org/oclc/1178931758|tittel=Human error : cause, prediction, and reduction|etternavn=Neville.|fornavn=Senders, John W., 1920- Moray,|dato=2019|utgiver=CRC Press|isbn=1-000-10583-0|oclc=1178931758}}</ref> * situasjonsvurdering eller responsplanlegging, som for eksempel ** feil i problemdeteksjon (se også [[signaldeteksjonsteori]]) ** feil i problemdiagnose (se også [[problemløsning]]) ** feil i planlegging og utførelse<ref>{{Kilde oppslagsverk|tittel=Partition|url=http://dx.doi.org/10.1016/b978-0-08-036201-4.50124-7|utgiver=Elsevier|oppslagsverk=Concise Encyclopedia of Modelling & Simulation|dato=1992|besøksdato=2023-02-26|side=328|fornavn=A.P.|etternavn=Sage}}</ref> * fysiske manipulasjonsfeil ** "glidninger" som oppstår når den fysiske handlingen ikke oppnår det umiddelbare målet ** "bortfall" innebærer en svikt i ens hukommelse eller tilbakekalling * aktiv feil - observerbar, fysisk handling som endrer utstyrs-, system- eller anleggstilstand, noe som resulterer i umiddelbare uønskede konsekvenser * latente menneskelige feil - resulterer i skjulte organisasjonsrelaterte svakheter eller utstyrsfeil som ligger i dvale; slike feil kan forbli ubemerket på det tidspunktet de oppstår, uten umiddelbare tilsynelatende utfall * utstyrsfeil – mangel på årvåkenhet på grunn av antakelsen om at maskinvarekontroller eller fysiske sikkerhetsenheter alltid vil fungere * teamfeil – mangel på årvåkenhet skapt av den sosiale (mellommenneskelige) interaksjonen mellom to eller flere personer som jobber sammen * personlige feil – holdninger som fører til selvtilfredshet og overbevissthet == Helge Ingstad-ulykken == Ved å se på [[«Helge Ingstad»-ulykken|Helge Ingstad-ulykken]] kan man studere hvordan individer tenker og handler alene og i samspill med andre mennesker.<ref name=":0">{{Kilde www|url=https://www.duo.uio.no/bitstream/handle/10852/87673/Daleng-og-Andersen-Masteroppgave-OLA4090.pdf?sequence=1&isAllowed=y|tittel=Menneskelige feil i Helge Ingstad-ulykken|besøksdato=2023-02-26|forfattere=Rebekka Daleng & Frida Helene Andersen|dato=2021|forlag=UiO}}</ref> Helge Ingstad-ulykken var en skipskollisjon i 2018 mellom den [[Norge|norske]] [[Fregatt|fregatten]] [[KNM «Helge Ingstad»]] og det [[Malta|maltesiske]] tankskipet [[MT «Sola TS»]]. Ulykken har i senere tid blitt et aktuelt forskningsobjekt for forståelsen av menneskelige feil. Ulykken viste blant annet hvordan oppmerksomhet, situasjonsbevissthet og kommunikasjon var tre viktige faktorer som gav grunnlag for at menneskelige feil ble begått. [[Fil:Swiss cheese model of accident causation.png|miniatyr|En illustrasjon av sveitserost-modellen]] == Sveitserost-modellen == Sveitserost-modellen er en modell som brukes i risikoanalyse og risikostyring. Den blir ofte brukt i luftfartssikkerhet, ingeniørfag, helsetjenester og nødtjenesteorganisasjoner. Modellen ble laget av [[James T. Reason]] ved [[University of Manchester]]<ref>{{Kilde www|url=https://royalsocietypublishing.org/doi/10.1098/rstb.1990.0090|tittel=The contribution of latent human failures to the breakdown of complex systems|besøksdato=2023-02-26|forfattere=J. Reason|dato=12. april 1990}}</ref> og har blitt anerkjent som en viktig modell innenfor menneskelige feil. Det kalles noen ganger den "kumulative handlingseffekten".<ref name=":1">{{Kilde www|url=https://www.eurocontrol.int/publication/revisiting-swiss-cheese-model-accidents|tittel=Revisiting the "Swiss Cheese" model of accidents|besøksdato=2023-02-26|språk=en|verk=www.eurocontrol.int}}</ref> Modellen sammenligner menneskelige systemer med flere skiver av sveitsisk ost, som har tilfeldig plasserte og dimensjonerte hull i hver skive. Stablet side ved side slik at risikoen for at en trussel blir en realitet reduseres av de forskjellige lagene og typene forsvar som er " lagdelt" bak hverandre. Derfor tillater i teorien ikke bortfall og svakheter i ett forsvar en risiko (f.eks. et hull i hver skive i stabelen på linje med hull i alle andre skiver), siden andre forsvar også eksisterer (f.eks. andre osteskiver). === Aktive og passive feil === Modellen inkluderer aktive og passive feil. Aktive feil omfatter de usikre handlingene som kan knyttes direkte til en ulykke, for eksempel (i tilfelle av flyulykker) en navigasjonsfeil. Latente feil inkluderer medvirkende faktorer som kan ligge i dvale i dager, uker eller måneder til de bidrar til ulykken. Idag kalles aktive feil for umiddelbare årsaker, mens passive feil kalles underliggende årsaker.<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/236345581|tittel=A human error approach to aviation accident analysis : the human factors analysis and classification system|etternavn=Wiegmann|fornavn=Douglas A.|dato=2003|utgiver=Ashgate|isbn=978-0-7546-8130-4|utgivelsessted=Aldershot, Hants, England|oclc=236345581}}</ref> === Bruksområder === Modellen kan også brukes i enkelte områder av helsevesenet. En passiv feil kan for eksempel være lignende innpakning av to legemidler som deretter oppbevares nær hverandre i et apotek. Denne feilen vil være en medvirkende årsak til administrering av feil medikament til en pasient. Slik forskning førte til erkjennelsen av at medisinske feil kan være et resultat av "systemfeil, ikke karakterfeil", og at grådighet, uvitenhet, ondskap eller latskap ikke er de eneste årsakene til feil.<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/298733889|tittel=Focus on patient safety|dato=2007|utgiver=Springer|isbn=978-0-8261-4138-5|utgivelsessted=New York|oclc=298733889}}</ref> Modellen har også blitt brukt på en rekke andre områder. For eksempel bruker Lubnau, Lubnau og Okray modellen på prosjektering av brannslokkingssystemer<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/56455571|tittel=Enhancing occupational safety and health|etternavn=Taylor|fornavn=Geoff|dato=2004|utgiver=Elsevier Butterworth-Heinemann|isbn=0-7506-6197-6|utgivelsessted=Oxford|oclc=56455571}}</ref>. Det er en hjelp for å redusere menneskelige feil ved å "sette inn flere lag med ost i systemet", nemlig teknikkene for [[Crew Resource Management]].<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/54682200|tittel=Crew resource management for the fire service|etternavn=Okray|fornavn=Randy|dato=2004|utgiver=PennWell Corp.|isbn=1-59370-006-7|utgivelsessted=Tulsa, Okla.|oclc=54682200}}</ref> === Kritikk === Selv om sveitserost-modellen er respektert og ansett for å være en nyttig metode for å forstå konsepter innenfor menneskelige feil, har den vært utsatt for kritikk for at den brukes for bredt, og uten nok andre modeller eller støtte.<ref name=":1" /> == Kontroverser == Noen forskere hevder at todelingen av menneskelige handlinger som "feil" eller "riktig" er en skadelig overforenkling av et komplekst fenomen. <ref>{{Kilde oppslagsverk|tittel=Human Error: Trick or Treat?|url=http://dx.doi.org/10.1002/9780470713181.ch9|utgiver=John Wiley & Sons Ltd|oppslagsverk=Handbook of Applied Cognition|besøksdato=2023-02-26|side=219–238|fornavn=Erik|etternavn=Hollnagel}}</ref><ref>{{Kilde oppslagsverk|tittel=Human error in Aviation|url=http://dx.doi.org/10.1201/9780429070372-7|utgiver=CRC Press|oppslagsverk=Aviation Safety|dato=2020-03-26|besøksdato=2023-02-26|isbn=978-0-429-07037-2|side=91–108|fornavn=Rene|etternavn=Amalberti}}</ref> De mener det heller burde fokuseres på variasjonen i menneskelig ytelse og hvordan menneskelige operatører (og organisasjoner) kan håndtere denne variasjonen. Nyere tilnærminger mener motstandsdyktighet fremhever de positive rollene som mennesker kan spille i komplekse systemer. Ved å vektlegge motstandsdyktighet istedenfor menneskelige feil blir suksesser (ting som går riktig) og fiaskoer (ting som går galt) sett på som å ha samme grunnlag, nemlig menneskelig ytelsesvariabilitet. En spesifikk redegjørelse for dette er prinsippet om avveining mellom effektivitet og grundighet,<ref>{{Kilde bok|url=https://www.worldcat.org/oclc/432428967|tittel=The ETTO principle : efficiency-thoroughness trade-off : why things that go right sometimes go wrong|etternavn=Hollnagel|fornavn=Erik|dato=2009|utgiver=Ashgate|isbn=978-0-7546-9349-9|utgivelsessted=Farnham, England|oclc=432428967}}</ref> som kan finnes på alle nivåer av menneskelig aktivitet, både individuelt og kollektivt. == Referanser == <references /> == Litteratur == * Senders, J.W. and Moray, N.P. (1991) ''Human Error: Cause, Prediction, and Reduction''. Lawrence Erlbaum Associates, s.25. ISBN 0-89859-598-3. [[Kategori:Sikkerhet]] [[Kategori:Psykologi]]
Redigeringsforklaring:
Merk at alle bidrag til Wikisida.no anses som frigitt under Creative Commons Navngivelse-DelPåSammeVilkår (se
Wikisida.no:Opphavsrett
for detaljer). Om du ikke vil at ditt materiale skal kunne redigeres og distribueres fritt må du ikke lagre det her.
Du lover oss også at du har skrevet teksten selv, eller kopiert den fra en kilde i offentlig eie eller en annen fri ressurs.
Ikke lagre opphavsrettsbeskyttet materiale uten tillatelse!
Avbryt
Redigeringshjelp
(åpnes i et nytt vindu)
Maler som brukes på denne siden:
Mal:ISOtilNorskdato
(
rediger
)
Mal:Kilde artikkel
(
rediger
)
Mal:Kilde bok
(
rediger
)
Mal:Kilde oppslagsverk
(
rediger
)
Mal:Kilde www
(
rediger
)
Modul:Citation/CS1
(
rediger
)
Modul:Citation/CS1/COinS
(
rediger
)
Modul:Citation/CS1/Configuration
(
rediger
)
Modul:Citation/CS1/Date validation
(
rediger
)
Modul:Citation/CS1/Identifiers
(
rediger
)
Modul:Citation/CS1/Utilities
(
rediger
)
Modul:Citation/CS1/Whitelist
(
rediger
)
Modul:ISOtilNorskdato
(
rediger
)
Navigasjonsmeny
Personlige verktøy
Ikke logget inn
Brukerdiskusjon
Bidrag
Opprett konto
Logg inn
Navnerom
Side
Diskusjon
norsk bokmål
Visninger
Les
Rediger
Rediger kilde
Vis historikk
Mer
Navigasjon
Forside
Siste endringer
Tilfeldig side
Hjelp til MediaWiki
Verktøy
Lenker hit
Relaterte endringer
Spesialsider
Sideinformasjon