Ny teknologi, tryggere arbeid: AI i helse – og sikkerhetstjenestens tjeneste

Dette innlegget er også tilgjengelig i:

Merk: Denne teksten er maskinoversatt.

Det hele startet med en overraskende erkjennelse. På KAEFERs verksted i Jarrow i Storbritannia trodde teamet at de hadde god kontroll på sikkerheten. Men så, under et pilotprosjekt med et AI-drevet system, dukket det opp noe uventet i dataene: Arbeidernes hender kom regelmessig farlig nær de roterende metallvalsene – helt ned til fem centimeter. Dette var ikke ondsinnet. Det var ikke engang uaktsomt. Det var bare ... … bare sånn. En stille nestenulykke som skjer oftere enn du kanskje tror.

Det var da AI-en overrasket oss.

Det er ikke en historie om at kunstig intelligens tar over eller at overvåking blir ulovlig. Det handler om nysgjerrighet, samarbeid og den overraskende måten et teknologisk element har blitt et samtaleemne på – et verktøy for bedre teamarbeid og et nytt perspektiv på sikkerhet.

En idé født av nysgjerrighet og engasjement

Det hele startet med et spørsmål fra Michael Sturm, leder for selskapets HSEQ-team: Hva om AI kunne hjelpe oss med å se hva vi går glipp av? Som en del av sitt kontinuerlige arbeid med å finne nye teknologier og leverandører som kunne bringe KAEFER fremover på innovative måter, hadde han allerede analysert markedet. Det var slik Veunex ble identifisert – en avantgardistisk leverandør med en lovende løsning.

Den virkelige utfordringen var imidlertid ikke å finne teknologien. Det var å finne et nettsted som var villig til å ta på seg noe så nytt – og potensielt kontroversielt. KAEFER UK & Ireland var på plass. Ikke fordi alt var perfekt, men fordi de hadde den rette holdningen: modne, åpne og villige til å prøve.

Pilotprosjektet ble lansert i verkstedet vårt i Jarrow, der rundt 60 kolleger jobber. I tolv uker analyserte et AI-system atferd som bruk av hansker, trygg avstand til kjøretøy og roterende utstyr, bruk av rekkverk og generelt vedlikehold av lokalene. Alt dette foregikk under den kunstige intelligensens årvåkne, men ikke dømmende blikk.

Skepsis? Selvsagt er det det. Men her er det som fikk folk til å skifte mening.

La oss være ærlige. Den første reaksjonen? «Storebror overvåker oss». Det er menneskelig. Det ukjente oppfattes ofte som en trussel.

Det som har forandret alt, er ikke et sofistikert dashbord eller et mandat fra bedriften. Det er menneskene som har forandret seg.

Eve Bellingham, HSE Governance Advisor i KAEFER UK & Ireland, visste at tillit ikke kan kreves – den må fortjenes. Derfor opprettet hun en AI-komité. Den består ikke av ledere, men av frivillige fra gulvet. Kolleger, både menn og kvinner. Folk på samme alder. Folk som forstår arbeidet fordi de gjør det.

AI-komité: Carl Roberts, Eve Bellingham, Liam Clough, Adam Ivison, Paul Graham

De første to ukene gikk med til å lære opp AI-systemet – det hendte at kameraene feiltolket scenarier, for eksempel plasseringen av maskinene, eller at de ikke så de fargesterke vernehanskene. Det var her AI-komiteen kom inn i bildet. De satte seg ned sammen, gikk gjennom dataene, foreslo praktiske justeringer og utformet aktivt systemkonfigurasjonen.

De innså at den kunstige intelligensen ikke var der for å overraske dem, men for å gjenkjenne det de ikke kunne se. Og da de skjønte det, ble systemet et verktøy. Et felles verktøy.

Hvordan kan et eksempel se ut? AI rapporterte om den farlige nærheten til gaffeltrucker utenfor verkstedet. Resultatet ble ikke en reprimande, men en løsning: rekkverk ble satt opp, og det ble montert vester med høy synlighet. Mer sikkerhet – sammen.

Fra data til dialog

En av de viktigste effektene? Systemet har blitt en kilde til dialog. HMS-ledere har ofte lite tid til workshopen. AI fylte hullene og leverte objektive data som utløste en reell dialog, ikke bare om risikoer, men også om suksesser.

Resultater etter bare åtte uker?

  • 45 % Generell forbedring av sikkerhetsatferd
  • 13 % økning i etterlevelse av personlig verneutstyr
  • 30 % Forbedring av økonomistyringen
  • Betydelig reduksjon i risikoatferd, spesielt i nærheten av maskiner

Dette systemet har ikke som mål å straffe feil, men å belønne sikker praksis. Dashbordene peker ikke bare på problemer, de fremhever også det som går bra. Teamene kunne se hvor ofte de lyktes, hvor ofte de brukte hansker, hvor ofte avstanden ble opprettholdt og hvor ofte gangene ble ryddet.

Dette skiftet i fokus fra det som ikke gikk bra til det som gikk bra, førte til reelle samtaler om sikkerhetsvaner. Medarbeiderne begynte å veilede hverandre proaktivt, og farer som tidligere ikke ble lagt merke til, ble synlige og håndterbare.

«Det handler ikke om å ha mindre arbeid», presiserer Eve, «men om å gjøre arbeidet smartere og mer effektivt. AI genererer data, men folk bruker dem til å ha meningsfulle samtaler og endre atferd.»

Systemet erstatter ikke erfaring, men forsterker den. Det gjør data om til dialog, trender til coaching-øyeblikk og potensielle blindsoner til handlingsplaner. Og like viktig er det at det bidrar til at folk føler seg sett av de riktige grunnene, ikke bare når noe er galt, men også når ting gjøres bra.

Personvern, etikk og tillit – helt fra starten av

Frykten for å bli registrert er velbegrunnet. Derfor ble åpenhet bygget inn i alle faser av prosjektet. I løpet av systemets 14 dager lange innlæringsfase ble videosekvenser analysert for å trene opp den kunstige intelligensen. Hvordan ser ansiktene ut? Er de bare uskarpe? Biometriske data? Ikke samlet inn. Hvordan lagres de? Begrenset til 24 timer, kun under opplæring. En uavhengig konsekvensanalyse av databeskyttelse bekreftet at alt var i samsvar med GDPR og beste praksis i bransjen.

Opptakene ble deretter kansellert. Kun anonymiserte data ble brukt.

Det er viktig å merke seg at IV-kommisjonen er en vaktbikkje. En stemme for innbyggerne. Og det har fungert.

Hva er neste skritt?

Etter Jarrow brukes systemet nå på andre steder i Storbritannia: Stillasplasser, produksjonshaller, industrianlegg. Hvert miljø er forskjellig, og det samme er sikkerhetsutfordringene. Den viktigste fordelen er imidlertid den samme: synlighet. Denne teknologien handler ikke om kontroll, men om muligheter. Det handler om å gi modne team med en solid sikkerhetskultur verktøyene de trenger for å bli enda bedre.

I fremtiden kan kunstig intelligens til og med bidra til å optimalisere prosesser: Oppdage mønstre i måten folk beveger seg på, gjenkjenne ineffektivitet og støtte LEAN-initiativer. Dette er ikke en mirakelløsning. Men det er en viktig brikke i puslespillet.

De siste tankene: Et verktøy, ikke en trussel

Michael Sturm, HSEQ Manager i selskapet, har en visjon: gradvis innføring av ny teknologi for å støtte medarbeiderne. «Jeg ser på disse verktøyene som en måte å fremme en positiv holdning til å håndtere feil ved å samarbeide i stedet for å demonisere dem», sier Michael.

Hva er en av de største fordelene med AI? Nøyaktigheten. Den genererer nøyaktige og upartiske data som er fri for menneskelig tolkning, antakelser og ufullstendige observasjoner. Under pilotprosjektet i Jarrow utførte systemet faktisk like mange sikkerhetsobservasjoner i løpet av én uke som det vanligvis registreres i Storbritannia og Irland i løpet av en hel måned. Dette viser kraften i en evolusjonær og konsekvent visjon.

Dette prosjektet har vist hva som er mulig når man leder med tillit, involverer medarbeiderne og forblir nysgjerrig. Og ja, skepsis er naturlig. Men hvis du gir det en fair sjanse, hvis du ser på situasjonen som en helhet, kan det hende du finner det Jarrow fant.

Noen ganger er et nytt perspektiv det beste sikkerhetsverktøyet.

Merk: Laget av mennesker – med litt hjelp fra gen AI. Denne artikkelen kombinerer menneskelig innsikt, historiefortelling og smarte digitale verktøy for å gi liv til KAEFERs historier.

More News