Nowa technologia, bezpieczniejsza praca: Sztuczna inteligencja w służbie zdrowia i bezpieczeństwa

This post is also available in:

Uwaga: Ten tekst został przetłumaczony maszynowo.

Wszystko zaczęło się od zaskakującego odkrycia. W zakładzie KAEFER w Jarrow w Wielkiej Brytanii zespół uważał, że bezpieczeństwo jest pod kontrolą. Ale wtedy, podczas pilotażowego projektu z systemem opartym na sztucznej inteligencji, w danych pojawiło się coś nieoczekiwanego: Ręce pracowników regularnie zbliżały się niebezpiecznie blisko do obracających się metalowych rolek –  nawet na odległość pięciu centymetrów. Nie było to złośliwe. Nie było to nawet zaniedbanie. To było po prostu ... … tak po prostu. Cichy wypadek, który zdarza się częściej, niż mogłoby się wydawać.

Właśnie wtedy SI nas zaskoczyła.

Nie jest to opowieść o przejęciu władzy przez sztuczną inteligencję ani o tym, że inwigilacja stanie się nielegalna. Chodzi o ciekawość, współpracę i zaskakujący sposób, w jaki kawałek technologii stał się punktem dyskusji – narzędziem do lepszej pracy zespołowej i nowym spojrzeniem na bezpieczeństwo.

Pomysł zrodzony z ciekawości i zaangażowania

Wszystko zaczęło się od pytania Michaela Sturma, szefa zespołu HSEQ w firmie: Co by było, gdyby sztuczna inteligencja pomogła nam dostrzec to, czego nam brakuje? W ramach swojej ciągłej pracy nad znalezieniem nowych technologii i dostawców, którzy mogliby pchnąć KAEFER do przodu w innowacyjny sposób, przeanalizował już rynek. W ten sposób zidentyfikowano Veunex – awangardowego dostawcę z obiecującym rozwiązaniem.

Prawdziwym wyzwaniem nie było jednak znalezienie technologii. Było nim znalezienie strony internetowej, która byłaby gotowa podjąć się czegoś tak nowego – i potencjalnie kontrowersyjnego. KAEFER UK & Ireland był na miejscu. Nie dlatego, że wszystko było idealne, ale dlatego, że mieli odpowiednie podejście: dojrzali, otwarci i chętni do prób.

Projekt pilotażowy został uruchomiony w naszym warsztacie w Jarrow, gdzie pracuje około 60 kolegów. Przez dwanaście tygodni system sztucznej inteligencji analizował takie zachowania, jak noszenie rękawiczek, zachowywanie bezpiecznej odległości od pojazdów i urządzeń obrotowych, korzystanie z poręczy i ogólna konserwacja pomieszczeń. Wszystko to odbywało się pod czujnym, ale nie oceniającym spojrzeniem sztucznej inteligencji.

Sceptycyzm? Oczywiście, że tak. Ale oto, co zmieniło zdanie ludzi.

Bądźmy szczerzy. Pierwsza reakcja? „Wielki brat nas obserwuje”. Taka jest ludzka natura. Nieznane jest często postrzegane jako zagrożenie.

To, co zmieniło wszystko, to nie wyrafinowany pulpit nawigacyjny ani mandat korporacyjny. To ludzie się zmienili.

Eve Bellingham, doradca ds. zarządzania HSE w KAEFER UK & Ireland, wiedziała, że zaufania nie można wymagać – trzeba na nie zapracować. Dlatego powołała komitet ds. sztucznej inteligencji. Nie składa się on z menedżerów, ale z ochotników. Współpracownicy, zarówno mężczyźni, jak i kobiety. Ludzi w tym samym wieku. Ludzie, którzy rozumieją tę pracę, ponieważ ją wykonują.

Komisja ds. AI: Carl Roberts, Eve Bellingham, Liam Clough, Adam Ivison, Paul Graham

Pierwsze dwa tygodnie poświęcono na szkolenie systemu sztucznej inteligencji – kamery czasami błędnie interpretowały scenariusze, takie jak lokalizacja maszyn, lub nie widziały kolorowych rękawic ochronnych. W tym momencie do akcji wkroczył komitet ds. sztucznej inteligencji. Usiedli razem, przejrzeli dane, zasugerowali praktyczne poprawki i aktywnie zaprojektowali konfigurację systemu.

Zdali sobie sprawę, że sztuczna inteligencja nie była po to, by ich zaskoczyć, ale by rozpoznać to, czego nie mogli zobaczyć. A kiedy zdali sobie z tego sprawę, system stał się narzędziem. Wspólnym narzędziem.

Jak może wyglądać przykład? AI zgłosiła niebezpieczną bliskość wózków widłowych na zewnątrz warsztatu. Rezultatem nie była nagana, ale rozwiązanie: zainstalowano barierki ochronne i kamizelki odblaskowe. Większe bezpieczeństwo – razem.

Od danych do dialogu

Jeden z najważniejszych efektów? System stał się źródłem dialogu. Menedżerowie HSE często mają mało czasu na warsztaty. AI wypełniło luki i dostarczyło obiektywnych danych, które wywołały prawdziwy dialog, nie tylko na temat zagrożeń, ale także sukcesów.

Wyniki po zaledwie ośmiu tygodniach?

  • 45% Ogólna poprawa zachowań związanych z bezpieczeństwem
  • 13% wzrost zgodności ze środkami ochrony osobistej
  • 30% Poprawa zarządzania finansami
  • Znaczne ograniczenie ryzykownych zachowań, zwłaszcza w pobliżu maszyn

System ten nie ma na celu karania za błędy, ale nagradzanie bezpiecznych praktyk. Pulpity nawigacyjne nie tylko wskazują problemy, ale także podkreślają, co idzie dobrze. Zespoły mogły zobaczyć, jak często im się to udawało, jak często używali rękawic, jak często utrzymywano odległość i jak często sprzątano korytarze.

To przesunięcie uwagi z tego, co nie szło dobrze, na to, co szło dobrze, doprowadziło do prawdziwych rozmów na temat nawyków bezpieczeństwa. Pracownicy zaczęli aktywnie doradzać sobie nawzajem, a wcześniej niezauważone zagrożenia stały się widoczne i możliwe do opanowania.

„Nie chodzi o to, by mieć mniej pracy” – wyjaśnia Eve – „ale o to, by praca była bardziej inteligentna i wydajna. Sztuczna inteligencja generuje dane, ale ludzie używają ich do prowadzenia znaczących rozmów i zmiany zachowań”.

System nie zastępuje doświadczenia, ale je wzmacnia. Zamienia dane w dialog, trendy w momenty coachingowe, a potencjalne martwe punkty w plany działania. I co równie ważne, pomaga ludziom czuć się zauważonymi z właściwych powodów, nie tylko wtedy, gdy coś jest nie tak, ale także wtedy, gdy coś jest zrobione dobrze.

Prywatność, etyka i zaufanie – od samego początku

Strach przed rejestracją jest uzasadniony. Dlatego też przejrzystość została wbudowana w każdą fazę projektu. Podczas 14-dniowej fazy uczenia się systemu analizowano sekwencje wideo w celu wyszkolenia sztucznej inteligencji. Jak wyglądają twarze? Czy są po prostu zamazane? Dane biometryczne? Nie zostały zebrane. Jak są przechowywane? Ograniczone do 24 godzin, tylko podczas szkolenia. Niezależna ocena wpływu na ochronę danych potwierdziła, że wszystko było zgodne z RODO i najlepszymi praktykami branżowymi.

Nagrania zostały następnie anulowane. Wykorzystano wyłącznie zanonimizowane dane.

Ważne jest, aby pamiętać, że Komisja IV jest strażnikiem. Głosem obywateli. I to się udało.

Jaki jest następny krok?

Po Jarrow, system jest obecnie używany w innych lokalizacjach w Wielkiej Brytanii: Rusztowania, hale produkcyjne, zakłady przemysłowe. Każde środowisko jest inne, podobnie jak wyzwania związane z bezpieczeństwem. Jednak kluczowa korzyść jest taka sama: widoczność. W tej technologii nie chodzi o kontrolę, ale o możliwości. Chodzi o zapewnienie dojrzałym zespołom o solidnej kulturze bezpieczeństwa narzędzi, których potrzebują, aby stać się jeszcze lepszymi.

W przyszłości sztuczna inteligencja może nawet pomóc w optymalizacji procesów: Wykrywanie wzorców w sposobie poruszania się ludzi, rozpoznawanie nieefektywności i wspieranie inicjatyw LEAN. To nie jest srebrna kula. Jest to jednak ważny element układanki.

Końcowe przemyślenia: Narzędzie, nie zagrożenie

Michael Sturm, HSEQ Manager w firmie, ma wizję: stopniowe wprowadzanie nowych technologii wspierających pracowników. „Postrzegam te narzędzia jako sposób na promowanie pozytywnego nastawienia do radzenia sobie z błędami poprzez współpracę, a nie demonizowanie ich” – mówi Michael.

Jaka jest jedna z największych zalet sztucznej inteligencji? Jej dokładność. Generuje dokładne i bezstronne dane, które są wolne od ludzkiej interpretacji, założeń i niekompletnych obserwacji. W rzeczywistości, podczas projektu pilotażowego w Jarrow, system dokonał tylu obserwacji bezpieczeństwa w ciągu jednego tygodnia, ile zwykle rejestruje się w Wielkiej Brytanii i Irlandii w ciągu całego miesiąca. Pokazuje to siłę ewolucyjnej i spójnej wizji.

Ten projekt pokazał, co jest możliwe, gdy kierujesz się zaufaniem, angażujesz swoich ludzi i pozostajesz ciekawy. I tak, sceptycyzm jest naturalny. Ale jeśli dasz mu uczciwą szansę, jeśli spojrzysz na sytuację jako całość, możesz znaleźć to, co znalazł Jarrow.

Czasami świeże spojrzenie jest najlepszym narzędziem bezpieczeństwa.

Uwaga: Stworzone przez ludzi – z niewielką pomocą sztucznej inteligencji. Ten artykuł łączy w sobie ludzkie spostrzeżenia, opowiadanie historii i inteligentne narzędzia cyfrowe, aby ożywić historie KAEFER.

More News