Środa, 05 listopada 2025 r. 
REKLAMA

Przez sztuczną inteligencję niektóre umiejętności pracowników będą zanikać

Data publikacji: 21 września 2025 r. 23:29
Ostatnia aktualizacja: 21 września 2025 r. 23:32
Przez sztuczną inteligencję niektóre umiejętności pracowników będą zanikać
Fot. Pixabay.com  

Na rynku pracy sztuczna inteligencja (AI) to z jednej strony szansa na odciążenie pracowników od rutynowych zadań, z drugiej – realne zagrożenie, że cenne umiejętności będą zanikać – ocenił w rozmowie z PAP dr Piotr Gaczek, ekonomista z Uniwersytetu Ekonomicznego w Poznaniu.

REKLAMA

Dr Gaczek bada wpływ AI na procesy decyzyjne. Jego zdaniem choć coraz więcej osób korzysta w pracy z AI, wciąż nie jest jasne, jak wpłynie to na ich długofalowe kompetencje.

Pojawiają się już badania sugerujące, że regularne korzystanie z narzędzi AI może osłabiać zaangażowanie poznawcze i zmniejszać aktywność sieci neuronowych. Może też dochodzić do pogorszenia wyników, gdy pracownik przyzwyczajony do wsparcia AI nagle traci do niego dostęp.

- Widzimy, że korzystanie z tego typu narzędzi powoduje, że ludzie stają się nieco bardziej „bierni”. Jest to prawdopodobnie związane z tym, że mniej skrupulatnie przetwarzamy informacje i jesteśmy mniej zaangażowani, ponieważ delegujemy zadania i część odpowiedzialności na sztuczną inteligencję - wyjaśnił dr Gaczek.

Według niego obecnie dominującym modelem współpracy z AI jest wspomaganie pracy człowieka, a nie jej całkowite zastępowanie. Technologia przejmuje głównie zadania rutynowe, dzięki czemu specjaliści zyskują czas, by skupić się na bardziej złożonych problemach. Taki model, określany jako „inteligencja hybrydowa”, polega na wymianie wiedzy między człowiekiem a maszyną. Użytkownik nadzoruje jej pracę i zleca wykonanie konkretnych zadań, zachowując pełną odpowiedzialność za ostateczny wynik.

Współpraca z AI niesie jednak liczne pułapki. Dr Gaczek ostrzegł, że modele językowe popełniają błędy. Mogą tworzyć tzw. halucynacje (precyzyjnie brzmiące, lecz fałszywe informacje), a zapytane wielokrotnie o to samo, w kilku procentach przypadków podają błędny wynik.

Równie dużym ryzykiem są błędy poznawcze po stronie człowieka. Jednym z nich jest tzw. automation bias, czyli nadmierna wiara w rozwiązania podsuwane przez inteligentny system. - Większość użytkowników chce szybko i płynnie mieć rozwiązanie problemu i ta grupa osób będzie najbardziej narażona na uproszczenia i powielanie błędów sztucznej inteligencji - zauważył badacz. Dodatkowym zagrożeniem jest fakt, że systemy AI należą do wielkich korporacji, które mogą mieć interes w manipulowaniu decyzjami użytkowników.

Jednak zdaniem ekonomisty najpoważniejszym zagrożeniem, jakie niesie upowszechnienie AI, jest zanikanie cennych kompetencji pracowników i wiedzy przekazywanej kolejnym pracownikom. Jeśli dana czynność jest przez długi czas delegowana na maszynę, człowiek traci wprawę lub po prostu zapomina, jak ją wykonać.

- To jest sedno problemu - kompetencje mogą zanikać i nie będą przekazywane dalej. To, że ja, pomagając sobie AI, zapomnę, jak pisze się artykuł naukowy, to pół biedy. Gorsze jest to, że nie będę umiał nauczyć mojego doktoranta, jak pisać - zaalarmował dr Gaczek.

Jako przykład podał niemiecką firmę, która rozpoczyna projekt badawczy nad AI mapującym wiedzę swoich menedżerów. Celem jest „ściągnięcie” know-how z pracowników, aby ich wiedza pozostała w firmie nawet po ich ewentualnym zwolnieniu lub odejściu. - To alarmujący przykład pokazujący, jak szybko człowiek może stać się zbędny po tym, jak maszyna nauczy się od niego wszystkiego - dodał ekonomista.

Firmom, które chcą przeciwdziałać zanikowi umiejętności wśród pracowników korzystających z AI i które chcą odpowiedzialnie wprowadzać rozwiązania AI, badacz polecił trzy rozwiązania.

Po pierwsze to wytłumaczalna AI (Explainable AI). Systemy AI powinny być w stanie wyjaśnić, dlaczego proponują dane rozwiązanie i jakie kroki do niego doprowadziły. Daje to pracownikowi możliwość weryfikacji i kontroli.

Po drugie - mechanizmy kontroli uwagi. Narzędzia AI stosowane w pracy mogą więc co jakiś czas zadawać użytkownikom pytania sprawdzające ich uwagę lub zmęczenie lub wyświetlać komunikaty przypominające o konieczności nadzoru, a nie bezgranicznego zaufania.

Trzecim rozwiązaniem jest zaś superwizor ds. AI. Warto więc, aby w firmie była osoba, której zadaniem jest dbanie o to, by pracownicy korzystali z AI w sposób odpowiedzialny, etyczny, zgodny z polityką firmy.

Dr Gaczek podkreślił, że kluczem do bezpiecznego wdrożenia AI jest zachowanie równowagi między entuzjazmem a ostrożnością. - Z jednej strony nie należy bać się technologii, a z drugiej - trzeba być świadomym jej ograniczeń - podsumował.

Logo PAP Copyright

REKLAMA

Komentarze

@Dlaczego?
2025-09-22 15:06:42
mnie się wydaje tak po ludzku, że jak ktoś na niczym się nie zna i nic nie umie rękoma zrobić, to całkiem socjalnie jest dać mu robotę w Urzędzie. Szkoda na zmarnowanie swojego członka .
klemens
2025-09-22 12:20:59
to nie umiejętności będą zanikać , to pracownicy będą znikać .Czas najwyższy opracować system opodatkowania AI . Jest po to , by na nas pracować .
Paweł
2025-09-22 09:22:41
Za prlu było 250tys urzędników. Weszły komputery, internet, nowoczesność i mamy pięć!! razy więcej urzędasów. AI spowoduje ich podwojenie, bo ktoś tym jełopom musi tłumaczyć który klawisz to enter.
AI
2025-09-22 08:48:40
Wynalezienie samochodu nie sprawiło, że zanikła umiejętność chodzenia...
Dlaczego?
2025-09-22 08:27:03
Dlaczego w urzędach jest coraz więcej stołków? Sztuczna inteligencja powinna zredukować liczbę zatrudnionych w urzędzie marszałkowskim, i nie tylko przecież, np. o 2/3. Po co ludzie pracujący mają się składać na posadki urzędnicze? Wszyscy na to płacimy, nikt nie pyta czy chcemy. A można by się zapytać: Wolisz płacić niższe podatki czy dawać swoje pieniądze na urzędników?
Idzie nowe
2025-09-22 06:56:55
kiedyś łyżka drewniana , a dzisiaj sreberna !
Guciu
2025-09-22 06:51:00
Era Mas i nie ma już człowieka
Stołki rodzinne
2025-09-22 05:49:29
Oprócz budzetowki

Dodaj komentarz

HEJT STOP
0 / 500


REKLAMA
REKLAMA