Spis treści:
- Piotr Gaczek o wpływie sztucznej inteligencji na kompetencje
- Inteligencja hybrydowa i jej ograniczenia
- Niemiecka firma i projekt mapowania wiedzy
- Trzy sposoby przeciwdziałania negatywnym skutkom
Piotr Gaczek o wpływie sztucznej inteligencji na kompetencje
Dr Piotr Gaczek, od lat analizuje znaczenie sztucznej inteligencji w procesach decyzyjnych. Podkreśla, że coraz więcej osób w codziennej pracy korzysta z narzędzi opartych na AI. Jego zdaniem wciąż nie jest jasne, jak długofalowo wpłynie to na kompetencje zawodowe pracowników.
Pojawiają się pierwsze badania wskazujące, że systematyczne używanie AI może obniżać aktywność poznawczą. Zmniejsza się zaangażowanie, a sieci neuronowe w mózgu pracują mniej intensywnie. Problem staje się szczególnie widoczny, gdy osoba przyzwyczajona do pomocy sztucznej inteligencji nagle traci do niej dostęp.
„Widzimy, że korzystanie z tego typu narzędzi powoduje, że ludzie stają się nieco bardziej bierni. Jest to prawdopodobnie związane z tym, że mniej skrupulatnie przetwarzamy informacje i jesteśmy mniej zaangażowani, ponieważ delegujemy zadania i część odpowiedzialności na sztuczną inteligencję” – wyjaśnił dr Gaczek.
Inteligencja hybrydowa i jej ograniczenia
Obecnie dominującym modelem wykorzystania AI w pracy jest wspieranie człowieka, a nie całkowite zastępowanie go. Technologia przejmuje głównie rutynowe czynności. Dzięki temu, specjaliści mogą skoncentrować się na bardziej złożonych problemach. Model ten nazywany jest inteligencją hybrydową.
Człowiek nadzoruje pracę maszyny, zleca zadania i ponosi pełną odpowiedzialność za wynik. Jednak współpraca z AI wiąże się z licznymi pułapkami. Modele językowe popełniają błędy. Mogą tworzyć tzw. halucynacje, czyli treści wyglądające na poprawne, ale całkowicie niezgodne z rzeczywistością. W kilku procentach przypadków powtarzane pytania generują błędne wyniki.
Kolejnym ryzykiem, jest nadmierna wiara w rozwiązania proponowane przez system. Mechanizm ten nazywa się automation bias. – „Większość użytkowników chce szybko i płynnie mieć rozwiązanie problemu i ta grupa osób będzie najbardziej narażona na uproszczenia i powielanie błędów sztucznej inteligencji” – zaznaczył badacz.
Niemiecka firma i projekt mapowania wiedzy
Najpoważniejszym skutkiem upowszechnienia sztucznej inteligencji, może być zanikanie kompetencji oraz brak ich przekazywania kolejnym pokoleniom pracowników. Jeśli zadanie przez długi czas wykonuje maszyna, człowiek traci wprawę lub zapomina, jak je realizować.
„To jest sedno problemu. Kompetencje mogą zanikać i nie będą przekazywane dalej. To, że ja, pomagając sobie AI, zapomnę, jak pisze się artykuł naukowy, to pół biedy. Gorsze jest to, że nie będę umiał nauczyć mojego doktoranta, jak pisać” – powiedział dr Gaczek.
Jako przykład podał niemiecką firmę, która rozpoczęła projekt badawczy nad sztuczną inteligencją mapującą wiedzę swoich menedżerów. Celem jest zebranie know-how od pracowników, aby ich doświadczenie pozostało w przedsiębiorstwie nawet po ich odejściu. – „To alarmujący przykład pokazujący, jak szybko człowiek może stać się zbędny po tym, jak maszyna nauczy się od niego wszystkiego” – dodał ekonomista.
Trzy sposoby przeciwdziałania negatywnym skutkom
Dr Gaczek przedstawił trzy rozwiązania, które mogą pomóc firmom odpowiedzialnie korzystać ze sztucznej inteligencji:
- Wytłumaczalna AI – systemy powinny wyjaśniać, dlaczego proponują dane rozwiązania i jak do nich doszły. Dzięki temu pracownik może je zweryfikować.
- Mechanizmy kontroli uwagi – narzędzia mogą zadawać pytania sprawdzające lub wyświetlać komunikaty przypominające o potrzebie nadzoru.
- Superwizor ds. AI – osoba odpowiedzialna za etyczne i odpowiedzialne korzystanie z technologii w firmie.
Badacz podkreślił, że kluczem jest równowaga między entuzjazmem a ostrożnością. – „Z jednej strony nie należy bać się technologii, a z drugiej trzeba być świadomym jej ograniczeń” – podsumował dr Gaczek.
Źródło: TVN24