Sztuczna inteligencja a prawo  pracy

Dla wielu firm sztuczna inteligencja (AI) może stanowić atrakcyjny sposób na redukcję kosztów. W wielu przypadkach, odpowiednio wdrożona AI może zwiększyć rentowność działalności. Jednak niedawna ugoda w sprawie z udziałem Uber Eats pokazuje, że ta wciąż niedoskonała technologia musi być wdrażana z należytą ostrożnością.

Wyzwania technologiczne i ryzyka

Modele językowe o dużej skali (LLM – Large Language Models) „uczą się” poprzez przetwarzanie treści. Badanie opublikowane w listopadzie 2023 r. przez Briesch, Sobanię i Rothlauf wykazało, że w sytuacji, gdy kolejne generacje LLM są trenowane na treściach, które same wygenerowały, jakość wyników szybko spada – zarówno pod względem dokładności, jak i różnorodności (po początkowej poprawie).

Z kolei oprogramowanie do rozpoznawania twarzy wykazuje znacząco niższą skuteczność w przypadku osób innych niż biali mężczyźni.

 

Sprawa przeciwko Uber Eats: ryzyko dyskryminacji

W sprawie Manjang v Uber Eats UK Ltd i innym – Pan Manjang, czarnoskóry mężczyzna, został zawieszony w aplikacji, która daje kierowcom dostęp do zleceń Uber Eats, po nieudanych testach rozpoznawania twarzy oraz zastosowaniu zautomatyzowanego procesu decyzyjnego.

Pan Manjang wniósł pozew, powołując się na pośrednią dyskryminację, a sprawa zakończyła się ugodą na jego korzyść.

 

Rządowe wytyczne: Odpowiedzialne stosowanie AI w rekrutacji

W marcu tego roku rząd opublikował wytyczne dotyczące Odpowiedzialnego stosowania AI w procesach rekrutacyjnych.

Firmy prawnicze (podobnie jak wiele innych organizacji) otrzymują setki, a czasem tysiące aplikacji na miejsca w programach szkoleniowych. Pokusa, by skorzystać z AI do automatyzacji wstępnej selekcji kandydatów, jest więc ogromna — szczególnie w sytuacji, gdy rynek pracy jest konkurencyjny, a zasoby do analizy aplikacji ograniczone.

Jednak biorąc pod uwagę wyniki badania Briescha i in., należy się zastanowić: co się stanie, jeśli narzędzie AI nauczy się „czego firma szuka”, analizując dotychczasowych pracowników — spośród których część (i coraz większy odsetek) sama została wybrana z pomocą tego narzędzia?

 

Brak przepisów nie oznacza braku ryzyka

Chociaż rząd nie planuje obecnie wprowadzenia bezpośrednich regulacji prawnych dotyczących AI, sprawa Uber Eats pokazuje, że istniejące przepisy prawa pracy mogą stwarzać pułapki dla firm wdrażających nowe technologie.

Aby uniknąć nieumyślnej dyskryminacji, pracodawcy chcący udoskonalać swoje procesy biznesowe i rekrutacyjne muszą dokładnie zrozumieć działanie używanych narzędzi AI. Ma to szczególne znaczenie, gdy coraz więcej firm technologicznych „dodaje AI” do swoich produktów, często bez pełnego zrozumienia konsekwencji.

Podobnie firmy tworzące rozwiązania AI powinny przemyśleć, w jaki sposób ich produkty mogą narażać klientów – a pośrednio także ich samych – na ryzyko prawne.

Jesteś firmą technologiczną, pracodawcą lub jednym i drugim?

Skontaktuj się z:

📧 Andrew Firman – andrewfirman@cartercamerons.com

📧 Kate Boguslawska – kateboguslawska@cartercamerons.com

– aby uzyskać profesjonalne doradztwo i wsparcie prawne.