Ewaluacja w erze cyfrowej: potencjał i dylematy transformacji cyfrowej

Agnieszka Strykowska – Fundacja Naukowa prof. dra hab. Henryka Cimka

Dynamiczny rozwój i tempo upowszechniania się generatywnej sztucznej inteligencji (GenAI) zainicjowały transformację w globalnej gospodarce, społeczeństwie i sposobie funkcjonowania również podmiotów publicznych. Dziś technologia ta stała się częścią codziennej rzeczywistości, a jej wpływ na język i kulturę pracy jest tak znaczący, że doczekał się publicystycznych neologizmów. Pojęcie „zejajować”, ukute na łamach „Rzeczpospolitej” w artykule Michała Szułdrzyńskiego, symbolizuje proces zastępowania lub optymalizowania zadań przy użyciu AI i jest trafnym odzwierciedleniem zmiany, jaka dokonuje się w przestrzeni publicznej.

Potencjał GenAI przestał być domeną czysto teoretycznych rozważań – dziś stanowi element praktycznej rzeczywistości. W konsekwencji dyskurs publiczny i ekspercki przesunął akcent na bardziej złożone zagadnienie: „w jaki sposób wdrażać te rozwiązania w sposób zgodny z obowiązującymi procedurami i standardami? W nowym paradygmacie podmioty publiczne, w tym jednostki ewaluacyjne stają przed dylematem: z jednej strony, GenAI może usprawnić procesy ewaluacyjne, analityczne i zarządcze, podnosząc tym samym efektywności i jakości usług publicznych, drugiej strony, wprowadzenie tych rozwiązań generuje wyzwania w obszarze prawnym i organizacyjnym. Ryzyka związane z ochroną danych, odpowiedzialnością za błędy algorytmów i koniecznością przestrzegania nowych regulacji, w tym unijnego AI Act, są znaczące. Wydaje się jednak, że legalne, bezpieczne i efektywne wdrożenie GenAI w podmiotach publicznych jest możliwe pod warunkiem odejścia od działań doraźnych na rzecz uporządkowanego i świadomego procesu przygotowawczego. Na początku tego procesu trzeba jednak odpowiedzieć sobie na pytanie: jakie warunki prawne, organizacyjne i technologiczne muszą zostać spełnione, aby wdrożenie GenAI było zgodne z prawem, bezpieczne dla danych i realnie przyczyniało się do poprawy jakości procesu ewaluacji i zarządzania publicznego?

GenAI jako katalizator ewolucji procesu ewaluacyjnego

GenAI nie jest jedynie narzędziem do automatyzacji prostych zadań. Jej potencjał leży w zdolności do transformacji całego cyklu pracy analitycznej i ewaluacyjnej, od projektowania badań po komunikację wyników. Konkretne zastosowania, które już wspomagają pracę ewaluatorów, obejmują między innymi automatyzację analizy dużych zbiorów danych, gdzie systemy AI są w stanie w krótkim czasie przetwarzać i syntetyzować ogromne wolumeny danych tekstowych, takie jak transkrypcje z setek wywiadów, opinie z konsultacji społecznych czy dokumenty programowe. Równie istotne jest wsparcie w agregacji i walidacji danych z różnych źródeł, a także zdolność do generowania wstępnych szkiców raportów, podsumowań czy prezentacji, co dostarcza ustrukturyzowaną bazę do dalszej, merytorycznej pracy.

Mimo tych ogromnych możliwości, obecna generacja AI nie jest w stanie całkowicie zastąpić człowieka w procesie ewaluacyjnym. Technologia ta, będąc, „bezcielesna i bezduszna”, operuje na wzorcach statystycznych i nie posiada zdolności do głębokiego, kontekstowego rozumienia rzeczywistości. Kompetencje, które pozostają domeną ludzkiego eksperta, to przede wszystkim interpretacja w złożonym kontekście społeczno-gospodarczym, krytyczne myślenie i ocena wiarygodności źródeł oraz formułowanie strategicznych, wykonalnych rekomendacji dla decydentów.

Model hybrydowy: architektura współpracy na lata 2028-2034

W świetle tych uwarunkowań i projektu Rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego ramy monitorowania wydatków budżetowych i wykonania oraz innych przepisów horyzontalnych dotyczących programów i działań Unii w perspektywie 2028-2034, być może optymalnym modelem pracy dla jednostek ewaluacyjnych na najbliższe lata, powinien się stać model hybrydowy ewaluacji. Podejście takie stwarza to możliwość zbudowania nowej architektury współpracy, w której wewnętrzni ewaluatorzy (jednostki ewaluacyjne), wspierani przez narzędzia GenAI, będą realizować część zadań analitycznych, od przetwarzania danych po tworzenie wstępnych wersji raportów. Teoretycznie pozwoli to na znaczne obniżenie kosztów i skrócenie czasu realizacji badań. Jednocześnie należy zauważyć, że w proces ewaluacji powinni być zaangażowani także zewnętrzni eksperci do zadań o najwyższej wartości dodanej, takich jak walidacja wniosków, doradztwo strategiczne w najbardziej złożonych kwestiach, czy prowadzenie analiz wymagających unikalnej, wąskospecjalistycznej wiedzy sektorowej. Być może taki model pozwoli maksymalizować korzyści płynące z technologii, jednocześnie zachowując niezastąpioną rolę wiedzy specjalistycznej i kompetencji analitycznych w najbardziej krytycznych momentach procesu ewaluacyjnego.

Labirynt Prawny – wyzwania regulacyjne

Proces wdrażania GenAI w podmiotach publicznych implikuje potrzebę uwzględnienia kompleksowych uwarunkowań prawnych. Zrozumienie tych barier jest konieczne aby uniknąć ryzyka prawnego, finansowego i wizerunkowego. Pierwszym dokumentem, na którym należy skupić uwagę jest się RODO, ponieważ każde wykorzystanie narzędzi GenAI stwarza poważne ryzyko przetwarzania danych będących w dyspozycji podmiotu publicznego.

Kolejnym wyzwaniem są nowe ramy prawne dla sztucznej inteligencji. Aktualnie musimy bazować na unijnym Akt w sprawie sztucznej inteligencji (AI Act), ponieważ projekt ustawy o systemach sztucznej inteligencji nie został jeszcze przyjęty. Z perspektywy podmiotu publicznego konieczne jest zrozumienie podejścia opartego na ryzyku, a w szczególności kategorii systemów AI wysokiego ryzyka (choć w przypadku narzędzi GenAI w ewaluacji taka groźba nie zachodzi).

Co więcej wykorzystanie GenAI rodzi również złożone pytania o status prawny i własność materiałów wygenerowanych na podstawie danych publicznych, czyli o prawo autorskie i własność intelektualną. Kto jest właścicielem takiego utworu i czy możemy nim swobodnie dysponować, to kwestie, które wciąż nie są jednoznacznie uregulowane, a dostawcy narzędzi AI często w swoich regulaminach zastrzegają sobie szerokie prawa do treści generowanych za pomocą ich systemów.

Na koniec pozostaje kwestia odpowiedzialności za błędy i tak zwane halucynacje AI. Modele językowe mają tendencję do generowania treści, które są płynne i przekonujące, ale nieprawdziwe. Jeśli błędne wnioski staną się podstawą oficjalnego dokumentu, powstaje pytanie o odpowiedzialność, która spoczywa pracowniku, który wykorzystał narzędzie, oraz na instytucji, która na to pozwoliła.

Wdrożenia: niezbędne kroki przygotowawcze

Pierwszym krokiem, poza oczywistą odpowiedzią na pytanie: „do jakich procesów chcemy to wykorzystać”, jest budowa podstaw organizacyjnych poprzez powołanie interdyscyplinarnego zespołu do spraw AI. Wdrożenie narzędzi GenAI stanowi przede wszystkim zmianę organizacyjną jednostki, a nie wyłącznie działanie techniczne, dlatego w skład takiego zespołu muszą wejść przedstawiciele komórek merytorycznych, prawnicy, Inspektor Ochrony Danych, specjaliści IT oraz audytorzy. Zadaniem tego zespołu będzie koordynacja całego procesu, od diagnozy potrzeb, przez analizę ryzyk, aż po nadzór nad wdrożeniem.

Następnie, instytucja musi przystąpić do stworzenia ram formalno-prawnych, czyli opracowania dokumentacji. Zanim pracownicy otrzymają dostęp do jakichkolwiek narzędzi, podmiot publiczny musi stworzyć wewnętrzny regulamin korzystania z GenAI. Dokument ten musi jasno określać, jakie narzędzia są dozwolone, jakich danych kategorycznie nie wolno do nich wprowadzać, oraz definiować obowiązek weryfikacji i odpowiedzialność pracownika. Niezbędne jest także przygotowanie oświadczeń dla pracowników potwierdzających zapoznanie się z regulaminem oraz nowelizacja istniejących zarządzeń wewnętrznych pomiotu.

Konieczna jest również dogłębna analiza ryzyka i bezpieczeństwa. Obowiązkiem prawnym, wynikającym wprost z RODO, jest przeprowadzenie Oceny Skutków dla Ochrony Danych (DPIA) dla każdego procesu, który z użyciem nowych technologii może powodować wysokie ryzyko naruszenia praw osób fizycznych.Dodatkowo musimy pamiętać, że AI Act nakłada na podmioty stosujące systemy wysokiego ryzyka obowiązek przeprowadzenia Oceny Skutków dla Praw Podstawowych (FRIA).

Ostatnim krokiem w fazie przygotowawczej jest świadomy wybór technologii i przeprowadzenie testów. Wybór konkretnego narzędzia jest decyzją strategiczną. Pomiot publiczny musi priorytetowo traktować rozwiązania, które gwarantują bezpieczeństwo i zgodność z prawem. Dlatego GenAI powinna spełniać określone kryteria. Po pierwsze dostawca musi zagwarantować przetwarzanie danych na terenie Europejskiego Obszaru Gospodarczego oraz umożliwić zawarcie umowy powierzenia przetwarzania danych (Data Processing Agreement). Po drugie, przed rozpoczęciem eksploatacji w pełnej skali, system powinien zostać poddany wewnętrznym testom pilotażowym w kontrolowanym środowisku, co pozwoli na weryfikację funkcjonalności, ocenę zgodności z procedurami wewnętrznymi oraz identyfikację potencjalnych ryzyk operacyjnych, prawnych i etycznych.

Podsumowanie

Czy można legalnie i efektywnie wdrożyć GenAI w podmiotach publicznych? Tak, i mamy w Polsce (co prawda nieliczne) przykłady samorządów, gdzie wdrożenie sztucznej inteligencji zakończyło się powodzeniem. Należy jednak pamiętać, że sukces nie zależy od pochopnego zakupu najnowszego i najlepszego modelu według LMareny, lecz przemyślanego procesu przygotowawczego. Bo wdrożenie dotyczy podstaw pracy podmiotu publicznego czyli: procedur, kompetencji, a przede wszystkim – odpowiedzialności.

Na koniec warto zaznaczyć, że bierność i nieformalne zakazy korzystania z AI są strategią znacznie bardziej ryzykowną niż świadome i kontrolowane wdrożenie. Brak oficjalnych regulacji i bezpiecznych, zatwierdzonych narzędzi prowadzi do powstawania niekontrolowanej „szarej strefy”, w której pracownicy na własną rękę korzystając z publicznie dostępnych systemów, narażając pomiot publiczny na ryzyka prawne i bezpieczeństwa. Puenta tego wpisu wykracza jednak poza kwestie czysto techniczne i prawne, dotykając strategicznego wymiaru suwerenności cyfrowej państwa. Bo poleganie wyłącznie na komercyjnych, pozaeuropejskich dostawcach technologii w obszarach funkcjonowania administracji rodzi ryzyko strategicznego uzależnienia. Dlatego inicjatywy takie jak rządowy projekt PLLuM (Polish Large Language Models), mający na celu stworzenie polskiego dużego modelu językowego czy Bielik nabierają szczególnego znaczenia. Choć droga do wdrożenia takich rozwiązań na masową skalę jest jeszcze długa, wyznaczają one strategiczny kierunek – budowę krajowych i europejskich kompetencji, które w przyszłości mogą stać się fundamentem bezpiecznej i suwerennej transformacji cyfrowej.

Bibliografia:

  1. Godna zaufania sztuczna inteligencja. Jak używać sztucznej inteligencji zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki?. [online]: https://www.gov.pl/attachment/77fa01a8-7566-4a82-9e79-bc4ca48f07b [Dostęp 10 Września 2025].
  2. Kalai, A.T., Nachum, O., Vempala, S.S. and Zhang, E. (2025). Why language models hallucinate. [online]: https://arxiv.org/abs/2509.04664 [Dostęp 10 Września 2025].
  3. Kierunki odpowiedzialnego wykorzystania GenAI, m.st. Warszawa (2024). [online]: https://um.warszawa.pl/documents/114265126/0/PL_Kierunki+odpowiedzialnego+wykorzystania+GenAI_250303.pdf/35fb6bf6-7f0a-a98f-4050-975d76725712?t=1742811546986 [Dostęp 10 Września 2025].
  4. Generatywna sztuczna inteligencja a polski rynek pracy. Red. K. Nakonieczn, Ł. Szczęsny. [online]: https://nask.pl/media/2025/06/Generatywna-sztuczna-inteligencja-a-polski-rynek-pracy.pdf [Dostęp 10 Września 2025].
  5. Lampart, M. Rozwiązania generatywnej sztucznej inteligencji – zagrożenia i aspekty prawne. [online]: https://www.parp.gov.pl/component/publications/publication/rozwiazania-generatywnej-sztucznej-inteligencji—zagrozenia-i-aspekty-prawne [Dostęp 10 Września 2025].
  6. Generatywna AI w badaniach. Praktyczne zastosowania w ewaluacji polityk publicznych. red. K. Olejniczak, B. Batorski, B., J. Pokorski (2025). [online]: https://www.parp.gov.pl/component/publications/publication/publikacja-ai [Dostęp 10 Września 2025].
  7. Polityka rozwoju sztucznej inteligencji w Polsce do 2030 r. (projekt). [online]: https://www.gov.pl/attachment/49dde399-e7fa-4444-9ead-5d59cc86f5df [Dostęp 10 Września 2025].
  8. Projekt Rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego ramy monitorowania wydatków budżetowych i wykonania oraz innych przepisów horyzontalnych dotyczących programów i działań Unii COM(2025) 545. ). [online]: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:52025PC0545 [Dostęp 10 Września 2025].
  9. Przegląd wytycznych dotyczących korzystania z generatywnej sztucznej inteligencji w administracji publicznej, m.st. Warszawa (2024). [online]: https://um.warszawa.pl/documents/114265126/0/Przegl%C4%85d+wytycznych+dotycz%C4%85cych+korzystania+z+generatywnej+sztucznej+inteligencji+w+administracji+publicznej+%281%29+%281%29.pdf/aaabca32-2be5-56d4-60ca-5592ba144f4b?t=1742998386678 [Dostęp 10 Września 2025].
  10. Strategia cyfryzacji państwa (projekt). [online]: https://www.gov.pl/attachment/c8380eb3-feee-47c5-9eda-b7588688864 [Dostęp 10 Września 2025].
  11. Szułdrzyński, M. (2024). Co znaczy ejajować? Już wyjaśniam, aby nikt nie został w tyle. [online]: https://www.rp.pl/plus-minus/art42518181-michal-szuldrzynski-co-znaczy-ejajowac-juz-wyjasniam-aby-nikt-nie-zostal-w-tyle [Dostęp 10 Września 2025].
  12. Wzorcowe zasady oceny skutków wykorzystania algorytmicznych systemów decyzyjnych w administracji publicznej. Sprawozdanie Europejskiego Instytutu Prawa. [online]: https://www.gov.pl/attachment/65dd086a-6114-43b9-a6a5-7eef02325466 [Dostęp 10 Września 2025].
Realizacja epidot.pl