Reklama
Kontrast Wygląd tradycyjny

AI w zarządzie NGO: trzy ryzyka, których nikt głośno nie nazywa 

Większość organizacji pozarządowych, z którymi rozmawiamy, jest w podobnym miejscu: AI pojawia się w codziennej pracy: ktoś używa do szkicowania treści, ktoś inny prosi asystenta głosowego o podsumowanie długiego raportu, jeszcze ktoś generuje notatki ze spotkania. I nikt nikomu tego nie zakazał. Bo po co zakazywać czegoś, co pomaga? 

Zanim NGO zacznie rozmawiać o tym, jak używać AI, warto zadać inne pytanie: co się dzieje, gdy AI wchodzi do organizacji zanim zarząd w ogóle o tym porozmawiał? 

AI nie czeka na politykę 

Konferencja CSR i ESG - od ludzi dla ludzi
reklama

W odróżnieniu od poprzednich fal technologicznych (systemów CRM, narzędzi do zarządzania projektami, platform do raportowania), AI przyszło znienacka. Pojawiło się w przeglądarce, w skrzynce mailowej, w Wordzie. Zaczęło pomagać zanim ktokolwiek zdążył napisać procedurę. 

W efekcie, w wielu organizacjach pozarządowych AI kształtuje już sposób, w jaki przygotowywane są materiały na posiedzenia zarządu (streszczenia dokumentów, szkice rekomendacji, notatki po spotkaniach) a zarząd może o tym nie wiedzieć. I to nie dlatego, że pracownicy to ukrywają, ale dlatego, że nikt nie ustalił, że w ogóle warto o tym mówić.  

Trzy ryzyka w korzystaniu z AI, które rosną po cichu 

Ładowanie ogłoszenia...
Ładowanie wizytówki...

1. Ryzyko operacyjne: kto wie, co jest wersją oficjalną? 

Wyobraź sobie scenę: do jednego posiedzenia zarządu trzy osoby niezależnie przygotowują streszczenia tego samego raportu finansowego, tylko każda przy użyciu innego narzędzia albo swoich wątków, każda z nieco innymi pytaniami, a więc też inną notatką. Które streszczenie jest podstawą dyskusji? Które trafi do archiwum? Które zostanie przesłane do grantodawcy jako załącznik? 

Bez odpowiedzi na te pytania organizacja może stracić pewność, że pracuje na tym samym materiale. A w NGO, gdzie dokumentacja jest podstawą rozliczenia dotacji i potwierdzenia efektów, ta pewność ma realną wartość. 

Dlatego należy pamiętać, że AI nie tworzy wersji oficjalnych. Tworzy wersje użyteczne dla osoby, która go użyła, w tym konkretnym momencie. Jeśli organizacja nie ma procedury określającej, gdzie i jak te wyniki trafiają do obiegu, to z każdym miesiącem jej dokumentacja staje się coraz trudniej weryfikowalna. 

Do sprawdzenia we własnej organizacji: Czy wiesz, które materiały na ostatnie posiedzenie zarządu były w całości lub częściowo przygotowane z pomocą AI? Czy byłoby to gdzieś odnotowane, gdyby ktoś zapytał? 

2. Ryzyko nadzorcze: zarząd zatwierdza to, czego nie widzi 

Zarząd NGO ma jedno kluczowe zadanie: sprawować merytoryczny nadzór nad organizacją. Żeby to robić, musi rozumieć, skąd pochodzą informacje, na podstawie których podejmuje decyzje. 

Gdy rekomendacja strategiczna, analiza ryzyka albo zestawienie wyników trafia do zarządu, dokument wygląda tak samo niezależnie od tego, czy powstał w wyniku głębokiej analizy pracownika, czy jako odpowiedź na prompt w ciągu pięciu minut. Nie ma nagłówka „wygenerowane przez AI”, ani adnotacji „wymagana weryfikacja”. 

Zarząd, który zatwierdza takie dokumenty bez wiedzy o tym, jak powstały, de facto oddaje część swojej funkcji nadzorczej narzędziu, które nie ponosi żadnej odpowiedzialności. 

To nie jest argument przeciwko AI. To argument za tym, żeby zarząd miał prawo (i zwyczaj) pytać: w jakim stopniu ten materiał był przygotowany z pomocą narzędzi sztucznej inteligencji? Co zostało zweryfikowane przez człowieka, a co nie? 

W dobrze działających organizacjach to pytanie powinno brzmieć tak naturalnie jak pytanie o źródła danych w raporcie finansowym. 

Pytanie na najbliższe posiedzenie: Czy wasza organizacja ma jakikolwiek standard określający, kiedy trzeba ujawnić zarządowi, że materiał był przygotowany z pomocą AI? 

3. Ryzyko instytucjonalne: co zostanie, gdy ktoś odejdzie? 

To ryzyko jest najtrudniejsze do zobaczenia, bo nie materializuje się od razu. Ale w NGO, gdzie rotacja kadry jest wysoka, a pamięć organizacyjna często mieszka w głowach konkretnych osób, jest szczególnie istotne. 

Wyobraź sobie koordynatorkę, która przez dwa lata używa AI do przygotowywania raportów dla grantodawców: wypracowuje swoje metody, swoje pytania, swój sposób weryfikacji wyników. Organizacja czerpie z tego korzyści. A potem ta osoba odchodzi. Co zostaje? Pliki. Ale nie wiedza o tym, jak powstawały, co było weryfikowane, gdzie były wątpliwości, jak interpretować dane. 

AI może paradoksalnie przyspieszać utratę wiedzy instytucjonalnej, jeśli używane jest indywidualnie, bez śladu w systemie organizacji. Dokument „zrobiony z AI” to nie to samo co dokument, który zawiera myślenie i ocenę osoby, która za nim stoi. 

Dla zarządu to sygnał, że pytanie o AI w organizacji jest też pytaniem o ciągłość: jak dbamy o to, żeby wiedza pozostawała w organizacji, a nie tylko w czyjejś historii przeglądarki? 

Jak możemy zacząć? 

Dobra wiadomość jest taka, że nie trzeba zaczynać od polityki AI liczącej dwadzieścia stron. Wystarczy od zweryfikowania trzech aspektów: 

  • Pierwszy: Co już używamy? Nie oficjalnie, faktycznie. Warto zapytać zespół, nie zakładać. 
  • Drugi: Przy jakich zadaniach AI ma dostęp do wrażliwych danych: danych beneficjentów, informacji finansowych, korespondencji z grantodawcami? Czy ktoś to kontroluje? 
  • Trzeci: Kiedy zarząd powinien wiedzieć, że materiał był przygotowany z pomocą AI? Co to zmienia w sposobie, w jaki go czyta i zatwierdza? 

Kompetencje, które pomagają 

Jednym ze sposobów na zmniejszenie powyższych zagrożeń jest budowanie w organizacji świadomego podejścia do AI. Nie na poziomie technicznym, ale na poziomie krytycznego myślenia: co narzędzie potrafi, czego nie potrafi, jak weryfikować wyniki, jak rozmawiać o tym z zespołem i zarządem. 

Jeśli szukasz miejsca, od którego zacząć TechSoup Polska we współpracy z Microsoftem prowadzi bezpłatne kursy AI dla pracowników i pracowniczek NGO. Zapisy są otwarte do końca maja 2026. Szczegóły na ai.techsoup.pl 

Karina Janus: w TechSoup Polska tworzy materiały edukacyjne z zakresu kultury cyfrowej, AI i zarządzania zmianą w organizacjach pozarządowych. Na co dzień pracuje z NGO, które dopiero zaczynają korzystać z nowych technologii i widzi, z jakimi realnymi ryzykami się mierzą, zanim ktokolwiek o nich napisze.

Następny wpis

Transparentność wynagrodzeń zaczyna się od zrozumienia ról w organizacji

Następny wpis

Najdroższe błędy rekrutacyjne powstają zanim powstanie ogłoszenie

Konkurs NGO Hero 2026
Reklama