← Teksty

Dlaczego zbudowaliśmy symulator AI dla specjalistów kryzysowych

· 4 min czytania
AI NGO feminoteka

Kiedy po raz pierwszy usiedliśmy razem z zespołem Feminoteki, opisali nam problem, który nie miał czystego rozwiązania. Ich doradczynie kryzysowe — osoby dyżurujące na infoliniach, odpowiadające na maile od osób ocalałych, pracujące bezpośrednio z ofiarami przemocy domowej — potrzebowały ćwiczyć trudne rozmowy, zanim przeprowadzą je naprawdę.

To kategoria problemu, z którą większość oprogramowania nigdy nie musi się mierzyć. Nie można przeprowadzić próbnej rozmowy kryzysowej z prawdziwą osobą udającą, że jest w niebezpieczeństwie, bez nadawania temu spotkaniu realnego ciężaru. Nie można zrzucić emocjonalnego wysiłku symulowanej rozmowy na wolontariuszkę bez proszenia jej o coś znaczącego. Nie można nagrać biblioteki scenariuszy według skryptów i oczekiwać, że specjalistki się z nich czegoś nauczą — bo rozmowy kryzysowe nie toczą się według skryptów, a umiejętność, którą trzeba rozwijać, to właśnie zdolność reagowania na to, czego się nie przewidziało.

Zadaliśmy więc oczywiste pytanie: co ludzie robią teraz?

Odpowiedź brzmiała: niewiele. Nowe doradczynie obserwują, potem towarzyszą, potem są wrzucane na głęboką wodę. Przepaść między patrzeniem, jak ktoś inny radzi sobie z rozmową kryzysową, a samodzielnym jej prowadzeniem, wypełniają lęk i nauka w trakcie pracy. To nie jest krytyka organizacji — to opis nierozwiązanego problemu, który poprzedza AI o całe dziesięciolecia.

Dlaczego nie coś prostszego

Zanim napisaliśmy choćby jedną linię kodu, spędziliśmy czas naprawdę próbując przekonać się nawzajem, żeby zrezygnować z AI. Chatbot wydawał się przerostem formy nad treścią. Poradnik do odgrywania ról i partner do ćwiczeń mogłyby wystarczyć.

Ale partner do ćwiczeń wymaga drugiej osoby, która może przyjąć ciężar scenariusza i go potem omówić. Nie zawsze jest to możliwe — szczególnie poza godzinami pracy, dla doradczyń geograficznie izolowanych, albo w organizacjach bez stałej kadry superwizorów. Statyczny poradnik uczy konceptów; nie buduje odruchów, których interwencja kryzysowa naprawdę wymaga.

Im dokładniej mapowaliśmy problem, tym bardziej symulacja AI wyglądała mniej jak wybór techniczny, a bardziej jak konieczność. Nie „AI byłoby tu fajne” — raczej „wszystko inne, co rozważaliśmy, jest niewystarczające w sposób, który ma znaczenie”.

To przekonanie ukształtowało to, jak to zbudowaliśmy.

Jak wygląda odpowiedzialność w tym kontekście

Odpowiedzialne tworzenie AI jest często przywoływane. W naszym przypadku miało konkretny kształt: każdy scenariusz w symulatorze był recenzowany przez psycholożkę pracującą w podejściu traumainformowanym. Nie tylko recenzowany pod kątem trafności — recenzowany pod kątem kalibracji. Czy ten scenariusz jest wystarczająco realistyczny, żeby był użyteczny? Czy jest wstrząsający w sposób, który buduje umiejętności, czy w sposób, który jest po prostu szkodliwy?

Podjęliśmy też świadomą decyzję architektoniczną: symulator jest oparty na scenariuszach, nie ma charakteru otwartego. Doradczyni zostaje umieszczona w konkretnej sytuacji — na przykład w rozmowie inicjalnej od osoby, która nie jest jeszcze gotowa nazwać tego, co ją spotkało — a AI odgrywa tę rolę w wyznaczonych ramach. Nie improwizuje swobodnie. Scenariusz ma kształt, a AI działa w jego obrębie.

To ograniczenie było cechą, nie wadą. Oznaczało, że mogliśmy udzielić gwarancji bezpieczeństwa. Oznaczało, że supervisorki mogły omawiać konkretne scenariusze ze swoimi zespołami. Oznaczało, że trening miał początek, środek i koniec — a tak właśnie umiejętności naprawdę się utrwalają.

Każda sesja jest nagrywana na potrzeby superwizji. To był wymóg ze strony Feminoteki i właściwa decyzja: log sesji to nie inwigilacja, to mechanizm, dzięki któremu superwizorka może omówić z doradczynią trudną symulację po jej zakończeniu.

Co nas zaskoczyło

Najtrudniejszym problemem kalibracji nie był wymiar techniczny. Był nim ton.

AI, która zbyt realistycznie odgrywa osobę w niebezpieczeństwie, ryzykuje wywołanie wtórnej traumy u doradczyni. AI, która zbyt mocno stonuje intensywność, nie jest użyteczna — doradczynie wyczuwają, gdy są traktowane z pobłażaniem, i to nie buduje umiejętności. Spędziliśmy więcej czasu niż przewidywaliśmy na tym, co wewnętrznie nazywaliśmy „gradientem realizmu” — stroieniu, ile emocjonalnego ciężaru powinien nieść scenariusz na każdym etapie ścieżki szkolenia doradczyni.

Był też dwujęzyczny problem, którego nie doceniliśmy. Platforma działa po polsku, a język kryzysowy w polskim ma idiomy i rejestry, które nie mapują się wprost na przetłumaczone prompty. Prompty działające płynnie po angielsku stawały się drewniane po bezpośrednim tłumaczeniu. Ostatecznie przebudowaliśmy bibliotekę scenariuszy po polsku od zera, zamiast tłumaczyć — zajęło to więcej czasu, ale dało coś, co naprawdę brzmiało jak prawdziwa rozmowa.

Gdzie to się kończy

Platforma jest narzędziem szkoleniowym. Chcemy być w tym jasni, bo łatwo przesadzać z tym, co AI może zrobić w wrażliwym kontekście.

Symulacja AI jest użyteczna w budowaniu płynności — rozwijaniu automatycznych, wyćwiczonych reakcji, które pozwalają doradczyni być w pełni obecną z osobą w kryzysie, zamiast świadomie szukać właściwych słów. To ma wartość. Ale nie zastępuje superwizji. Nie zastępuje recenzji koleżeńskiej. Nie zastępuje osądu, który przychodzi z lat prawdziwego doświadczenia.

Zbudowaliśmy coś, co czyni szkolenie bardziej dostępnym i spójnym. To realny wkład. Organizacje, które będą z tego korzystać dobrze, to te, które rozumieją, że lepsze narzędzie szkoleniowe jest wkładem do dobrej praktyki, nie jej substytutem.

To sformułowanie pochodzi od Feminoteki. To jedna z rzeczy, które sprawiły, że ten projekt był wart zrobienia.