Wewnętrzny chatbot AI w kancelarii: Największe wyzwanie to bezpieczeństwo
Wiedza w kancelarii jest często rozproszona – w głowach prawników, plikach na dyskach i e-mailach. Powoduje to dublowanie pracy i niewykorzystanie potencjału zgromadzonych informacji . Wirtualny doradca AI, który przeszukuje archiwa i odpowiada na pytania , jest odpowiedzią na ten problem.
Jednak zgromadzenie całego know-how firmy w jednym, przeszukiwalnym miejscu, to stworzenie celu nr 1 dla cyberataku. Obawy o bezpieczeństwo i wyciek tajemnicy zawodowej są tu kluczowe . W nFlo specjalizujemy się w Pakiecie Managed Security, budując cyfrowe fortece wokół Państwa danych, zanim jeszcze wdrożycie narzędzia AI.
Z jakimi wyzwaniami w zarządzaniu wiedzą borykają się kancelarie?
Wiedza prawnicza w kancelarii to nie tylko komentarze i kodeksy na półce, ale także doświadczenie i informacje zebrane podczas obsługi setek spraw. Dużym wyzwaniem jest, że ta wiedza bywa rozproszona: część w głowach prawników, część w plikach na dyskach, część w e-mailach. Kancelarie często mają obszerne archiwa – setki gigabajtów dokumentów: pozwów, umów, opinii prawnych. Problem w tym, że trudno z tego skorzystać ponownie, gdy nie ma dobrych narzędzi wyszukiwania i organizacji. Ile razy zdarza się, że prawnik przygotowuje opinię na temat, który kolega rok temu już analizował, ale on o tym nie wie? Albo że gdzieś w firmie jest świetny wzór umowy, ale nowy pracownik nie ma pojęcia, gdzie go szukać? To powoduje dublowanie pracy i niewykorzystanie potencjału zgromadzonych informacji. Kolejny problem to silosy wiedzy: w dużych kancelariach poszczególne działy (np. podatkowy, procesowy, korporacyjny) mają własne bazy dokumentów i nie dzielą się nimi efektywnie z innymi. Bywa też, że wiedza odchodzi razem z pracownikami – jak doświadczony prawnik odchodzi, zabiera ze sobą (w sensie mentalnym) cenne know-how, a firma nie ma go zapisanego nigdzie. Zarządzanie wiedzą ma więc wyzwanie: uchwycić, uporządkować i udostępnić wiedzę wszystkim uprawnionym w firmie. Do tego dochodzi wyzwanie czysto logistyczne: prawnicy mają mało czasu, więc nawet jak jest wewnętrzna baza wiedzy, to rzadko ją uzupełniają czy pielęgnują – bo priorytetem jest bieżąca praca dla klienta. W końcu, problemem jest też aktualność informacji – prawo się zmienia, więc pewne mema z zeszłego roku może być już nieaktualne, ale skądś z pliku nikt tego nie usunie, a ktoś inny może na nim nieopatrznie polegać. Mamy więc rozproszenie, duplikację, luki i przestarzałe dane. To jest miejsce, gdzie nowe technologie, a szczególnie AI, mogą wiele pomóc, bo są w stanie automatycznie indeksować duże zbiory dokumentów, wyciągać z nich kwintesencję, łączyć fakty i sygnalizować zmiany. Zanim jednak powiemy jak, podsumujmy wyzwania: ogrom informacji (i ciągle rośnie), brak przejrzystego systemu do ich organizacji, trudność w szybkim dotarciu do potrzebnej wiedzy i zależność od ludzkiej pamięci oraz czasu. To wszystko sprawia, że często „wiemy, że gdzieś dzwoni, ale nie wiemy, w którym kościele” – czyli czujemy, że mieliśmy podobną sprawę, ale nie mamy szybkiego sposobu, by wydobyć szczegóły. Tu właśnie upatruje się ratunku w AI.
Czy AI może pełnić rolę wewnętrznego doradcy dla prawników w firmie?
Wyobraźmy sobie, że w firmie prawniczej istnieje wirtualny doradca – taki wewnętrzny chatbot, którego można zapytać o wszystko, co dotyczy wiedzy firmy: „Czy kiedykolwiek prowadziliśmy sprawę o niezapłacone honorarium, gdzie klient powoływał się na nieważność umowy?” albo „Jakie argumenty podnosiliśmy w pozwie przeciwko firmie X w 2019 r.?”. Sztuczna inteligencja może właśnie pełnić taką rolę. Mając dostęp do archiwum dokumentów kancelarii, AI potrafi odpowiadać na pytania na bazie tych dokumentów. To jak połączenie firmowej bazy danych z umysłem, który rozumie język naturalny. Prawnik nie musi pamiętać wszystkich szczegółów sprzed lat – może zapytać AI i dostać np. streszczenie sprawy albo znalezione kluczowe pisma z tamtego postępowania. Taki wewnętrzny doradca może podpowiedzieć: „Tak, w sprawie Jana Kowalskiego vs. ABC sp. z o.o. w 2019 podnosiliśmy argument o nieważności z powodu braku formy pisemnej (zob. pozew, pkt 14) ”. W praktyce to oznacza dramatyczne przyspieszenie dostępu do firmowego know-how. Nowy pracownik może wypytać system o różne wzory, poprzednie sprawy, bez konieczności błądzenia po dyskowych folderach lub proszenia starszych kolegów (którzy nie zawsze mają czas tłumaczyć). Również partner zarządzający, chcąc przygotować ofertę dla klienta z nowej branży, mógłby zapytać AI: „Czy mieliśmy klientów z branży farmaceutycznej i jakie projekty dla nich robiliśmy?” – i od razu wie, czym może się pochwalić. Zresztą, pewne duże firmy consultingowe już stosują podobne pomysły: wewnętrzne chatboty szkolone na ich dokumentach, które odpowiadają konsultantom na pytania dot. firmowego know-how. Oczywiście, żeby taki doradca działał, trzeba go „nakarmić” danymi – co sprowadza się do posiadania cyfrowych archiwów (większość kancelarii je ma) i zadbania o poufność (rozwiązania on-premises lub w chmurze prywatnej). Pytanie, czy prawnicy zaufają AI na tyle, by go traktować jako doradcę. Pewnie początkowo z rezerwą, ale z czasem – widząc, że podaje trafne i przydatne informacje – będą z niego korzystać coraz śmielej. Warto zaznaczyć, że taki system nie udziela porad prawnych spoza bazy firmy – on nie zastąpi riserczu w literaturze czy bazach orzeczeń zewnętrznych, raczej uzupełni go o perspektywę doświadczeń własnych firmy. To jakby zapytać wszystkich kolegów na raz: „czy ktoś robił coś podobnego?”. AI zajrzy do „pamięci kolektywnej” firmy i powie: tak, robiliśmy, oto jak. Więc odpowiadając: tak, AI może pełnić rolę wewnętrznego doradcy, podsuwając prawnikom wiedzę i dokumenty zgromadzone wewnątrz kancelarii, w trybie niemal konwersacyjnym, 24/7.
Jak sztuczna inteligencja pomaga wyszukiwać informacje w archiwach spraw?
Tradycyjne archiwum spraw – nawet elektroniczne – to zazwyczaj foldery poukładane według klientów czy sygnatur, a w nich dziesiątki dokumentów opisanych mniej lub bardziej konsekwentnie. Znalezienie czegoś konkretnego bywa trudne, jeśli nie pamiętamy dokładnie, w którym pliku to było. AI może wesprzeć na kilka sposobów. Po pierwsze, potrafi zaindeksować całość – czyli przeczytać wszystkie dokumenty i stworzyć „mapę” pojęć i zagadnień. Dzięki temu wyszukiwanie nie opiera się tylko na nazwach plików czy tagach, ale na pełnej treści. Możemy więc znaleźć sprawy, gdzie pojawia się np. nazwisko biegłego sądowego Nowak, nawet jeśli nigdzie nie było to wypisane w tytule – bo AI skanuje treść pism i je kojarzy. Po drugie, AI może rozumieć kontekst zapytania. Jeśli zapytamy: „Znajdź wszystkie sprawy, gdzie reprezentowaliśmy pozwanych w procesie o zniesławienie”, to tradycyjna wyszukiwarka mogłaby nie dać rady (bo niby co, szukać słowa „pozwany” i „zniesławienie” w tysiącach stron?). AI natomiast może wiedzieć, które sprawy były o zniesławienie (bo przeglądając dokumenty rozpoznała, że dotyczyły art. 212 KK lub roszczeń z ochrony dóbr osobistych za wypowiedzi) i w których byliśmy po stronie pozwanej. W efekcie w sekundę wylistuje 3 sprawy z lat ubiegłych. Po trzecie, AI może robić automatyczne podsumowania archiwalnych spraw. Zamiast czytać cały akt, system może wypluć np. akapit streszczenia: strony, przedmiot, wynik, kluczowe argumenty. To niesamowicie przydatne, gdy chcemy szybko zorientować się, czego dotyczyła jakaś stara sprawa – zamiast przeglądać kilka plików (pozew, odpowiedź, wyrok), dostajemy esencję z referencjami do oryginałów. Po czwarte, sztuczna inteligencja może połączyć fakty między sprawami. Może zauważyć, że pewien dokument przewija się w różnych sprawach (np. wzór umowy albo nazwisko biegłego), i ułatwić dotarcie do wszystkich tych miejsc. To buduje pewien sieciowy obraz wiedzy, a nie tylko liniowy archiwum. W praktyce, prawnicy mogą z takiej wyszukiwarki korzystać jak z Google, tylko wewnętrznego: wpisują hasło, a tu wyskakują konkretne fragmenty dawnych pism, notatek czy e-maili z danym tematem. Warto wspomnieć, że tradycyjnie archiwa są też w formie skanów (zwłaszcza starsze sprawy papierowe). Nowe systemy AI mają zintegrowane OCR (rozpoznawanie tekstu) i potrafią analizować nawet zeskanowane PDFy czy zdjęcia dokumentów, więc to co kiedyś było „ciemną strefą” (bo nie przeszukiwalne), teraz staje się źródłem danych. Oczywiście, trzeba dbać o bezpieczeństwo – taka wyszukiwarka powinna działać w obrębie firmy, by nie wyciekały poufne informacje na zewnątrz. Ale od strony technicznej to już jest dostępne i stosowane. Podsumowując: AI zmienia archiwum spraw z „skrzyni pełnej papierów” w interaktywną bazę wiedzy, gdzie wszystko jest w zasięgu paru kliknięć czy zapytań językowych. Tym samym to, co kiedyś leżało odłogiem po zamknięciu sprawy, teraz żyje i wspiera dalszą pracę.
Czy AI potrafi analizować dokumenty kancelarii, aby wyciągnąć z nich istotne dane?
Tak, i to jest jedno z kluczowych zastosowań AI w Business Intelligence dla kancelarii. Pomyślmy o wszystkich danych ukrytych w dokumentach: daty, kwoty, nazwy podmiotów, wyniki spraw, argumenty używane, czasy trwania postępowań, itd. AI może przechodzić przez dokumenty i te informacje ekstrahować (wyciągać). Np. może z każdego wyroku, jaki mamy w archiwum, wyciągnąć informacje: sąd, sygnatura, data orzeczenia, wynik (uwzględniono/oddalono), wysokość zasądzonej kwoty. Potem zebrane dane można agregować i nagle wiemy na przykład: „W sprawach o zapłatę prowadzonych przez nas w ubiegłym roku średni czas od złożenia pozwu do wyroku to 14 miesięcy, a średnia wygrana kwota to 200 tys. zł”. Albo: „Przy jakim argumencie prawnym mieliśmy największą skuteczność?” – powiedzmy argument A podnosiliśmy w 10 sprawach, z czego 8 wygraliśmy, argument B w 5 sprawach, wygrane 5, argument C w 7 sprawach, wygrane 3. Taka meta-analiza jest teraz możliwa, gdy AI „rozumie” dokumenty i potrafi je porównać. Inny przykład: analiza umów, które kancelaria przygotowywała dla klientów. Można poprosić AI: „Znajdź we wszystkich umowach NDA, które przygotowaliśmy, zakres obowiązywania (czas trwania poufności)”. Wtedy AI skanuje NDA w archiwum i potrafi wygenerować listę: np. 2 lata od podpisania, 5 lat od ujawnienia informacji, bezterminowo – ile takich było. To może podpowiedzieć, jakie standardy stosuje firma albo czy są jakieś nietypowe odstępstwa. Kolejna rzecz, AI może monitorować napływające dokumenty. Załóżmy, że mamy skrzynkę e-mail kancelarii, gdzie przychodzą orzeczenia od naszych korespondentów. System może analizować te maile i od razu wyciągać z załączników kluczowe info – np. „przyszedł nowy wyrok w sprawie X, wygrany, kwota Y, koszty zasądzone Z, sędzia Kowalski”. Prawnik, otwierając system rano, widzi zwięzły obraz co nowego przyszło bez czytania całości. To bardzo zwiększa orientację w sytuacji. Wreszcie, można wykorzystywać AI do tworzenia wewnętrznych raportów i dashboardów. Skoro może wyciągać dane, to czemu nie zrobić z nich wizualizacji? Np. ile spraw prowadzimy w danym sądzie i jaka jest nasza skuteczność. Albo jak rozkładają się typy spraw w portfelu (np. 30% to sprawy korporacyjne, 20% spory sądowe, 50% windykacje). Część takich statystyk oczywiście można wyciągnąć z systemów ERP czy CRM, ale one nie znają treści dokumentów, więc nie powiedzą np., jaki argument prawny jest najczęściej stosowany, albo które klauzule w umowach klientów budzą spory. AI analizując treść to powie. Naturalnie, warto wspomnieć o anonimizacji i poufności – jeśli chcemy też korzystać z tych danych np. do dzielenia się wiedzą poza firmą (raporty branżowe itp.), AI potrafi anonimizować automatycznie (wyczyści nazwy osób/firm). Summa summarum, AI może przerobić nieustrukturyzowane dokumenty tekstowe kancelarii w bogaty zestaw danych, które można potem przekuć na wiedzę zarządczą lub merytoryczną. To tak jakby z chaosu wyłowić konkretne liczby i fakty, które pomogą podejmować decyzje albo usprawnić procesy.
Jak narzędzia AI mogą wspomóc uczenie się i rozwój prawników?
AI może odegrać ciekawą rolę w szkoleniu i rozwoju pracowników kancelarii. Po pierwsze, może służyć jako interaktywny trener. Młody prawnik może np. ćwiczyć pisanie pism procesowych, korzystając z AI jako korepetytora: pisze fragment uzasadnienia, a AI ocenia i podpowiada: „Ten argument można wzmocnić odwołując się do orzeczenia Sądu Najwyższego X” albo „To zdanie jest niejasne, spróbuj sformułować jaśniej”. To trochę jak personalizowany feedback, który normalnie dawałby mentor, a tu może dać maszyna (przynajmniej w pewnym zakresie). Po drugie, AI może generować quizy, case study i symulacje. Np. asystent prawny chce sprawdzić, jak dobrze zna procedurę cywilną – może poprosić AI: „Zadaj mi 10 pytań testowych z postępowania dowodowego w procesie cywilnym” i dostaje quiz do rozwiązania. Albo dla działu negocjacji umów: można zasymulować negocjacje z AI, gdzie AI odgrywa rolę wymagającego klienta lub prawnika strony przeciwnej. To pozwala ćwiczyć argumentację i reagowanie na bieżąco, bez ryzyka realnej szkody. Po trzecie, AI może ułatwiać dzielenie się wiedzą wewnątrz: zebrane i zindeksowane informacje (o czym mówiliśmy w poprzednich punktach) stają się podstawą do uczenia innych. Np. nowy pracownik, zamiast liczyć, że ktoś mu wszystko opowie, może skorzystać z wewnętrznego chatbota i wypytać o typowe procesy, procedury w kancelarii („jak u nas wygląda przygotowanie pozwu?”, „gdzie znajdę wzór umowy inwestycyjnej?”). To przyśpiesza onboarding. Po czwarte, AI potrafi wyłapywać luki wiedzy. Jeśli wielu prawników zadaje podobne pytanie asystentowi (np. „jak sformatować pismo do KRS” – bo może nie ma dobrej instrukcji), to administrator systemu widzi, że warto np. zorganizować mini-szkolenie albo udostępnić prostą procedurę. Albo jeśli wszyscy mylą dwa podobne przepisy, AI to odnotuje. Wreszcie, narzędzia AI mogą wspierać samokształcenie – proponując np. lektury. Mając preferencje prawnika (np. zajmuje się ochroną danych osobowych), system może co tydzień generować mu spersonalizowany newsletter z najnowszymi zmianami prawnymi i orzecznictwem w tym obszarze (co same w sobie AI potrafią robić – generować streszczenia nowych przepisów). To jest ogromna pomoc, bo prawnicy często narzekają, że nie nadążają ze śledzeniem nowości. AI może być takim asystentem R&D: stale skanuje źródła (czy to zewnętrzne, czy wewnętrzne) i karmi prawnika wiedzą, którą ten akurat potrzebuje albo go interesuje. Na marginesie, AI w roli nauczyciela bywa też niezastąpione do nauki języka prawniczego – np. polski prawnik chcący podszkolić legal English może ćwiczyć z chatbotem po angielsku prawnicze dialogi czy tłumaczenia klauzul na żywo, dostając korekty błędów. Tak więc w skrócie: AI może być zarówno trenerem, egzaminatorem, jak i bibliotekarzem dla prawnika. To czyni proces rozwoju bardziej efektywnym i dostosowanym do indywidualnych potrzeb, co finalnie przekłada się na podniesienie kompetencji zespołu.
Czy AI może zapobiegać dublowaniu pracy w kancelarii?
To jedno z bardziej praktycznych zastosowań: eliminacja podwójnej pracy. Ile razy w kancelarii różne osoby niezależnie od siebie wykonują podobne zadanie, nie wiedząc o tym? AI – zwłaszcza ta do zarządzania wiedzą – może temu przeciwdziałać. Na przykład, jeśli ktoś zaczyna badać jakiś problem prawny, mógłby zapytać AI: „czy ktoś w firmie już zajmował się tym zagadnieniem?”. AI przejrzy archiwa i powie: „Tak, w notatce z 2021 roku prawnik X analizował to i doszedł do takich wniosków”. Wtedy zamiast od zera robić research, można oprzeć się na tamtej pracy (oczywiście aktualizując, jeśli to potrzebne). Podobnie przy tworzeniu dokumentów: jeśli partner zleca młodemu prawnikowi przygotowanie np. regulaminu świadczenia usług dla klienta IT, to prawnik może zapytać AI: „czy mamy już jakiś wzór regulaminu dla IT?”. AI znajdzie kilka przykładowych, więc nie trzeba pisać od zera ani przeszukiwać ręcznie dysku. Kolejna sytuacja: czasem dwóch prawników pracuje nad podobnymi pismami dla różnych klientów (np. dwie sprawy rozwodowe). Zamiast każdy wymyślać koło na nowo, AI mogłoby np. wykryć: „Hej, prawniczka A i prawnik B piszą właśnie pozwy rozwodowe, może powinni się skonsultować lub skorzystać ze wspólnego wzorca”. Jak to możliwe? Jeśli np. system do zarządzania sprawami integruje AI, to może analizować w tle, nad czym ludzie pracują (to rodzi pytania prywatności pracowników, ale wewnętrznie można to wyłączyć lub włączyć dla chętnych). Można to jednak zrobić subtelniej – po fakcie: AI zauważa, że powstały dwa podobne dokumenty, więc następnym razem, gdy pojawi się podobne zadanie, od razu to podrzuci. Ponadto, AI może automatycznie integrować wyniki prac. Jeżeli dwie osoby niezależnie opracowały dwa mema z jakiegoś tematu, AI może scalić ich wnioski w jedno opracowanie, co zapobiegnie istnieniu dwóch lekko różniących się wersji. Będzie jedna, bogatsza. Oczywiście, to wymaga pewnego uporządkowania pracy – np. wrzucania notatek do centralnego repozytorium. Ale tu AI też może pomóc – może sam zagregować maile czy notatki ze słowem „nota prawna” i zapisać je w bazie wiedzy, bez że tak powiem, „ręcznego” kłopotu. Innym wymiarem jest planowanie – AI mogłoby wskazać partnerom: „W przyszłym tygodniu dwie różne grupy prawników planują szkolenie dla klientów z nowelizacji prawa pracy – może lepiej zrobić jedno wspólne i zaoszczędzić czas?”. To jest bardziej zaawansowane zastosowanie – wymaga analizy kalendarzy i planów – ale jest realne. Reasumując: AI głównie działa tu jako super-wyszukiwarka i porównywacz tego, co już zrobiono lub co się robi, żeby wskazać duplikaty. Dzięki temu jak już raz coś zrobimy, to następnym razem użyjemy tego ponownie, zamiast robić dubla. W długim okresie to olbrzymia oszczędność – zarówno czasu, jak i uniknięcia frustracji („Przecież już to kiedyś robiliśmy, czemu znowu to robię ja?”). Z AI w obiegu, taka sytuacja powinna zdarzać się rzadziej.
Co z bezpieczeństwem danych przy użyciu AI na wewnętrznych danych?
Bezpieczeństwo danych to kluczowa sprawa, zwłaszcza dla kancelarii, które operują informacjami poufnymi, objętymi tajemnicą zawodową. Wprowadzanie AI do zarządzania wiedzą i dokumentami rodzi naturalne pytania: czy nasze dane pozostaną bezpieczne? Główne ryzyka to wyciek danych na zewnątrz (np. jeśli używamy publicznego modelu, który „uczy się” na naszych danych, to czy one nie staną się dostępne innym) i nieautoryzowany dostęp (czy ktoś spoza firmy nie uzyska dostępu do naszego chatbota wiedzy). Rozwiązaniem jest przede wszystkim stosowanie rozwiązań prywatnych lub on-premises. To znaczy, zamiast wysyłać dane do publicznej chmury typu ChatGPT (co jest wielce ryzykowne i zasadniczo niezalecane do danych wrażliwych), można wdrożyć modele AI na własnych serwerach albo korzystać z takich, które gwarantują izolację danych. Są już dostawcy, którzy oferują LLM (large language models) w trybie zamkniętym – np. OpenAI ma opcję „Azure OpenAI” gdzie dane klientów nie są wykorzystywane do trenowania publicznych modeli. Albo open-source modele, które można uruchomić wewnątrz sieci firmy, i wtedy nic na zewnątrz nie wycieka. Kwestia kolejna: szyfrowanie i kontrola dostępu. Wewnętrzne narzędzia AI powinny mieć tak samo mocne zabezpieczenia jak inne systemy IT w firmie: szyfrowanie bazy danych, uwierzytelnianie użytkowników, logi dostępu. Jeśli ktoś odejdzie z firmy, odcina mu się dostęp do chatbota tak jak do e-maila itp. To standardowe procedury, ale trzeba pamiętać, by objęły również te nowe narzędzia. Dodatkowo, można wprowadzić mechanizmy anonimizacji jako warstwę – np. zanim dokument trafi do przetworzenia przez AI, pewne kluczowe dane osobowe mogą być zanonimizowane, żeby nawet jakby coś wyciekło (np. backup bazy), to trudno było powiązać z prawdziwymi osobami. Wreszcie, kluczowa jest świadomość użytkowników – prawnicy muszą wiedzieć, czego absolutnie nie wolno robić. Np. nie wolno kopiować do prywatnego ChatGPT fragmentu poufnej umowy, by poprosić go o podsumowanie – bo to może potencjalnie naruszyć poufność (te dane mogą posłużyć do trenowania modelu). Wewnętrzne szkolenia i polityki muszą to jasno określić. Lepiej udostępnić bezpieczne narzędzie wewnętrzne, by prawnicy nie kombinowali i nie korzystali z nieautoryzowanych. Ciekawym pomysłem jest też wprowadzanie stopniowej adopcji – najpierw testy na danych niepoufnych, potem stopniowo poszerzać zakres, jak się upewnimy co do zabezpieczeń. Podsumowując: AI może być bezpieczne dla danych, o ile wdrażamy je z taką samą troską, jak systemy finansowe czy medyczne. Prywatne instancje, szyfrowanie, kontrola dostępu, i jasne reguły. W takim reżimie dane klientów i kancelarii nie powinny „wyciec” bardziej, niż by to mogło się stać w każdym innym systemie IT. Dobrze jest też komunikować to klientom – że używamy AI w sposób kontrolowany, nie narażając ich tajemnic. Transparentność buduje zaufanie, bo wielu klientów może na hasło „AI” od razu pytać: „A moje dane będą bezpieczne?”. Odpowiedź: tak, bo system jest odcięty od świata zewnętrznego i działa jak wewnętrzny, zamknięty skarbiec wiedzy.
Jakie są obawy dotyczące poufności przy użyciu AI na wewnętrznych danych?
Mimo wszystkich środków ostrożności, pewne obawy w środowisku prawniczym pozostają – i warto je omówić. Przede wszystkim, jest strach przed „czarną skrzynką” – AI udziela odpowiedzi czy przetwarza dane, ale nie zawsze wiadomo, jak dochodzi do wyniku. Prawnicy lubią mieć kontrolę i wiedzę, kto widzi ich dane. Obawa jest, że nawet jeśli model jest wewnętrzny, to może w nim być jakieś „tylne drzwi” albo podatności. Tutaj kłania się konieczność audytu i wybierania zaufanych, sprawdzonych rozwiązań. Druga obawa: błąd ludzki – że ktoś nieopatrznie i tak wrzuci coś poufnego do niewłaściwego systemu (jak wspomniałem: np. do publicznego chatbota). Tego nie wyeliminujemy całkowicie, można tylko minimalizować edukacją i monitorowaniem. Trzecia: zgodność z etyką zawodową i przepisami o ochronie danych. Wiele jurysdykcji (np. USA) dyskutuje, czy użycie AI jest zgodne z obowiązkiem zachowania tajemnicy adwokackiej. Jeśli np. dane są przetwarzane przez zewnętrzny serwer, to czy to nie jest równoznaczne z ujawnieniem ich osobom trzecim? W Polsce i UE dochodzi RODO – czy np. wrzucenie danych osobowych do AI jest zgodne z celem, na jaki te dane zebrano? Być może trzeba by uznać dostawcę AI za procesora danych i podpisać z nim umowę powierzenia. Te formalno-prawne aspekty budzą niepokój. Kancelarie mogą obawiać się, czy nie naruszą prawa lub standardów etycznych. Na to odpowiedzią może być np. uzyskanie zgody klienta (chociaż raczej klienci oczekują, że ich dane nie krążą nigdzie indziej). Lepiej więc zapewnić, że nie krążą – stąd preferencja narzędzi on-prem. Kolejna obawa to stabilność i dostępność – jeśli zaczniemy polegać na AI do wiedzy, a system padnie albo da błędne odpowiedzi, to czy nie zrobimy z siebie głupca? Prawnicy muszą czuć zaufanie do narzędzia, inaczej nie będą go w pełni używać. To już kwestia jakości wdrożenia. No i wreszcie pewien bardziej ludzki aspekt: niektórzy obawiają się, że jak wszystkie dane będą tak łatwo dostępne wewnętrznie, to stracą pewną indywidualną przewagę (np. doświadczony pracownik może czuć, że „wiedza = władza”, a jak AI da tę wiedzę juniorom, to on stanie się mniej niezastąpiony). To nie tyle poufność, co pewien opór kulturowy. Może objawiać się niechęcią do dzielenia się dokumentami z systemem. To też trzeba adresować – budować kulturę dzielenia wiedzą, pokazywać plusy, może wprowadzać zachęty (np. wewnętrzne wyróżnienia dla tych, co dużo wkładają do bazy). W sumie, główne obawy: wyciek danych, naruszenie tajemnicy/RODO, awarie lub błędy AI, i opór ludzi. Wszystkie są ważne, ale wszystkie można rozpracować. Najgorsze byłoby ignorować te obawy – bo wtedy ludzie będą sabotować wdrożenie lub bać się korzystać. Lepiej otwarcie je omawiać i pokazywać, jakie środki bezpieczeństwa i etyki wprowadzono. Wtedy AI może być postrzegana nie jako zagrożenie, lecz jako nowy, bezpieczny członek zespołu (tyle że wirtualny).
Czy wprowadzenie AI do zarządzania wiedzą jest opłacalne dla kancelarii?
To pytanie sprowadza się do oceny ROI – czy korzyści (finansowe, czasowe, jakościowe) przewyższają koszty i ewentualne ryzyka. Wiele wskazuje, że tak, jest opłacalne, zwłaszcza dla średnich i dużych kancelarii, gdzie skala wiedzy i powtarzalności jest duża. Koszty takiego wdrożenia oczywiście są – licencje na oprogramowanie albo infrastruktura, integracja z istniejącymi systemami, szkolenia zespołu. Ale z drugiej strony mamy olbrzymie oszczędności: prawnicy mniej czasu spędzają na szukaniu informacji, tworzeniu od podstaw rzeczy, które już istnieją, powielaniu researchu itd. Według pewnych szacunków, prawnicy marnują kilkanaście procent czasu na czynności administracyjne i wyszukiwanie informacji, które mogłaby im dostarczyć dobrze zarządzana baza wiedzy. Jeżeli AI skróci to choćby o połowę, to mamy np. 7-8% czasu pracy do odzyskania. W środowisku prawniczym 7-8% więcej produktywnego czasu to ogrom – może oznaczać np. dodatkową sprawę obsłużoną albo mniej nadgodzin (co przekłada się na zadowolenie pracowników). AIMultiple w jednym raporcie wspominało, że ponad 60% prawników przyznaje, że nie wykorzystuje w pełni AI, a 95% tych co używają, twierdzi, że oszczędza im to czas . Innymi słowy, potencjał jest, i ci co go wykorzystali, widzą zysk. Jeśli chodzi o twarde finanse: może trudniej to policzyć niż np. automatyzację dokumentów (gdzie od razu widać spadek godzin rzemieślniczej pracy). Ale przykład: wygraliśmy sprawę dzięki temu, że AI pomogła znaleźć precedens z naszej starej sprawy, o którym byśmy nie wiedzieli – to wartość, choć niemierzalna ex ante. Albo szybciej obsłużyliśmy klienta, on zadowolony, dał kolejne zlecenia. Albo partner nie musiał 2 godzin tłumaczyć nowemu pracownikowi wszystkich procedur, bo chatbot mu odpowiedział na większość pytań – partner w tym czasie może pracować nad pozyskaniem klienta. Te jakościowe efekty sumują się do wzmocnienia efektywności i jakości usług, co prędzej czy później ma wymiar finansowy (lepsza reputacja, więcej zleceń z polecenia, niższe koszty obsługi wewnętrznej). Dodatkowo, może być tak, że pewne nowe usługi staną się możliwe – np. kancelaria może oferować klientom dostęp do pewnej bazy Q&A (z oczywistym zabezpieczeniem poufności), albo szybciej generować dla nich alerty prawne. To może ją wyróżnić na rynku. W dobie, gdy klienci żądają coraz więcej za mniej (cięcie stawek, flat fee, itp.), wewnętrzna wydajność z pomocą AI jest sposobem, by utrzymać marżowość bez rezygnacji z jakości. Oczywiście, na początku bywa to postrzegane jako koszt i duża zmiana. Dlatego by przekonać decydentów, często sporządza się taki business case: ile godzin rocznie spędzamy na X, ile by zostało, jak AI to skróci o Y%, ile warta jest godzina pracy prawnika – i wychodzą konkretne dziesiątki (jak nie setki) tysięcy zł oszczędności. Ponadto, Thomson Reuters odnotował, że firmy z wdrożoną strategią AI są cztery razy bardziej skłonne odnotowywać korzyści . To sugeruje, że opłaca się mieć plan i inwestować. Wreszcie, można powiedzieć też tak: jeśli my nie zainwestujemy, a konkurencja tak, to oni będą szybsi i tańsi – więc nasza nieinwestycja się zemści. Czyli pośrednio opłaca się, bo brak AI to rosnący koszt utraconych korzyści. Podsumowując: tak, wprowadzenie AI do zarządzania wiedzą i procesów wewnętrznych jest opłacalne, bo przekłada się na oszczędność czasu, lepsze wykorzystanie istniejącej pracy, uniknięcie błędów, szybsze dostarczanie klientom wartości – a to wszystko prędzej czy później widać w wyniku finansowym i pozycji rynkowej kancelarii.
Masz pytania do artykułu? Skontaktuj się z ekspertem
Skontaktuj się z nami, aby odkryć, jak nasze kompleksowe rozwiązania IT mogą zrewolucjonizować Twoją firmę, zwiększając bezpieczeństwo i efektywność działania w każdej sytuacji.
