W świecie sztucznej inteligencji trwa cichy wyścig: kto kontroluje dane, ten wygrywa. Dlatego coraz więcej organizacji rezygnuje z publicznych modeli typu ChatGPT i buduje własne, zamknięte systemy AI. Wszystko po to, by wrażliwe informacje nigdy nie opuściły firmowych serwerów.
„Dane są dziś walutą” – mówi prof. Stefan Dziembowski z Uniwersytetu Warszawskiego i IDEAS NCBR. - „Dlatego wielkie firmy tak zachęcają nas do oddawania im wszystkiego. Niestety w tym wyścigu nie ma europejskich graczy na poziomie Google’a czy Mety. Pojedyncza firma czy kraj po prostu nie jest w stanie zebrać takich zbiorów danych jak amerykańscy giganci”.
Trzy zagrożenia
Profesor wyróżnia trzy główne zagrożenia prywatności w AI: wyciek danych treningowych, wyciek zapytań użytkowników oraz kradzież samego modelu. Proste anonimizowanie nie pomaga, a zaawansowane metody ochrony albo obniżają jakość, albo są zbyt wolne.
„W zastosowaniach krytycznych – obronność, zdrowie, finanse – zostaje tylko jedno sensowne wyjście: własna infrastruktura” – podkreśla Dziembowski.
„Zwykły człowiek często machnie ręką na prywatność, jeśli coś jest wygodniejsze i tańsze. Ale gdy kilka korporacji ma szczegółowe profile milionów Polaków, to już staje się to problem całego społeczeństwa. Tu muszą wejść regulatorzy”.
Michał Kowalczuk, Data & AI Eastern Europe IT Director w DXC Technology i szef Globalnego Centrum Kompetencji AI w Warszawie, na co dzień wprowadza prywatne AI u dużych klientów na całym świecie. W komentarzu dla Euronews przekonuje, że publiczne i prywatne wcale nie są dla siebie konkurencją, a wręcz się uzupełniają:
„Publiczne modele sprawdzają się w zastosowaniach o dużej skali i niskim ryzyku, natomiast prywatne rozwiązania są kluczowe tam, gdzie liczy się zgodność z przepisami i bezpieczeństwo danych. Publiczna i prywatna AI nie są dla siebie konkurencją, lecz pełnią różne role w zależności od potrzeb biznesowych”.
Firmy chcą prywatnego AI
Kowalczuk pokazuje to na konkretnych przykładach:
„Współpracując z Europejską Agencją Kosmiczną opracowaliśmy platformę ASK ESA – środowisko AI, które wykorzystuje model językowy Mistral AI, działający w zamkniętym centrum danych ESA. Dzięki temu agencja może korzystać z możliwości generatywnej AI bez ryzyka, że dane opuszczą jej infrastrukturę. To pokazuje, że da się pogodzić innowacyjność z rygorami regulacyjnymi – kierunek, w którym zmierza również Polska wraz z wdrożeniem unijnych wytycznych dotyczących odpowiedzialnego rozwoju AI”.
W sektorze telekomunikacyjnym portugalski gigant MEO wdrożył zamkniętego asystenta AI wspierającego zespoły prawne w analizie dokumentów i przestrzeganiu wymogów regulacyjnych.
„Podobne potrzeby obserwujemy w Polsce – zwłaszcza w sektorze finansowym, energetycznym i prawnym, gdzie przetwarzanie danych klientów wymaga szczególnej ochrony” – objaśnia Michał Kowalczuk, podając przykłady innych wdrożonych rozwiązań.
W infrastrukturze transportowej hiszpańska Ferrovial korzysta z platformy NVIDIA AI Workbench, która pozwala tworzyć wyspecjalizowanych agentów AI wspierających procesy operacyjne, przy zachowaniu pełnej kontroli nad danymi.
W Australii i Nowej Zelandii dostawca usług infrastrukturalnych Ventia uruchomił narzędzie Tendia – generatywne AI, które analizuje tysiące stron dokumentacji z wcześniejszych przetargów i przyspiesza przygotowywanie ofert wyłącznie na wewnętrznych danych firmy.
„Zespoły odpowiedzialne za oferty często muszą przeszukiwać ogromne archiwa – Tendia skraca ten proces dramatycznie, bez ryzyka ujawnienia danych kontraktowych czy projektowych” – wyjaśnia Kowalczuk.
Z kolei we Włoszech, przy współpracy z ministerstwem kultury, powstał agent AI integrujący dane z ponad 6500 bibliotek i instytucji kultury.
Prywatne AI w Polsce
„Podobne projekty mogłyby w przyszłości powstać także w Polsce – np. w ramach cyfrowych archiwów dziedzictwa narodowego czy sieci instytutów badawczych” – podkreśla.
„Organizacje, które chcą korzystać z potencjału AI, muszą myśleć nie tylko o technologii, ale też o zasadach jej wdrażania. Prywatna AI daje możliwość wykorzystania mocy modeli językowych w środowiskach, które pozostają pod pełną kontrolą użytkownika. To kierunek, który może stać się nowym standardem w odpowiedzialnym zarządzaniu sztuczną inteligencją – również w Polsce, gdzie rynek dojrzewa bardzo szybko, a świadomość potrzeby etycznego i bezpiecznego rozwoju AI rośnie z roku na rok.”
W Polsce barierą wciąż jest koszt, ale trend jest wyraźny. Raport PwC „AI w Polsce 2024” pokazuje, że 61 procent dużych firm obawia się o bezpieczeństwo danych – i coraz więcej planuje własne, lokalne modele. Powstają Polish AI Sandbox i regionalne centra danych z uczelniami.