Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Prywatna sztuczna inteligencja. Kiedy dane stają się nową walutą

Prywatna AI
Prywatna AI Prawo autorskie  Copyright 2017 The Associated Press. All rights reserved.
Prawo autorskie Copyright 2017 The Associated Press. All rights reserved.
Przez Aleksandra Gałka-Reczko
Opublikowano dnia
Udostępnij
Udostępnij Close Button

W świecie sztucznej inteligencji trwa cichy wyścig: kto kontroluje dane, ten wygrywa. Dlatego coraz więcej organizacji rezygnuje z publicznych modeli typu ChatGPT i buduje własne, zamknięte systemy AI. Wszystko po to, by wrażliwe informacje nigdy nie opuściły firmowych serwerów.

„Dane są dziś walutą” – mówi prof. Stefan Dziem­bow­ski z Uniwersytetu Warszawskiego i IDEAS NCBR. - „Dlatego wielkie firmy tak zachęcają nas do oddawania im wszystkiego. Niestety w tym wyścigu nie ma europejskich graczy na poziomie Google’a czy Mety. Pojedyncza firma czy kraj po prostu nie jest w stanie zebrać takich zbiorów danych jak amerykańscy giganci”.

Trzy zagrożenia

Profesor wyróżnia trzy główne zagrożenia prywatności w AI: wyciek danych treningowych, wyciek zapytań użytkowników oraz kradzież samego modelu. Proste anonimizowanie nie pomaga, a zaawansowane metody ochrony albo obniżają jakość, albo są zbyt wolne.

„W zastosowaniach krytycznych – obronność, zdrowie, finanse – zostaje tylko jedno sensowne wyjście: własna infrastruktura” – podkreśla Dziem­bow­ski.

„Zwykły człowiek często machnie ręką na prywatność, jeśli coś jest wygodniejsze i tańsze. Ale gdy kilka korporacji ma szczegółowe profile milionów Polaków, to już staje się to problem całego społeczeństwa. Tu muszą wejść regulatorzy”.

prof. Stefan Dziembowski, Instytut Informatyki
prof. Stefan Dziembowski, Instytut Informatyki MARCIN OLIVA SOTO/WWW.OLIVASOTO.COM TEL.0048600251840

Michał Kowalczuk, Data & AI Eastern Europe IT Director w DXC Technology i szef Globalnego Centrum Kompetencji AI w Warszawie, na co dzień wprowadza prywatne AI u dużych klientów na całym świecie. W komentarzu dla Euronews przekonuje, że publiczne i prywatne wcale nie są dla siebie konkurencją, a wręcz się uzupełniają:

„Publiczne modele sprawdzają się w zastosowaniach o dużej skali i niskim ryzyku, natomiast prywatne rozwiązania są kluczowe tam, gdzie liczy się zgodność z przepisami i bezpieczeństwo danych. Publiczna i prywatna AI nie są dla siebie konkurencją, lecz pełnią różne role w zależności od potrzeb biznesowych”.

Firmy chcą prywatnego AI

Kowalczuk pokazuje to na konkretnych przykładach:

„Współpracując z Europejską Agencją Kosmiczną opracowaliśmy platformę ASK ESA – środowisko AI, które wykorzystuje model językowy Mistral AI, działający w zamkniętym centrum danych ESA. Dzięki temu agencja może korzystać z możliwości generatywnej AI bez ryzyka, że dane opuszczą jej infrastrukturę. To pokazuje, że da się pogodzić innowacyjność z rygorami regulacyjnymi – kierunek, w którym zmierza również Polska wraz z wdrożeniem unijnych wytycznych dotyczących odpowiedzialnego rozwoju AI”.

W sektorze telekomunikacyjnym portugalski gigant MEO wdrożył zamkniętego asystenta AI wspierającego zespoły prawne w analizie dokumentów i przestrzeganiu wymogów regulacyjnych.

Michał Kowalczuk
Michał Kowalczuk DXC Technology

„Podobne potrzeby obserwujemy w Polsce – zwłaszcza w sektorze finansowym, energetycznym i prawnym, gdzie przetwarzanie danych klientów wymaga szczególnej ochrony” – objaśnia Michał Kowalczuk, podając przykłady innych wdrożonych rozwiązań.

W infrastrukturze transportowej hiszpańska Ferrovial korzysta z platformy NVIDIA AI Workbench, która pozwala tworzyć wyspecjalizowanych agentów AI wspierających procesy operacyjne, przy zachowaniu pełnej kontroli nad danymi.

W Australii i Nowej Zelandii dostawca usług infrastrukturalnych Ventia uruchomił narzędzie Tendia – generatywne AI, które analizuje tysiące stron dokumentacji z wcześniejszych przetargów i przyspiesza przygotowywanie ofert wyłącznie na wewnętrznych danych firmy.

„Zespoły odpowiedzialne za oferty często muszą przeszukiwać ogromne archiwa – Tendia skraca ten proces dramatycznie, bez ryzyka ujawnienia danych kontraktowych czy projektowych” – wyjaśnia Kowalczuk.

Z kolei we Włoszech, przy współpracy z ministerstwem kultury, powstał agent AI integrujący dane z ponad 6500 bibliotek i instytucji kultury.

Prywatne AI w Polsce

„Podobne projekty mogłyby w przyszłości powstać także w Polsce – np. w ramach cyfrowych archiwów dziedzictwa narodowego czy sieci instytutów badawczych” – podkreśla.

„Organizacje, które chcą korzystać z potencjału AI, muszą myśleć nie tylko o technologii, ale też o zasadach jej wdrażania. Prywatna AI daje możliwość wykorzystania mocy modeli językowych w środowiskach, które pozostają pod pełną kontrolą użytkownika. To kierunek, który może stać się nowym standardem w odpowiedzialnym zarządzaniu sztuczną inteligencją – również w Polsce, gdzie rynek dojrzewa bardzo szybko, a świadomość potrzeby etycznego i bezpiecznego rozwoju AI rośnie z roku na rok.”

W Polsce barierą wciąż jest koszt, ale trend jest wyraźny. Raport PwC „AI w Polsce 2024” pokazuje, że 61 procent dużych firm obawia się o bezpieczeństwo danych – i coraz więcej planuje własne, lokalne modele. Powstają Polish AI Sandbox i regionalne centra danych z uczelniami.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Europejczycy akceptują sztuczną inteligencję, ale nadal chcą regulacji przepisów

Finanse osobiste i sztuczna inteligencja: czy warto ufać poradom inwestycyjnym ChatGPT?

Sztuczna inteligencja staje się urocza. Poznaj "Mico" Microsoftu, Pana Spinacza w erze AI