Wejście w życie rozporządzenia w sprawie AI nakłada na podmioty korzystające ze sztucznej inteligencji szereg nowych obowiązków prawnych, których przestrzeganie pozwoli czerpać realne korzyści biznesowe oraz zwiększyć bezpieczeństwo i transparentność prowadzonych działań. Zarządcy nieruchomości powinni już dziś rozpocząć przygotowania do uzyskania pełnej zgodności swojej pracy z tymi regulacjami.
Rozporządzenie Parlamentu Europejskiego i Rady (UE) w sprawie sztucznej inteligencji (zwane też AI Aktem lub Aktem w sprawie sztucznej inteligencji), które weszło w życie 1 sierpnia 2024 r., wprowadza regulacje mające na celu zapewnienie bezpiecznego, transparentnego oraz zgodnego z prawem wykorzystania technologii AI (AI = Artificial Inteligence). Regulacja ta stanowi kompleksowe ujęcie wymagań i obowiązków związanych z wdrażaniem oraz użytkowaniem systemów opartych na sztucznej inteligencji. Zgodnie z założeniami autorów rozporządzenia, jego celem jest: poprawa funkcjonowania rynku wewnętrznego i promowanie zorientowanej na człowieka i godnej zaufania sztucznej inteligencji, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie Praw Podstawowych, w tym demokracji i praworządności, przed szkodliwymi skutkami systemów AI w UE oraz wspieranie innowacji.
Jest to bezprecedensowa regulacja, która ustala zasady korzystania z tej skomplikowanej i nowej dziedziny. Podobnie jak obszar, którego dotyczy, jest dość skomplikowana i sprawia dużo wątpliwości interpretacyjnych, przynajmniej na tym, początkowym etapie w cyklu jej życia. Oznacza to więc, że wszyscy musimy jeszcze sporo się nauczyć zarówno w sferze teoretycznej, jak i oczywiście praktycznej. W dalszej perspektywie nie unikniemy bowiem korzystania z rozwiązań opartych na sztucznej inteligencji zarówno w działalności zawodowej, jak i życiu codziennym.
Zakres stosowania
Na wstępie wyjaśnijmy kilka podstawowych pojęć zapisanych przez unijnego prawodawcę. AI Akt opiera się na podejściu opartym o ryzyko, dzieląc systemy AI na kilka kategorii, wśród których wyróżniamy: systemy (praktyki) zakazane, systemy o wysokim ryzyku, systemy o ograniczonym ryzyku i modele ogólnego przeznaczenia. Każda z tych kategorii wiąże się z konkretnymi obowiązkami regulacyjnymi i przed rozpoczęciem korzystania z narzędzi AI warto poznać kryteria ustalania tych kategorii.
Dlaczego warto to wiedzieć? Dlatego, aby być świadomym tego czy, a jeśli tak to jakie ciążą na nas obowiązki regulacyjne. Za brak dostosowania się do nich możemy ponieść dotkliwe finansowo i wizerunkowo konsekwencje. Nawet jeśli nasz system będzie kwalifikował się pod AI Akt, to naturalnie poza obowiązkami, które z niego wynikają, musimy także zapewnić zgodność z innymi powszechnie obowiązującymi przepisami czy regulacjami. Rozporządzenie ma bowiem charakter horyzontalny wobec innych aktów prawnych – trzeba za każdym razem spoglądać na realizowany proces biznesowy kompleksowo.
Istotnym z biznesowego punktu widzenia elementem, na który warto zwrócić uwagę, jest rola, w jakiej występujemy i co robimy w kontekście danego narzędzia opartego o AI. W tym kontekście warto zasygnalizować, że rozporządzenie stosuje się do:
- dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w UE, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w UE czy w państwie trzecim,
- podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w UE,
- dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku, gdy wyniki wytworzone przez system AI są wykorzystywane w UE,
- importerów i dystrybutorów systemów AI,
- producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI,
- upoważnionych przedstawicieli dostawców niemających siedziby w UE,
- osób, na które AI ma wpływ i które znajdują się w UE.
Różna rola zarządców
Kto jest kim w AI Akcie? Skrótowo rzecz ujmując, możemy występować w roli dostawcy, podmiotu stosującego, importera, dystrybutora, producenta produktu lub upoważnionego przedstawiciela. Szczegółowe definicje i zakres podmiotowy dla każdej z wymienionych ról znajdziemy w rozporządzeniu w sprawie sztucznej inteligencji oraz w wydanych przez Komisję Europejską oraz przez organy krajowe wytycznych. Musimy zatem na etapie naszej analizy zweryfikować i ustalić, kim jesteśmy w świetle tej kategoryzacji. Konsekwencją pełnionej roli jest zakres nałożonych na nas obowiązków, które musimy każdorazowo spełnić.
Z uwagi na obszerność zagadnienia pominę katalog podmiotów, dla których AI Akt przewiduje wyłączenia. Kwestia ta jest oczywiście ważna, ale pozwolę sobie tylko wspomnieć, że owe wykluczenia mogą odwoływać się do charakteru podmiotu, jak i samego zastosowania systemu AI. Potwierdza to tezę, że w każdym stanie faktycznym zawsze warto zweryfikować wszystkie możliwe kwestie związane z tym, czy dane akt prawny ma do naszej sytuacji zastosowanie.
Warto nadmienić, że trwają konsultacje naszej krajowej ustawy o systemach sztucznej inteligencji. Przepisy są na etapie tworzenia (po pierwszych konsultacjach społecznych została przedstawiona druga wersja), ale warto wiedzieć o tym, czego będą dotyczyły. Projekt ustawy ma na celu wprowadzenie do krajowego porządku prawnego regulacji służących stosowaniu rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r., czyli AI Aktu. Ustawa ma na celu umożliwienie bezpośredniego stosowania niektórych przepisów (w tym tych z rozdziału I, II, III sekcja 4, V, VII, IX, XII) AI Aktu. Dodatkowo będzie regulowała kwestie, które na podstawie przepisów ww. rozporządzenia państwa członkowskie muszą wdrożyć, czyli obowiązane są chociażby do:
- wskazania właściwych organów krajowych, tj. organu nadzoru rynku i organu notyfikującego odpowiedzialnego za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność systemów AI, jak również za ich monitorowanie,
- przyjęcia przepisów umożliwiających nakładanie administracyjnych kar finansowych za naruszenia przepisów AI Aktu,
- określenia procedury umożliwiającej egzekwowanie zakazu stosowania systemów spełniających kryteria zakazanych praktyk AI, w tym umożliwienie złożenia skargi do właściwych organów krajowych na naruszenie art. 5 AI Aktu (określa on praktyki zakazane).
Organy nadzoru
W szczególności przedmiotem projektowanej ustawy krajowej są kwestie dotyczące organu nadzoru, postępowania przed tym organem, postępowania kontrolnego, organu notyfikującego, certyfikacji, sądowej ochrony praw przysługujących obywatelom, jak również wszczynania postępowań i nakładania administracyjnych kar finansowych za naruszenie przepisów art. 5 AI Aktu. Projekt ustawy przewiduje powołanie nowego organu nadzoru rynku dla modeli i systemów sztucznej inteligencji, którym będzie Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Pracami tej komisji będzie kierował przewodniczący powoływany przez Prezesa Rady Ministrów w drodze otwartego naboru. W jej skład będą wchodzili zastępcy przewodniczącego oraz członkowie – przedstawiciele organów i urzędów właściwych ze względu na przedmiot regulacji. Proponuje się, aby członkami byli przedstawiciele instytucji kluczowych dla rozwoju sektora technologii sztucznej inteligencji.
Zadania nowego organu będą obejmowały nadzór nad rynkiem systemów sztucznej inteligencji w zakresie określonym w AI Akcie, realizację zadań pojedynczego punktu kontaktowego, współpracę z Prezesem Urzędu Ochrony Danych Osobowych oraz innymi organami właściwymi w zakresie realizacji zadań, współpracę z właściwymi organami i instytucjami UE oraz państw członkowskich.
Powołanie nowego organu umożliwi również docelowo pełnienie innych funkcji, takich jak: nadzór nad ustanowieniem i działaniem piaskownic regulacyjnych, które mają pozwolić na testowanie innowacyjnych systemów AI w bezpiecznych, kontrolowanych warunkach, realizacja przez komisję obowiązku informacyjnego związanego z podejmowanymi działaniami oraz spełnieniem innych obowiązków ustawowych, działania monitorujące, komunikacyjne i edukacyjne wspierające rozwój sektora sztucznej inteligencji w Polsce.
Jako organ nadzoru rynku komisja będzie rozpatrywała wnioski dotyczące zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka, przyjmowała zgłoszenia dotyczące poważnych incydentów, rozpatrywała skargi składane przez osoby poddane działaniom systemów AI oraz współpracowała z instytucjami publicznymi, w tym organami nadzoru rynku, w postępowaniach związanych z wykorzystaniem takich systemów. Komisja ma mieć także uprawnienia w zakresie wszczynania z urzędu spraw w przypadku uzyskania informacji o możliwości naruszenia przepisów AI Aktu. W ramach prowadzonego postępowania organ nadzoru będzie mógł przeprowadzać kontrole podmiotu, wobec którego zostało wszczęte postępowanie.
System AI
Niewątpliwie jednym z kluczowych pojęć w AI Akcie jest definicja systemu AI – wszak jeśli nie korzystamy z niego, to wspomniane przepisy nie będą miały do nas zastosowania. System AI oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. Definicja jest skomplikowana i wymaga skrupulatnej analizy, którą powinniśmy przeprowadzić oceniając, czy AI Akt będzie miał do danego systemu zastosowanie. Jest to chyba najważniejszy etap naszej analizy, bowiem jeśli okaże się, że nie mamy do czynienia z systemem AI, to obowiązki wynikające z AI Aktu naturalnie nie będą nas dotyczyły.
Planując więc korzystanie z narzędzi opartych o sztuczną inteligencję w związku z prowadzoną działalnością w pierwszym kroku musimy zweryfikować, czy dane rozwiązanie jest systemem AI. Jeśli odpowiedź będzie twierdząca, to w drugim kroku ustalamy, czy zastosowanie ma wyłączenie podmiotowe albo przedmiotowe (art. 2 AI Aktu). W następnym etapie – w przypadku odpowiedzi negatywnej w kroku drugim – zweryfikujmy, jaką w rozumieniu AI Aktu pełnimy rolę, a następnie oceńmy, jaki to rodzaj systemu.
Przypomnę, że od 2 lutego 2025 r. obowiązuje zakaz stosowania systemów AI zaklasyfikowanych jako niedopuszczalne (systemy/praktyki zakazane). Zgodnie z wytycznymi Ministerstwa Cyfryzacji oraz Komisji Europejskiej, do systemów zakazanych zalicza się m.in. techniki manipulacyjne lub podprogowe mające na celu wpłynięcie na decyzje użytkowników, systemy wykorzystujące słabości osób wynikające z wieku czy sytuacji społeczno-ekonomicznej, a także systemy oceniające ludzi według tzw. scoringu społecznego lub emocjonalnego w kontekstach zawodowych czy edukacyjnych.
Stosowanie wymagań wobec pozostałych kategorii systemów zostało rozłożone na etapy i nowe obowiązki będą sukcesywnie wchodziły w życie. Kolejno w sierpniu 2025 r. zaczną obowiązywać przepisy kluczowe dla nadzoru nad sztuczną inteligencją dotyczące m.in. określenia organu nadzoru rynku i organu notyfikującego, modeli AI ogólnego przeznaczenia, jak również te dotyczące kar za naruszenia AI Aktu. Następnie przepisy, które odnoszą się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków.
Zastosowanie we wspólnotach
Zastosowanie sztucznej inteligencji w ramach działalności wspólnot mieszkaniowych może wspierać analizę danych (np. finansowych lub dotyczących zużycia energii elektrycznej czy ciepła). AI może pomóc w optymalizacji rozwiązań zmierzających do zmniejszenia zużycia energii i obniżenia kosztów. Dzięki analizie danych decyzje mogą być łatwiejsze i bardziej precyzyjne. Możliwości są w zasadzie nieograniczone, a skorzystanie z nich może prowadzić do lepszego zaspokojenia potrzeb członków wspólnoty mieszkaniowej i podnosić jakość ich życia.
Pamiętajmy w tym kontekście również o tym, że podmioty korzystające z AI muszą zapewnić swoim pracownikom odpowiedni poziom wiedzy o sztucznej inteligencji, a także stworzyć i prowadzić inwentaryzację wykorzystywanych systemów AI. Mając to na uwadze zarządcy nieruchomości, którzy zamierzają wdrażać narzędzia oparte o sztuczną inteligencję, powinni zwrócić szczególną uwagę na klasyfikację używanych przez siebie narzędzi według kategorii ryzyka określonych w rozporządzeniu AI Akcie, a następnie zapewnić pracownikom odpowiedni poziom wiedzy i wdrożyć efektywne procedury oceny i zarządzania ryzykiem związanym z tymi systemami.
Wdrożenie AI może przynieść zarządcom nieruchomości oraz wspólnotom mieszkaniowym liczne korzyści, ale pamiętajmy także o ciążących w związku z tym obowiązkach.
Mariusz Andrzejewski
radca prawny





